aboutsummaryrefslogtreecommitdiffhomepage
path: root/src/jumper
diff options
context:
space:
mode:
authorGravatar Mike Klein <mtklein@chromium.org>2018-02-27 10:37:40 -0500
committerGravatar Mike Klein <mtklein@chromium.org>2018-03-07 16:22:44 +0000
commit78cb579f33943421afc8423a39867fcfd69fed44 (patch)
treea78d3dd042c94b6bba794fdfb9d87a4e164886f4 /src/jumper
parentaa567aba513cbab618c4433372ae6eb5d11e527b (diff)
Reland "make SkJumper stages normal Skia code"
This is a reland of 22e536e3a1a09405d1c0e6f071717a726d86e8d4 Now with fixed #include paths in SkRasterPipeline_opts.h, and -ffp-contract=fast for the :hsw target to minimize diffs on non-Windows Clang AVX2/AVX-512 bots. Original change's description: > make SkJumper stages normal Skia code > > Enough clients are using Clang now that we can say, use Clang to build > if you want these software pipeline stages to go fast. > > This lets us drop the offline build aspect of SkJumper stages, instead > building as part of Skia using the SkOpts framework. > > I think everything should work, except I've (temporarily) removed > AVX-512 support. I will put this back in a follow up. > > I have had to drop Windows down to __vectorcall and our narrower > stage calling convention that keeps the d-registers on the stack. > I tried forcing sysv_abi, but that crashed Clang. :/ > > Added a TODO to up the same narrower stage calling convention > for lowp stages... we just *don't* today, for no good reason. > > Change-Id: Iaaa792ffe4deab3508d2dc5d0008c163c24b3383 > Reviewed-on: https://skia-review.googlesource.com/110641 > Commit-Queue: Mike Klein <mtklein@chromium.org> > Reviewed-by: Herb Derby <herb@google.com> > Reviewed-by: Florin Malita <fmalita@chromium.org> Change-Id: I44f2c03d33958e3807747e40904b6351957dd448 Reviewed-on: https://skia-review.googlesource.com/112742 Reviewed-by: Mike Klein <mtklein@chromium.org>
Diffstat (limited to 'src/jumper')
-rw-r--r--src/jumper/SkJumper.cpp451
-rw-r--r--src/jumper/SkJumper.h35
-rw-r--r--src/jumper/SkJumper_generated.S83545
-rw-r--r--src/jumper/SkJumper_generated_win.S73478
-rw-r--r--src/jumper/SkJumper_stages.cpp2293
-rw-r--r--src/jumper/SkJumper_stages_lowp.cpp961
-rwxr-xr-xsrc/jumper/build_stages.py261
7 files changed, 20 insertions, 161004 deletions
diff --git a/src/jumper/SkJumper.cpp b/src/jumper/SkJumper.cpp
index 63d8ff1c9c..d14d83a776 100644
--- a/src/jumper/SkJumper.cpp
+++ b/src/jumper/SkJumper.cpp
@@ -5,468 +5,46 @@
* found in the LICENSE file.
*/
-#include "SkColorData.h"
-#include "SkCpu.h"
#include "SkJumper.h"
-#include "SkOnce.h"
+#include "SkOpts.h"
#include "SkRasterPipeline.h"
#include "SkTemplates.h"
-#if !defined(SK_JUMPER_USE_ASSEMBLY)
- // We'll use __has_feature(memory_sanitizer) to detect MSAN.
- // SkJumper_generated.S is not compiled with MSAN, so MSAN would yell really loud.
- #if !defined(__has_feature)
- #define __has_feature(x) 0
- #endif
-
- #if 0 || __has_feature(memory_sanitizer)
- #define SK_JUMPER_USE_ASSEMBLY 0
- #else
- #define SK_JUMPER_USE_ASSEMBLY 1
- #endif
-#endif
-
-#define M(st) +1
-static const int kNumStages = SK_RASTER_PIPELINE_STAGES(M);
-#undef M
-
-#ifndef SK_JUMPER_DISABLE_8BIT
- // Intentionally commented out; optional logging for local debugging.
- #if 0 && SK_JUMPER_USE_ASSEMBLY && (defined(__x86_64__) || defined(_M_X64))
- #include <atomic>
-
- #define M(st) #st,
- static const char* kStageNames[] = { SK_RASTER_PIPELINE_STAGES(M) };
- #undef M
-
- static std::atomic<int> gMissingStageCounters[kNumStages];
-
- static void log_missing(SkRasterPipeline::StockStage st) {
- static SkOnce once;
- once([] { atexit([] {
- int total = 0;
- for (int i = 0; i < kNumStages; i++) {
- if (int count = gMissingStageCounters[i].load()) {
- SkDebugf("%7d\t%s\n", count, kStageNames[i]);
- total += count;
- }
- }
- SkDebugf("%7d total\n", total);
- }); });
-
- gMissingStageCounters[st]++;
- }
- #else
- static void log_missing(SkRasterPipeline::StockStage) {}
- #endif
-#endif
-
-// We can't express the real types of most stage functions portably, so we use a stand-in.
-// We'll only ever call start_pipeline(), which then chains into the rest.
-using StageFn = void(void);
-using StartPipelineFn = void(size_t,size_t,size_t,size_t, void**);
-
-// Some platforms expect C "name" maps to asm "_name", others to "name".
-#if defined(__APPLE__)
- #define ASM(name, suffix) sk_##name##_##suffix
-#else
- #define ASM(name, suffix) _sk_##name##_##suffix
-#endif
-
-extern "C" {
-
-#if !SK_JUMPER_USE_ASSEMBLY
- // We'll just run baseline code.
-
-#elif defined(__x86_64__) || defined(_M_X64)
- StartPipelineFn ASM(start_pipeline, skx),
- ASM(start_pipeline, hsw),
- ASM(start_pipeline, avx),
- ASM(start_pipeline, sse41),
- ASM(start_pipeline, sse2),
- ASM(start_pipeline, hsw_lowp),
- ASM(start_pipeline,sse41_lowp),
- ASM(start_pipeline, sse2_lowp);
-
- StageFn ASM(just_return, skx),
- ASM(just_return, hsw),
- ASM(just_return, avx),
- ASM(just_return, sse41),
- ASM(just_return, sse2),
- ASM(just_return, hsw_lowp),
- ASM(just_return,sse41_lowp),
- ASM(just_return, sse2_lowp);
-
- #define M(st) StageFn ASM(st, skx), \
- ASM(st, hsw), \
- ASM(st, avx), \
- ASM(st,sse41), \
- ASM(st, sse2), \
- ASM(st, hsw_lowp), \
- ASM(st,sse41_lowp), \
- ASM(st, sse2_lowp);
- SK_RASTER_PIPELINE_STAGES(M)
- #undef M
-
-#elif defined(__i386__) || defined(_M_IX86)
- StartPipelineFn ASM(start_pipeline,sse2),
- ASM(start_pipeline,sse2_lowp);
- StageFn ASM(just_return,sse2),
- ASM(just_return,sse2_lowp);
- #define M(st) StageFn ASM(st,sse2), \
- ASM(st,sse2_lowp);
- SK_RASTER_PIPELINE_STAGES(M)
- #undef M
-
-#endif
-
- // Baseline code compiled as a normal part of Skia.
- StartPipelineFn sk_start_pipeline;
- StageFn sk_just_return;
- #define M(st) StageFn sk_##st;
- SK_RASTER_PIPELINE_STAGES(M)
- #undef M
-
-#if defined(JUMPER_HAS_NEON_LOWP)
- StartPipelineFn sk_start_pipeline_lowp;
- StageFn sk_just_return_lowp;
- #define M(st) StageFn sk_##st##_lowp;
- SK_RASTER_PIPELINE_STAGES(M)
- #undef M
-#endif
-
-}
-
-#if SK_JUMPER_USE_ASSEMBLY
- #if defined(__x86_64__) || defined(_M_X64)
- template <SkRasterPipeline::StockStage st>
- static constexpr StageFn* hsw_lowp();
-
- template <SkRasterPipeline::StockStage st>
- static constexpr StageFn* sse41_lowp();
-
- template <SkRasterPipeline::StockStage st>
- static constexpr StageFn* sse2_lowp();
-
- #define LOWP(st) \
- template <> constexpr StageFn* hsw_lowp<SkRasterPipeline::st>() { \
- return ASM(st,hsw_lowp); \
- } \
- template <> constexpr StageFn* sse41_lowp<SkRasterPipeline::st>() { \
- return ASM(st,sse41_lowp); \
- } \
- template <> constexpr StageFn* sse2_lowp<SkRasterPipeline::st>() { \
- return ASM(st,sse2_lowp); \
- }
- #define NOPE(st) \
- template <> constexpr StageFn* hsw_lowp<SkRasterPipeline::st>() { \
- return nullptr; \
- } \
- template <> constexpr StageFn* sse41_lowp<SkRasterPipeline::st>() { \
- return nullptr; \
- } \
- template <> constexpr StageFn* sse2_lowp<SkRasterPipeline::st>() { \
- return nullptr; \
- }
-
- #elif defined(__i386__) || defined(_M_IX86)
- template <SkRasterPipeline::StockStage st>
- static constexpr StageFn* sse2_lowp();
-
- #define LOWP(st) \
- template <> constexpr StageFn* sse2_lowp<SkRasterPipeline::st>() { \
- return ASM(st,sse2_lowp); \
- }
- #define NOPE(st) \
- template <> constexpr StageFn* sse2_lowp<SkRasterPipeline::st>() { \
- return nullptr; \
- }
-
- #elif defined(JUMPER_HAS_NEON_LOWP)
- template <SkRasterPipeline::StockStage st>
- static constexpr StageFn* neon_lowp();
-
- #define LOWP(st) \
- template <> constexpr StageFn* neon_lowp<SkRasterPipeline::st>() { \
- return sk_##st##_lowp; \
- }
- #define NOPE(st) \
- template <> constexpr StageFn* neon_lowp<SkRasterPipeline::st>() { \
- return nullptr; \
- }
-
- #else
- #define LOWP(st)
- #define NOPE(st)
-
- #endif
-
- #define TODO(st) NOPE(st) // stages that should be implemented in lowp, but aren't.
-
- NOPE(callback)
- LOWP(move_src_dst) LOWP(move_dst_src)
- NOPE(clamp_0) NOPE(clamp_1) LOWP(clamp_a) LOWP(clamp_a_dst)
- NOPE(unpremul) LOWP(premul) LOWP(premul_dst)
- LOWP(force_opaque) LOWP(force_opaque_dst)
- LOWP(set_rgb) LOWP(swap_rb) LOWP(invert)
- NOPE(from_srgb) NOPE(from_srgb_dst) NOPE(to_srgb)
- LOWP(black_color) LOWP(white_color) LOWP(uniform_color)
- LOWP(seed_shader) NOPE(dither)
- LOWP(load_a8) LOWP(load_a8_dst) LOWP(store_a8) LOWP(gather_a8)
- LOWP(load_g8) LOWP(load_g8_dst) LOWP(gather_g8)
- LOWP(load_565) LOWP(load_565_dst) LOWP(store_565) LOWP(gather_565)
- LOWP(load_4444) LOWP(load_4444_dst) LOWP(store_4444) LOWP(gather_4444)
- NOPE(load_f16) NOPE(load_f16_dst) NOPE(store_f16) NOPE(gather_f16)
- NOPE(load_f32) NOPE(load_f32_dst) NOPE(store_f32)
- LOWP(load_8888) LOWP(load_8888_dst) LOWP(store_8888) LOWP(gather_8888)
- LOWP(load_bgra) LOWP(load_bgra_dst) LOWP(store_bgra) LOWP(gather_bgra)
- NOPE(load_1010102) NOPE(load_1010102_dst) NOPE(store_1010102) NOPE(gather_1010102)
- TODO(bilerp_clamp_8888)
- TODO(load_u16_be) TODO(load_rgb_u16_be) TODO(store_u16_be)
- NOPE(load_tables_u16_be) NOPE(load_tables_rgb_u16_be) NOPE(load_tables)
- NOPE(load_rgba) NOPE(store_rgba)
- LOWP(scale_u8) LOWP(scale_565) LOWP(scale_1_float)
- LOWP( lerp_u8) LOWP( lerp_565) LOWP( lerp_1_float)
- LOWP(dstatop) LOWP(dstin) LOWP(dstout) LOWP(dstover)
- LOWP(srcatop) LOWP(srcin) LOWP(srcout) LOWP(srcover)
- LOWP(clear) LOWP(modulate) LOWP(multiply) LOWP(plus_) LOWP(screen) LOWP(xor_)
- NOPE(colorburn) NOPE(colordodge) LOWP(darken) LOWP(difference)
- LOWP(exclusion) LOWP(hardlight) LOWP(lighten) LOWP(overlay) NOPE(softlight)
- NOPE(hue) NOPE(saturation) NOPE(color) NOPE(luminosity)
- LOWP(srcover_rgba_8888) LOWP(srcover_bgra_8888)
- LOWP(luminance_to_alpha)
- LOWP(matrix_translate) LOWP(matrix_scale_translate)
- LOWP(matrix_2x3) NOPE(matrix_3x4) TODO(matrix_4x5) TODO(matrix_4x3)
- LOWP(matrix_perspective)
- NOPE(parametric_r) NOPE(parametric_g) NOPE(parametric_b)
- NOPE(parametric_a) NOPE(gamma) NOPE(gamma_dst)
- NOPE(table_r) NOPE(table_g) NOPE(table_b) NOPE(table_a)
- NOPE(lab_to_xyz)
- TODO(mirror_x) TODO(repeat_x)
- TODO(mirror_y) TODO(repeat_y)
- LOWP(decal_x) LOWP(decal_y) LOWP(decal_x_and_y)
- LOWP(check_decal_mask)
- TODO(bilinear_nx) TODO(bilinear_px) TODO(bilinear_ny) TODO(bilinear_py)
- TODO(bicubic_n3x) TODO(bicubic_n1x) TODO(bicubic_p1x) TODO(bicubic_p3x)
- TODO(bicubic_n3y) TODO(bicubic_n1y) TODO(bicubic_p1y) TODO(bicubic_p3y)
- TODO(save_xy) TODO(accumulate)
- LOWP(clamp_x_1) LOWP(mirror_x_1) LOWP(repeat_x_1)
- LOWP(evenly_spaced_gradient)
- LOWP(gradient)
- LOWP(evenly_spaced_2_stop_gradient)
- LOWP(xy_to_unit_angle)
- LOWP(xy_to_radius)
- TODO(negate_x)
- TODO(xy_to_2pt_conical_strip)
- TODO(xy_to_2pt_conical_focal_on_circle)
- TODO(xy_to_2pt_conical_well_behaved)
- TODO(xy_to_2pt_conical_greater)
- TODO(xy_to_2pt_conical_smaller)
- TODO(alter_2pt_conical_compensate_focal)
- TODO(alter_2pt_conical_unswap)
- TODO(mask_2pt_conical_nan) TODO(mask_2pt_conical_degenerates) TODO(apply_vector_mask)
- TODO(byte_tables) TODO(byte_tables_rgb)
- NOPE(rgb_to_hsl) NOPE(hsl_to_rgb)
- NOPE(clut_3D) NOPE(clut_4D)
- NOPE(gauss_a_to_rgba)
-
- #undef LOWP
- #undef TODO
- #undef NOPE
-#endif
-
-// Engines comprise everything we need to run SkRasterPipelines.
-struct SkJumper_Engine {
- StageFn* stages[kNumStages];
- StartPipelineFn* start_pipeline;
- StageFn* just_return;
-};
-
-// We'll default to this baseline engine, but try to choose a better one at runtime.
-static const SkJumper_Engine kBaseline = {
-#define M(stage) sk_##stage,
- { SK_RASTER_PIPELINE_STAGES(M) },
-#undef M
- sk_start_pipeline,
- sk_just_return,
-};
-static SkJumper_Engine gEngine = kBaseline;
-static SkOnce gChooseEngineOnce;
-
-static SkJumper_Engine choose_engine() {
-#if !SK_JUMPER_USE_ASSEMBLY
- // We'll just run baseline code.
-
-#elif defined(__x86_64__) || defined(_M_X64)
- #if !defined(_MSC_VER) // No _skx stages for Windows yet.
- if (1 && SkCpu::Supports(SkCpu::SKX)) {
- return {
- #define M(stage) ASM(stage, skx),
- { SK_RASTER_PIPELINE_STAGES(M) },
- M(start_pipeline)
- M(just_return)
- #undef M
- };
- }
- #endif
- if (1 && SkCpu::Supports(SkCpu::HSW)) {
- return {
- #define M(stage) ASM(stage, hsw),
- { SK_RASTER_PIPELINE_STAGES(M) },
- M(start_pipeline)
- M(just_return)
- #undef M
- };
- }
- if (1 && SkCpu::Supports(SkCpu::AVX)) {
- return {
- #define M(stage) ASM(stage, avx),
- { SK_RASTER_PIPELINE_STAGES(M) },
- M(start_pipeline)
- M(just_return)
- #undef M
- };
- }
- if (1 && SkCpu::Supports(SkCpu::SSE41)) {
- return {
- #define M(stage) ASM(stage, sse41),
- { SK_RASTER_PIPELINE_STAGES(M) },
- M(start_pipeline)
- M(just_return)
- #undef M
- };
- }
- if (1 && SkCpu::Supports(SkCpu::SSE2)) {
- return {
- #define M(stage) ASM(stage, sse2),
- { SK_RASTER_PIPELINE_STAGES(M) },
- M(start_pipeline)
- M(just_return)
- #undef M
- };
- }
-
-#elif defined(__i386__) || defined(_M_IX86)
- if (1 && SkCpu::Supports(SkCpu::SSE2)) {
- return {
- #define M(stage) ASM(stage, sse2),
- { SK_RASTER_PIPELINE_STAGES(M) },
- M(start_pipeline)
- M(just_return)
- #undef M
- };
- }
-
-#endif
- return kBaseline;
-}
-
+SkRasterPipeline::StartPipelineFn SkRasterPipeline::build_pipeline(void** ip) const {
#ifndef SK_JUMPER_DISABLE_8BIT
- static const SkJumper_Engine kNone = {
- #define M(stage) nullptr,
- { SK_RASTER_PIPELINE_STAGES(M) },
- #undef M
- nullptr,
- nullptr,
- };
- static SkJumper_Engine gLowp = kNone;
- static SkOnce gChooseLowpOnce;
-
- static SkJumper_Engine choose_lowp() {
- #if SK_JUMPER_USE_ASSEMBLY
- #if defined(__x86_64__) || defined(_M_X64)
- if (1 && SkCpu::Supports(SkCpu::HSW)) {
- return {
- #define M(st) hsw_lowp<SkRasterPipeline::st>(),
- { SK_RASTER_PIPELINE_STAGES(M) },
- ASM(start_pipeline,hsw_lowp),
- ASM(just_return ,hsw_lowp),
- #undef M
- };
- }
- if (1 && SkCpu::Supports(SkCpu::SSE41)) {
- return {
- #define M(st) sse41_lowp<SkRasterPipeline::st>(),
- { SK_RASTER_PIPELINE_STAGES(M) },
- ASM(start_pipeline,sse41_lowp),
- ASM(just_return ,sse41_lowp),
- #undef M
- };
- }
- if (1 && SkCpu::Supports(SkCpu::SSE2)) {
- return {
- #define M(st) sse2_lowp<SkRasterPipeline::st>(),
- { SK_RASTER_PIPELINE_STAGES(M) },
- ASM(start_pipeline,sse2_lowp),
- ASM(just_return ,sse2_lowp),
- #undef M
- };
- }
- #elif defined(__i386__) || defined(_M_IX86)
- if (1 && SkCpu::Supports(SkCpu::SSE2)) {
- return {
- #define M(st) sse2_lowp<SkRasterPipeline::st>(),
- { SK_RASTER_PIPELINE_STAGES(M) },
- ASM(start_pipeline,sse2_lowp),
- ASM(just_return ,sse2_lowp),
- #undef M
- };
- }
-
- #elif defined(JUMPER_HAS_NEON_LOWP)
- return {
- #define M(st) neon_lowp<SkRasterPipeline::st>(),
- { SK_RASTER_PIPELINE_STAGES(M) },
- sk_start_pipeline_lowp,
- sk_just_return_lowp,
- #undef M
- };
- #endif
- #endif
- return kNone;
- }
-#endif
-
-const SkJumper_Engine& SkRasterPipeline::build_pipeline(void** ip) const {
-#ifndef SK_JUMPER_DISABLE_8BIT
- gChooseLowpOnce([]{ gLowp = choose_lowp(); });
-
- // First try to build a lowp pipeline. If that fails, fall back to normal float gEngine.
+ // We'll try to build a lowp pipeline, but if that fails fallback to a highp float pipeline.
void** reset_point = ip;
- *--ip = (void*)gLowp.just_return;
+
+ // Stages are stored backwards in fStages, so we reverse here, back to front.
+ *--ip = (void*)SkOpts::just_return_lowp;
for (const StageList* st = fStages; st; st = st->prev) {
if (st->stage == SkRasterPipeline::clamp_0 ||
st->stage == SkRasterPipeline::clamp_1) {
continue; // No-ops in lowp.
}
- if (StageFn* fn = gLowp.stages[st->stage]) {
+ if (auto fn = SkOpts::stages_lowp[st->stage]) {
if (st->ctx) {
*--ip = st->ctx;
}
*--ip = (void*)fn;
} else {
- log_missing(st->stage);
ip = reset_point;
break;
}
}
if (ip != reset_point) {
- return gLowp;
+ return SkOpts::start_pipeline_lowp;
}
#endif
- gChooseEngineOnce([]{ gEngine = choose_engine(); });
- // We're building the pipeline backwards, so we start with the final stage just_return.
- *--ip = (void*)gEngine.just_return;
-
- // Still going backwards, each stage's context pointer then its StageFn.
+ *--ip = (void*)SkOpts::just_return_highp;
for (const StageList* st = fStages; st; st = st->prev) {
if (st->ctx) {
*--ip = st->ctx;
}
- *--ip = (void*)gEngine.stages[st->stage];
+ *--ip = (void*)SkOpts::stages_highp[st->stage];
}
- return gEngine;
+ return SkOpts::start_pipeline_highp;
}
void SkRasterPipeline::run(size_t x, size_t y, size_t w, size_t h) const {
@@ -477,8 +55,8 @@ void SkRasterPipeline::run(size_t x, size_t y, size_t w, size_t h) const {
// Best to not use fAlloc here... we can't bound how often run() will be called.
SkAutoSTMalloc<64, void*> program(fSlotsNeeded);
- const SkJumper_Engine& engine = this->build_pipeline(program.get() + fSlotsNeeded);
- engine.start_pipeline(x,y,x+w,y+h, program.get());
+ auto start_pipeline = this->build_pipeline(program.get() + fSlotsNeeded);
+ start_pipeline(x,y,x+w,y+h, program.get());
}
std::function<void(size_t, size_t, size_t, size_t)> SkRasterPipeline::compile() const {
@@ -487,9 +65,8 @@ std::function<void(size_t, size_t, size_t, size_t)> SkRasterPipeline::compile()
}
void** program = fAlloc->makeArray<void*>(fSlotsNeeded);
- const SkJumper_Engine& engine = this->build_pipeline(program + fSlotsNeeded);
- auto start_pipeline = engine.start_pipeline;
+ auto start_pipeline = this->build_pipeline(program + fSlotsNeeded);
return [=](size_t x, size_t y, size_t w, size_t h) {
start_pipeline(x,y,x+w,y+h, program);
};
diff --git a/src/jumper/SkJumper.h b/src/jumper/SkJumper.h
index e7bf9b2403..d4c4698048 100644
--- a/src/jumper/SkJumper.h
+++ b/src/jumper/SkJumper.h
@@ -11,34 +11,11 @@
#include <stddef.h>
#include <stdint.h>
-// This file contains definitions shared by SkJumper.cpp (compiled normally as part of Skia)
-// and SkJumper_stages.cpp (compiled into Skia _and_ offline into SkJumper_generated.h).
-// Keep it simple!
-
-// Externally facing functions (start_pipeline) are called a little specially on Windows.
-#if defined(JUMPER_IS_OFFLINE) && defined(WIN) && defined(__x86_64__)
- #define MAYBE_MSABI __attribute__((ms_abi)) // Use MS' ABI, not System V.
-#elif defined(JUMPER_IS_OFFLINE) && defined(WIN) && defined(__i386__)
- #define MAYBE_MSABI __attribute__((force_align_arg_pointer)) // Re-align stack 4 -> 16 bytes.
-#else
- #define MAYBE_MSABI
-#endif
-
-// Any custom ABI to use for all non-externally-facing stage functions.
-#if defined(__ARM_NEON) && defined(__arm__)
- // This lets us pass vectors more efficiently on 32-bit ARM.
- #define ABI __attribute__((pcs("aapcs-vfp")))
-#else
- #define ABI
-#endif
-
-// On ARM we expect that you're using Clang if you want SkJumper to be fast.
-// If you are, the baseline float stages will use NEON, and lowp stages will
-// also be available. (If somehow you're building for ARM not using Clang,
-// you'll get scalar baseline stages and no lowp support.)
-#if defined(__clang__) && defined(__ARM_NEON)
- #define JUMPER_HAS_NEON_LOWP
-#endif
+// This file contains definitions shared by SkJumper.cpp/SkJumper_stages.cpp
+// and the rest of Skia. It is important to keep the interface to SkJumper
+// limited and simple to avoid serious ODR violation pitfalls, especially when
+// using Microsoft's <math.h> and similar headers with inline-but-not-static
+// function definitions.
static const int SkJumper_kMaxStride = 16;
@@ -76,7 +53,7 @@ struct SkJumper_DecalTileCtx {
};
struct SkJumper_CallbackCtx {
- MAYBE_MSABI void (*fn)(SkJumper_CallbackCtx* self, int active_pixels/*<= SkJumper_kMaxStride*/);
+ void (*fn)(SkJumper_CallbackCtx* self, int active_pixels/*<= SkJumper_kMaxStride*/);
// When called, fn() will have our active pixels available in rgba.
// When fn() returns, the pipeline will read back those active pixels from read_from.
diff --git a/src/jumper/SkJumper_generated.S b/src/jumper/SkJumper_generated.S
deleted file mode 100644
index b68141e9df..0000000000
--- a/src/jumper/SkJumper_generated.S
+++ /dev/null
@@ -1,83545 +0,0 @@
-# Copyright 2017 Google Inc.
-#
-# Use of this source code is governed by a BSD-style license that can be
-# found in the LICENSE file.
-
-# This file is generated semi-automatically with this command:
-# $ src/jumper/build_stages.py
-
-#if defined(__MACH__)
- #define HIDDEN .private_extern
- #define FUNCTION(name)
- #define BALIGN4 .align 2
- #define BALIGN8 .align 3
- #define BALIGN16 .align 4
- #define BALIGN32 .align 5
-#else
- .section .note.GNU-stack,"",%progbits
- #define HIDDEN .hidden
- #define FUNCTION(name) .type name,%function
- #define BALIGN4 .balign 4
- #define BALIGN8 .balign 8
- #define BALIGN16 .balign 16
- #define BALIGN32 .balign 32
-#endif
-.text
-#if defined(__x86_64__)
-BALIGN32
-
-HIDDEN _sk_start_pipeline_skx
-.globl _sk_start_pipeline_skx
-FUNCTION(_sk_start_pipeline_skx)
-_sk_start_pipeline_skx:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 73,137,215 // mov %rdx,%r15
- .byte 72,137,243 // mov %rsi,%rbx
- .byte 72,137,125,208 // mov %rdi,-0x30(%rbp)
- .byte 76,137,198 // mov %r8,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 73,137,197 // mov %rax,%r13
- .byte 73,137,246 // mov %rsi,%r14
- .byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
- .byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,152,0,0,0 // jae cb <_sk_start_pipeline_skx+0xcb>
- .byte 72,139,69,208 // mov -0x30(%rbp),%rax
- .byte 72,141,64,8 // lea 0x8(%rax),%rax
- .byte 72,137,69,200 // mov %rax,-0x38(%rbp)
- .byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 8c <_sk_start_pipeline_skx+0x8c>
- .byte 76,139,101,208 // mov -0x30(%rbp),%r12
- .byte 49,255 // xor %edi,%edi
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 76,137,226 // mov %r12,%rdx
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 73,141,84,36,8 // lea 0x8(%r12),%rdx
- .byte 73,131,196,16 // add $0x10,%r12
- .byte 77,57,252 // cmp %r15,%r12
- .byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 4d <_sk_start_pipeline_skx+0x4d>
- .byte 76,137,255 // mov %r15,%rdi
- .byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je bd <_sk_start_pipeline_skx+0xbd>
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 72,131,195,1 // add $0x1,%rbx
- .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,116,255,255,255 // jne 3f <_sk_start_pipeline_skx+0x3f>
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 197,248,119 // vzeroupper
- .byte 195 // retq
-
-HIDDEN _sk_just_return_skx
-.globl _sk_just_return_skx
-FUNCTION(_sk_just_return_skx)
-_sk_just_return_skx:
- .byte 195 // retq
-
-HIDDEN _sk_seed_shader_skx
-.globl _sk_seed_shader_skx
-FUNCTION(_sk_seed_shader_skx)
-_sk_seed_shader_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,242,125,40,124,194 // vpbroadcastd %edx,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 98,242,125,40,124,201 // vpbroadcastd %ecx,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,88,13,246,195,3,0 // vaddps 0x3c3f6(%rip){1to8},%ymm1,%ymm1 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,239,195,3,0 // vbroadcastss 0x3c3ef(%rip),%ymm2 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dither_skx
-.globl _sk_dither_skx
-FUNCTION(_sk_dither_skx)
-_sk_dither_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,114,125,40,124,194 // vpbroadcastd %edx,%ymm8
- .byte 197,61,254,5,141,197,3,0 // vpaddd 0x3c58d(%rip),%ymm8,%ymm8 # 3c6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x474>
- .byte 98,114,125,40,124,201 // vpbroadcastd %ecx,%ymm9
- .byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,185,195,3,0 // vpbroadcastd 0x3c3b9(%rip),%ymm10 # 3c500 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
- .byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
- .byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
- .byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
- .byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,158,195,3,0 // vpbroadcastd 0x3c39e(%rip),%ymm12 # 3c504 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- .byte 196,98,125,88,45,153,195,3,0 // vpbroadcastd 0x3c399(%rip),%ymm13 # 3c508 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- .byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
- .byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
- .byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
- .byte 196,65,61,219,237 // vpand %ymm13,%ymm8,%ymm13
- .byte 196,65,21,254,237 // vpaddd %ymm13,%ymm13,%ymm13
- .byte 196,65,21,235,210 // vpor %ymm10,%ymm13,%ymm10
- .byte 196,65,53,219,204 // vpand %ymm12,%ymm9,%ymm9
- .byte 196,193,53,114,209,1 // vpsrld $0x1,%ymm9,%ymm9
- .byte 196,65,61,219,196 // vpand %ymm12,%ymm8,%ymm8
- .byte 196,193,61,114,208,2 // vpsrld $0x2,%ymm8,%ymm8
- .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
- .byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
- .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,75,195,3,0 // vbroadcastss 0x3c34b(%rip),%ymm9 # 3c50c <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- .byte 98,114,61,56,168,13,69,195,3,0 // vfmadd213ps 0x3c345(%rip){1to8},%ymm8,%ymm9 # 3c510 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1
- .byte 197,188,88,210 // vaddps %ymm2,%ymm8,%ymm2
- .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
- .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_uniform_color_skx
-.globl _sk_uniform_color_skx
-FUNCTION(_sk_uniform_color_skx)
-_sk_uniform_color_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
- .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1
- .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2
- .byte 196,226,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_black_color_skx
-.globl _sk_black_color_skx
-FUNCTION(_sk_black_color_skx)
-_sk_black_color_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,210,194,3,0 // vbroadcastss 0x3c2d2(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_white_color_skx
-.globl _sk_white_color_skx
-FUNCTION(_sk_white_color_skx)
-_sk_white_color_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,185,194,3,0 // vbroadcastss 0x3c2b9(%rip),%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_rgba_skx
-.globl _sk_load_rgba_skx
-FUNCTION(_sk_load_rgba_skx)
-_sk_load_rgba_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
- .byte 197,252,16,80,64 // vmovups 0x40(%rax),%ymm2
- .byte 197,252,16,88,96 // vmovups 0x60(%rax),%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_rgba_skx
-.globl _sk_store_rgba_skx
-FUNCTION(_sk_store_rgba_skx)
-_sk_store_rgba_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,17,0 // vmovups %ymm0,(%rax)
- .byte 197,252,17,72,32 // vmovups %ymm1,0x20(%rax)
- .byte 197,252,17,80,64 // vmovups %ymm2,0x40(%rax)
- .byte 197,252,17,88,96 // vmovups %ymm3,0x60(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clear_skx
-.globl _sk_clear_skx
-FUNCTION(_sk_clear_skx)
-_sk_clear_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcatop_skx
-.globl _sk_srcatop_skx
-FUNCTION(_sk_srcatop_skx)
-_sk_srcatop_skx:
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,88,194,3,0 // vbroadcastss 0x3c258(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 196,226,61,184,205 // vfmadd231ps %ymm5,%ymm8,%ymm1
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 196,226,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm2
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 196,194,69,168,216 // vfmadd213ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstatop_skx
-.globl _sk_dstatop_skx
-FUNCTION(_sk_dstatop_skx)
-_sk_dstatop_skx:
- .byte 196,98,125,24,5,39,194,3,0 // vbroadcastss 0x3c227(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,101,184,205 // vfmadd231ps %ymm5,%ymm3,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 196,226,101,184,214 // vfmadd231ps %ymm6,%ymm3,%ymm2
- .byte 197,60,89,195 // vmulps %ymm3,%ymm8,%ymm8
- .byte 196,194,69,168,216 // vfmadd213ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcin_skx
-.globl _sk_srcin_skx
-FUNCTION(_sk_srcin_skx)
-_sk_srcin_skx:
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstin_skx
-.globl _sk_dstin_skx
-FUNCTION(_sk_dstin_skx)
-_sk_dstin_skx:
- .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
- .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
- .byte 197,228,89,214 // vmulps %ymm6,%ymm3,%ymm2
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcout_skx
-.globl _sk_srcout_skx
-FUNCTION(_sk_srcout_skx)
-_sk_srcout_skx:
- .byte 196,98,125,24,5,202,193,3,0 // vbroadcastss 0x3c1ca(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstout_skx
-.globl _sk_dstout_skx
-FUNCTION(_sk_dstout_skx)
-_sk_dstout_skx:
- .byte 196,226,125,24,5,169,193,3,0 // vbroadcastss 0x3c1a9(%rip),%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
- .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
- .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
- .byte 197,228,89,214 // vmulps %ymm6,%ymm3,%ymm2
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_skx
-.globl _sk_srcover_skx
-FUNCTION(_sk_srcover_skx)
-_sk_srcover_skx:
- .byte 196,98,125,24,5,136,193,3,0 // vbroadcastss 0x3c188(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
- .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
- .byte 196,194,77,184,208 // vfmadd231ps %ymm8,%ymm6,%ymm2
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstover_skx
-.globl _sk_dstover_skx
-FUNCTION(_sk_dstover_skx)
-_sk_dstover_skx:
- .byte 196,98,125,24,5,99,193,3,0 // vbroadcastss 0x3c163(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
- .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
- .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
- .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2
- .byte 196,226,61,168,223 // vfmadd213ps %ymm7,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_modulate_skx
-.globl _sk_modulate_skx
-FUNCTION(_sk_modulate_skx)
-_sk_modulate_skx:
- .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
- .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1
- .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_multiply_skx
-.globl _sk_multiply_skx
-FUNCTION(_sk_multiply_skx)
-_sk_multiply_skx:
- .byte 196,98,125,24,5,42,193,3,0 // vbroadcastss 0x3c12a(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
- .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,61,184,212 // vfmadd231ps %ymm4,%ymm8,%ymm10
- .byte 196,194,93,168,194 // vfmadd213ps %ymm10,%ymm4,%ymm0
- .byte 197,52,89,209 // vmulps %ymm1,%ymm9,%ymm10
- .byte 196,98,61,184,213 // vfmadd231ps %ymm5,%ymm8,%ymm10
- .byte 196,194,85,168,202 // vfmadd213ps %ymm10,%ymm5,%ymm1
- .byte 197,52,89,210 // vmulps %ymm2,%ymm9,%ymm10
- .byte 196,98,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm10
- .byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
- .byte 197,52,89,203 // vmulps %ymm3,%ymm9,%ymm9
- .byte 196,66,69,168,193 // vfmadd213ps %ymm9,%ymm7,%ymm8
- .byte 196,194,69,168,216 // vfmadd213ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_plus__skx
-.globl _sk_plus__skx
-FUNCTION(_sk_plus__skx)
-_sk_plus__skx:
- .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,217,192,3,0 // vbroadcastss 0x3c0d9(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2
- .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_screen_skx
-.globl _sk_screen_skx
-FUNCTION(_sk_screen_skx)
-_sk_screen_skx:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 196,194,93,172,192 // vfnmadd213ps %ymm8,%ymm4,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 196,194,85,172,200 // vfnmadd213ps %ymm8,%ymm5,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 196,194,77,172,208 // vfnmadd213ps %ymm8,%ymm6,%ymm2
- .byte 197,100,88,199 // vaddps %ymm7,%ymm3,%ymm8
- .byte 196,194,69,172,216 // vfnmadd213ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xor__skx
-.globl _sk_xor__skx
-FUNCTION(_sk_xor__skx)
-_sk_xor__skx:
- .byte 196,98,125,24,5,132,192,3,0 // vbroadcastss 0x3c084(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
- .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
- .byte 196,226,61,184,205 // vfmadd231ps %ymm5,%ymm8,%ymm1
- .byte 197,180,89,210 // vmulps %ymm2,%ymm9,%ymm2
- .byte 196,226,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm2
- .byte 197,180,89,219 // vmulps %ymm3,%ymm9,%ymm3
- .byte 196,98,69,168,195 // vfmadd213ps %ymm3,%ymm7,%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,195 // vmovaps %ymm8,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_darken_skx
-.globl _sk_darken_skx
-FUNCTION(_sk_darken_skx)
-_sk_darken_skx:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
- .byte 196,193,124,95,193 // vmaxps %ymm9,%ymm0,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,193,116,95,201 // vmaxps %ymm9,%ymm1,%ymm1
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
- .byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,8,192,3,0 // vbroadcastss 0x3c008(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lighten_skx
-.globl _sk_lighten_skx
-FUNCTION(_sk_lighten_skx)
-_sk_lighten_skx:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
- .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
- .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,179,191,3,0 // vbroadcastss 0x3bfb3(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_difference_skx
-.globl _sk_difference_skx
-FUNCTION(_sk_difference_skx)
-_sk_difference_skx:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
- .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0
- .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1
- .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
- .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
- .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,82,191,3,0 // vbroadcastss 0x3bf52(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_exclusion_skx
-.globl _sk_exclusion_skx
-FUNCTION(_sk_exclusion_skx)
-_sk_exclusion_skx:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
- .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1
- .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
- .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,12,191,3,0 // vbroadcastss 0x3bf0c(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_colorburn_skx
-.globl _sk_colorburn_skx
-FUNCTION(_sk_colorburn_skx)
-_sk_colorburn_skx:
- .byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,98,125,24,13,233,190,3,0 // vbroadcastss 0x3bee9(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
- .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
- .byte 197,36,88,228 // vaddps %ymm4,%ymm11,%ymm12
- .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
- .byte 98,209,124,40,194,197,0 // vcmpeqps %ymm13,%ymm0,%k0
- .byte 98,114,126,40,56,240 // vpmovm2d %k0,%ymm14
- .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 197,52,89,252 // vmulps %ymm4,%ymm9,%ymm15
- .byte 98,225,68,40,92,196 // vsubps %ymm4,%ymm7,%ymm16
- .byte 98,225,124,32,89,195 // vmulps %ymm3,%ymm16,%ymm16
- .byte 98,242,125,40,76,192 // vrcp14ps %ymm0,%ymm0
- .byte 98,241,124,32,89,192 // vmulps %ymm0,%ymm16,%ymm0
- .byte 197,196,93,192 // vminps %ymm0,%ymm7,%ymm0
- .byte 197,196,92,192 // vsubps %ymm0,%ymm7,%ymm0
- .byte 196,194,101,168,195 // vfmadd213ps %ymm11,%ymm3,%ymm0
- .byte 197,132,88,192 // vaddps %ymm0,%ymm15,%ymm0
- .byte 196,195,125,74,199,224 // vblendvps %ymm14,%ymm15,%ymm0,%ymm0
- .byte 196,195,125,74,196,128 // vblendvps %ymm8,%ymm12,%ymm0,%ymm0
- .byte 98,241,84,40,194,199,0 // vcmpeqps %ymm7,%ymm5,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11
- .byte 197,36,88,229 // vaddps %ymm5,%ymm11,%ymm12
- .byte 98,209,116,40,194,197,0 // vcmpeqps %ymm13,%ymm1,%k0
- .byte 98,114,126,40,56,240 // vpmovm2d %k0,%ymm14
- .byte 197,52,89,253 // vmulps %ymm5,%ymm9,%ymm15
- .byte 98,225,68,40,92,197 // vsubps %ymm5,%ymm7,%ymm16
- .byte 98,225,124,32,89,195 // vmulps %ymm3,%ymm16,%ymm16
- .byte 98,242,125,40,76,201 // vrcp14ps %ymm1,%ymm1
- .byte 98,241,124,32,89,201 // vmulps %ymm1,%ymm16,%ymm1
- .byte 197,196,93,201 // vminps %ymm1,%ymm7,%ymm1
- .byte 197,196,92,201 // vsubps %ymm1,%ymm7,%ymm1
- .byte 196,194,101,168,203 // vfmadd213ps %ymm11,%ymm3,%ymm1
- .byte 197,132,88,201 // vaddps %ymm1,%ymm15,%ymm1
- .byte 196,195,117,74,207,224 // vblendvps %ymm14,%ymm15,%ymm1,%ymm1
- .byte 196,195,117,74,204,128 // vblendvps %ymm8,%ymm12,%ymm1,%ymm1
- .byte 98,241,76,40,194,199,0 // vcmpeqps %ymm7,%ymm6,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
- .byte 197,44,88,222 // vaddps %ymm6,%ymm10,%ymm11
- .byte 98,209,108,40,194,197,0 // vcmpeqps %ymm13,%ymm2,%k0
- .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
- .byte 197,52,89,238 // vmulps %ymm6,%ymm9,%ymm13
- .byte 197,68,92,246 // vsubps %ymm6,%ymm7,%ymm14
- .byte 197,12,89,243 // vmulps %ymm3,%ymm14,%ymm14
- .byte 98,242,125,40,76,210 // vrcp14ps %ymm2,%ymm2
- .byte 197,140,89,210 // vmulps %ymm2,%ymm14,%ymm2
- .byte 197,196,93,210 // vminps %ymm2,%ymm7,%ymm2
- .byte 197,196,92,210 // vsubps %ymm2,%ymm7,%ymm2
- .byte 196,194,101,168,210 // vfmadd213ps %ymm10,%ymm3,%ymm2
- .byte 197,148,88,210 // vaddps %ymm2,%ymm13,%ymm2
- .byte 196,195,109,74,213,192 // vblendvps %ymm12,%ymm13,%ymm2,%ymm2
- .byte 196,195,109,74,211,128 // vblendvps %ymm8,%ymm11,%ymm2,%ymm2
- .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_colordodge_skx
-.globl _sk_colordodge_skx
-FUNCTION(_sk_colordodge_skx)
-_sk_colordodge_skx:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 98,209,92,40,194,192,0 // vcmpeqps %ymm8,%ymm4,%k0
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,186,189,3,0 // vbroadcastss 0x3bdba(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,44,92,223 // vsubps %ymm7,%ymm10,%ymm11
- .byte 197,36,89,224 // vmulps %ymm0,%ymm11,%ymm12
- .byte 98,241,124,40,194,195,0 // vcmpeqps %ymm3,%ymm0,%k0
- .byte 98,114,126,40,56,232 // vpmovm2d %k0,%ymm13
- .byte 197,44,92,211 // vsubps %ymm3,%ymm10,%ymm10
- .byte 197,44,89,244 // vmulps %ymm4,%ymm10,%ymm14
- .byte 197,12,88,248 // vaddps %ymm0,%ymm14,%ymm15
- .byte 98,225,100,40,89,196 // vmulps %ymm4,%ymm3,%ymm16
- .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0
- .byte 98,242,125,40,76,192 // vrcp14ps %ymm0,%ymm0
- .byte 98,241,124,32,89,192 // vmulps %ymm0,%ymm16,%ymm0
- .byte 197,196,93,192 // vminps %ymm0,%ymm7,%ymm0
- .byte 196,194,101,168,196 // vfmadd213ps %ymm12,%ymm3,%ymm0
- .byte 197,140,88,192 // vaddps %ymm0,%ymm14,%ymm0
- .byte 196,195,125,74,199,208 // vblendvps %ymm13,%ymm15,%ymm0,%ymm0
- .byte 196,195,125,74,196,144 // vblendvps %ymm9,%ymm12,%ymm0,%ymm0
- .byte 98,209,84,40,194,192,0 // vcmpeqps %ymm8,%ymm5,%k0
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 197,36,89,225 // vmulps %ymm1,%ymm11,%ymm12
- .byte 98,241,116,40,194,195,0 // vcmpeqps %ymm3,%ymm1,%k0
- .byte 98,114,126,40,56,232 // vpmovm2d %k0,%ymm13
- .byte 197,44,89,245 // vmulps %ymm5,%ymm10,%ymm14
- .byte 197,12,88,249 // vaddps %ymm1,%ymm14,%ymm15
- .byte 98,225,100,40,89,197 // vmulps %ymm5,%ymm3,%ymm16
- .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1
- .byte 98,242,125,40,76,201 // vrcp14ps %ymm1,%ymm1
- .byte 98,241,124,32,89,201 // vmulps %ymm1,%ymm16,%ymm1
- .byte 197,196,93,201 // vminps %ymm1,%ymm7,%ymm1
- .byte 196,194,101,168,204 // vfmadd213ps %ymm12,%ymm3,%ymm1
- .byte 197,140,88,201 // vaddps %ymm1,%ymm14,%ymm1
- .byte 196,195,117,74,207,208 // vblendvps %ymm13,%ymm15,%ymm1,%ymm1
- .byte 196,195,117,74,204,144 // vblendvps %ymm9,%ymm12,%ymm1,%ymm1
- .byte 98,209,76,40,194,192,0 // vcmpeqps %ymm8,%ymm6,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 197,36,89,202 // vmulps %ymm2,%ymm11,%ymm9
- .byte 98,241,108,40,194,195,0 // vcmpeqps %ymm3,%ymm2,%k0
- .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
- .byte 197,44,89,230 // vmulps %ymm6,%ymm10,%ymm12
- .byte 197,28,88,234 // vaddps %ymm2,%ymm12,%ymm13
- .byte 197,100,89,246 // vmulps %ymm6,%ymm3,%ymm14
- .byte 197,228,92,210 // vsubps %ymm2,%ymm3,%ymm2
- .byte 98,242,125,40,76,210 // vrcp14ps %ymm2,%ymm2
- .byte 197,140,89,210 // vmulps %ymm2,%ymm14,%ymm2
- .byte 197,196,93,210 // vminps %ymm2,%ymm7,%ymm2
- .byte 196,194,101,168,209 // vfmadd213ps %ymm9,%ymm3,%ymm2
- .byte 197,156,88,210 // vaddps %ymm2,%ymm12,%ymm2
- .byte 196,195,109,74,213,176 // vblendvps %ymm11,%ymm13,%ymm2,%ymm2
- .byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
- .byte 196,194,69,184,218 // vfmadd231ps %ymm10,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hardlight_skx
-.globl _sk_hardlight_skx
-FUNCTION(_sk_hardlight_skx)
-_sk_hardlight_skx:
- .byte 196,98,125,24,5,178,188,3,0 // vbroadcastss 0x3bcb2(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
- .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,61,184,212 // vfmadd231ps %ymm4,%ymm8,%ymm10
- .byte 197,124,88,216 // vaddps %ymm0,%ymm0,%ymm11
- .byte 98,241,36,40,194,195,2 // vcmpleps %ymm3,%ymm11,%k0
- .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
- .byte 197,124,89,228 // vmulps %ymm4,%ymm0,%ymm12
- .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
- .byte 197,100,89,239 // vmulps %ymm7,%ymm3,%ymm13
- .byte 197,68,92,244 // vsubps %ymm4,%ymm7,%ymm14
- .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0
- .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
- .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
- .byte 197,148,92,192 // vsubps %ymm0,%ymm13,%ymm0
- .byte 196,195,125,74,196,176 // vblendvps %ymm11,%ymm12,%ymm0,%ymm0
- .byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0
- .byte 197,52,89,209 // vmulps %ymm1,%ymm9,%ymm10
- .byte 196,98,61,184,213 // vfmadd231ps %ymm5,%ymm8,%ymm10
- .byte 197,116,88,217 // vaddps %ymm1,%ymm1,%ymm11
- .byte 98,241,36,40,194,195,2 // vcmpleps %ymm3,%ymm11,%k0
- .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
- .byte 197,116,89,229 // vmulps %ymm5,%ymm1,%ymm12
- .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
- .byte 197,68,92,245 // vsubps %ymm5,%ymm7,%ymm14
- .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1
- .byte 196,193,116,89,206 // vmulps %ymm14,%ymm1,%ymm1
- .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
- .byte 197,148,92,201 // vsubps %ymm1,%ymm13,%ymm1
- .byte 196,195,117,74,204,176 // vblendvps %ymm11,%ymm12,%ymm1,%ymm1
- .byte 197,172,88,201 // vaddps %ymm1,%ymm10,%ymm1
- .byte 197,52,89,202 // vmulps %ymm2,%ymm9,%ymm9
- .byte 196,98,61,184,206 // vfmadd231ps %ymm6,%ymm8,%ymm9
- .byte 197,108,88,210 // vaddps %ymm2,%ymm2,%ymm10
- .byte 98,241,44,40,194,195,2 // vcmpleps %ymm3,%ymm10,%k0
- .byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
- .byte 197,108,89,222 // vmulps %ymm6,%ymm2,%ymm11
- .byte 196,65,36,88,219 // vaddps %ymm11,%ymm11,%ymm11
- .byte 197,68,92,230 // vsubps %ymm6,%ymm7,%ymm12
- .byte 197,228,92,210 // vsubps %ymm2,%ymm3,%ymm2
- .byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
- .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
- .byte 197,148,92,210 // vsubps %ymm2,%ymm13,%ymm2
- .byte 196,195,109,74,211,160 // vblendvps %ymm10,%ymm11,%ymm2,%ymm2
- .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_overlay_skx
-.globl _sk_overlay_skx
-FUNCTION(_sk_overlay_skx)
-_sk_overlay_skx:
- .byte 196,98,125,24,5,206,187,3,0 // vbroadcastss 0x3bbce(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
- .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,61,184,212 // vfmadd231ps %ymm4,%ymm8,%ymm10
- .byte 197,92,88,220 // vaddps %ymm4,%ymm4,%ymm11
- .byte 98,241,36,40,194,199,2 // vcmpleps %ymm7,%ymm11,%k0
- .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
- .byte 197,124,89,228 // vmulps %ymm4,%ymm0,%ymm12
- .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
- .byte 197,100,89,239 // vmulps %ymm7,%ymm3,%ymm13
- .byte 197,68,92,244 // vsubps %ymm4,%ymm7,%ymm14
- .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0
- .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
- .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
- .byte 197,148,92,192 // vsubps %ymm0,%ymm13,%ymm0
- .byte 196,195,125,74,196,176 // vblendvps %ymm11,%ymm12,%ymm0,%ymm0
- .byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0
- .byte 197,52,89,209 // vmulps %ymm1,%ymm9,%ymm10
- .byte 196,98,61,184,213 // vfmadd231ps %ymm5,%ymm8,%ymm10
- .byte 197,84,88,221 // vaddps %ymm5,%ymm5,%ymm11
- .byte 98,241,36,40,194,199,2 // vcmpleps %ymm7,%ymm11,%k0
- .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
- .byte 197,116,89,229 // vmulps %ymm5,%ymm1,%ymm12
- .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
- .byte 197,68,92,245 // vsubps %ymm5,%ymm7,%ymm14
- .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1
- .byte 196,193,116,89,206 // vmulps %ymm14,%ymm1,%ymm1
- .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
- .byte 197,148,92,201 // vsubps %ymm1,%ymm13,%ymm1
- .byte 196,195,117,74,204,176 // vblendvps %ymm11,%ymm12,%ymm1,%ymm1
- .byte 197,172,88,201 // vaddps %ymm1,%ymm10,%ymm1
- .byte 197,52,89,202 // vmulps %ymm2,%ymm9,%ymm9
- .byte 196,98,61,184,206 // vfmadd231ps %ymm6,%ymm8,%ymm9
- .byte 197,76,88,214 // vaddps %ymm6,%ymm6,%ymm10
- .byte 98,241,44,40,194,199,2 // vcmpleps %ymm7,%ymm10,%k0
- .byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
- .byte 197,108,89,222 // vmulps %ymm6,%ymm2,%ymm11
- .byte 196,65,36,88,219 // vaddps %ymm11,%ymm11,%ymm11
- .byte 197,68,92,230 // vsubps %ymm6,%ymm7,%ymm12
- .byte 197,228,92,210 // vsubps %ymm2,%ymm3,%ymm2
- .byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
- .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
- .byte 197,148,92,210 // vsubps %ymm2,%ymm13,%ymm2
- .byte 196,195,109,74,211,160 // vblendvps %ymm10,%ymm11,%ymm2,%ymm2
- .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_softlight_skx
-.globl _sk_softlight_skx
-FUNCTION(_sk_softlight_skx)
-_sk_softlight_skx:
- .byte 98,225,124,40,40,194 // vmovaps %ymm2,%ymm16
- .byte 98,225,124,40,40,225 // vmovaps %ymm1,%ymm20
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 98,241,108,40,194,199,1 // vcmpltps %ymm7,%ymm2,%k0
- .byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
- .byte 197,92,94,207 // vdivps %ymm7,%ymm4,%ymm9
- .byte 196,67,109,74,201,16 // vblendvps %ymm1,%ymm9,%ymm2,%ymm9
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 197,124,88,248 // vaddps %ymm0,%ymm0,%ymm15
- .byte 196,65,52,88,217 // vaddps %ymm9,%ymm9,%ymm11
- .byte 196,65,36,88,235 // vaddps %ymm11,%ymm11,%ymm13
- .byte 197,4,92,243 // vsubps %ymm3,%ymm15,%ymm14
- .byte 196,98,125,24,29,172,186,3,0 // vbroadcastss 0x3baac(%rip),%ymm11 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,36,92,225 // vsubps %ymm9,%ymm11,%ymm12
- .byte 196,98,13,168,227 // vfmadd213ps %ymm3,%ymm14,%ymm12
- .byte 197,156,89,212 // vmulps %ymm4,%ymm12,%ymm2
- .byte 196,66,21,168,237 // vfmadd213ps %ymm13,%ymm13,%ymm13
- .byte 98,226,125,40,24,21,167,186,3,0 // vbroadcastss 0x3baa7(%rip),%ymm18 # 3c514 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
- .byte 98,161,52,40,88,202 // vaddps %ymm18,%ymm9,%ymm17
- .byte 98,81,116,32,89,229 // vmulps %ymm13,%ymm17,%ymm12
- .byte 98,226,125,40,24,29,149,186,3,0 // vbroadcastss 0x3ba95(%rip),%ymm19 # 3c518 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
- .byte 98,50,53,40,184,227 // vfmadd231ps %ymm19,%ymm9,%ymm12
- .byte 98,194,125,40,78,201 // vrsqrt14ps %ymm9,%ymm17
- .byte 98,162,125,40,76,201 // vrcp14ps %ymm17,%ymm17
- .byte 98,81,116,32,92,201 // vsubps %ymm9,%ymm17,%ymm9
- .byte 197,12,89,247 // vmulps %ymm7,%ymm14,%ymm14
- .byte 98,225,92,40,88,204 // vaddps %ymm4,%ymm4,%ymm17
- .byte 98,161,116,32,88,201 // vaddps %ymm17,%ymm17,%ymm17
- .byte 98,241,116,32,194,199,2 // vcmpleps %ymm7,%ymm17,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,67,53,74,196,128 // vblendvps %ymm8,%ymm12,%ymm9,%ymm8
- .byte 196,65,12,89,192 // vmulps %ymm8,%ymm14,%ymm8
- .byte 196,98,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm8
- .byte 197,36,92,247 // vsubps %ymm7,%ymm11,%ymm14
- .byte 197,140,89,192 // vmulps %ymm0,%ymm14,%ymm0
- .byte 197,36,92,203 // vsubps %ymm3,%ymm11,%ymm9
- .byte 196,226,53,184,196 // vfmadd231ps %ymm4,%ymm9,%ymm0
- .byte 98,241,4,40,194,195,2 // vcmpleps %ymm3,%ymm15,%k0
- .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
- .byte 196,227,61,74,210,192 // vblendvps %ymm12,%ymm2,%ymm8,%ymm2
- .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
- .byte 197,212,94,215 // vdivps %ymm7,%ymm5,%ymm2
- .byte 196,227,45,74,210,16 // vblendvps %ymm1,%ymm2,%ymm10,%ymm2
- .byte 98,49,92,32,88,196 // vaddps %ymm20,%ymm20,%ymm8
- .byte 197,108,88,226 // vaddps %ymm2,%ymm2,%ymm12
- .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
- .byte 197,60,92,251 // vsubps %ymm3,%ymm8,%ymm15
- .byte 98,225,36,40,92,202 // vsubps %ymm2,%ymm11,%ymm17
- .byte 98,226,5,40,168,203 // vfmadd213ps %ymm3,%ymm15,%ymm17
- .byte 98,113,116,32,89,237 // vmulps %ymm5,%ymm17,%ymm13
- .byte 196,66,29,168,228 // vfmadd213ps %ymm12,%ymm12,%ymm12
- .byte 98,161,108,40,88,202 // vaddps %ymm18,%ymm2,%ymm17
- .byte 98,81,116,32,89,228 // vmulps %ymm12,%ymm17,%ymm12
- .byte 98,50,109,40,184,227 // vfmadd231ps %ymm19,%ymm2,%ymm12
- .byte 98,226,125,40,78,202 // vrsqrt14ps %ymm2,%ymm17
- .byte 98,162,125,40,76,201 // vrcp14ps %ymm17,%ymm17
- .byte 98,241,116,32,92,210 // vsubps %ymm2,%ymm17,%ymm2
- .byte 197,4,89,255 // vmulps %ymm7,%ymm15,%ymm15
- .byte 98,225,84,40,88,205 // vaddps %ymm5,%ymm5,%ymm17
- .byte 98,161,116,32,88,201 // vaddps %ymm17,%ymm17,%ymm17
- .byte 98,241,116,32,194,199,2 // vcmpleps %ymm7,%ymm17,%k0
- .byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
- .byte 196,195,109,74,212,160 // vblendvps %ymm10,%ymm12,%ymm2,%ymm2
- .byte 197,132,89,210 // vmulps %ymm2,%ymm15,%ymm2
- .byte 196,226,101,184,213 // vfmadd231ps %ymm5,%ymm3,%ymm2
- .byte 98,49,12,40,89,212 // vmulps %ymm20,%ymm14,%ymm10
- .byte 196,98,53,184,213 // vfmadd231ps %ymm5,%ymm9,%ymm10
- .byte 98,241,60,40,194,195,2 // vcmpleps %ymm3,%ymm8,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,195,109,74,213,128 // vblendvps %ymm8,%ymm13,%ymm2,%ymm2
- .byte 197,44,88,194 // vaddps %ymm2,%ymm10,%ymm8
- .byte 197,204,94,215 // vdivps %ymm7,%ymm6,%ymm2
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,227,45,74,202,16 // vblendvps %ymm1,%ymm2,%ymm10,%ymm1
- .byte 98,177,124,32,88,208 // vaddps %ymm16,%ymm16,%ymm2
- .byte 197,116,88,209 // vaddps %ymm1,%ymm1,%ymm10
- .byte 196,65,44,88,210 // vaddps %ymm10,%ymm10,%ymm10
- .byte 197,108,92,227 // vsubps %ymm3,%ymm2,%ymm12
- .byte 197,36,92,217 // vsubps %ymm1,%ymm11,%ymm11
- .byte 196,98,29,168,219 // vfmadd213ps %ymm3,%ymm12,%ymm11
- .byte 197,36,89,222 // vmulps %ymm6,%ymm11,%ymm11
- .byte 196,66,45,168,210 // vfmadd213ps %ymm10,%ymm10,%ymm10
- .byte 98,49,116,40,88,234 // vaddps %ymm18,%ymm1,%ymm13
- .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10
- .byte 98,50,117,40,184,211 // vfmadd231ps %ymm19,%ymm1,%ymm10
- .byte 98,114,125,40,78,233 // vrsqrt14ps %ymm1,%ymm13
- .byte 98,82,125,40,76,237 // vrcp14ps %ymm13,%ymm13
- .byte 197,148,92,201 // vsubps %ymm1,%ymm13,%ymm1
- .byte 197,28,89,231 // vmulps %ymm7,%ymm12,%ymm12
- .byte 197,76,88,238 // vaddps %ymm6,%ymm6,%ymm13
- .byte 196,65,20,88,237 // vaddps %ymm13,%ymm13,%ymm13
- .byte 98,241,20,40,194,199,2 // vcmpleps %ymm7,%ymm13,%k0
- .byte 98,114,126,40,56,232 // vpmovm2d %k0,%ymm13
- .byte 196,195,117,74,202,208 // vblendvps %ymm13,%ymm10,%ymm1,%ymm1
- .byte 197,156,89,201 // vmulps %ymm1,%ymm12,%ymm1
- .byte 196,226,101,184,206 // vfmadd231ps %ymm6,%ymm3,%ymm1
- .byte 98,49,12,40,89,208 // vmulps %ymm16,%ymm14,%ymm10
- .byte 196,98,53,184,214 // vfmadd231ps %ymm6,%ymm9,%ymm10
- .byte 98,241,108,40,194,195,2 // vcmpleps %ymm3,%ymm2,%k0
- .byte 98,242,126,40,56,208 // vpmovm2d %k0,%ymm2
- .byte 196,195,117,74,203,32 // vblendvps %ymm2,%ymm11,%ymm1,%ymm1
- .byte 197,172,88,209 // vaddps %ymm1,%ymm10,%ymm2
- .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hue_skx
-.globl _sk_hue_skx
-FUNCTION(_sk_hue_skx)
-_sk_hue_skx:
- .byte 98,225,124,40,40,210 // vmovaps %ymm2,%ymm18
- .byte 98,225,124,40,40,225 // vmovaps %ymm1,%ymm20
- .byte 197,124,89,203 // vmulps %ymm3,%ymm0,%ymm9
- .byte 98,113,92,32,89,211 // vmulps %ymm3,%ymm20,%ymm10
- .byte 98,113,108,32,89,219 // vmulps %ymm3,%ymm18,%ymm11
- .byte 197,84,95,198 // vmaxps %ymm6,%ymm5,%ymm8
- .byte 196,65,92,95,192 // vmaxps %ymm8,%ymm4,%ymm8
- .byte 197,84,93,230 // vminps %ymm6,%ymm5,%ymm12
- .byte 196,65,92,93,228 // vminps %ymm12,%ymm4,%ymm12
- .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8
- .byte 197,60,89,227 // vmulps %ymm3,%ymm8,%ymm12
- .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8
- .byte 196,65,52,93,232 // vminps %ymm8,%ymm9,%ymm13
- .byte 196,65,44,95,195 // vmaxps %ymm11,%ymm10,%ymm8
- .byte 196,65,52,95,192 // vmaxps %ymm8,%ymm9,%ymm8
- .byte 196,65,60,92,245 // vsubps %ymm13,%ymm8,%ymm14
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 98,241,12,40,194,193,0 // vcmpeqps %ymm1,%ymm14,%k0
- .byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
- .byte 196,65,52,92,205 // vsubps %ymm13,%ymm9,%ymm9
- .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9
- .byte 196,65,52,94,206 // vdivps %ymm14,%ymm9,%ymm9
- .byte 196,99,53,74,201,240 // vblendvps %ymm15,%ymm1,%ymm9,%ymm9
- .byte 196,65,44,92,213 // vsubps %ymm13,%ymm10,%ymm10
- .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
- .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
- .byte 196,99,45,74,209,240 // vblendvps %ymm15,%ymm1,%ymm10,%ymm10
- .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
- .byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,48,184,3,0 // vbroadcastss 0x3b830(%rip),%ymm13 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,43,184,3,0 // vbroadcastss 0x3b82b(%rip),%ymm14 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- .byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
- .byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,27,184,3,0 // vbroadcastss 0x3b81b(%rip),%ymm16 # 3c524 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- .byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
- .byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
- .byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
- .byte 98,50,29,40,184,216 // vfmadd231ps %ymm16,%ymm12,%ymm11
- .byte 196,66,101,170,251 // vfmsub213ps %ymm11,%ymm3,%ymm15
- .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
- .byte 196,65,44,88,223 // vaddps %ymm15,%ymm10,%ymm11
- .byte 196,65,28,88,215 // vaddps %ymm15,%ymm12,%ymm10
- .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12
- .byte 196,65,36,93,250 // vminps %ymm10,%ymm11,%ymm15
- .byte 196,65,52,93,255 // vminps %ymm15,%ymm9,%ymm15
- .byte 98,193,36,40,95,202 // vmaxps %ymm10,%ymm11,%ymm17
- .byte 98,161,52,40,95,201 // vmaxps %ymm17,%ymm9,%ymm17
- .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
- .byte 196,66,53,184,245 // vfmadd231ps %ymm13,%ymm9,%ymm14
- .byte 98,50,45,40,184,240 // vfmadd231ps %ymm16,%ymm10,%ymm14
- .byte 98,209,116,40,194,199,2 // vcmpleps %ymm15,%ymm1,%k0
- .byte 98,114,126,40,56,232 // vpmovm2d %k0,%ymm13
- .byte 98,193,52,40,92,198 // vsubps %ymm14,%ymm9,%ymm16
- .byte 98,161,12,40,89,192 // vmulps %ymm16,%ymm14,%ymm16
- .byte 196,65,12,92,255 // vsubps %ymm15,%ymm14,%ymm15
- .byte 98,193,124,32,94,199 // vdivps %ymm15,%ymm16,%ymm16
- .byte 98,49,12,40,88,192 // vaddps %ymm16,%ymm14,%ymm8
- .byte 196,67,61,74,193,208 // vblendvps %ymm13,%ymm9,%ymm8,%ymm8
- .byte 98,177,28,40,194,193,1 // vcmpltps %ymm17,%ymm12,%k0
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 98,193,60,40,92,198 // vsubps %ymm14,%ymm8,%ymm16
- .byte 98,193,28,40,92,222 // vsubps %ymm14,%ymm12,%ymm19
- .byte 98,161,100,32,89,192 // vmulps %ymm16,%ymm19,%ymm16
- .byte 98,193,116,32,92,206 // vsubps %ymm14,%ymm17,%ymm17
- .byte 98,161,124,32,94,193 // vdivps %ymm17,%ymm16,%ymm16
- .byte 98,177,12,40,88,208 // vaddps %ymm16,%ymm14,%ymm2
- .byte 196,227,61,74,210,144 // vblendvps %ymm9,%ymm2,%ymm8,%ymm2
- .byte 197,236,95,209 // vmaxps %ymm1,%ymm2,%ymm2
- .byte 196,65,36,92,198 // vsubps %ymm14,%ymm11,%ymm8
- .byte 196,65,12,89,192 // vmulps %ymm8,%ymm14,%ymm8
- .byte 196,65,60,94,199 // vdivps %ymm15,%ymm8,%ymm8
- .byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
- .byte 196,67,61,74,195,208 // vblendvps %ymm13,%ymm11,%ymm8,%ymm8
- .byte 196,65,60,92,222 // vsubps %ymm14,%ymm8,%ymm11
- .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
- .byte 98,49,36,40,94,217 // vdivps %ymm17,%ymm11,%ymm11
- .byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
- .byte 196,67,61,74,195,144 // vblendvps %ymm9,%ymm11,%ymm8,%ymm8
- .byte 197,60,95,193 // vmaxps %ymm1,%ymm8,%ymm8
- .byte 196,65,44,92,222 // vsubps %ymm14,%ymm10,%ymm11
- .byte 196,65,12,89,219 // vmulps %ymm11,%ymm14,%ymm11
- .byte 196,65,36,94,223 // vdivps %ymm15,%ymm11,%ymm11
- .byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
- .byte 196,67,37,74,210,208 // vblendvps %ymm13,%ymm10,%ymm11,%ymm10
- .byte 196,65,44,92,222 // vsubps %ymm14,%ymm10,%ymm11
- .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
- .byte 98,49,36,40,94,217 // vdivps %ymm17,%ymm11,%ymm11
- .byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
- .byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
- .byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,183,182,3,0 // vbroadcastss 0x3b6b7(%rip),%ymm1 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
- .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
- .byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
- .byte 196,226,37,184,196 // vfmadd231ps %ymm4,%ymm11,%ymm0
- .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
- .byte 98,177,44,40,89,204 // vmulps %ymm20,%ymm10,%ymm1
- .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1
- .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
- .byte 98,177,44,40,89,210 // vmulps %ymm18,%ymm10,%ymm2
- .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11
- .byte 196,193,36,88,209 // vaddps %ymm9,%ymm11,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_saturation_skx
-.globl _sk_saturation_skx
-FUNCTION(_sk_saturation_skx)
-_sk_saturation_skx:
- .byte 98,225,124,40,40,210 // vmovaps %ymm2,%ymm18
- .byte 98,225,124,40,40,225 // vmovaps %ymm1,%ymm20
- .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
- .byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
- .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 98,49,92,32,95,194 // vmaxps %ymm18,%ymm20,%ymm8
- .byte 196,65,124,95,192 // vmaxps %ymm8,%ymm0,%ymm8
- .byte 98,49,92,32,93,226 // vminps %ymm18,%ymm20,%ymm12
- .byte 196,65,124,93,228 // vminps %ymm12,%ymm0,%ymm12
- .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8
- .byte 197,60,89,231 // vmulps %ymm7,%ymm8,%ymm12
- .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8
- .byte 196,65,52,93,232 // vminps %ymm8,%ymm9,%ymm13
- .byte 196,65,44,95,195 // vmaxps %ymm11,%ymm10,%ymm8
- .byte 196,65,52,95,192 // vmaxps %ymm8,%ymm9,%ymm8
- .byte 196,65,60,92,245 // vsubps %ymm13,%ymm8,%ymm14
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 98,241,12,40,194,193,0 // vcmpeqps %ymm1,%ymm14,%k0
- .byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
- .byte 196,65,52,92,205 // vsubps %ymm13,%ymm9,%ymm9
- .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9
- .byte 196,65,52,94,206 // vdivps %ymm14,%ymm9,%ymm9
- .byte 196,99,53,74,201,240 // vblendvps %ymm15,%ymm1,%ymm9,%ymm9
- .byte 196,65,44,92,213 // vsubps %ymm13,%ymm10,%ymm10
- .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
- .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
- .byte 196,99,45,74,209,240 // vblendvps %ymm15,%ymm1,%ymm10,%ymm10
- .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
- .byte 196,99,37,74,225,240 // vblendvps %ymm15,%ymm1,%ymm11,%ymm12
- .byte 196,98,125,24,45,236,181,3,0 // vbroadcastss 0x3b5ec(%rip),%ymm13 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,231,181,3,0 // vbroadcastss 0x3b5e7(%rip),%ymm14 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- .byte 196,65,84,89,254 // vmulps %ymm14,%ymm5,%ymm15
- .byte 196,66,93,184,253 // vfmadd231ps %ymm13,%ymm4,%ymm15
- .byte 98,226,125,40,24,5,215,181,3,0 // vbroadcastss 0x3b5d7(%rip),%ymm16 # 3c524 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- .byte 98,50,77,40,184,248 // vfmadd231ps %ymm16,%ymm6,%ymm15
- .byte 196,65,44,89,222 // vmulps %ymm14,%ymm10,%ymm11
- .byte 196,66,53,184,221 // vfmadd231ps %ymm13,%ymm9,%ymm11
- .byte 98,50,29,40,184,216 // vfmadd231ps %ymm16,%ymm12,%ymm11
- .byte 196,66,101,170,251 // vfmsub213ps %ymm11,%ymm3,%ymm15
- .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
- .byte 196,65,44,88,223 // vaddps %ymm15,%ymm10,%ymm11
- .byte 196,65,28,88,215 // vaddps %ymm15,%ymm12,%ymm10
- .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12
- .byte 196,65,36,93,250 // vminps %ymm10,%ymm11,%ymm15
- .byte 196,65,52,93,255 // vminps %ymm15,%ymm9,%ymm15
- .byte 98,193,36,40,95,202 // vmaxps %ymm10,%ymm11,%ymm17
- .byte 98,161,52,40,95,201 // vmaxps %ymm17,%ymm9,%ymm17
- .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
- .byte 196,66,53,184,245 // vfmadd231ps %ymm13,%ymm9,%ymm14
- .byte 98,50,45,40,184,240 // vfmadd231ps %ymm16,%ymm10,%ymm14
- .byte 98,209,116,40,194,199,2 // vcmpleps %ymm15,%ymm1,%k0
- .byte 98,114,126,40,56,232 // vpmovm2d %k0,%ymm13
- .byte 98,193,52,40,92,198 // vsubps %ymm14,%ymm9,%ymm16
- .byte 98,161,12,40,89,192 // vmulps %ymm16,%ymm14,%ymm16
- .byte 196,65,12,92,255 // vsubps %ymm15,%ymm14,%ymm15
- .byte 98,193,124,32,94,199 // vdivps %ymm15,%ymm16,%ymm16
- .byte 98,49,12,40,88,192 // vaddps %ymm16,%ymm14,%ymm8
- .byte 196,67,61,74,193,208 // vblendvps %ymm13,%ymm9,%ymm8,%ymm8
- .byte 98,177,28,40,194,193,1 // vcmpltps %ymm17,%ymm12,%k0
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 98,193,60,40,92,198 // vsubps %ymm14,%ymm8,%ymm16
- .byte 98,193,28,40,92,222 // vsubps %ymm14,%ymm12,%ymm19
- .byte 98,161,100,32,89,192 // vmulps %ymm16,%ymm19,%ymm16
- .byte 98,193,116,32,92,206 // vsubps %ymm14,%ymm17,%ymm17
- .byte 98,161,124,32,94,193 // vdivps %ymm17,%ymm16,%ymm16
- .byte 98,177,12,40,88,208 // vaddps %ymm16,%ymm14,%ymm2
- .byte 196,227,61,74,210,144 // vblendvps %ymm9,%ymm2,%ymm8,%ymm2
- .byte 197,236,95,209 // vmaxps %ymm1,%ymm2,%ymm2
- .byte 196,65,36,92,198 // vsubps %ymm14,%ymm11,%ymm8
- .byte 196,65,12,89,192 // vmulps %ymm8,%ymm14,%ymm8
- .byte 196,65,60,94,199 // vdivps %ymm15,%ymm8,%ymm8
- .byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
- .byte 196,67,61,74,195,208 // vblendvps %ymm13,%ymm11,%ymm8,%ymm8
- .byte 196,65,60,92,222 // vsubps %ymm14,%ymm8,%ymm11
- .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
- .byte 98,49,36,40,94,217 // vdivps %ymm17,%ymm11,%ymm11
- .byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
- .byte 196,67,61,74,195,144 // vblendvps %ymm9,%ymm11,%ymm8,%ymm8
- .byte 197,60,95,193 // vmaxps %ymm1,%ymm8,%ymm8
- .byte 196,65,44,92,222 // vsubps %ymm14,%ymm10,%ymm11
- .byte 196,65,12,89,219 // vmulps %ymm11,%ymm14,%ymm11
- .byte 196,65,36,94,223 // vdivps %ymm15,%ymm11,%ymm11
- .byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
- .byte 196,67,37,74,210,208 // vblendvps %ymm13,%ymm10,%ymm11,%ymm10
- .byte 196,65,44,92,222 // vsubps %ymm14,%ymm10,%ymm11
- .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
- .byte 98,49,36,40,94,217 // vdivps %ymm17,%ymm11,%ymm11
- .byte 196,65,12,88,219 // vaddps %ymm11,%ymm14,%ymm11
- .byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
- .byte 197,52,95,201 // vmaxps %ymm1,%ymm9,%ymm9
- .byte 196,226,125,24,13,115,180,3,0 // vbroadcastss 0x3b473(%rip),%ymm1 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
- .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
- .byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
- .byte 196,226,37,184,196 // vfmadd231ps %ymm4,%ymm11,%ymm0
- .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
- .byte 98,177,44,40,89,204 // vmulps %ymm20,%ymm10,%ymm1
- .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1
- .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
- .byte 98,177,44,40,89,210 // vmulps %ymm18,%ymm10,%ymm2
- .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11
- .byte 196,193,36,88,209 // vaddps %ymm9,%ymm11,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_color_skx
-.globl _sk_color_skx
-FUNCTION(_sk_color_skx)
-_sk_color_skx:
- .byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
- .byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
- .byte 197,108,89,223 // vmulps %ymm7,%ymm2,%ymm11
- .byte 196,98,125,24,37,60,180,3,0 // vbroadcastss 0x3b43c(%rip),%ymm12 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,45,55,180,3,0 // vbroadcastss 0x3b437(%rip),%ymm13 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- .byte 196,65,84,89,245 // vmulps %ymm13,%ymm5,%ymm14
- .byte 196,66,93,184,244 // vfmadd231ps %ymm12,%ymm4,%ymm14
- .byte 196,98,125,24,61,40,180,3,0 // vbroadcastss 0x3b428(%rip),%ymm15 # 3c524 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- .byte 196,66,77,184,247 // vfmadd231ps %ymm15,%ymm6,%ymm14
- .byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
- .byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
- .byte 196,66,37,184,215 // vfmadd231ps %ymm15,%ymm11,%ymm10
- .byte 196,66,101,170,242 // vfmsub213ps %ymm10,%ymm3,%ymm14
- .byte 196,65,60,88,198 // vaddps %ymm14,%ymm8,%ymm8
- .byte 196,65,52,88,214 // vaddps %ymm14,%ymm9,%ymm10
- .byte 196,65,36,88,206 // vaddps %ymm14,%ymm11,%ymm9
- .byte 98,225,100,40,89,231 // vmulps %ymm7,%ymm3,%ymm20
- .byte 196,65,44,93,241 // vminps %ymm9,%ymm10,%ymm14
- .byte 196,65,60,93,246 // vminps %ymm14,%ymm8,%ymm14
- .byte 98,193,44,40,95,193 // vmaxps %ymm9,%ymm10,%ymm16
- .byte 98,161,60,40,95,192 // vmaxps %ymm16,%ymm8,%ymm16
- .byte 196,65,44,89,237 // vmulps %ymm13,%ymm10,%ymm13
- .byte 196,66,61,184,236 // vfmadd231ps %ymm12,%ymm8,%ymm13
- .byte 196,66,53,184,239 // vfmadd231ps %ymm15,%ymm9,%ymm13
- .byte 98,161,108,32,87,210 // vxorps %ymm18,%ymm18,%ymm18
- .byte 98,209,108,32,194,198,2 // vcmpleps %ymm14,%ymm18,%k0
- .byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
- .byte 98,193,60,40,92,205 // vsubps %ymm13,%ymm8,%ymm17
- .byte 98,161,20,40,89,201 // vmulps %ymm17,%ymm13,%ymm17
- .byte 196,65,20,92,246 // vsubps %ymm14,%ymm13,%ymm14
- .byte 98,193,116,32,94,206 // vdivps %ymm14,%ymm17,%ymm17
- .byte 98,49,20,40,88,225 // vaddps %ymm17,%ymm13,%ymm12
- .byte 196,67,29,74,192,240 // vblendvps %ymm15,%ymm8,%ymm12,%ymm8
- .byte 98,177,92,32,194,192,1 // vcmpltps %ymm16,%ymm20,%k0
- .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
- .byte 98,193,60,40,92,205 // vsubps %ymm13,%ymm8,%ymm17
- .byte 98,193,92,32,92,221 // vsubps %ymm13,%ymm20,%ymm19
- .byte 98,161,100,32,89,201 // vmulps %ymm17,%ymm19,%ymm17
- .byte 98,193,124,32,92,197 // vsubps %ymm13,%ymm16,%ymm16
- .byte 98,161,116,32,94,200 // vdivps %ymm16,%ymm17,%ymm17
- .byte 98,49,20,40,88,217 // vaddps %ymm17,%ymm13,%ymm11
- .byte 196,67,61,74,195,192 // vblendvps %ymm12,%ymm11,%ymm8,%ymm8
- .byte 98,49,60,40,95,194 // vmaxps %ymm18,%ymm8,%ymm8
- .byte 196,65,44,92,221 // vsubps %ymm13,%ymm10,%ymm11
- .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
- .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
- .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,67,37,74,210,240 // vblendvps %ymm15,%ymm10,%ymm11,%ymm10
- .byte 196,65,44,92,221 // vsubps %ymm13,%ymm10,%ymm11
- .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
- .byte 98,49,36,40,94,216 // vdivps %ymm16,%ymm11,%ymm11
- .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,67,45,74,211,192 // vblendvps %ymm12,%ymm11,%ymm10,%ymm10
- .byte 98,49,44,40,95,210 // vmaxps %ymm18,%ymm10,%ymm10
- .byte 196,65,52,92,221 // vsubps %ymm13,%ymm9,%ymm11
- .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
- .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
- .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,67,37,74,201,240 // vblendvps %ymm15,%ymm9,%ymm11,%ymm9
- .byte 196,65,52,92,221 // vsubps %ymm13,%ymm9,%ymm11
- .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
- .byte 98,49,36,40,94,216 // vdivps %ymm16,%ymm11,%ymm11
- .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
- .byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,185,178,3,0 // vbroadcastss 0x3b2b9(%rip),%ymm11 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
- .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
- .byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
- .byte 196,226,37,184,196 // vfmadd231ps %ymm4,%ymm11,%ymm0
- .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 197,156,89,201 // vmulps %ymm1,%ymm12,%ymm1
- .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1
- .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 197,156,89,210 // vmulps %ymm2,%ymm12,%ymm2
- .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11
- .byte 196,193,36,88,209 // vaddps %ymm9,%ymm11,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 98,177,100,40,92,220 // vsubps %ymm20,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_luminosity_skx
-.globl _sk_luminosity_skx
-FUNCTION(_sk_luminosity_skx)
-_sk_luminosity_skx:
- .byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,37,132,178,3,0 // vbroadcastss 0x3b284(%rip),%ymm12 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,45,127,178,3,0 // vbroadcastss 0x3b27f(%rip),%ymm13 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- .byte 196,65,116,89,245 // vmulps %ymm13,%ymm1,%ymm14
- .byte 196,66,125,184,244 // vfmadd231ps %ymm12,%ymm0,%ymm14
- .byte 196,98,125,24,61,112,178,3,0 // vbroadcastss 0x3b270(%rip),%ymm15 # 3c524 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- .byte 196,66,109,184,247 // vfmadd231ps %ymm15,%ymm2,%ymm14
- .byte 196,65,52,89,213 // vmulps %ymm13,%ymm9,%ymm10
- .byte 196,66,61,184,212 // vfmadd231ps %ymm12,%ymm8,%ymm10
- .byte 196,66,37,184,215 // vfmadd231ps %ymm15,%ymm11,%ymm10
- .byte 196,66,69,170,242 // vfmsub213ps %ymm10,%ymm7,%ymm14
- .byte 196,65,60,88,198 // vaddps %ymm14,%ymm8,%ymm8
- .byte 196,65,52,88,214 // vaddps %ymm14,%ymm9,%ymm10
- .byte 196,65,36,88,206 // vaddps %ymm14,%ymm11,%ymm9
- .byte 98,225,100,40,89,231 // vmulps %ymm7,%ymm3,%ymm20
- .byte 196,65,44,93,241 // vminps %ymm9,%ymm10,%ymm14
- .byte 196,65,60,93,246 // vminps %ymm14,%ymm8,%ymm14
- .byte 98,193,44,40,95,193 // vmaxps %ymm9,%ymm10,%ymm16
- .byte 98,161,60,40,95,192 // vmaxps %ymm16,%ymm8,%ymm16
- .byte 196,65,44,89,237 // vmulps %ymm13,%ymm10,%ymm13
- .byte 196,66,61,184,236 // vfmadd231ps %ymm12,%ymm8,%ymm13
- .byte 196,66,53,184,239 // vfmadd231ps %ymm15,%ymm9,%ymm13
- .byte 98,161,108,32,87,210 // vxorps %ymm18,%ymm18,%ymm18
- .byte 98,209,108,32,194,198,2 // vcmpleps %ymm14,%ymm18,%k0
- .byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
- .byte 98,193,60,40,92,205 // vsubps %ymm13,%ymm8,%ymm17
- .byte 98,161,20,40,89,201 // vmulps %ymm17,%ymm13,%ymm17
- .byte 196,65,20,92,246 // vsubps %ymm14,%ymm13,%ymm14
- .byte 98,193,116,32,94,206 // vdivps %ymm14,%ymm17,%ymm17
- .byte 98,49,20,40,88,225 // vaddps %ymm17,%ymm13,%ymm12
- .byte 196,67,29,74,192,240 // vblendvps %ymm15,%ymm8,%ymm12,%ymm8
- .byte 98,177,92,32,194,192,1 // vcmpltps %ymm16,%ymm20,%k0
- .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
- .byte 98,193,60,40,92,205 // vsubps %ymm13,%ymm8,%ymm17
- .byte 98,193,92,32,92,221 // vsubps %ymm13,%ymm20,%ymm19
- .byte 98,161,100,32,89,201 // vmulps %ymm17,%ymm19,%ymm17
- .byte 98,193,124,32,92,197 // vsubps %ymm13,%ymm16,%ymm16
- .byte 98,161,116,32,94,200 // vdivps %ymm16,%ymm17,%ymm17
- .byte 98,49,20,40,88,217 // vaddps %ymm17,%ymm13,%ymm11
- .byte 196,67,61,74,195,192 // vblendvps %ymm12,%ymm11,%ymm8,%ymm8
- .byte 98,49,60,40,95,194 // vmaxps %ymm18,%ymm8,%ymm8
- .byte 196,65,44,92,221 // vsubps %ymm13,%ymm10,%ymm11
- .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
- .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
- .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,67,37,74,210,240 // vblendvps %ymm15,%ymm10,%ymm11,%ymm10
- .byte 196,65,44,92,221 // vsubps %ymm13,%ymm10,%ymm11
- .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
- .byte 98,49,36,40,94,216 // vdivps %ymm16,%ymm11,%ymm11
- .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,67,45,74,211,192 // vblendvps %ymm12,%ymm11,%ymm10,%ymm10
- .byte 98,49,44,40,95,210 // vmaxps %ymm18,%ymm10,%ymm10
- .byte 196,65,52,92,221 // vsubps %ymm13,%ymm9,%ymm11
- .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
- .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
- .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,67,37,74,201,240 // vblendvps %ymm15,%ymm9,%ymm11,%ymm9
- .byte 196,65,52,92,221 // vsubps %ymm13,%ymm9,%ymm11
- .byte 98,81,100,32,89,219 // vmulps %ymm11,%ymm19,%ymm11
- .byte 98,49,36,40,94,216 // vdivps %ymm16,%ymm11,%ymm11
- .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,67,53,74,203,192 // vblendvps %ymm12,%ymm11,%ymm9,%ymm9
- .byte 98,49,52,40,95,202 // vmaxps %ymm18,%ymm9,%ymm9
- .byte 196,98,125,24,29,1,177,3,0 // vbroadcastss 0x3b101(%rip),%ymm11 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,36,92,231 // vsubps %ymm7,%ymm11,%ymm12
- .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
- .byte 197,36,92,219 // vsubps %ymm3,%ymm11,%ymm11
- .byte 196,226,37,184,196 // vfmadd231ps %ymm4,%ymm11,%ymm0
- .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 197,156,89,201 // vmulps %ymm1,%ymm12,%ymm1
- .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1
- .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 197,156,89,210 // vmulps %ymm2,%ymm12,%ymm2
- .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11
- .byte 196,193,36,88,209 // vaddps %ymm9,%ymm11,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 98,177,100,40,92,220 // vsubps %ymm20,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_rgba_8888_skx
-.globl _sk_srcover_rgba_8888_skx
-FUNCTION(_sk_srcover_rgba_8888_skx)
-_sk_srcover_rgba_8888_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,235,0,0,0 // jne 1540 <_sk_srcover_rgba_8888_skx+0x105>
- .byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
- .byte 184,17,17,17,17 // mov $0x11111111,%eax
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 197,213,114,215,8 // vpsrld $0x8,%ymm7,%ymm5
- .byte 98,241,127,169,111,237 // vmovdqu8 %ymm5,%ymm5{%k1}{z}
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 197,205,114,215,16 // vpsrld $0x10,%ymm7,%ymm6
- .byte 98,241,127,169,111,246 // vmovdqu8 %ymm6,%ymm6{%k1}{z}
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,89,176,3,0 // vbroadcastss 0x3b059(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,120,176,3,0 // vbroadcastss 0x3b078(%rip),%ymm10 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
- .byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
- .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
- .byte 196,194,85,184,201 // vfmadd231ps %ymm9,%ymm5,%ymm1
- .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
- .byte 196,194,77,184,209 // vfmadd231ps %ymm9,%ymm6,%ymm2
- .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
- .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11
- .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11
- .byte 196,65,37,235,201 // vpor %ymm9,%ymm11,%ymm9
- .byte 197,60,95,218 // vmaxps %ymm2,%ymm8,%ymm11
- .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,37,114,243,16 // vpslld $0x10,%ymm11,%ymm11
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
- .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 1570 <_sk_srcover_rgba_8888_skx+0x135>
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,9,255,255,255 // ja 145b <_sk_srcover_rgba_8888_skx+0x20>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,252,0,0,0 // lea 0xfc(%rip),%r9 # 1658 <_sk_srcover_rgba_8888_skx+0x21d>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 233,235,254,255,255 // jmpq 145b <_sk_srcover_rgba_8888_skx+0x20>
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,194 // ja 153c <_sk_srcover_rgba_8888_skx+0x101>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,240,0,0,0 // lea 0xf0(%rip),%r9 # 1674 <_sk_srcover_rgba_8888_skx+0x239>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,167 // jmp 153c <_sk_srcover_rgba_8888_skx+0x101>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 176,4 // mov $0x4,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
- .byte 196,194,121,53,36,144 // vpmovzxdq (%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
- .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,157,254,255,255 // jmpq 145b <_sk_srcover_rgba_8888_skx+0x20>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 176,64 // mov $0x40,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
- .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,81,254,255,255 // jmpq 145b <_sk_srcover_rgba_8888_skx+0x20>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
- .byte 98,82,126,8,53,4,144 // vpmovqd %xmm8,(%r8,%rdx,4)
- .byte 233,25,255,255,255 // jmpq 153c <_sk_srcover_rgba_8888_skx+0x101>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 233,229,254,255,255 // jmpq 153c <_sk_srcover_rgba_8888_skx+0x101>
- .byte 144 // nop
- .byte 13,255,255,255,80 // or $0x50ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 61,255,255,255,161 // cmp $0xa1ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,141,255,255,255,121 // decl 0x79ffffff(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,102,255 // jmpq *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,25 // lcall *(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,158,255,255,255,150 // lcall *-0x69000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
- .byte 255 // (bad)
- .byte 255,203 // dec %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 189,255,255,255,175 // mov $0xafffffff,%ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_srcover_bgra_8888_skx
-.globl _sk_srcover_bgra_8888_skx
-FUNCTION(_sk_srcover_bgra_8888_skx)
-_sk_srcover_bgra_8888_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,235,0,0,0 // jne 1795 <_sk_srcover_bgra_8888_skx+0x105>
- .byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
- .byte 184,17,17,17,17 // mov $0x11111111,%eax
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
- .byte 197,252,91,244 // vcvtdq2ps %ymm4,%ymm6
- .byte 197,221,114,215,8 // vpsrld $0x8,%ymm7,%ymm4
- .byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
- .byte 197,252,91,236 // vcvtdq2ps %ymm4,%ymm5
- .byte 197,221,114,215,16 // vpsrld $0x10,%ymm7,%ymm4
- .byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,4,174,3,0 // vbroadcastss 0x3ae04(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,35,174,3,0 // vbroadcastss 0x3ae23(%rip),%ymm10 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
- .byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
- .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
- .byte 196,194,85,184,201 // vfmadd231ps %ymm9,%ymm5,%ymm1
- .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
- .byte 196,194,77,184,209 // vfmadd231ps %ymm9,%ymm6,%ymm2
- .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
- .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3
- .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11
- .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11
- .byte 196,65,37,235,201 // vpor %ymm9,%ymm11,%ymm9
- .byte 197,60,95,216 // vmaxps %ymm0,%ymm8,%ymm11
- .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,37,114,243,16 // vpslld $0x10,%ymm11,%ymm11
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
- .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 17c5 <_sk_srcover_bgra_8888_skx+0x135>
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,9,255,255,255 // ja 16b0 <_sk_srcover_bgra_8888_skx+0x20>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,251,0,0,0 // lea 0xfb(%rip),%r9 # 18ac <_sk_srcover_bgra_8888_skx+0x21c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 233,235,254,255,255 // jmpq 16b0 <_sk_srcover_bgra_8888_skx+0x20>
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,194 // ja 1791 <_sk_srcover_bgra_8888_skx+0x101>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,239,0,0,0 // lea 0xef(%rip),%r9 # 18c8 <_sk_srcover_bgra_8888_skx+0x238>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,167 // jmp 1791 <_sk_srcover_bgra_8888_skx+0x101>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 176,4 // mov $0x4,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
- .byte 196,194,121,53,36,144 // vpmovzxdq (%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
- .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,157,254,255,255 // jmpq 16b0 <_sk_srcover_bgra_8888_skx+0x20>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 176,64 // mov $0x40,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
- .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,81,254,255,255 // jmpq 16b0 <_sk_srcover_bgra_8888_skx+0x20>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
- .byte 98,82,126,8,53,4,144 // vpmovqd %xmm8,(%r8,%rdx,4)
- .byte 233,25,255,255,255 // jmpq 1791 <_sk_srcover_bgra_8888_skx+0x101>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 233,229,254,255,255 // jmpq 1791 <_sk_srcover_bgra_8888_skx+0x101>
- .byte 14 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,81,255 // callq *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 62,255 // ds (bad)
- .byte 255 // (bad)
- .byte 255,162,255,255,255,142 // jmpq *-0x71000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 122,255 // jp 18c1 <_sk_srcover_bgra_8888_skx+0x231>
- .byte 255 // (bad)
- .byte 255,103,255 // jmpq *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,26 // lcall *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,159,255,255,255,151 // lcall *-0x68000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255,204 // dec %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190,255,255,255,176 // mov $0xb0ffffff,%esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_clamp_0_skx
-.globl _sk_clamp_0_skx
-FUNCTION(_sk_clamp_0_skx)
-_sk_clamp_0_skx:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_1_skx
-.globl _sk_clamp_1_skx
-FUNCTION(_sk_clamp_1_skx)
-_sk_clamp_1_skx:
- .byte 196,98,125,24,5,242,171,3,0 // vbroadcastss 0x3abf2(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
- .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_skx
-.globl _sk_clamp_a_skx
-FUNCTION(_sk_clamp_a_skx)
-_sk_clamp_a_skx:
- .byte 98,241,100,56,93,29,208,171,3,0 // vminps 0x3abd0(%rip){1to8},%ymm3,%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
- .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
- .byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_dst_skx
-.globl _sk_clamp_a_dst_skx
-FUNCTION(_sk_clamp_a_dst_skx)
-_sk_clamp_a_dst_skx:
- .byte 98,241,68,56,93,61,182,171,3,0 // vminps 0x3abb6(%rip){1to8},%ymm7,%ymm7 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
- .byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
- .byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_set_rgb_skx
-.globl _sk_set_rgb_skx
-FUNCTION(_sk_set_rgb_skx)
-_sk_set_rgb_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
- .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1
- .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_swap_rb_skx
-.globl _sk_swap_rb_skx
-FUNCTION(_sk_swap_rb_skx)
-_sk_swap_rb_skx:
- .byte 197,124,40,192 // vmovaps %ymm0,%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,194 // vmovaps %ymm2,%ymm0
- .byte 197,124,41,194 // vmovaps %ymm8,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_invert_skx
-.globl _sk_invert_skx
-FUNCTION(_sk_invert_skx)
-_sk_invert_skx:
- .byte 196,98,125,24,5,118,171,3,0 // vbroadcastss 0x3ab76(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 197,188,92,219 // vsubps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_src_dst_skx
-.globl _sk_move_src_dst_skx
-FUNCTION(_sk_move_src_dst_skx)
-_sk_move_src_dst_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 197,252,40,233 // vmovaps %ymm1,%ymm5
- .byte 197,252,40,242 // vmovaps %ymm2,%ymm6
- .byte 197,252,40,251 // vmovaps %ymm3,%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_dst_src_skx
-.globl _sk_move_dst_src_skx
-FUNCTION(_sk_move_dst_src_skx)
-_sk_move_dst_src_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,196 // vmovaps %ymm4,%ymm0
- .byte 197,252,40,205 // vmovaps %ymm5,%ymm1
- .byte 197,252,40,214 // vmovaps %ymm6,%ymm2
- .byte 197,252,40,223 // vmovaps %ymm7,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_skx
-.globl _sk_premul_skx
-FUNCTION(_sk_premul_skx)
-_sk_premul_skx:
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_dst_skx
-.globl _sk_premul_dst_skx
-FUNCTION(_sk_premul_dst_skx)
-_sk_premul_dst_skx:
- .byte 197,220,89,231 // vmulps %ymm7,%ymm4,%ymm4
- .byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_unpremul_skx
-.globl _sk_unpremul_skx
-FUNCTION(_sk_unpremul_skx)
-_sk_unpremul_skx:
- .byte 196,98,125,24,5,17,171,3,0 // vbroadcastss 0x3ab11(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 98,241,60,56,194,5,50,171,3,0,1 // vcmpltps 0x3ab32(%rip){1to8},%ymm8,%k0 # 3c52c <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_skx
-.globl _sk_force_opaque_skx
-FUNCTION(_sk_force_opaque_skx)
-_sk_force_opaque_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,214,170,3,0 // vbroadcastss 0x3aad6(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_dst_skx
-.globl _sk_force_opaque_dst_skx
-FUNCTION(_sk_force_opaque_dst_skx)
-_sk_force_opaque_dst_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,201,170,3,0 // vbroadcastss 0x3aac9(%rip),%ymm7 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_from_srgb_skx
-.globl _sk_from_srgb_skx
-FUNCTION(_sk_from_srgb_skx)
-_sk_from_srgb_skx:
- .byte 196,98,125,24,5,242,170,3,0 // vbroadcastss 0x3aaf2(%rip),%ymm8 # 3c530 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
- .byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,228,170,3,0 // vbroadcastss 0x3aae4(%rip),%ymm11 # 3c534 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,195,170,3,0 // vbroadcastss 0x3aac3(%rip),%ymm12 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
- .byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,204,170,3,0 // vbroadcastss 0x3aacc(%rip),%ymm14 # 3c538 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
- .byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,194,170,3,0 // vbroadcastss 0x3aac2(%rip),%ymm10 # 3c53c <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
- .byte 98,209,124,40,194,194,1 // vcmpltps %ymm10,%ymm0,%k0
- .byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
- .byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
- .byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
- .byte 197,116,89,233 // vmulps %ymm1,%ymm1,%ymm13
- .byte 196,65,124,40,252 // vmovaps %ymm12,%ymm15
- .byte 196,66,117,168,251 // vfmadd213ps %ymm11,%ymm1,%ymm15
- .byte 196,66,21,168,254 // vfmadd213ps %ymm14,%ymm13,%ymm15
- .byte 98,209,116,40,194,194,1 // vcmpltps %ymm10,%ymm1,%k0
- .byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
- .byte 196,195,5,74,201,16 // vblendvps %ymm1,%ymm9,%ymm15,%ymm1
- .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
- .byte 197,108,89,202 // vmulps %ymm2,%ymm2,%ymm9
- .byte 196,66,109,168,227 // vfmadd213ps %ymm11,%ymm2,%ymm12
- .byte 196,66,53,168,230 // vfmadd213ps %ymm14,%ymm9,%ymm12
- .byte 98,209,108,40,194,194,1 // vcmpltps %ymm10,%ymm2,%k0
- .byte 98,242,126,40,56,208 // vpmovm2d %k0,%ymm2
- .byte 196,195,29,74,208,32 // vblendvps %ymm2,%ymm8,%ymm12,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_from_srgb_dst_skx
-.globl _sk_from_srgb_dst_skx
-FUNCTION(_sk_from_srgb_dst_skx)
-_sk_from_srgb_dst_skx:
- .byte 196,98,125,24,5,69,170,3,0 // vbroadcastss 0x3aa45(%rip),%ymm8 # 3c530 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
- .byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
- .byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,55,170,3,0 // vbroadcastss 0x3aa37(%rip),%ymm11 # 3c534 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,22,170,3,0 // vbroadcastss 0x3aa16(%rip),%ymm12 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
- .byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,31,170,3,0 // vbroadcastss 0x3aa1f(%rip),%ymm14 # 3c538 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
- .byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,21,170,3,0 // vbroadcastss 0x3aa15(%rip),%ymm10 # 3c53c <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
- .byte 98,209,92,40,194,194,1 // vcmpltps %ymm10,%ymm4,%k0
- .byte 98,242,126,40,56,224 // vpmovm2d %k0,%ymm4
- .byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
- .byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
- .byte 197,84,89,237 // vmulps %ymm5,%ymm5,%ymm13
- .byte 196,65,124,40,252 // vmovaps %ymm12,%ymm15
- .byte 196,66,85,168,251 // vfmadd213ps %ymm11,%ymm5,%ymm15
- .byte 196,66,21,168,254 // vfmadd213ps %ymm14,%ymm13,%ymm15
- .byte 98,209,84,40,194,194,1 // vcmpltps %ymm10,%ymm5,%k0
- .byte 98,242,126,40,56,232 // vpmovm2d %k0,%ymm5
- .byte 196,195,5,74,233,80 // vblendvps %ymm5,%ymm9,%ymm15,%ymm5
- .byte 196,65,76,89,192 // vmulps %ymm8,%ymm6,%ymm8
- .byte 197,76,89,206 // vmulps %ymm6,%ymm6,%ymm9
- .byte 196,66,77,168,227 // vfmadd213ps %ymm11,%ymm6,%ymm12
- .byte 196,66,53,168,230 // vfmadd213ps %ymm14,%ymm9,%ymm12
- .byte 98,209,76,40,194,194,1 // vcmpltps %ymm10,%ymm6,%k0
- .byte 98,242,126,40,56,240 // vpmovm2d %k0,%ymm6
- .byte 196,195,29,74,240,96 // vblendvps %ymm6,%ymm8,%ymm12,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_to_srgb_skx
-.globl _sk_to_srgb_skx
-FUNCTION(_sk_to_srgb_skx)
-_sk_to_srgb_skx:
- .byte 98,114,125,40,78,192 // vrsqrt14ps %ymm0,%ymm8
- .byte 196,98,125,24,13,162,169,3,0 // vbroadcastss 0x3a9a2(%rip),%ymm9 # 3c540 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
- .byte 196,65,124,89,209 // vmulps %ymm9,%ymm0,%ymm10
- .byte 196,98,125,24,29,152,169,3,0 // vbroadcastss 0x3a998(%rip),%ymm11 # 3c544 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- .byte 196,98,125,24,37,147,169,3,0 // vbroadcastss 0x3a993(%rip),%ymm12 # 3c548 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
- .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
- .byte 196,66,61,168,235 // vfmadd213ps %ymm11,%ymm8,%ymm13
- .byte 196,98,125,24,53,132,169,3,0 // vbroadcastss 0x3a984(%rip),%ymm14 # 3c54c <_sk_srcover_bgra_8888_sse2_lowp+0x300>
- .byte 196,66,61,168,238 // vfmadd213ps %ymm14,%ymm8,%ymm13
- .byte 196,98,125,24,61,122,169,3,0 // vbroadcastss 0x3a97a(%rip),%ymm15 # 3c550 <_sk_srcover_bgra_8888_sse2_lowp+0x304>
- .byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8
- .byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8
- .byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,101,169,3,0 // vbroadcastss 0x3a965(%rip),%ymm13 # 3c554 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
- .byte 98,209,124,40,194,197,1 // vcmpltps %ymm13,%ymm0,%k0
- .byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
- .byte 196,195,61,74,194,0 // vblendvps %ymm0,%ymm10,%ymm8,%ymm0
- .byte 98,114,125,40,78,193 // vrsqrt14ps %ymm1,%ymm8
- .byte 196,65,116,89,209 // vmulps %ymm9,%ymm1,%ymm10
- .byte 98,193,124,40,40,196 // vmovaps %ymm12,%ymm16
- .byte 98,194,61,40,168,195 // vfmadd213ps %ymm11,%ymm8,%ymm16
- .byte 98,194,61,40,168,198 // vfmadd213ps %ymm14,%ymm8,%ymm16
- .byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8
- .byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8
- .byte 98,81,124,32,89,192 // vmulps %ymm8,%ymm16,%ymm8
- .byte 98,209,116,40,194,197,1 // vcmpltps %ymm13,%ymm1,%k0
- .byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
- .byte 196,195,61,74,202,16 // vblendvps %ymm1,%ymm10,%ymm8,%ymm1
- .byte 98,114,125,40,78,194 // vrsqrt14ps %ymm2,%ymm8
- .byte 196,65,108,89,201 // vmulps %ymm9,%ymm2,%ymm9
- .byte 196,66,61,168,227 // vfmadd213ps %ymm11,%ymm8,%ymm12
- .byte 196,66,61,168,230 // vfmadd213ps %ymm14,%ymm8,%ymm12
- .byte 196,65,60,88,199 // vaddps %ymm15,%ymm8,%ymm8
- .byte 98,82,125,40,76,192 // vrcp14ps %ymm8,%ymm8
- .byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
- .byte 98,209,108,40,194,197,1 // vcmpltps %ymm13,%ymm2,%k0
- .byte 98,242,126,40,56,208 // vpmovm2d %k0,%ymm2
- .byte 196,195,61,74,209,32 // vblendvps %ymm2,%ymm9,%ymm8,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_rgb_to_hsl_skx
-.globl _sk_rgb_to_hsl_skx
-FUNCTION(_sk_rgb_to_hsl_skx)
-_sk_rgb_to_hsl_skx:
- .byte 98,225,124,40,40,207 // vmovaps %ymm7,%ymm17
- .byte 197,116,95,194 // vmaxps %ymm2,%ymm1,%ymm8
- .byte 196,65,124,95,200 // vmaxps %ymm8,%ymm0,%ymm9
- .byte 197,116,93,194 // vminps %ymm2,%ymm1,%ymm8
- .byte 196,65,124,93,208 // vminps %ymm8,%ymm0,%ymm10
- .byte 98,193,52,40,92,194 // vsubps %ymm10,%ymm9,%ymm16
- .byte 196,98,125,24,5,86,168,3,0 // vbroadcastss 0x3a856(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 98,49,60,40,94,224 // vdivps %ymm16,%ymm8,%ymm12
- .byte 98,209,52,40,194,194,0 // vcmpeqps %ymm10,%ymm9,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 98,241,52,40,194,192,0 // vcmpeqps %ymm0,%ymm9,%k0
- .byte 98,114,126,40,56,232 // vpmovm2d %k0,%ymm13
- .byte 197,116,92,242 // vsubps %ymm2,%ymm1,%ymm14
- .byte 98,241,116,40,194,194,1 // vcmpltps %ymm2,%ymm1,%k0
- .byte 98,114,126,40,56,248 // vpmovm2d %k0,%ymm15
- .byte 196,98,125,24,29,120,168,3,0 // vbroadcastss 0x3a878(%rip),%ymm11 # 3c558 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 196,67,69,74,219,240 // vblendvps %ymm15,%ymm11,%ymm7,%ymm11
- .byte 196,66,29,168,243 // vfmadd213ps %ymm11,%ymm12,%ymm14
- .byte 98,241,52,40,194,193,0 // vcmpeqps %ymm1,%ymm9,%k0
- .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
- .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,98,125,24,61,83,168,3,0 // vbroadcastss 0x3a853(%rip),%ymm15 # 3c55c <_sk_srcover_bgra_8888_sse2_lowp+0x310>
- .byte 196,194,29,168,215 // vfmadd213ps %ymm15,%ymm12,%ymm2
- .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
- .byte 98,242,29,56,168,5,68,168,3,0 // vfmadd213ps 0x3a844(%rip){1to8},%ymm12,%ymm0 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
- .byte 196,227,125,74,194,176 // vblendvps %ymm11,%ymm2,%ymm0,%ymm0
- .byte 196,195,125,74,198,208 // vblendvps %ymm13,%ymm14,%ymm0,%ymm0
- .byte 196,227,125,74,199,128 // vblendvps %ymm8,%ymm7,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,44,168,3,0 // vmulps 0x3a82c(%rip){1to8},%ymm0,%ymm0 # 3c564 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
- .byte 196,193,52,88,202 // vaddps %ymm10,%ymm9,%ymm1
- .byte 196,98,125,24,29,178,167,3,0 // vbroadcastss 0x3a7b2(%rip),%ymm11 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
- .byte 98,241,36,40,194,194,1 // vcmpltps %ymm2,%ymm11,%k0
- .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
- .byte 196,65,4,92,201 // vsubps %ymm9,%ymm15,%ymm9
- .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,195,117,74,201,176 // vblendvps %ymm11,%ymm9,%ymm1,%ymm1
- .byte 98,241,124,32,94,201 // vdivps %ymm1,%ymm16,%ymm1
- .byte 196,227,117,74,207,128 // vblendvps %ymm8,%ymm7,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,177,124,40,40,249 // vmovaps %ymm17,%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hsl_to_rgb_skx
-.globl _sk_hsl_to_rgb_skx
-FUNCTION(_sk_hsl_to_rgb_skx)
-_sk_hsl_to_rgb_skx:
- .byte 98,225,124,40,40,215 // vmovaps %ymm7,%ymm18
- .byte 98,225,124,40,40,230 // vmovaps %ymm6,%ymm20
- .byte 98,226,125,40,24,5,100,167,3,0 // vbroadcastss 0x3a764(%rip),%ymm16 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,241,124,32,194,194,2 // vcmpleps %ymm2,%ymm16,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 197,116,89,202 // vmulps %ymm2,%ymm1,%ymm9
- .byte 196,65,116,92,209 // vsubps %ymm9,%ymm1,%ymm10
- .byte 196,67,53,74,194,128 // vblendvps %ymm8,%ymm10,%ymm9,%ymm8
- .byte 197,60,88,218 // vaddps %ymm2,%ymm8,%ymm11
- .byte 196,65,124,40,203 // vmovaps %ymm11,%ymm9
- .byte 98,114,109,56,186,13,153,167,3,0 // vfmsub231ps 0x3a799(%rip){1to8},%ymm2,%ymm9 # 3c55c <_sk_srcover_bgra_8888_sse2_lowp+0x310>
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 98,209,116,40,194,192,0 // vcmpeqps %ymm8,%ymm1,%k0
- .byte 98,242,126,40,56,248 // vpmovm2d %k0,%ymm7
- .byte 98,241,124,56,88,13,137,167,3,0 // vaddps 0x3a789(%rip){1to8},%ymm0,%ymm1 # 3c568 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- .byte 196,99,125,8,193,1 // vroundps $0x1,%ymm1,%ymm8
- .byte 196,193,116,92,200 // vsubps %ymm8,%ymm1,%ymm1
- .byte 98,226,125,40,24,29,120,167,3,0 // vbroadcastss 0x3a778(%rip),%ymm19 # 3c56c <_sk_srcover_bgra_8888_sse2_lowp+0x320>
- .byte 98,241,100,32,194,193,2 // vcmpleps %ymm1,%ymm19,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14
- .byte 196,98,125,24,61,73,167,3,0 // vbroadcastss 0x3a749(%rip),%ymm15 # 3c558 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
- .byte 196,65,116,89,231 // vmulps %ymm15,%ymm1,%ymm12
- .byte 98,226,125,40,24,13,66,167,3,0 // vbroadcastss 0x3a742(%rip),%ymm17 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
- .byte 98,81,116,32,92,212 // vsubps %ymm12,%ymm17,%ymm10
- .byte 196,66,13,168,209 // vfmadd213ps %ymm9,%ymm14,%ymm10
- .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- .byte 98,241,124,32,194,193,2 // vcmpleps %ymm1,%ymm16,%k0
- .byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
- .byte 196,67,37,74,192,160 // vblendvps %ymm10,%ymm8,%ymm11,%ymm8
- .byte 196,98,125,24,21,25,167,3,0 // vbroadcastss 0x3a719(%rip),%ymm10 # 3c564 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
- .byte 98,241,44,40,194,193,2 // vcmpleps %ymm1,%ymm10,%k0
- .byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
- .byte 196,66,13,168,225 // vfmadd213ps %ymm9,%ymm14,%ymm12
- .byte 196,195,29,74,200,16 // vblendvps %ymm1,%ymm8,%ymm12,%ymm1
- .byte 196,227,117,74,242,112 // vblendvps %ymm7,%ymm2,%ymm1,%ymm6
- .byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
- .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 98,241,100,32,194,193,2 // vcmpleps %ymm1,%ymm19,%k0
- .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
- .byte 196,65,116,89,239 // vmulps %ymm15,%ymm1,%ymm13
- .byte 98,81,116,32,92,197 // vsubps %ymm13,%ymm17,%ymm8
- .byte 196,66,13,168,193 // vfmadd213ps %ymm9,%ymm14,%ymm8
- .byte 196,67,61,74,193,192 // vblendvps %ymm12,%ymm9,%ymm8,%ymm8
- .byte 98,241,124,32,194,193,2 // vcmpleps %ymm1,%ymm16,%k0
- .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
- .byte 196,67,37,74,192,192 // vblendvps %ymm12,%ymm8,%ymm11,%ymm8
- .byte 98,241,44,40,194,193,2 // vcmpleps %ymm1,%ymm10,%k0
- .byte 98,242,126,40,56,200 // vpmovm2d %k0,%ymm1
- .byte 196,66,13,168,233 // vfmadd213ps %ymm9,%ymm14,%ymm13
- .byte 196,195,21,74,200,16 // vblendvps %ymm1,%ymm8,%ymm13,%ymm1
- .byte 196,227,117,74,202,112 // vblendvps %ymm7,%ymm2,%ymm1,%ymm1
- .byte 98,241,124,56,88,5,159,166,3,0 // vaddps 0x3a69f(%rip){1to8},%ymm0,%ymm0 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
- .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
- .byte 98,241,100,32,194,192,2 // vcmpleps %ymm0,%ymm19,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,65,124,89,231 // vmulps %ymm15,%ymm0,%ymm12
- .byte 98,81,116,32,92,236 // vsubps %ymm12,%ymm17,%ymm13
- .byte 196,66,13,168,233 // vfmadd213ps %ymm9,%ymm14,%ymm13
- .byte 196,67,21,74,193,128 // vblendvps %ymm8,%ymm9,%ymm13,%ymm8
- .byte 98,241,124,32,194,192,2 // vcmpleps %ymm0,%ymm16,%k0
- .byte 98,114,126,40,56,232 // vpmovm2d %k0,%ymm13
- .byte 196,67,37,74,192,208 // vblendvps %ymm13,%ymm8,%ymm11,%ymm8
- .byte 98,241,44,40,194,192,2 // vcmpleps %ymm0,%ymm10,%k0
- .byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
- .byte 196,66,13,184,204 // vfmadd231ps %ymm12,%ymm14,%ymm9
- .byte 196,195,53,74,192,0 // vblendvps %ymm0,%ymm8,%ymm9,%ymm0
- .byte 196,227,125,74,210,112 // vblendvps %ymm7,%ymm2,%ymm0,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,198 // vmovaps %ymm6,%ymm0
- .byte 98,177,124,40,40,244 // vmovaps %ymm20,%ymm6
- .byte 98,177,124,40,40,250 // vmovaps %ymm18,%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_1_float_skx
-.globl _sk_scale_1_float_skx
-FUNCTION(_sk_scale_1_float_skx)
-_sk_scale_1_float_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_u8_skx
-.globl _sk_scale_u8_skx
-FUNCTION(_sk_scale_u8_skx)
-_sk_scale_u8_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 1fa7 <_sk_scale_u8_skx+0x48>
- .byte 196,66,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm8
- .byte 197,57,219,5,49,175,3,0 // vpand 0x3af31(%rip),%xmm8,%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,225,165,3,0 // vmulps 0x3a5e1(%rip){1to8},%ymm8,%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,193 // ja 1f77 <_sk_scale_u8_skx+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 204c <_sk_scale_u8_skx+0xed>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,163 // jmp 1f77 <_sk_scale_u8_skx+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
- .byte 196,66,121,50,12,16 // vpmovzxbq (%r8,%rdx,1),%xmm9
- .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
- .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
- .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,118,255,255,255 // jmpq 1f77 <_sk_scale_u8_skx+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,57,196,192,5 // vpinsrw $0x5,%eax,%xmm8,%xmm8
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,57,196,192,4 // vpinsrw $0x4,%eax,%xmm8,%xmm8
- .byte 196,66,121,49,12,16 // vpmovzxbd (%r8,%rdx,1),%xmm9
- .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
- .byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
- .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
- .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,45,255,255,255 // jmpq 1f77 <_sk_scale_u8_skx+0x18>
- .byte 102,144 // xchg %ax,%ax
- .byte 125,255 // jge 204d <_sk_scale_u8_skx+0xee>
- .byte 255 // (bad)
- .byte 255,152,255,255,255,136 // lcall *-0x77000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,208 // callq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 181,255 // mov $0xff,%ch
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_scale_565_skx
-.globl _sk_scale_565_skx
-FUNCTION(_sk_scale_565_skx)
-_sk_scale_565_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,145,0,0,0 // jne 2112 <_sk_scale_565_skx+0xaa>
- .byte 196,65,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm8
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,226,164,3,0 // vpandd 0x3a4e2(%rip){1to8},%ymm8,%ymm9 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,215,164,3,0 // vmulps 0x3a4d7(%rip){1to8},%ymm9,%ymm9 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,113,61,56,219,21,209,164,3,0 // vpandd 0x3a4d1(%rip){1to8},%ymm8,%ymm10 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,198,164,3,0 // vmulps 0x3a4c6(%rip){1to8},%ymm10,%ymm10 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,113,61,56,219,5,192,164,3,0 // vpandd 0x3a4c0(%rip){1to8},%ymm8,%ymm8 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,181,164,3,0 // vmulps 0x3a4b5(%rip){1to8},%ymm8,%ymm8 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
- .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
- .byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
- .byte 196,65,52,93,228 // vminps %ymm12,%ymm9,%ymm12
- .byte 196,65,44,95,232 // vmaxps %ymm8,%ymm10,%ymm13
- .byte 196,65,52,95,237 // vmaxps %ymm13,%ymm9,%ymm13
- .byte 196,67,21,74,220,176 // vblendvps %ymm11,%ymm12,%ymm13,%ymm11
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,164,89,219 // vmulps %ymm3,%ymm11,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,98,255,255,255 // ja 2087 <_sk_scale_565_skx+0x1f>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,129,0,0,0 // lea 0x81(%rip),%r9 # 21b0 <_sk_scale_565_skx+0x148>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,65,255,255,255 // jmpq 2087 <_sk_scale_565_skx+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,66,121,52,12,80 // vpmovzxwq (%r8,%rdx,2),%xmm9
- .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
- .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
- .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,23,255,255,255 // jmpq 2087 <_sk_scale_565_skx+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,57,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,57,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,66,121,51,12,80 // vpmovzxwd (%r8,%rdx,2),%xmm9
- .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
- .byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
- .byte 196,65,121,112,201,132 // vpshufd $0x84,%xmm9,%xmm9
- .byte 196,65,49,109,192 // vpunpckhqdq %xmm8,%xmm9,%xmm8
- .byte 233,216,254,255,255 // jmpq 2087 <_sk_scale_565_skx+0x1f>
- .byte 144 // nop
- .byte 136,255 // mov %bh,%bh
- .byte 255 // (bad)
- .byte 255,163,255,255,255,150 // jmpq *-0x69000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,192 // inc %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_1_float_skx
-.globl _sk_lerp_1_float_skx
-FUNCTION(_sk_lerp_1_float_skx)
-_sk_lerp_1_float_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
- .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
- .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
- .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
- .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2
- .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3
- .byte 196,226,61,168,223 // vfmadd213ps %ymm7,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lerp_u8_skx
-.globl _sk_lerp_u8_skx
-FUNCTION(_sk_lerp_u8_skx)
-_sk_lerp_u8_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,74 // jne 2257 <_sk_lerp_u8_skx+0x5c>
- .byte 196,66,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm8
- .byte 197,57,219,5,149,172,3,0 // vpand 0x3ac95(%rip),%xmm8,%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,69,163,3,0 // vmulps 0x3a345(%rip){1to8},%ymm8,%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
- .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
- .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
- .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
- .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2
- .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3
- .byte 196,226,61,168,223 // vfmadd213ps %ymm7,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,173 // ja 2213 <_sk_lerp_u8_skx+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 22fc <_sk_lerp_u8_skx+0x101>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,143 // jmp 2213 <_sk_lerp_u8_skx+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
- .byte 196,66,121,50,12,16 // vpmovzxbq (%r8,%rdx,1),%xmm9
- .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
- .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
- .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,98,255,255,255 // jmpq 2213 <_sk_lerp_u8_skx+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,57,196,192,5 // vpinsrw $0x5,%eax,%xmm8,%xmm8
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,57,196,192,4 // vpinsrw $0x4,%eax,%xmm8,%xmm8
- .byte 196,66,121,49,12,16 // vpmovzxbd (%r8,%rdx,1),%xmm9
- .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
- .byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
- .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
- .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,25,255,255,255 // jmpq 2213 <_sk_lerp_u8_skx+0x18>
- .byte 102,144 // xchg %ax,%ax
- .byte 125,255 // jge 22fd <_sk_lerp_u8_skx+0x102>
- .byte 255 // (bad)
- .byte 255,152,255,255,255,136 // lcall *-0x77000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,208 // callq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 181,255 // mov $0xff,%ch
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_565_skx
-.globl _sk_lerp_565_skx
-FUNCTION(_sk_lerp_565_skx)
-_sk_lerp_565_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 23d6 <_sk_lerp_565_skx+0xbe>
- .byte 196,65,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm8
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 98,113,61,56,219,13,50,162,3,0 // vpandd 0x3a232(%rip){1to8},%ymm8,%ymm9 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,113,52,56,89,13,39,162,3,0 // vmulps 0x3a227(%rip){1to8},%ymm9,%ymm9 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,113,61,56,219,21,33,162,3,0 // vpandd 0x3a221(%rip){1to8},%ymm8,%ymm10 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 98,113,44,56,89,21,22,162,3,0 // vmulps 0x3a216(%rip){1to8},%ymm10,%ymm10 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,113,61,56,219,5,16,162,3,0 // vpandd 0x3a210(%rip){1to8},%ymm8,%ymm8 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 98,113,60,56,89,5,5,162,3,0 // vmulps 0x3a205(%rip){1to8},%ymm8,%ymm8 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 98,241,100,40,194,199,1 // vcmpltps %ymm7,%ymm3,%k0
- .byte 98,114,126,40,56,216 // vpmovm2d %k0,%ymm11
- .byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
- .byte 196,65,52,93,228 // vminps %ymm12,%ymm9,%ymm12
- .byte 196,65,44,95,232 // vmaxps %ymm8,%ymm10,%ymm13
- .byte 196,65,52,95,237 // vmaxps %ymm13,%ymm9,%ymm13
- .byte 196,67,21,74,220,176 // vblendvps %ymm11,%ymm12,%ymm13,%ymm11
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 196,226,53,168,196 // vfmadd213ps %ymm4,%ymm9,%ymm0
- .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
- .byte 196,226,45,168,205 // vfmadd213ps %ymm5,%ymm10,%ymm1
- .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
- .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2
- .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3
- .byte 196,226,37,168,223 // vfmadd213ps %ymm7,%ymm11,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,78,255,255,255 // ja 2337 <_sk_lerp_565_skx+0x1f>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,129,0,0,0 // lea 0x81(%rip),%r9 # 2474 <_sk_lerp_565_skx+0x15c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,45,255,255,255 // jmpq 2337 <_sk_lerp_565_skx+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,66,121,52,12,80 // vpmovzxwq (%r8,%rdx,2),%xmm9
- .byte 196,65,121,112,201,232 // vpshufd $0xe8,%xmm9,%xmm9
- .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
- .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,3,255,255,255 // jmpq 2337 <_sk_lerp_565_skx+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,57,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,57,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,66,121,51,12,80 // vpmovzxwd (%r8,%rdx,2),%xmm9
- .byte 196,65,123,112,201,232 // vpshuflw $0xe8,%xmm9,%xmm9
- .byte 196,65,122,112,201,232 // vpshufhw $0xe8,%xmm9,%xmm9
- .byte 196,65,121,112,201,132 // vpshufd $0x84,%xmm9,%xmm9
- .byte 196,65,49,109,192 // vpunpckhqdq %xmm8,%xmm9,%xmm8
- .byte 233,196,254,255,255 // jmpq 2337 <_sk_lerp_565_skx+0x1f>
- .byte 144 // nop
- .byte 136,255 // mov %bh,%bh
- .byte 255 // (bad)
- .byte 255,163,255,255,255,150 // jmpq *-0x69000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,192 // inc %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_tables_skx
-.globl _sk_load_tables_skx
-FUNCTION(_sk_load_tables_skx)
-_sk_load_tables_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,124 // jne 2516 <_sk_load_tables_skx+0x86>
- .byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 65,184,17,17,17,17 // mov $0x11111111,%r8d
- .byte 196,193,123,146,200 // kmovd %r8d,%k1
- .byte 98,241,127,169,111,203 // vmovdqu8 %ymm3,%ymm1{%k1}{z}
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,194,109,146,4,136 // vgatherdps %ymm2,(%r8,%ymm1,4),%ymm0
- .byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
- .byte 98,241,127,169,111,209 // vmovdqu8 %ymm1,%ymm2{%k1}{z}
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,194,61,146,12,145 // vgatherdps %ymm8,(%r9,%ymm2,4),%ymm1
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 197,181,114,211,16 // vpsrld $0x10,%ymm3,%ymm9
- .byte 98,81,127,169,111,201 // vmovdqu8 %ymm9,%ymm9{%k1}{z}
- .byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
- .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,98,160,3,0 // vmulps 0x3a062(%rip){1to8},%ymm3,%ymm3 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 65,128,193,255 // add $0xff,%r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,113,255,255,255 // ja 24a0 <_sk_load_tables_skx+0x10>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 25c8 <_sk_load_tables_skx+0x138>
- .byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
- .byte 77,1,209 // add %r10,%r9
- .byte 65,255,225 // jmpq *%r9
- .byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,81,255,255,255 // jmpq 24a0 <_sk_load_tables_skx+0x10>
- .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
- .byte 65,177,4 // mov $0x4,%r9b
- .byte 196,193,123,146,201 // kmovd %r9d,%k1
- .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
- .byte 196,194,121,53,4,144 // vpmovzxdq (%r8,%rdx,4),%xmm0
- .byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
- .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,38,255,255,255 // jmpq 24a0 <_sk_load_tables_skx+0x10>
- .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
- .byte 65,177,64 // mov $0x40,%r9b
- .byte 196,193,123,146,201 // kmovd %r9d,%k1
- .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
- .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,216,254,255,255 // jmpq 24a0 <_sk_load_tables_skx+0x10>
- .byte 124,255 // jl 25c9 <_sk_load_tables_skx+0x139>
- .byte 255 // (bad)
- .byte 255,156,255,255,255,135,255 // lcall *-0x780001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 178,255 // mov $0xff,%dl
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_tables_u16_be_skx
-.globl _sk_load_tables_u16_be_skx
-FUNCTION(_sk_load_tables_u16_be_skx)
-_sk_load_tables_u16_be_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,210,0,0,0 // jne 26cc <_sk_load_tables_u16_be_skx+0xe8>
- .byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
- .byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
- .byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
- .byte 196,1,122,111,76,72,48 // vmovdqu 0x30(%r8,%r9,2),%xmm9
- .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0
- .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2
- .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1
- .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3
- .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8
- .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
- .byte 197,241,97,195 // vpunpcklwd %xmm3,%xmm1,%xmm0
- .byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
- .byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
- .byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
- .byte 197,121,111,21,105,168,3,0 // vmovdqa 0x3a869(%rip),%xmm10 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,193,113,219,194 // vpand %xmm10,%xmm1,%xmm0
- .byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 196,194,109,146,4,136 // vgatherdps %ymm2,(%r8,%ymm1,4),%ymm0
- .byte 196,193,49,108,219 // vpunpcklqdq %xmm11,%xmm9,%xmm3
- .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,193,57,219,202 // vpand %xmm10,%xmm8,%xmm1
- .byte 196,98,125,51,193 // vpmovzxwd %xmm1,%ymm8
- .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,130,21,146,12,129 // vgatherdps %ymm13,(%r9,%ymm8,4),%ymm1
- .byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,193,97,219,218 // vpand %xmm10,%xmm3,%xmm3
- .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
- .byte 196,226,29,146,20,152 // vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2
- .byte 196,193,49,109,219 // vpunpckhqdq %xmm11,%xmm9,%xmm3
- .byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8
- .byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3
- .byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
- .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,200,158,3,0 // vmulps 0x39ec8(%rip){1to8},%ymm3,%ymm3 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 2732 <_sk_load_tables_u16_be_skx+0x14e>
- .byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 2732 <_sk_load_tables_u16_be_skx+0x14e>
- .byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 273f <_sk_load_tables_u16_be_skx+0x15b>
- .byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 273f <_sk_load_tables_u16_be_skx+0x15b>
- .byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,0,255,255,255 // je 2615 <_sk_load_tables_u16_be_skx+0x31>
- .byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,239,254,255,255 // jb 2615 <_sk_load_tables_u16_be_skx+0x31>
- .byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,227,254,255,255 // jmpq 2615 <_sk_load_tables_u16_be_skx+0x31>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,214,254,255,255 // jmpq 2615 <_sk_load_tables_u16_be_skx+0x31>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,205,254,255,255 // jmpq 2615 <_sk_load_tables_u16_be_skx+0x31>
-
-HIDDEN _sk_load_tables_rgb_u16_be_skx
-.globl _sk_load_tables_rgb_u16_be_skx
-FUNCTION(_sk_load_tables_rgb_u16_be_skx)
-_sk_load_tables_rgb_u16_be_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,203,0,0,0 // jne 2825 <_sk_load_tables_rgb_u16_be_skx+0xdd>
- .byte 196,1,121,16,28,72 // vmovupd (%r8,%r9,2),%xmm11
- .byte 196,129,121,16,92,72,12 // vmovupd 0xc(%r8,%r9,2),%xmm3
- .byte 196,129,121,16,84,72,24 // vmovupd 0x18(%r8,%r9,2),%xmm2
- .byte 98,145,125,8,115,92,72,2,4 // vpsrldq $0x4,0x20(%r8,%r9,2),%xmm0
- .byte 196,193,57,115,219,6 // vpsrldq $0x6,%xmm11,%xmm8
- .byte 197,169,115,219,6 // vpsrldq $0x6,%xmm3,%xmm10
- .byte 197,241,115,218,6 // vpsrldq $0x6,%xmm2,%xmm1
- .byte 197,177,115,216,6 // vpsrldq $0x6,%xmm0,%xmm9
- .byte 196,193,113,97,201 // vpunpcklwd %xmm9,%xmm1,%xmm1
- .byte 197,233,97,192 // vpunpcklwd %xmm0,%xmm2,%xmm0
- .byte 196,193,57,97,210 // vpunpcklwd %xmm10,%xmm8,%xmm2
- .byte 197,161,97,219 // vpunpcklwd %xmm3,%xmm11,%xmm3
- .byte 197,97,97,194 // vpunpcklwd %xmm2,%xmm3,%xmm8
- .byte 197,225,105,210 // vpunpckhwd %xmm2,%xmm3,%xmm2
- .byte 197,249,97,217 // vpunpcklwd %xmm1,%xmm0,%xmm3
- .byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0
- .byte 197,105,108,200 // vpunpcklqdq %xmm0,%xmm2,%xmm9
- .byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
- .byte 197,121,111,21,242,166,3,0 // vmovdqa 0x3a6f2(%rip),%xmm10 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,193,121,219,194 // vpand %xmm10,%xmm0,%xmm0
- .byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,194,109,146,4,136 // vgatherdps %ymm2,(%r8,%ymm1,4),%ymm0
- .byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
- .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,193,113,219,202 // vpand %xmm10,%xmm1,%xmm1
- .byte 196,98,125,51,193 // vpmovzxwd %xmm1,%ymm8
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
- .byte 196,130,37,146,12,129 // vgatherdps %ymm11,(%r9,%ymm8,4),%ymm1
- .byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,193,49,219,218 // vpand %xmm10,%xmm9,%xmm3
- .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
- .byte 196,226,29,146,20,152 // vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,217,156,3,0 // vbroadcastss 0x39cd9(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
- .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 285d <_sk_load_tables_rgb_u16_be_skx+0x115>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq 278c <_sk_load_tables_rgb_u16_be_skx+0x44>
- .byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
- .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 28a7 <_sk_load_tables_rgb_u16_be_skx+0x15f>
- .byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
- .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 28c1 <_sk_load_tables_rgb_u16_be_skx+0x179>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq 278c <_sk_load_tables_rgb_u16_be_skx+0x44>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq 278c <_sk_load_tables_rgb_u16_be_skx+0x44>
- .byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
- .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 2902 <_sk_load_tables_rgb_u16_be_skx+0x1ba>
- .byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
- .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 2913 <_sk_load_tables_rgb_u16_be_skx+0x1cb>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq 278c <_sk_load_tables_rgb_u16_be_skx+0x44>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq 278c <_sk_load_tables_rgb_u16_be_skx+0x44>
- .byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
- .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 2946 <_sk_load_tables_rgb_u16_be_skx+0x1fe>
- .byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
- .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq 278c <_sk_load_tables_rgb_u16_be_skx+0x44>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq 278c <_sk_load_tables_rgb_u16_be_skx+0x44>
-
-HIDDEN _sk_byte_tables_skx
-.globl _sk_byte_tables_skx
-FUNCTION(_sk_byte_tables_skx)
-_sk_byte_tables_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,29,153,155,3,0 // vbroadcastss 0x39b99(%rip),%ymm11 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,211 // vminps %ymm11,%ymm9,%ymm10
- .byte 196,98,125,24,13,183,155,3,0 // vbroadcastss 0x39bb7(%rip),%ymm9 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,44,89,209 // vmulps %ymm9,%ymm10,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,65,249,126,208 // vmovq %xmm10,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 76,139,16 // mov (%rax),%r10
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,193,121,110,193 // vmovd %r9d,%xmm0
- .byte 196,67,249,22,209,1 // vpextrq $0x1,%xmm10,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,99,125,57,208,1 // vextracti128 $0x1,%ymm10,%xmm0
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,25,32,208,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm10
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,41,32,209,3 // vpinsrb $0x3,%r9d,%xmm10,%xmm10
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,41,32,209,4 // vpinsrb $0x4,%r9d,%xmm10,%xmm10
- .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,41,32,192,5 // vpinsrb $0x5,%r8d,%xmm10,%xmm0
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,121,32,192,6 // vpinsrb $0x6,%r8d,%xmm0,%xmm0
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,121,32,209,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm10
- .byte 197,188,95,193 // vmaxps %ymm1,%ymm8,%ymm0
- .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,195,121,32,194,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm0
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,195,121,32,194,4 // vpinsrb $0x4,%r10d,%xmm0,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,5 // vpinsrb $0x5,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0
- .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
- .byte 196,195,121,32,200,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm1
- .byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 197,188,95,194 // vmaxps %ymm2,%ymm8,%ymm0
- .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,195,121,32,194,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm0
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,195,121,32,194,4 // vpinsrb $0x4,%r10d,%xmm0,%xmm0
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,5 // vpinsrb $0x5,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
- .byte 196,195,121,32,208,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm2
- .byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 197,188,95,195 // vmaxps %ymm3,%ymm8,%ymm0
- .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 68,137,192 // mov %r8d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,97,32,216,1 // vpinsrb $0x1,%eax,%xmm3,%xmm3
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,97,32,216,2 // vpinsrb $0x2,%eax,%xmm3,%xmm3
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,227,97,32,216,3 // vpinsrb $0x3,%eax,%xmm3,%xmm3
- .byte 68,137,192 // mov %r8d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,97,32,216,4 // vpinsrb $0x4,%eax,%xmm3,%xmm3
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,97,32,192,5 // vpinsrb $0x5,%eax,%xmm3,%xmm0
- .byte 68,137,208 // mov %r10d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,121,32,216,6 // vpinsrb $0x6,%eax,%xmm0,%xmm3
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,109,153,3,0 // vbroadcastss 0x3996d(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,125,49,210 // vpmovzxbd %xmm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,227,97,32,216,7 // vpinsrb $0x7,%eax,%xmm3,%xmm3
- .byte 196,226,125,49,219 // vpmovzxbd %xmm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_byte_tables_rgb_skx
-.globl _sk_byte_tables_rgb_skx
-FUNCTION(_sk_byte_tables_rgb_skx)
-_sk_byte_tables_rgb_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,24 // mov 0x18(%rax),%r8d
- .byte 65,131,192,255 // add $0xffffffff,%r8d
- .byte 98,82,125,40,124,192 // vpbroadcastd %r8d,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,52,95,208 // vmaxps %ymm0,%ymm9,%ymm10
- .byte 196,98,125,24,29,149,152,3,0 // vbroadcastss 0x39895(%rip),%ymm11 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,44,93,211 // vminps %ymm11,%ymm10,%ymm10
- .byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,65,249,126,208 // vmovq %xmm10,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 76,139,16 // mov (%rax),%r10
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,193,121,110,193 // vmovd %r9d,%xmm0
- .byte 196,67,249,22,209,1 // vpextrq $0x1,%xmm10,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,99,125,57,208,1 // vextracti128 $0x1,%ymm10,%xmm0
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,25,32,208,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm10
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,41,32,209,3 // vpinsrb $0x3,%r9d,%xmm10,%xmm10
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,41,32,209,4 // vpinsrb $0x4,%r9d,%xmm10,%xmm10
- .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,41,32,192,5 // vpinsrb $0x5,%r8d,%xmm10,%xmm0
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,121,32,192,6 // vpinsrb $0x6,%r8d,%xmm0,%xmm0
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,121,32,209,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm10
- .byte 197,180,95,193 // vmaxps %ymm1,%ymm9,%ymm0
- .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,195,121,32,194,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm0
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,195,121,32,194,4 // vpinsrb $0x4,%r10d,%xmm0,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,5 // vpinsrb $0x5,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
- .byte 196,195,121,32,200,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm1
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 197,180,95,194 // vmaxps %ymm2,%ymm9,%ymm0
- .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 68,137,192 // mov %r8d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,105,32,208,1 // vpinsrb $0x1,%eax,%xmm2,%xmm2
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,105,32,208,2 // vpinsrb $0x2,%eax,%xmm2,%xmm2
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,227,105,32,208,3 // vpinsrb $0x3,%eax,%xmm2,%xmm2
- .byte 68,137,192 // mov %r8d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,105,32,208,4 // vpinsrb $0x4,%eax,%xmm2,%xmm2
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,105,32,192,5 // vpinsrb $0x5,%eax,%xmm2,%xmm0
- .byte 68,137,208 // mov %r10d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,121,32,208,6 // vpinsrb $0x6,%eax,%xmm0,%xmm2
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,25,151,3,0 // vbroadcastss 0x39719(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,227,105,32,208,7 // vpinsrb $0x7,%eax,%xmm2,%xmm2
- .byte 196,226,125,49,210 // vpmovzxbd %xmm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_r_skx
-.globl _sk_table_r_skx
-FUNCTION(_sk_table_r_skx)
-_sk_table_r_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 131,192,255 // add $0xffffffff,%eax
- .byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8
- .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,77,150,3,0 // vminps 0x3964d(%rip){1to8},%ymm0,%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,66,53,146,4,128 // vgatherdps %ymm9,(%r8,%ymm0,4),%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_g_skx
-.globl _sk_table_g_skx
-FUNCTION(_sk_table_g_skx)
-_sk_table_g_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 131,192,255 // add $0xffffffff,%eax
- .byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8
- .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 98,241,116,56,93,13,8,150,3,0 // vminps 0x39608(%rip){1to8},%ymm1,%ymm1 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,66,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_b_skx
-.globl _sk_table_b_skx
-FUNCTION(_sk_table_b_skx)
-_sk_table_b_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 131,192,255 // add $0xffffffff,%eax
- .byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8
- .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 98,241,108,56,93,21,195,149,3,0 // vminps 0x395c3(%rip){1to8},%ymm2,%ymm2 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,66,53,146,4,144 // vgatherdps %ymm9,(%r8,%ymm2,4),%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,194 // vmovaps %ymm8,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_a_skx
-.globl _sk_table_a_skx
-FUNCTION(_sk_table_a_skx)
-_sk_table_a_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 131,192,255 // add $0xffffffff,%eax
- .byte 98,114,125,40,124,192 // vpbroadcastd %eax,%ymm8
- .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 98,241,100,56,93,29,126,149,3,0 // vminps 0x3957e(%rip){1to8},%ymm3,%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
- .byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,66,53,146,4,152 // vgatherdps %ymm9,(%r8,%ymm3,4),%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,195 // vmovaps %ymm8,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_r_skx
-.globl _sk_parametric_r_skx
-FUNCTION(_sk_parametric_r_skx)
-_sk_parametric_r_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,241,124,56,194,64,4,2 // vcmpleps 0x10(%rax){1to8},%ymm0,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 98,114,125,56,168,72,6 // vfmadd213ps 0x18(%rax){1to8},%ymm0,%ymm9
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 98,114,125,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm0,%ymm10
- .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
- .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
- .byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
- .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
- .byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,171,149,3,0 // vbroadcastss 0x395ab(%rip),%ymm14 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,169,149,3,0 // vfmadd213ps 0x395a9(%rip){1to8},%ymm13,%ymm14 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,155,149,3,0 // vandps 0x3959b(%rip){1to8},%ymm10,%ymm10 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,241,148,3,0 // vorps 0x394f1(%rip){1to8},%ymm10,%ymm10 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,143,149,3,0 // vfnmadd231ps 0x3958f(%rip){1to8},%ymm10,%ymm14 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,137,149,3,0 // vaddps 0x39589(%rip){1to8},%ymm10,%ymm10 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,132,149,3,0 // vbroadcastss 0x39584(%rip),%ymm13 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
- .byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
- .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
- .byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
- .byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,241,124,56,88,5,100,149,3,0 // vaddps 0x39564(%rip){1to8},%ymm0,%ymm0 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,5,94,149,3,0 // vfnmadd231ps 0x3955e(%rip){1to8},%ymm10,%ymm0 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,89,149,3,0 // vbroadcastss 0x39559(%rip),%ymm13 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,79,149,3,0 // vbroadcastss 0x3954f(%rip),%ymm13 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
- .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 98,241,124,56,89,5,63,149,3,0 // vmulps 0x3953f(%rip){1to8},%ymm0,%ymm0 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0
- .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
- .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,195,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm0
- .byte 196,193,124,95,195 // vmaxps %ymm11,%ymm0,%ymm0
- .byte 98,241,124,56,93,5,85,148,3,0 // vminps 0x39455(%rip){1to8},%ymm0,%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_g_skx
-.globl _sk_parametric_g_skx
-FUNCTION(_sk_parametric_g_skx)
-_sk_parametric_g_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,241,116,56,194,64,4,2 // vcmpleps 0x10(%rax){1to8},%ymm1,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 98,114,117,56,168,72,6 // vfmadd213ps 0x18(%rax){1to8},%ymm1,%ymm9
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 98,114,117,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm1,%ymm10
- .byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
- .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
- .byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
- .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
- .byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,154,148,3,0 // vbroadcastss 0x3949a(%rip),%ymm14 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,152,148,3,0 // vfmadd213ps 0x39498(%rip){1to8},%ymm13,%ymm14 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,138,148,3,0 // vandps 0x3948a(%rip){1to8},%ymm10,%ymm10 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,224,147,3,0 // vorps 0x393e0(%rip){1to8},%ymm10,%ymm10 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,126,148,3,0 // vfnmadd231ps 0x3947e(%rip){1to8},%ymm10,%ymm14 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,120,148,3,0 // vaddps 0x39478(%rip){1to8},%ymm10,%ymm10 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,115,148,3,0 // vbroadcastss 0x39473(%rip),%ymm13 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
- .byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
- .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
- .byte 196,99,125,8,209,1 // vroundps $0x1,%ymm1,%ymm10
- .byte 196,65,116,92,210 // vsubps %ymm10,%ymm1,%ymm10
- .byte 98,241,116,56,88,13,83,148,3,0 // vaddps 0x39453(%rip){1to8},%ymm1,%ymm1 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,13,77,148,3,0 // vfnmadd231ps 0x3944d(%rip){1to8},%ymm10,%ymm1 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,72,148,3,0 // vbroadcastss 0x39448(%rip),%ymm13 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,62,148,3,0 // vbroadcastss 0x3943e(%rip),%ymm13 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
- .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 98,241,116,56,89,13,46,148,3,0 // vmulps 0x3942e(%rip){1to8},%ymm1,%ymm1 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
- .byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
- .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 196,195,117,74,201,128 // vblendvps %ymm8,%ymm9,%ymm1,%ymm1
- .byte 196,193,116,95,203 // vmaxps %ymm11,%ymm1,%ymm1
- .byte 98,241,116,56,93,13,68,147,3,0 // vminps 0x39344(%rip){1to8},%ymm1,%ymm1 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_b_skx
-.globl _sk_parametric_b_skx
-FUNCTION(_sk_parametric_b_skx)
-_sk_parametric_b_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,241,108,56,194,64,4,2 // vcmpleps 0x10(%rax){1to8},%ymm2,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 98,114,109,56,168,72,6 // vfmadd213ps 0x18(%rax){1to8},%ymm2,%ymm9
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 98,114,109,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm2,%ymm10
- .byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
- .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
- .byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
- .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
- .byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,137,147,3,0 // vbroadcastss 0x39389(%rip),%ymm14 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,135,147,3,0 // vfmadd213ps 0x39387(%rip){1to8},%ymm13,%ymm14 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,121,147,3,0 // vandps 0x39379(%rip){1to8},%ymm10,%ymm10 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,207,146,3,0 // vorps 0x392cf(%rip){1to8},%ymm10,%ymm10 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,109,147,3,0 // vfnmadd231ps 0x3936d(%rip){1to8},%ymm10,%ymm14 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,103,147,3,0 // vaddps 0x39367(%rip){1to8},%ymm10,%ymm10 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,98,147,3,0 // vbroadcastss 0x39362(%rip),%ymm13 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
- .byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
- .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
- .byte 196,99,125,8,210,1 // vroundps $0x1,%ymm2,%ymm10
- .byte 196,65,108,92,210 // vsubps %ymm10,%ymm2,%ymm10
- .byte 98,241,108,56,88,21,66,147,3,0 // vaddps 0x39342(%rip){1to8},%ymm2,%ymm2 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,21,60,147,3,0 // vfnmadd231ps 0x3933c(%rip){1to8},%ymm10,%ymm2 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,55,147,3,0 // vbroadcastss 0x39337(%rip),%ymm13 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,45,147,3,0 // vbroadcastss 0x3932d(%rip),%ymm13 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
- .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 98,241,108,56,89,21,29,147,3,0 // vmulps 0x3931d(%rip){1to8},%ymm2,%ymm2 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
- .byte 196,195,109,74,211,192 // vblendvps %ymm12,%ymm11,%ymm2,%ymm2
- .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
- .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 196,195,109,74,209,128 // vblendvps %ymm8,%ymm9,%ymm2,%ymm2
- .byte 196,193,108,95,211 // vmaxps %ymm11,%ymm2,%ymm2
- .byte 98,241,108,56,93,21,51,146,3,0 // vminps 0x39233(%rip){1to8},%ymm2,%ymm2 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_a_skx
-.globl _sk_parametric_a_skx
-FUNCTION(_sk_parametric_a_skx)
-_sk_parametric_a_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,241,100,56,194,64,4,2 // vcmpleps 0x10(%rax){1to8},%ymm3,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 98,114,101,56,168,72,6 // vfmadd213ps 0x18(%rax){1to8},%ymm3,%ymm9
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 98,114,101,56,168,80,2 // vfmadd213ps 0x8(%rax){1to8},%ymm3,%ymm10
- .byte 196,226,125,24,24 // vbroadcastss (%rax),%ymm3
- .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
- .byte 98,209,44,40,194,195,0 // vcmpeqps %ymm11,%ymm10,%k0
- .byte 98,114,126,40,56,224 // vpmovm2d %k0,%ymm12
- .byte 196,65,124,91,234 // vcvtdq2ps %ymm10,%ymm13
- .byte 196,98,125,24,53,120,146,3,0 // vbroadcastss 0x39278(%rip),%ymm14 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 98,114,21,56,168,53,118,146,3,0 // vfmadd213ps 0x39276(%rip){1to8},%ymm13,%ymm14 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 98,113,44,56,84,21,104,146,3,0 // vandps 0x39268(%rip){1to8},%ymm10,%ymm10 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 98,113,44,56,86,21,190,145,3,0 // vorps 0x391be(%rip){1to8},%ymm10,%ymm10 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,45,56,188,53,92,146,3,0 // vfnmadd231ps 0x3925c(%rip){1to8},%ymm10,%ymm14 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 98,113,44,56,88,21,86,146,3,0 // vaddps 0x39256(%rip){1to8},%ymm10,%ymm10 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,98,125,24,45,81,146,3,0 // vbroadcastss 0x39251(%rip),%ymm13 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
- .byte 196,65,12,92,210 // vsubps %ymm10,%ymm14,%ymm10
- .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
- .byte 196,99,125,8,211,1 // vroundps $0x1,%ymm3,%ymm10
- .byte 196,65,100,92,210 // vsubps %ymm10,%ymm3,%ymm10
- .byte 98,241,100,56,88,29,49,146,3,0 // vaddps 0x39231(%rip){1to8},%ymm3,%ymm3 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,242,45,56,188,29,43,146,3,0 // vfnmadd231ps 0x3922b(%rip){1to8},%ymm10,%ymm3 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,98,125,24,45,38,146,3,0 // vbroadcastss 0x39226(%rip),%ymm13 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 196,65,20,92,210 // vsubps %ymm10,%ymm13,%ymm10
- .byte 196,98,125,24,45,28,146,3,0 // vbroadcastss 0x3921c(%rip),%ymm13 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
- .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 98,241,100,56,89,29,12,146,3,0 // vmulps 0x3920c(%rip){1to8},%ymm3,%ymm3 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
- .byte 196,195,101,74,219,192 // vblendvps %ymm12,%ymm11,%ymm3,%ymm3
- .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
- .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 196,195,101,74,217,128 // vblendvps %ymm8,%ymm9,%ymm3,%ymm3
- .byte 196,193,100,95,219 // vmaxps %ymm11,%ymm3,%ymm3
- .byte 98,241,100,56,93,29,34,145,3,0 // vminps 0x39122(%rip){1to8},%ymm3,%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gamma_skx
-.globl _sk_gamma_skx
-FUNCTION(_sk_gamma_skx)
-_sk_gamma_skx:
- .byte 98,97,124,40,40,199 // vmovaps %ymm7,%ymm24
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,226,125,40,24,16 // vbroadcastss (%rax),%ymm18
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 98,241,124,40,194,199,0 // vcmpeqps %ymm7,%ymm0,%k0
- .byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,144,145,3,0 // vbroadcastss 0x39190(%rip),%ymm11 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,37,139,145,3,0 // vbroadcastss 0x3918b(%rip),%ymm12 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 196,193,124,84,196 // vandps %ymm12,%ymm0,%ymm0
- .byte 196,98,125,24,45,221,144,3,0 // vbroadcastss 0x390dd(%rip),%ymm13 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,193,124,86,197 // vorps %ymm13,%ymm0,%ymm0
- .byte 196,98,125,24,53,115,145,3,0 // vbroadcastss 0x39173(%rip),%ymm14 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 196,66,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm10
- .byte 196,98,125,24,61,105,145,3,0 // vbroadcastss 0x39169(%rip),%ymm15 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 196,66,125,188,215 // vfnmadd231ps %ymm15,%ymm0,%ymm10
- .byte 98,226,125,40,24,5,94,145,3,0 // vbroadcastss 0x3915e(%rip),%ymm16 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 98,177,124,40,88,192 // vaddps %ymm16,%ymm0,%ymm0
- .byte 98,226,125,40,24,13,82,145,3,0 // vbroadcastss 0x39152(%rip),%ymm17 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 98,241,116,32,94,192 // vdivps %ymm0,%ymm17,%ymm0
- .byte 197,172,92,192 // vsubps %ymm0,%ymm10,%ymm0
- .byte 98,177,124,40,89,194 // vmulps %ymm18,%ymm0,%ymm0
- .byte 196,99,125,8,208,1 // vroundps $0x1,%ymm0,%ymm10
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,65,124,92,210 // vsubps %ymm10,%ymm0,%ymm10
- .byte 98,226,125,40,24,29,43,145,3,0 // vbroadcastss 0x3912b(%rip),%ymm19 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,177,124,40,88,195 // vaddps %ymm19,%ymm0,%ymm0
- .byte 98,226,125,40,24,37,31,145,3,0 // vbroadcastss 0x3911f(%rip),%ymm20 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 98,178,45,40,188,196 // vfnmadd231ps %ymm20,%ymm10,%ymm0
- .byte 98,226,125,40,24,45,19,145,3,0 // vbroadcastss 0x39113(%rip),%ymm21 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 98,81,84,32,92,210 // vsubps %ymm10,%ymm21,%ymm10
- .byte 98,226,125,40,24,53,7,145,3,0 // vbroadcastss 0x39107(%rip),%ymm22 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 98,81,76,32,94,210 // vdivps %ymm10,%ymm22,%ymm10
- .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 196,98,125,24,21,247,144,3,0 // vbroadcastss 0x390f7(%rip),%ymm10 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,227,125,74,199,144 // vblendvps %ymm9,%ymm7,%ymm0,%ymm0
- .byte 98,241,116,40,194,199,0 // vcmpeqps %ymm7,%ymm1,%k0
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 98,225,124,40,91,249 // vcvtdq2ps %ymm1,%ymm23
- .byte 196,193,116,84,204 // vandps %ymm12,%ymm1,%ymm1
- .byte 196,193,116,86,205 // vorps %ymm13,%ymm1,%ymm1
- .byte 98,194,37,40,168,254 // vfmadd213ps %ymm14,%ymm11,%ymm23
- .byte 98,194,117,40,188,255 // vfnmadd231ps %ymm15,%ymm1,%ymm23
- .byte 98,177,116,40,88,200 // vaddps %ymm16,%ymm1,%ymm1
- .byte 98,241,116,32,94,201 // vdivps %ymm1,%ymm17,%ymm1
- .byte 98,241,68,32,92,201 // vsubps %ymm1,%ymm23,%ymm1
- .byte 98,177,116,40,89,202 // vmulps %ymm18,%ymm1,%ymm1
- .byte 196,99,125,8,193,1 // vroundps $0x1,%ymm1,%ymm8
- .byte 196,65,116,92,192 // vsubps %ymm8,%ymm1,%ymm8
- .byte 98,177,116,40,88,203 // vaddps %ymm19,%ymm1,%ymm1
- .byte 98,178,61,40,188,204 // vfnmadd231ps %ymm20,%ymm8,%ymm1
- .byte 98,81,84,32,92,192 // vsubps %ymm8,%ymm21,%ymm8
- .byte 98,81,76,32,94,192 // vdivps %ymm8,%ymm22,%ymm8
- .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
- .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
- .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
- .byte 196,227,117,74,207,144 // vblendvps %ymm9,%ymm7,%ymm1,%ymm1
- .byte 98,241,108,40,194,199,0 // vcmpeqps %ymm7,%ymm2,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 197,124,91,202 // vcvtdq2ps %ymm2,%ymm9
- .byte 196,193,108,84,212 // vandps %ymm12,%ymm2,%ymm2
- .byte 196,193,108,86,213 // vorps %ymm13,%ymm2,%ymm2
- .byte 196,66,37,168,206 // vfmadd213ps %ymm14,%ymm11,%ymm9
- .byte 196,66,109,188,207 // vfnmadd231ps %ymm15,%ymm2,%ymm9
- .byte 98,177,108,40,88,208 // vaddps %ymm16,%ymm2,%ymm2
- .byte 98,241,116,32,94,210 // vdivps %ymm2,%ymm17,%ymm2
- .byte 197,180,92,210 // vsubps %ymm2,%ymm9,%ymm2
- .byte 98,177,108,40,89,210 // vmulps %ymm18,%ymm2,%ymm2
- .byte 196,99,125,8,202,1 // vroundps $0x1,%ymm2,%ymm9
- .byte 196,65,108,92,201 // vsubps %ymm9,%ymm2,%ymm9
- .byte 98,177,108,40,88,211 // vaddps %ymm19,%ymm2,%ymm2
- .byte 98,178,53,40,188,212 // vfnmadd231ps %ymm20,%ymm9,%ymm2
- .byte 98,81,84,32,92,201 // vsubps %ymm9,%ymm21,%ymm9
- .byte 98,81,76,32,94,201 // vdivps %ymm9,%ymm22,%ymm9
- .byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
- .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
- .byte 196,227,109,74,215,128 // vblendvps %ymm8,%ymm7,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,145,124,40,40,248 // vmovaps %ymm24,%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gamma_dst_skx
-.globl _sk_gamma_dst_skx
-FUNCTION(_sk_gamma_dst_skx)
-_sk_gamma_dst_skx:
- .byte 98,97,124,40,40,199 // vmovaps %ymm7,%ymm24
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,226,125,40,24,16 // vbroadcastss (%rax),%ymm18
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 98,241,92,40,194,199,0 // vcmpeqps %ymm7,%ymm4,%k0
- .byte 197,124,91,212 // vcvtdq2ps %ymm4,%ymm10
- .byte 196,98,125,24,29,166,143,3,0 // vbroadcastss 0x38fa6(%rip),%ymm11 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,37,161,143,3,0 // vbroadcastss 0x38fa1(%rip),%ymm12 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 196,193,92,84,228 // vandps %ymm12,%ymm4,%ymm4
- .byte 196,98,125,24,45,243,142,3,0 // vbroadcastss 0x38ef3(%rip),%ymm13 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,193,92,86,229 // vorps %ymm13,%ymm4,%ymm4
- .byte 196,98,125,24,53,137,143,3,0 // vbroadcastss 0x38f89(%rip),%ymm14 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 196,66,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm10
- .byte 196,98,125,24,61,127,143,3,0 // vbroadcastss 0x38f7f(%rip),%ymm15 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 196,66,93,188,215 // vfnmadd231ps %ymm15,%ymm4,%ymm10
- .byte 98,226,125,40,24,5,116,143,3,0 // vbroadcastss 0x38f74(%rip),%ymm16 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 98,177,92,40,88,224 // vaddps %ymm16,%ymm4,%ymm4
- .byte 98,226,125,40,24,13,104,143,3,0 // vbroadcastss 0x38f68(%rip),%ymm17 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 98,241,116,32,94,228 // vdivps %ymm4,%ymm17,%ymm4
- .byte 197,172,92,228 // vsubps %ymm4,%ymm10,%ymm4
- .byte 98,177,92,40,89,226 // vmulps %ymm18,%ymm4,%ymm4
- .byte 196,99,125,8,212,1 // vroundps $0x1,%ymm4,%ymm10
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,65,92,92,210 // vsubps %ymm10,%ymm4,%ymm10
- .byte 98,226,125,40,24,29,65,143,3,0 // vbroadcastss 0x38f41(%rip),%ymm19 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 98,177,92,40,88,227 // vaddps %ymm19,%ymm4,%ymm4
- .byte 98,226,125,40,24,37,53,143,3,0 // vbroadcastss 0x38f35(%rip),%ymm20 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 98,178,45,40,188,228 // vfnmadd231ps %ymm20,%ymm10,%ymm4
- .byte 98,226,125,40,24,45,41,143,3,0 // vbroadcastss 0x38f29(%rip),%ymm21 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 98,81,84,32,92,210 // vsubps %ymm10,%ymm21,%ymm10
- .byte 98,226,125,40,24,53,29,143,3,0 // vbroadcastss 0x38f1d(%rip),%ymm22 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 98,81,76,32,94,210 // vdivps %ymm10,%ymm22,%ymm10
- .byte 196,193,92,88,226 // vaddps %ymm10,%ymm4,%ymm4
- .byte 196,98,125,24,21,13,143,3,0 // vbroadcastss 0x38f0d(%rip),%ymm10 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 196,193,92,89,226 // vmulps %ymm10,%ymm4,%ymm4
- .byte 197,253,91,228 // vcvtps2dq %ymm4,%ymm4
- .byte 196,227,93,74,231,144 // vblendvps %ymm9,%ymm7,%ymm4,%ymm4
- .byte 98,241,84,40,194,199,0 // vcmpeqps %ymm7,%ymm5,%k0
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 98,225,124,40,91,253 // vcvtdq2ps %ymm5,%ymm23
- .byte 196,193,84,84,236 // vandps %ymm12,%ymm5,%ymm5
- .byte 196,193,84,86,237 // vorps %ymm13,%ymm5,%ymm5
- .byte 98,194,37,40,168,254 // vfmadd213ps %ymm14,%ymm11,%ymm23
- .byte 98,194,85,40,188,255 // vfnmadd231ps %ymm15,%ymm5,%ymm23
- .byte 98,177,84,40,88,232 // vaddps %ymm16,%ymm5,%ymm5
- .byte 98,241,116,32,94,237 // vdivps %ymm5,%ymm17,%ymm5
- .byte 98,241,68,32,92,237 // vsubps %ymm5,%ymm23,%ymm5
- .byte 98,177,84,40,89,234 // vmulps %ymm18,%ymm5,%ymm5
- .byte 196,99,125,8,197,1 // vroundps $0x1,%ymm5,%ymm8
- .byte 196,65,84,92,192 // vsubps %ymm8,%ymm5,%ymm8
- .byte 98,177,84,40,88,235 // vaddps %ymm19,%ymm5,%ymm5
- .byte 98,178,61,40,188,236 // vfnmadd231ps %ymm20,%ymm8,%ymm5
- .byte 98,81,84,32,92,192 // vsubps %ymm8,%ymm21,%ymm8
- .byte 98,81,76,32,94,192 // vdivps %ymm8,%ymm22,%ymm8
- .byte 196,193,84,88,232 // vaddps %ymm8,%ymm5,%ymm5
- .byte 196,193,84,89,234 // vmulps %ymm10,%ymm5,%ymm5
- .byte 197,253,91,237 // vcvtps2dq %ymm5,%ymm5
- .byte 196,227,85,74,239,144 // vblendvps %ymm9,%ymm7,%ymm5,%ymm5
- .byte 98,241,76,40,194,199,0 // vcmpeqps %ymm7,%ymm6,%k0
- .byte 98,114,126,40,56,192 // vpmovm2d %k0,%ymm8
- .byte 197,124,91,206 // vcvtdq2ps %ymm6,%ymm9
- .byte 196,193,76,84,244 // vandps %ymm12,%ymm6,%ymm6
- .byte 196,193,76,86,245 // vorps %ymm13,%ymm6,%ymm6
- .byte 196,66,37,168,206 // vfmadd213ps %ymm14,%ymm11,%ymm9
- .byte 196,66,77,188,207 // vfnmadd231ps %ymm15,%ymm6,%ymm9
- .byte 98,177,76,40,88,240 // vaddps %ymm16,%ymm6,%ymm6
- .byte 98,241,116,32,94,246 // vdivps %ymm6,%ymm17,%ymm6
- .byte 197,180,92,246 // vsubps %ymm6,%ymm9,%ymm6
- .byte 98,177,76,40,89,242 // vmulps %ymm18,%ymm6,%ymm6
- .byte 196,99,125,8,206,1 // vroundps $0x1,%ymm6,%ymm9
- .byte 196,65,76,92,201 // vsubps %ymm9,%ymm6,%ymm9
- .byte 98,177,76,40,88,243 // vaddps %ymm19,%ymm6,%ymm6
- .byte 98,178,53,40,188,244 // vfnmadd231ps %ymm20,%ymm9,%ymm6
- .byte 98,81,84,32,92,201 // vsubps %ymm9,%ymm21,%ymm9
- .byte 98,81,76,32,94,201 // vdivps %ymm9,%ymm22,%ymm9
- .byte 196,193,76,88,241 // vaddps %ymm9,%ymm6,%ymm6
- .byte 196,193,76,89,242 // vmulps %ymm10,%ymm6,%ymm6
- .byte 197,253,91,246 // vcvtps2dq %ymm6,%ymm6
- .byte 196,227,77,74,247,128 // vblendvps %ymm8,%ymm7,%ymm6,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,145,124,40,40,248 // vmovaps %ymm24,%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lab_to_xyz_skx
-.globl _sk_lab_to_xyz_skx
-FUNCTION(_sk_lab_to_xyz_skx)
-_sk_lab_to_xyz_skx:
- .byte 196,98,125,24,5,5,142,3,0 // vbroadcastss 0x38e05(%rip),%ymm8 # 3c5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- .byte 196,98,125,24,13,100,141,3,0 // vbroadcastss 0x38d64(%rip),%ymm9 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,21,247,141,3,0 // vbroadcastss 0x38df7(%rip),%ymm10 # 3c5c4 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
- .byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
- .byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 98,114,125,56,168,5,231,141,3,0 // vfmadd213ps 0x38de7(%rip){1to8},%ymm0,%ymm8 # 3c5c8 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
- .byte 98,241,60,56,89,5,225,141,3,0 // vmulps 0x38de1(%rip){1to8},%ymm8,%ymm0 # 3c5cc <_sk_srcover_bgra_8888_sse2_lowp+0x380>
- .byte 98,242,125,56,152,13,219,141,3,0 // vfmadd132ps 0x38ddb(%rip){1to8},%ymm0,%ymm1 # 3c5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
- .byte 98,242,125,56,156,21,213,141,3,0 // vfnmadd132ps 0x38dd5(%rip){1to8},%ymm0,%ymm2 # 3c5d4 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
- .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
- .byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,199,141,3,0 // vbroadcastss 0x38dc7(%rip),%ymm9 # 3c5d8 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
- .byte 98,209,52,40,194,192,1 // vcmpltps %ymm8,%ymm9,%k0
- .byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
- .byte 196,98,125,24,29,181,141,3,0 // vbroadcastss 0x38db5(%rip),%ymm11 # 3c5dc <_sk_srcover_bgra_8888_sse2_lowp+0x390>
- .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,171,141,3,0 // vbroadcastss 0x38dab(%rip),%ymm12 # 3c5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
- .byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
- .byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
- .byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
- .byte 197,252,89,201 // vmulps %ymm1,%ymm0,%ymm1
- .byte 98,241,52,40,194,193,1 // vcmpltps %ymm1,%ymm9,%k0
- .byte 98,114,126,40,56,208 // vpmovm2d %k0,%ymm10
- .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,193,124,89,196 // vmulps %ymm12,%ymm0,%ymm0
- .byte 196,227,125,74,201,160 // vblendvps %ymm10,%ymm1,%ymm0,%ymm1
- .byte 197,236,89,194 // vmulps %ymm2,%ymm2,%ymm0
- .byte 197,236,89,192 // vmulps %ymm0,%ymm2,%ymm0
- .byte 98,241,52,40,194,192,1 // vcmpltps %ymm0,%ymm9,%k0
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
- .byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 98,241,60,56,89,5,80,141,3,0 // vmulps 0x38d50(%rip){1to8},%ymm8,%ymm0 # 3c5e4 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
- .byte 98,241,108,56,89,21,74,141,3,0 // vmulps 0x38d4a(%rip){1to8},%ymm2,%ymm2 # 3c5e8 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_a8_skx
-.globl _sk_load_a8_skx
-FUNCTION(_sk_load_a8_skx)
-_sk_load_a8_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 38e5 <_sk_load_a8_skx+0x43>
- .byte 196,194,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm0
- .byte 197,249,219,5,238,149,3,0 // vpand 0x395ee(%rip),%xmm0,%xmm0 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,159,140,3,0 // vmulps 0x38c9f(%rip){1to8},%ymm0,%ymm3 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,199 // ja 38ba <_sk_load_a8_skx+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 3980 <_sk_load_a8_skx+0xde>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,169 // jmp 38ba <_sk_load_a8_skx+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
- .byte 196,194,121,50,12,16 // vpmovzxbq (%r8,%rdx,1),%xmm1
- .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
- .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
- .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,130 // jmp 38ba <_sk_load_a8_skx+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0
- .byte 196,194,121,49,12,16 // vpmovzxbd (%r8,%rdx,1),%xmm1
- .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
- .byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
- .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
- .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,61,255,255,255 // jmpq 38ba <_sk_load_a8_skx+0x18>
- .byte 15,31,0 // nopl (%rax)
- .byte 134,255 // xchg %bh,%bh
- .byte 255 // (bad)
- .byte 255,160,255,255,255,145 // jmpq *-0x6e000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 184 // .byte 0xb8
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_dst_skx
-.globl _sk_load_a8_dst_skx
-FUNCTION(_sk_load_a8_dst_skx)
-_sk_load_a8_dst_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 39df <_sk_load_a8_dst_skx+0x43>
- .byte 196,194,121,48,36,16 // vpmovzxbw (%r8,%rdx,1),%xmm4
- .byte 197,217,219,37,244,148,3,0 // vpand 0x394f4(%rip),%xmm4,%xmm4 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,61,165,139,3,0 // vmulps 0x38ba5(%rip){1to8},%ymm4,%ymm7 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,199 // ja 39b4 <_sk_load_a8_dst_skx+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,129,0,0,0 // lea 0x81(%rip),%r9 # 3a78 <_sk_load_a8_dst_skx+0xdc>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,169 // jmp 39b4 <_sk_load_a8_dst_skx+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
- .byte 196,194,121,50,44,16 // vpmovzxbq (%r8,%rdx,1),%xmm5
- .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
- .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
- .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,130 // jmp 39b4 <_sk_load_a8_dst_skx+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,217,196,224,5 // vpinsrw $0x5,%eax,%xmm4,%xmm4
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,217,196,224,4 // vpinsrw $0x4,%eax,%xmm4,%xmm4
- .byte 196,194,121,49,44,16 // vpmovzxbd (%r8,%rdx,1),%xmm5
- .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
- .byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
- .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
- .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,61,255,255,255 // jmpq 39b4 <_sk_load_a8_dst_skx+0x18>
- .byte 144 // nop
- .byte 136,255 // mov %bh,%bh
- .byte 255 // (bad)
- .byte 255,162,255,255,255,147 // jmpq *-0x6c000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 186 // .byte 0xba
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_a8_skx
-.globl _sk_gather_a8_skx
-FUNCTION(_sk_gather_a8_skx)
-_sk_gather_a8_skx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,194 // vmovq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,199 // vmovq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 71,15,182,28,24 // movzbl (%r8,%r11,1),%r11d
- .byte 196,193,121,110,195 // vmovd %r11d,%xmm0
- .byte 196,195,121,32,194,1 // vpinsrb $0x1,%r10d,%xmm0,%xmm0
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0
- .byte 67,15,182,4,32 // movzbl (%r8,%r12,1),%eax
- .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0
- .byte 67,15,182,4,56 // movzbl (%r8,%r15,1),%eax
- .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0
- .byte 67,15,182,4,48 // movzbl (%r8,%r14,1),%eax
- .byte 196,227,121,32,192,6 // vpinsrb $0x6,%eax,%xmm0,%xmm0
- .byte 65,15,182,4,24 // movzbl (%r8,%rbx,1),%eax
- .byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
- .byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,29,242,137,3,0 // vmulps 0x389f2(%rip){1to8},%ymm0,%ymm3 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_a8_skx
-.globl _sk_store_a8_skx
-FUNCTION(_sk_store_a8_skx)
-_sk_store_a8_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 98,113,60,56,93,5,67,137,3,0 // vminps 0x38943(%rip){1to8},%ymm8,%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 98,113,60,56,89,5,101,137,3,0 // vmulps 0x38965(%rip){1to8},%ymm8,%ymm8 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
- .byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 3be6 <_sk_store_a8_skx+0x4d>
- .byte 196,65,121,214,4,16 // vmovq %xmm8,(%r8,%rdx,1)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 3be2 <_sk_store_a8_skx+0x49>
- .byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,81,0,0,0 // lea 0x51(%rip),%r9 # 3c50 <_sk_store_a8_skx+0xb7>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,209 // jmp 3be2 <_sk_store_a8_skx+0x49>
- .byte 196,67,121,20,68,16,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%rdx,1)
- .byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8
- .byte 98,82,126,8,50,4,16 // vpmovqb %xmm8,(%r8,%rdx,1)
- .byte 235,187 // jmp 3be2 <_sk_store_a8_skx+0x49>
- .byte 196,67,121,20,68,16,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%rdx,1)
- .byte 196,67,121,20,68,16,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%rdx,1)
- .byte 196,67,121,20,68,16,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%rdx,1)
- .byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
- .byte 98,82,126,8,49,4,16 // vpmovdb %xmm8,(%r8,%rdx,1)
- .byte 235,149 // jmp 3be2 <_sk_store_a8_skx+0x49>
- .byte 15,31,0 // nopl (%rax)
- .byte 184,255,255,255,201 // mov $0xc9ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,193 // inc %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,215 // callq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_skx
-.globl _sk_load_g8_skx
-FUNCTION(_sk_load_g8_skx)
-_sk_load_g8_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 3cb4 <_sk_load_g8_skx+0x48>
- .byte 196,194,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm0
- .byte 197,249,219,5,36,146,3,0 // vpand 0x39224(%rip),%xmm0,%xmm0 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,213,136,3,0 // vmulps 0x388d5(%rip){1to8},%ymm0,%ymm0 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,82,136,3,0 // vbroadcastss 0x38852(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,194 // ja 3c84 <_sk_load_g8_skx+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,0,0,0 // lea 0x84(%rip),%r9 # 3d50 <_sk_load_g8_skx+0xe4>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,164 // jmp 3c84 <_sk_load_g8_skx+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
- .byte 196,194,121,50,12,16 // vpmovzxbq (%r8,%rdx,1),%xmm1
- .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
- .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
- .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,122,255,255,255 // jmpq 3c84 <_sk_load_g8_skx+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0
- .byte 196,194,121,49,12,16 // vpmovzxbd (%r8,%rdx,1),%xmm1
- .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
- .byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
- .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
- .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,53,255,255,255 // jmpq 3c84 <_sk_load_g8_skx+0x18>
- .byte 144 // nop
- .byte 133,255 // test %edi,%edi
- .byte 255 // (bad)
- .byte 255,159,255,255,255,144 // lcall *-0x6f000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 186 // .byte 0xba
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_dst_skx
-.globl _sk_load_g8_dst_skx
-FUNCTION(_sk_load_g8_dst_skx)
-_sk_load_g8_dst_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,54 // jne 3db4 <_sk_load_g8_dst_skx+0x48>
- .byte 196,194,121,48,36,16 // vpmovzxbw (%r8,%rdx,1),%xmm4
- .byte 197,217,219,37,36,145,3,0 // vpand 0x39124(%rip),%xmm4,%xmm4 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,213,135,3,0 // vmulps 0x387d5(%rip){1to8},%ymm4,%ymm4 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,82,135,3,0 // vbroadcastss 0x38752(%rip),%ymm7 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,40,236 // vmovaps %ymm4,%ymm5
- .byte 197,252,40,244 // vmovaps %ymm4,%ymm6
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,194 // ja 3d84 <_sk_load_g8_dst_skx+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,0,0,0 // lea 0x84(%rip),%r9 # 3e50 <_sk_load_g8_dst_skx+0xe4>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,164 // jmp 3d84 <_sk_load_g8_dst_skx+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
- .byte 196,194,121,50,44,16 // vpmovzxbq (%r8,%rdx,1),%xmm5
- .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
- .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
- .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,122,255,255,255 // jmpq 3d84 <_sk_load_g8_dst_skx+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,217,196,224,5 // vpinsrw $0x5,%eax,%xmm4,%xmm4
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,217,196,224,4 // vpinsrw $0x4,%eax,%xmm4,%xmm4
- .byte 196,194,121,49,44,16 // vpmovzxbd (%r8,%rdx,1),%xmm5
- .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
- .byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
- .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
- .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,53,255,255,255 // jmpq 3d84 <_sk_load_g8_dst_skx+0x18>
- .byte 144 // nop
- .byte 133,255 // test %edi,%edi
- .byte 255 // (bad)
- .byte 255,159,255,255,255,144 // lcall *-0x6f000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 186 // .byte 0xba
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_g8_skx
-.globl _sk_gather_g8_skx
-FUNCTION(_sk_gather_g8_skx)
-_sk_gather_g8_skx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,194 // vmovq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,199 // vmovq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 71,15,182,28,24 // movzbl (%r8,%r11,1),%r11d
- .byte 196,193,121,110,195 // vmovd %r11d,%xmm0
- .byte 196,195,121,32,194,1 // vpinsrb $0x1,%r10d,%xmm0,%xmm0
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0
- .byte 67,15,182,4,32 // movzbl (%r8,%r12,1),%eax
- .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0
- .byte 67,15,182,4,56 // movzbl (%r8,%r15,1),%eax
- .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0
- .byte 67,15,182,4,48 // movzbl (%r8,%r14,1),%eax
- .byte 196,227,121,32,192,6 // vpinsrb $0x6,%eax,%xmm0,%xmm0
- .byte 65,15,182,4,24 // movzbl (%r8,%rbx,1),%eax
- .byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
- .byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,26,134,3,0 // vmulps 0x3861a(%rip){1to8},%ymm0,%ymm0 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,151,133,3,0 // vbroadcastss 0x38597(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_565_skx
-.globl _sk_load_565_skx
-FUNCTION(_sk_load_565_skx)
-_sk_load_565_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,96 // jne 3feb <_sk_load_565_skx+0x75>
- .byte 196,193,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm0
- .byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,216,133,3,0 // vpandd 0x385d8(%rip){1to8},%ymm2,%ymm0 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,206,133,3,0 // vmulps 0x385ce(%rip){1to8},%ymm0,%ymm0 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,109,56,219,13,200,133,3,0 // vpandd 0x385c8(%rip){1to8},%ymm2,%ymm1 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,190,133,3,0 // vmulps 0x385be(%rip){1to8},%ymm1,%ymm1 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,109,56,219,21,184,133,3,0 // vpandd 0x385b8(%rip){1to8},%ymm2,%ymm2 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,174,133,3,0 // vmulps 0x385ae(%rip){1to8},%ymm2,%ymm2 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,19,133,3,0 // vbroadcastss 0x38513(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,152 // ja 3f91 <_sk_load_565_skx+0x1b>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # 407c <_sk_load_565_skx+0x106>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,119,255,255,255 // jmpq 3f91 <_sk_load_565_skx+0x1b>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,194,121,52,12,80 // vpmovzxwq (%r8,%rdx,2),%xmm1
- .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
- .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
- .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,80,255,255,255 // jmpq 3f91 <_sk_load_565_skx+0x1b>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,194,121,51,12,80 // vpmovzxwd (%r8,%rdx,2),%xmm1
- .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
- .byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
- .byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1
- .byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0
- .byte 233,22,255,255,255 // jmpq 3f91 <_sk_load_565_skx+0x1b>
- .byte 144 // nop
- .byte 144 // nop
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,170,255,255,255,158 // ljmp *-0x61000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,225 // jmpq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_565_dst_skx
-.globl _sk_load_565_dst_skx
-FUNCTION(_sk_load_565_dst_skx)
-_sk_load_565_dst_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,96 // jne 410d <_sk_load_565_dst_skx+0x75>
- .byte 196,193,122,111,36,80 // vmovdqu (%r8,%rdx,2),%xmm4
- .byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 98,241,77,56,219,37,182,132,3,0 // vpandd 0x384b6(%rip){1to8},%ymm6,%ymm4 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,172,132,3,0 // vmulps 0x384ac(%rip){1to8},%ymm4,%ymm4 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,77,56,219,45,166,132,3,0 // vpandd 0x384a6(%rip){1to8},%ymm6,%ymm5 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,156,132,3,0 // vmulps 0x3849c(%rip){1to8},%ymm5,%ymm5 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,77,56,219,53,150,132,3,0 // vpandd 0x38496(%rip){1to8},%ymm6,%ymm6 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,140,132,3,0 // vmulps 0x3848c(%rip){1to8},%ymm6,%ymm6 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,241,131,3,0 // vbroadcastss 0x383f1(%rip),%ymm7 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,152 // ja 40b3 <_sk_load_565_dst_skx+0x1b>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,123,0,0,0 // lea 0x7b(%rip),%r9 # 41a0 <_sk_load_565_dst_skx+0x108>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,119,255,255,255 // jmpq 40b3 <_sk_load_565_dst_skx+0x1b>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,100,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,194,121,52,44,80 // vpmovzxwq (%r8,%rdx,2),%xmm5
- .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
- .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
- .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,80,255,255,255 // jmpq 40b3 <_sk_load_565_dst_skx+0x1b>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,100,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,89,196,100,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,89,196,100,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,194,121,51,44,80 // vpmovzxwd (%r8,%rdx,2),%xmm5
- .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
- .byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
- .byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5
- .byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4
- .byte 233,22,255,255,255 // jmpq 40b3 <_sk_load_565_dst_skx+0x1b>
- .byte 15,31,0 // nopl (%rax)
- .byte 142,255 // mov %edi,%?
- .byte 255 // (bad)
- .byte 255,168,255,255,255,156 // ljmp *-0x63000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,215 // callq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,207 // dec %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,195 // inc %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_565_skx
-.globl _sk_gather_565_skx
-FUNCTION(_sk_gather_565_skx)
-_sk_gather_565_skx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,194 // vmovq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,199 // vmovq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,183,20,80 // movzwl (%r8,%r10,2),%r10d
- .byte 71,15,183,28,88 // movzwl (%r8,%r11,2),%r11d
- .byte 196,193,121,110,195 // vmovd %r11d,%xmm0
- .byte 196,193,121,196,194,1 // vpinsrw $0x1,%r10d,%xmm0,%xmm0
- .byte 71,15,183,12,72 // movzwl (%r8,%r9,2),%r9d
- .byte 196,193,121,196,193,2 // vpinsrw $0x2,%r9d,%xmm0,%xmm0
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,249,196,192,3 // vpinsrw $0x3,%eax,%xmm0,%xmm0
- .byte 67,15,183,4,96 // movzwl (%r8,%r12,2),%eax
- .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0
- .byte 67,15,183,4,120 // movzwl (%r8,%r15,2),%eax
- .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0
- .byte 67,15,183,4,112 // movzwl (%r8,%r14,2),%eax
- .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
- .byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
- .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
- .byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 98,241,109,56,219,5,215,130,3,0 // vpandd 0x382d7(%rip){1to8},%ymm2,%ymm0 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,205,130,3,0 // vmulps 0x382cd(%rip){1to8},%ymm0,%ymm0 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 98,241,109,56,219,13,199,130,3,0 // vpandd 0x382c7(%rip){1to8},%ymm2,%ymm1 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,189,130,3,0 // vmulps 0x382bd(%rip){1to8},%ymm1,%ymm1 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 98,241,109,56,219,21,183,130,3,0 // vpandd 0x382b7(%rip){1to8},%ymm2,%ymm2 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,173,130,3,0 // vmulps 0x382ad(%rip){1to8},%ymm2,%ymm2 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,18,130,3,0 // vbroadcastss 0x38212(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_565_skx
-.globl _sk_store_565_skx
-FUNCTION(_sk_store_565_skx)
-_sk_store_565_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,231,129,3,0 // vbroadcastss 0x381e7(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,201,130,3,0 // vbroadcastss 0x382c9(%rip),%ymm11 # 3c5ec <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 98,113,28,56,89,37,170,130,3,0 // vmulps 0x382aa(%rip){1to8},%ymm12,%ymm12 # 3c5f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,5 // vpslld $0x5,%ymm12,%ymm12
- .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
- .byte 197,60,95,194 // vmaxps %ymm2,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 4388 <_sk_store_565_skx+0x95>
- .byte 196,65,122,127,4,80 // vmovdqu %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 4384 <_sk_store_565_skx+0x91>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,80,0,0,0 // lea 0x50(%rip),%r9 # 43ec <_sk_store_565_skx+0xf9>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,214 // jmp 4384 <_sk_store_565_skx+0x91>
- .byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- .byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8
- .byte 98,82,126,8,52,4,80 // vpmovqw %xmm8,(%r8,%rdx,2)
- .byte 235,192 // jmp 4384 <_sk_store_565_skx+0x91>
- .byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
- .byte 98,82,126,8,51,4,80 // vpmovdw %xmm8,(%r8,%rdx,2)
- .byte 235,154 // jmp 4384 <_sk_store_565_skx+0x91>
- .byte 102,144 // xchg %ax,%ax
- .byte 185,255,255,255,202 // mov $0xcaffffff,%ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,240 // push %rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe1004400 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fc81b4>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_4444_skx
-.globl _sk_load_4444_skx
-FUNCTION(_sk_load_4444_skx)
-_sk_load_4444_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 448c <_sk_load_4444_skx+0x84>
- .byte 196,193,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm0
- .byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,194,129,3,0 // vpandd 0x381c2(%rip){1to8},%ymm3,%ymm0 # 3c5f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,184,129,3,0 // vmulps 0x381b8(%rip){1to8},%ymm0,%ymm0 # 3c5f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,101,56,219,13,178,129,3,0 // vpandd 0x381b2(%rip){1to8},%ymm3,%ymm1 # 3c5fc <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,168,129,3,0 // vmulps 0x381a8(%rip){1to8},%ymm1,%ymm1 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,101,56,219,21,162,129,3,0 // vpandd 0x381a2(%rip){1to8},%ymm3,%ymm2 # 3c604 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,152,129,3,0 // vmulps 0x38198(%rip){1to8},%ymm2,%ymm2 # 3c608 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,101,56,219,29,146,129,3,0 // vpandd 0x38192(%rip){1to8},%ymm3,%ymm3 # 3c60c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,136,129,3,0 // vmulps 0x38188(%rip){1to8},%ymm3,%ymm3 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,137 // ja 4423 <_sk_load_4444_skx+0x1b>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,120,0,0,0 // lea 0x78(%rip),%r9 # 451c <_sk_load_4444_skx+0x114>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,104,255,255,255 // jmpq 4423 <_sk_load_4444_skx+0x1b>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,194,121,52,12,80 // vpmovzxwq (%r8,%rdx,2),%xmm1
- .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
- .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
- .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,65,255,255,255 // jmpq 4423 <_sk_load_4444_skx+0x1b>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,194,121,51,12,80 // vpmovzxwd (%r8,%rdx,2),%xmm1
- .byte 197,251,112,201,232 // vpshuflw $0xe8,%xmm1,%xmm1
- .byte 197,250,112,201,232 // vpshufhw $0xe8,%xmm1,%xmm1
- .byte 197,249,112,201,132 // vpshufd $0x84,%xmm1,%xmm1
- .byte 197,241,109,192 // vpunpckhqdq %xmm0,%xmm1,%xmm0
- .byte 233,7,255,255,255 // jmpq 4423 <_sk_load_4444_skx+0x1b>
- .byte 145 // xchg %eax,%ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,171,255,255,255,159 // ljmp *-0x60000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,226 // jmpq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_4444_dst_skx
-.globl _sk_load_4444_dst_skx
-FUNCTION(_sk_load_4444_dst_skx)
-_sk_load_4444_dst_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 45bc <_sk_load_4444_dst_skx+0x84>
- .byte 196,193,122,111,36,80 // vmovdqu (%r8,%rdx,2),%xmm4
- .byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 98,241,69,56,219,37,146,128,3,0 // vpandd 0x38092(%rip){1to8},%ymm7,%ymm4 # 3c5f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 98,241,92,56,89,37,136,128,3,0 // vmulps 0x38088(%rip){1to8},%ymm4,%ymm4 # 3c5f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,69,56,219,45,130,128,3,0 // vpandd 0x38082(%rip){1to8},%ymm7,%ymm5 # 3c5fc <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 98,241,84,56,89,45,120,128,3,0 // vmulps 0x38078(%rip){1to8},%ymm5,%ymm5 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,69,56,219,53,114,128,3,0 // vpandd 0x38072(%rip){1to8},%ymm7,%ymm6 # 3c604 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 98,241,76,56,89,53,104,128,3,0 // vmulps 0x38068(%rip){1to8},%ymm6,%ymm6 # 3c608 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,69,56,219,61,98,128,3,0 // vpandd 0x38062(%rip){1to8},%ymm7,%ymm7 # 3c60c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 98,241,68,56,89,61,88,128,3,0 // vmulps 0x38058(%rip){1to8},%ymm7,%ymm7 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,137 // ja 4553 <_sk_load_4444_dst_skx+0x1b>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,120,0,0,0 // lea 0x78(%rip),%r9 # 464c <_sk_load_4444_dst_skx+0x114>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,104,255,255,255 // jmpq 4553 <_sk_load_4444_dst_skx+0x1b>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,100,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,194,121,52,44,80 // vpmovzxwq (%r8,%rdx,2),%xmm5
- .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
- .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
- .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,65,255,255,255 // jmpq 4553 <_sk_load_4444_dst_skx+0x1b>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,100,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,89,196,100,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,89,196,100,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,194,121,51,44,80 // vpmovzxwd (%r8,%rdx,2),%xmm5
- .byte 197,251,112,237,232 // vpshuflw $0xe8,%xmm5,%xmm5
- .byte 197,250,112,237,232 // vpshufhw $0xe8,%xmm5,%xmm5
- .byte 197,249,112,237,132 // vpshufd $0x84,%xmm5,%xmm5
- .byte 197,209,109,228 // vpunpckhqdq %xmm4,%xmm5,%xmm4
- .byte 233,7,255,255,255 // jmpq 4553 <_sk_load_4444_dst_skx+0x1b>
- .byte 145 // xchg %eax,%ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,171,255,255,255,159 // ljmp *-0x60000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,226 // jmpq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_4444_skx
-.globl _sk_gather_4444_skx
-FUNCTION(_sk_gather_4444_skx)
-_sk_gather_4444_skx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,194 // vmovq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,199 // vmovq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,183,20,80 // movzwl (%r8,%r10,2),%r10d
- .byte 71,15,183,28,88 // movzwl (%r8,%r11,2),%r11d
- .byte 196,193,121,110,195 // vmovd %r11d,%xmm0
- .byte 196,193,121,196,194,1 // vpinsrw $0x1,%r10d,%xmm0,%xmm0
- .byte 71,15,183,12,72 // movzwl (%r8,%r9,2),%r9d
- .byte 196,193,121,196,193,2 // vpinsrw $0x2,%r9d,%xmm0,%xmm0
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,249,196,192,3 // vpinsrw $0x3,%eax,%xmm0,%xmm0
- .byte 67,15,183,4,96 // movzwl (%r8,%r12,2),%eax
- .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0
- .byte 67,15,183,4,120 // movzwl (%r8,%r15,2),%eax
- .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0
- .byte 67,15,183,4,112 // movzwl (%r8,%r14,2),%eax
- .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
- .byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
- .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
- .byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 98,241,101,56,219,5,167,126,3,0 // vpandd 0x37ea7(%rip){1to8},%ymm3,%ymm0 # 3c5f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 98,241,124,56,89,5,157,126,3,0 // vmulps 0x37e9d(%rip){1to8},%ymm0,%ymm0 # 3c5f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 98,241,101,56,219,13,151,126,3,0 // vpandd 0x37e97(%rip){1to8},%ymm3,%ymm1 # 3c5fc <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,241,116,56,89,13,141,126,3,0 // vmulps 0x37e8d(%rip){1to8},%ymm1,%ymm1 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 98,241,101,56,219,21,135,126,3,0 // vpandd 0x37e87(%rip){1to8},%ymm3,%ymm2 # 3c604 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 98,241,108,56,89,21,125,126,3,0 // vmulps 0x37e7d(%rip){1to8},%ymm2,%ymm2 # 3c608 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 98,241,101,56,219,29,119,126,3,0 // vpandd 0x37e77(%rip){1to8},%ymm3,%ymm3 # 3c60c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,109,126,3,0 // vmulps 0x37e6d(%rip){1to8},%ymm3,%ymm3 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_4444_skx
-.globl _sk_store_4444_skx
-FUNCTION(_sk_store_4444_skx)
-_sk_store_4444_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,44,125,3,0 // vbroadcastss 0x37d2c(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,54,126,3,0 // vbroadcastss 0x37e36(%rip),%ymm11 # 3c614 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
- .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
- .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,4 // vpslld $0x4,%ymm12,%ymm12
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 485c <_sk_store_4444_skx+0xae>
- .byte 196,65,122,127,4,80 // vmovdqu %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 4858 <_sk_store_4444_skx+0xaa>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,80,0,0,0 // lea 0x50(%rip),%r9 # 48c0 <_sk_store_4444_skx+0x112>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,214 // jmp 4858 <_sk_store_4444_skx+0xaa>
- .byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- .byte 196,66,121,52,192 // vpmovzxwq %xmm8,%xmm8
- .byte 98,82,126,8,52,4,80 // vpmovqw %xmm8,(%r8,%rdx,2)
- .byte 235,192 // jmp 4858 <_sk_store_4444_skx+0xaa>
- .byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
- .byte 98,82,126,8,51,4,80 // vpmovdw %xmm8,(%r8,%rdx,2)
- .byte 235,154 // jmp 4858 <_sk_store_4444_skx+0xaa>
- .byte 102,144 // xchg %ax,%ax
- .byte 185,255,255,255,202 // mov $0xcaffffff,%ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,240 // push %rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe10048d4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fc8688>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_8888_skx
-.globl _sk_load_8888_skx
-FUNCTION(_sk_load_8888_skx)
-_sk_load_8888_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4953 <_sk_load_8888_skx+0x77>
- .byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 184,17,17,17,17 // mov $0x11111111,%eax
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,96,124,3,0 // vbroadcastss 0x37c60(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,245,114,211,8 // vpsrld $0x8,%ymm3,%ymm1
- .byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 197,237,114,211,16 // vpsrld $0x10,%ymm3,%ymm2
- .byte 98,241,127,169,111,210 // vmovdqu8 %ymm2,%ymm2{%k1}{z}
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,151 // ja 48f8 <_sk_load_8888_skx+0x1c>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,137,0,0,0 // lea 0x89(%rip),%r9 # 49f4 <_sk_load_8888_skx+0x118>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,121,255,255,255 // jmpq 48f8 <_sk_load_8888_skx+0x1c>
- .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
- .byte 176,4 // mov $0x4,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
- .byte 196,194,121,53,4,144 // vpmovzxdq (%r8,%rdx,4),%xmm0
- .byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
- .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,80,255,255,255 // jmpq 48f8 <_sk_load_8888_skx+0x1c>
- .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
- .byte 176,64 // mov $0x40,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
- .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,4,255,255,255 // jmpq 48f8 <_sk_load_8888_skx+0x1c>
- .byte 128,255,255 // cmp $0xff,%bh
- .byte 255,158,255,255,255,139 // lcall *-0x74000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 180,255 // mov $0xff,%ah
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_8888_dst_skx
-.globl _sk_load_8888_dst_skx
-FUNCTION(_sk_load_8888_dst_skx)
-_sk_load_8888_dst_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4a87 <_sk_load_8888_dst_skx+0x77>
- .byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
- .byte 184,17,17,17,17 // mov $0x11111111,%eax
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,44,123,3,0 // vbroadcastss 0x37b2c(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 197,213,114,215,8 // vpsrld $0x8,%ymm7,%ymm5
- .byte 98,241,127,169,111,237 // vmovdqu8 %ymm5,%ymm5{%k1}{z}
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 197,205,114,215,16 // vpsrld $0x10,%ymm7,%ymm6
- .byte 98,241,127,169,111,246 // vmovdqu8 %ymm6,%ymm6{%k1}{z}
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,151 // ja 4a2c <_sk_load_8888_dst_skx+0x1c>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,137,0,0,0 // lea 0x89(%rip),%r9 # 4b28 <_sk_load_8888_dst_skx+0x118>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 233,121,255,255,255 // jmpq 4a2c <_sk_load_8888_dst_skx+0x1c>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 176,4 // mov $0x4,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
- .byte 196,194,121,53,36,144 // vpmovzxdq (%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
- .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,80,255,255,255 // jmpq 4a2c <_sk_load_8888_dst_skx+0x1c>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 176,64 // mov $0x40,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
- .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,4,255,255,255 // jmpq 4a2c <_sk_load_8888_dst_skx+0x1c>
- .byte 128,255,255 // cmp $0xff,%bh
- .byte 255,158,255,255,255,139 // lcall *-0x74000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 180,255 // mov $0xff,%ah
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_8888_skx
-.globl _sk_gather_8888_skx
-FUNCTION(_sk_gather_8888_skx)
-_sk_gather_8888_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 184,17,17,17,17 // mov $0x11111111,%eax
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,201,121,3,0 // vbroadcastss 0x379c9(%rip),%ymm3 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,193,117,114,208,8 // vpsrld $0x8,%ymm8,%ymm1
- .byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,193,109,114,208,16 // vpsrld $0x10,%ymm8,%ymm2
- .byte 98,241,127,169,111,210 // vmovdqu8 %ymm2,%ymm2{%k1}{z}
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_8888_skx
-.globl _sk_store_8888_skx
-FUNCTION(_sk_store_8888_skx)
-_sk_store_8888_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,239,120,3,0 // vbroadcastss 0x378ef(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,13,121,3,0 // vbroadcastss 0x3790d(%rip),%ymm11 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
- .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
- .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,16 // vpslld $0x10,%ymm12,%ymm12
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
- .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 4c8e <_sk_store_8888_skx+0xa4>
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 4c8a <_sk_store_8888_skx+0xa0>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,90,0,0,0 // lea 0x5a(%rip),%r9 # 4cfc <_sk_store_8888_skx+0x112>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 4c8a <_sk_store_8888_skx+0xa0>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
- .byte 98,82,126,8,53,4,144 // vpmovqd %xmm8,(%r8,%rdx,4)
- .byte 235,193 // jmp 4c8a <_sk_store_8888_skx+0xa0>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,144 // jmp 4c8a <_sk_store_8888_skx+0xa0>
- .byte 102,144 // xchg %ax,%ax
- .byte 175 // scas %es:(%rdi),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,183 // mov $0xb7ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,246 // push %rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc004d10 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfc8ac4>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_skx
-.globl _sk_load_bgra_skx
-FUNCTION(_sk_load_bgra_skx)
-_sk_load_bgra_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4d8f <_sk_load_bgra_skx+0x77>
- .byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 184,17,17,17,17 // mov $0x11111111,%eax
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,241,127,169,111,195 // vmovdqu8 %ymm3,%ymm0{%k1}{z}
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,36,120,3,0 // vbroadcastss 0x37824(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 197,253,114,211,8 // vpsrld $0x8,%ymm3,%ymm0
- .byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 197,253,114,211,16 // vpsrld $0x10,%ymm3,%ymm0
- .byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,151 // ja 4d34 <_sk_load_bgra_skx+0x1c>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,137,0,0,0 // lea 0x89(%rip),%r9 # 4e30 <_sk_load_bgra_skx+0x118>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,121,255,255,255 // jmpq 4d34 <_sk_load_bgra_skx+0x1c>
- .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
- .byte 176,4 // mov $0x4,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
- .byte 196,194,121,53,4,144 // vpmovzxdq (%r8,%rdx,4),%xmm0
- .byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
- .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,80,255,255,255 // jmpq 4d34 <_sk_load_bgra_skx+0x1c>
- .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
- .byte 176,64 // mov $0x40,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
- .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,4,255,255,255 // jmpq 4d34 <_sk_load_bgra_skx+0x1c>
- .byte 128,255,255 // cmp $0xff,%bh
- .byte 255,158,255,255,255,139 // lcall *-0x74000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 180,255 // mov $0xff,%ah
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_dst_skx
-.globl _sk_load_bgra_dst_skx
-FUNCTION(_sk_load_bgra_dst_skx)
-_sk_load_bgra_dst_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,97 // jne 4ec3 <_sk_load_bgra_dst_skx+0x77>
- .byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
- .byte 184,17,17,17,17 // mov $0x11111111,%eax
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,241,127,169,111,231 // vmovdqu8 %ymm7,%ymm4{%k1}{z}
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,240,118,3,0 // vbroadcastss 0x376f0(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
- .byte 197,221,114,215,8 // vpsrld $0x8,%ymm7,%ymm4
- .byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 197,221,114,215,16 // vpsrld $0x10,%ymm7,%ymm4
- .byte 98,241,127,169,111,228 // vmovdqu8 %ymm4,%ymm4{%k1}{z}
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,151 // ja 4e68 <_sk_load_bgra_dst_skx+0x1c>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,137,0,0,0 // lea 0x89(%rip),%r9 # 4f64 <_sk_load_bgra_dst_skx+0x118>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 233,121,255,255,255 // jmpq 4e68 <_sk_load_bgra_dst_skx+0x1c>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 176,4 // mov $0x4,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
- .byte 196,194,121,53,36,144 // vpmovzxdq (%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
- .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,80,255,255,255 // jmpq 4e68 <_sk_load_bgra_dst_skx+0x1c>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 176,64 // mov $0x40,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
- .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,4,255,255,255 // jmpq 4e68 <_sk_load_bgra_dst_skx+0x1c>
- .byte 128,255,255 // cmp $0xff,%bh
- .byte 255,158,255,255,255,139 // lcall *-0x74000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 180,255 // mov $0xff,%ah
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_bgra_skx
-.globl _sk_gather_bgra_skx
-FUNCTION(_sk_gather_bgra_skx)
-_sk_gather_bgra_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 184,17,17,17,17 // mov $0x11111111,%eax
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,209,127,169,111,192 // vmovdqu8 %ymm8,%ymm0{%k1}{z}
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,141,117,3,0 // vbroadcastss 0x3758d(%rip),%ymm3 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
- .byte 196,193,125,114,208,8 // vpsrld $0x8,%ymm8,%ymm0
- .byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,89,203 // vmulps %ymm3,%ymm0,%ymm1
- .byte 196,193,125,114,208,16 // vpsrld $0x10,%ymm8,%ymm0
- .byte 98,241,127,169,111,192 // vmovdqu8 %ymm0,%ymm0{%k1}{z}
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_bgra_skx
-.globl _sk_store_bgra_skx
-FUNCTION(_sk_store_bgra_skx)
-_sk_store_bgra_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
- .byte 196,98,125,24,21,179,116,3,0 // vbroadcastss 0x374b3(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,209,116,3,0 // vbroadcastss 0x374d1(%rip),%ymm11 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
- .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
- .byte 197,60,95,224 // vmaxps %ymm0,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,16 // vpslld $0x10,%ymm12,%ymm12
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
- .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 50ca <_sk_store_bgra_skx+0xa4>
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 50c6 <_sk_store_bgra_skx+0xa0>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,90,0,0,0 // lea 0x5a(%rip),%r9 # 5138 <_sk_store_bgra_skx+0x112>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 50c6 <_sk_store_bgra_skx+0xa0>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
- .byte 98,82,126,8,53,4,144 // vpmovqd %xmm8,(%r8,%rdx,4)
- .byte 235,193 // jmp 50c6 <_sk_store_bgra_skx+0xa0>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,144 // jmp 50c6 <_sk_store_bgra_skx+0xa0>
- .byte 102,144 // xchg %ax,%ax
- .byte 175 // scas %es:(%rdi),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,183 // mov $0xb7ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,246 // push %rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc00514c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfc8f00>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_1010102_skx
-.globl _sk_load_1010102_skx
-FUNCTION(_sk_load_1010102_skx)
-_sk_load_1010102_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,96 // jne 51ca <_sk_load_1010102_skx+0x76>
- .byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 196,226,125,88,21,159,116,3,0 // vpbroadcastd 0x3749f(%rip),%ymm2 # 3c618 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- .byte 197,229,219,194 // vpand %ymm2,%ymm3,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,146,116,3,0 // vbroadcastss 0x37492(%rip),%ymm8 # 3c61c <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,245,114,211,10 // vpsrld $0xa,%ymm3,%ymm1
- .byte 197,245,219,202 // vpand %ymm2,%ymm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 197,181,114,211,20 // vpsrld $0x14,%ymm3,%ymm9
- .byte 197,181,219,210 // vpand %ymm2,%ymm9,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 197,229,114,211,30 // vpsrld $0x1e,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,162,115,3,0 // vmulps 0x373a2(%rip){1to8},%ymm3,%ymm3 # 3c568 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,152 // ja 5170 <_sk_load_1010102_skx+0x1c>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,138,0,0,0 // lea 0x8a(%rip),%r9 # 526c <_sk_load_1010102_skx+0x118>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,122,255,255,255 // jmpq 5170 <_sk_load_1010102_skx+0x1c>
- .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
- .byte 176,4 // mov $0x4,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
- .byte 196,194,121,53,4,144 // vpmovzxdq (%r8,%rdx,4),%xmm0
- .byte 197,249,112,192,232 // vpshufd $0xe8,%xmm0,%xmm0
- .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,81,255,255,255 // jmpq 5170 <_sk_load_1010102_skx+0x1c>
- .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
- .byte 176,64 // mov $0x40,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,216 // vpexpandd %ymm0,%ymm3{%k1}{z}
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
- .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,5,255,255,255 // jmpq 5170 <_sk_load_1010102_skx+0x1c>
- .byte 144 // nop
- .byte 127,255 // jg 526d <_sk_load_1010102_skx+0x119>
- .byte 255 // (bad)
- .byte 255,157,255,255,255,138 // lcall *-0x75000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 238 // out %al,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 179,255 // mov $0xff,%bl
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_1010102_dst_skx
-.globl _sk_load_1010102_dst_skx
-FUNCTION(_sk_load_1010102_dst_skx)
-_sk_load_1010102_dst_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,96 // jne 52fe <_sk_load_1010102_dst_skx+0x76>
- .byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
- .byte 196,226,125,88,53,107,115,3,0 // vpbroadcastd 0x3736b(%rip),%ymm6 # 3c618 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- .byte 197,197,219,230 // vpand %ymm6,%ymm7,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,94,115,3,0 // vbroadcastss 0x3735e(%rip),%ymm8 # 3c61c <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 197,213,114,215,10 // vpsrld $0xa,%ymm7,%ymm5
- .byte 197,213,219,238 // vpand %ymm6,%ymm5,%ymm5
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 197,181,114,215,20 // vpsrld $0x14,%ymm7,%ymm9
- .byte 197,181,219,246 // vpand %ymm6,%ymm9,%ymm6
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 197,197,114,215,30 // vpsrld $0x1e,%ymm7,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 98,241,68,56,89,61,110,114,3,0 // vmulps 0x3726e(%rip){1to8},%ymm7,%ymm7 # 3c568 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,152 // ja 52a4 <_sk_load_1010102_dst_skx+0x1c>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,138,0,0,0 // lea 0x8a(%rip),%r9 # 53a0 <_sk_load_1010102_dst_skx+0x118>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 233,122,255,255,255 // jmpq 52a4 <_sk_load_1010102_dst_skx+0x1c>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 176,4 // mov $0x4,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
- .byte 196,194,121,53,36,144 // vpmovzxdq (%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,232 // vpshufd $0xe8,%xmm4,%xmm4
- .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,81,255,255,255 // jmpq 52a4 <_sk_load_1010102_dst_skx+0x1c>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 176,64 // mov $0x40,%al
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,242,125,169,137,252 // vpexpandd %ymm4,%ymm7{%k1}{z}
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
- .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,5,255,255,255 // jmpq 52a4 <_sk_load_1010102_dst_skx+0x1c>
- .byte 144 // nop
- .byte 127,255 // jg 53a1 <_sk_load_1010102_dst_skx+0x119>
- .byte 255 // (bad)
- .byte 255,157,255,255,255,138 // lcall *-0x75000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 238 // out %al,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 179,255 // mov $0xff,%bl
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_1010102_skx
-.globl _sk_gather_1010102_skx
-FUNCTION(_sk_gather_1010102_skx)
-_sk_gather_1010102_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 196,226,125,88,21,8,114,3,0 // vpbroadcastd 0x37208(%rip),%ymm2 # 3c618 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- .byte 197,189,219,194 // vpand %ymm2,%ymm8,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,251,113,3,0 // vbroadcastss 0x371fb(%rip),%ymm3 # 3c61c <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,193,117,114,208,10 // vpsrld $0xa,%ymm8,%ymm1
- .byte 197,245,219,202 // vpand %ymm2,%ymm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,193,53,114,208,20 // vpsrld $0x14,%ymm8,%ymm9
- .byte 197,181,219,210 // vpand %ymm2,%ymm9,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 196,193,101,114,208,30 // vpsrld $0x1e,%ymm8,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 98,241,100,56,89,29,11,113,3,0 // vmulps 0x3710b(%rip){1to8},%ymm3,%ymm3 # 3c568 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_1010102_skx
-.globl _sk_store_1010102_skx
-FUNCTION(_sk_store_1010102_skx)
-_sk_store_1010102_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,120,112,3,0 // vbroadcastss 0x37078(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,142,113,3,0 // vbroadcastss 0x3718e(%rip),%ymm11 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,10 // vpslld $0xa,%ymm12,%ymm12
- .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
- .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,37,114,243,20 // vpslld $0x14,%ymm11,%ymm11
- .byte 196,65,53,235,203 // vpor %ymm11,%ymm9,%ymm9
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 98,113,60,56,89,5,57,113,3,0 // vmulps 0x37139(%rip){1to8},%ymm8,%ymm8 # 3c624 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,61,114,240,30 // vpslld $0x1e,%ymm8,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 550a <_sk_store_1010102_skx+0xa9>
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 4,255 // add $0xff,%al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 5506 <_sk_store_1010102_skx+0xa5>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,90,0,0,0 // lea 0x5a(%rip),%r9 # 5578 <_sk_store_1010102_skx+0x117>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 5506 <_sk_store_1010102_skx+0xa5>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,66,121,53,192 // vpmovzxdq %xmm8,%xmm8
- .byte 98,82,126,8,53,4,144 // vpmovqd %xmm8,(%r8,%rdx,4)
- .byte 235,193 // jmp 5506 <_sk_store_1010102_skx+0xa5>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,144 // jmp 5506 <_sk_store_1010102_skx+0xa5>
- .byte 102,144 // xchg %ax,%ax
- .byte 175 // scas %es:(%rdi),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,183 // mov $0xb7ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,246 // push %rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc00558c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfc9340>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_f16_skx
-.globl _sk_load_f16_skx
-FUNCTION(_sk_load_f16_skx)
-_sk_load_f16_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 560f <_sk_load_f16_skx+0x7b>
- .byte 196,65,121,16,4,208 // vmovupd (%r8,%rdx,8),%xmm8
- .byte 196,193,121,16,84,208,16 // vmovupd 0x10(%r8,%rdx,8),%xmm2
- .byte 196,193,121,16,76,208,32 // vmovupd 0x20(%r8,%rdx,8),%xmm1
- .byte 196,65,122,111,76,208,48 // vmovdqu 0x30(%r8,%rdx,8),%xmm9
- .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0
- .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2
- .byte 196,65,113,97,193 // vpunpcklwd %xmm9,%xmm1,%xmm8
- .byte 196,193,113,105,217 // vpunpckhwd %xmm9,%xmm1,%xmm3
- .byte 197,249,97,202 // vpunpcklwd %xmm2,%xmm0,%xmm1
- .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
- .byte 197,185,97,195 // vpunpcklwd %xmm3,%xmm8,%xmm0
- .byte 197,241,108,208 // vpunpcklqdq %xmm0,%xmm1,%xmm2
- .byte 197,241,109,200 // vpunpckhqdq %xmm0,%xmm1,%xmm1
- .byte 196,226,125,19,194 // vcvtph2ps %xmm2,%ymm0
- .byte 196,226,125,19,201 // vcvtph2ps %xmm1,%ymm1
- .byte 197,185,105,219 // vpunpckhwd %xmm3,%xmm8,%xmm3
- .byte 197,177,108,211 // vpunpcklqdq %xmm3,%xmm9,%xmm2
- .byte 196,226,125,19,210 // vcvtph2ps %xmm2,%ymm2
- .byte 197,177,109,219 // vpunpckhqdq %xmm3,%xmm9,%xmm3
- .byte 196,226,125,19,219 // vcvtph2ps %xmm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,123,16,4,208 // vmovsd (%r8,%rdx,8),%xmm8
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 5675 <_sk_load_f16_skx+0xe1>
- .byte 196,65,57,22,68,208,8 // vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 5675 <_sk_load_f16_skx+0xe1>
- .byte 196,193,123,16,84,208,16 // vmovsd 0x10(%r8,%rdx,8),%xmm2
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 5682 <_sk_load_f16_skx+0xee>
- .byte 196,193,105,22,84,208,24 // vmovhpd 0x18(%r8,%rdx,8),%xmm2,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 5682 <_sk_load_f16_skx+0xee>
- .byte 196,193,123,16,76,208,32 // vmovsd 0x20(%r8,%rdx,8),%xmm1
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je 55c5 <_sk_load_f16_skx+0x31>
- .byte 196,193,113,22,76,208,40 // vmovhpd 0x28(%r8,%rdx,8),%xmm1,%xmm1
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb 55c5 <_sk_load_f16_skx+0x31>
- .byte 196,65,122,126,76,208,48 // vmovq 0x30(%r8,%rdx,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 55c5 <_sk_load_f16_skx+0x31>
- .byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
- .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq 55c5 <_sk_load_f16_skx+0x31>
- .byte 197,241,87,201 // vxorpd %xmm1,%xmm1,%xmm1
- .byte 233,58,255,255,255 // jmpq 55c5 <_sk_load_f16_skx+0x31>
-
-HIDDEN _sk_load_f16_dst_skx
-.globl _sk_load_f16_dst_skx
-FUNCTION(_sk_load_f16_dst_skx)
-_sk_load_f16_dst_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 5706 <_sk_load_f16_dst_skx+0x7b>
- .byte 196,65,121,16,4,208 // vmovupd (%r8,%rdx,8),%xmm8
- .byte 196,193,121,16,116,208,16 // vmovupd 0x10(%r8,%rdx,8),%xmm6
- .byte 196,193,121,16,108,208,32 // vmovupd 0x20(%r8,%rdx,8),%xmm5
- .byte 196,65,122,111,76,208,48 // vmovdqu 0x30(%r8,%rdx,8),%xmm9
- .byte 197,185,97,230 // vpunpcklwd %xmm6,%xmm8,%xmm4
- .byte 197,185,105,246 // vpunpckhwd %xmm6,%xmm8,%xmm6
- .byte 196,65,81,97,193 // vpunpcklwd %xmm9,%xmm5,%xmm8
- .byte 196,193,81,105,249 // vpunpckhwd %xmm9,%xmm5,%xmm7
- .byte 197,217,97,238 // vpunpcklwd %xmm6,%xmm4,%xmm5
- .byte 197,89,105,206 // vpunpckhwd %xmm6,%xmm4,%xmm9
- .byte 197,185,97,231 // vpunpcklwd %xmm7,%xmm8,%xmm4
- .byte 197,209,108,244 // vpunpcklqdq %xmm4,%xmm5,%xmm6
- .byte 197,209,109,236 // vpunpckhqdq %xmm4,%xmm5,%xmm5
- .byte 196,226,125,19,230 // vcvtph2ps %xmm6,%ymm4
- .byte 196,226,125,19,237 // vcvtph2ps %xmm5,%ymm5
- .byte 197,185,105,255 // vpunpckhwd %xmm7,%xmm8,%xmm7
- .byte 197,177,108,247 // vpunpcklqdq %xmm7,%xmm9,%xmm6
- .byte 196,226,125,19,246 // vcvtph2ps %xmm6,%ymm6
- .byte 197,177,109,255 // vpunpckhqdq %xmm7,%xmm9,%xmm7
- .byte 196,226,125,19,255 // vcvtph2ps %xmm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,123,16,4,208 // vmovsd (%r8,%rdx,8),%xmm8
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 576c <_sk_load_f16_dst_skx+0xe1>
- .byte 196,65,57,22,68,208,8 // vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 576c <_sk_load_f16_dst_skx+0xe1>
- .byte 196,193,123,16,116,208,16 // vmovsd 0x10(%r8,%rdx,8),%xmm6
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 5779 <_sk_load_f16_dst_skx+0xee>
- .byte 196,193,73,22,116,208,24 // vmovhpd 0x18(%r8,%rdx,8),%xmm6,%xmm6
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 5779 <_sk_load_f16_dst_skx+0xee>
- .byte 196,193,123,16,108,208,32 // vmovsd 0x20(%r8,%rdx,8),%xmm5
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je 56bc <_sk_load_f16_dst_skx+0x31>
- .byte 196,193,81,22,108,208,40 // vmovhpd 0x28(%r8,%rdx,8),%xmm5,%xmm5
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb 56bc <_sk_load_f16_dst_skx+0x31>
- .byte 196,65,122,126,76,208,48 // vmovq 0x30(%r8,%rdx,8),%xmm9
- .byte 233,80,255,255,255 // jmpq 56bc <_sk_load_f16_dst_skx+0x31>
- .byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
- .byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq 56bc <_sk_load_f16_dst_skx+0x31>
- .byte 197,209,87,237 // vxorpd %xmm5,%xmm5,%xmm5
- .byte 233,58,255,255,255 // jmpq 56bc <_sk_load_f16_dst_skx+0x31>
-
-HIDDEN _sk_gather_f16_skx
-.globl _sk_gather_f16_skx
-FUNCTION(_sk_gather_f16_skx)
-_sk_gather_f16_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 98,242,117,56,64,72,2 // vpmulld 0x8(%rax){1to8},%ymm1,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 196,194,245,144,20,192 // vpgatherdq %ymm1,(%r8,%xmm0,8),%ymm2
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 196,66,229,144,4,192 // vpgatherdq %ymm3,(%r8,%xmm0,8),%ymm8
- .byte 98,211,253,72,58,192,1 // vinserti64x4 $0x1,%ymm8,%zmm0,%zmm0
- .byte 98,211,237,72,58,200,1 // vinserti64x4 $0x1,%ymm8,%zmm2,%zmm1
- .byte 98,243,253,72,57,202,1 // vextracti64x2 $0x1,%zmm1,%xmm2
- .byte 98,243,253,72,57,195,2 // vextracti64x2 $0x2,%zmm0,%xmm3
- .byte 98,243,253,72,57,192,3 // vextracti64x2 $0x3,%zmm0,%xmm0
- .byte 197,113,97,194 // vpunpcklwd %xmm2,%xmm1,%xmm8
- .byte 197,241,105,202 // vpunpckhwd %xmm2,%xmm1,%xmm1
- .byte 197,225,97,208 // vpunpcklwd %xmm0,%xmm3,%xmm2
- .byte 197,225,105,216 // vpunpckhwd %xmm0,%xmm3,%xmm3
- .byte 197,185,97,193 // vpunpcklwd %xmm1,%xmm8,%xmm0
- .byte 197,57,105,193 // vpunpckhwd %xmm1,%xmm8,%xmm8
- .byte 197,233,97,203 // vpunpcklwd %xmm3,%xmm2,%xmm1
- .byte 197,121,108,201 // vpunpcklqdq %xmm1,%xmm0,%xmm9
- .byte 197,249,109,201 // vpunpckhqdq %xmm1,%xmm0,%xmm1
- .byte 196,194,125,19,193 // vcvtph2ps %xmm9,%ymm0
- .byte 196,226,125,19,201 // vcvtph2ps %xmm1,%ymm1
- .byte 197,233,105,219 // vpunpckhwd %xmm3,%xmm2,%xmm3
- .byte 197,185,108,211 // vpunpcklqdq %xmm3,%xmm8,%xmm2
- .byte 196,226,125,19,210 // vcvtph2ps %xmm2,%ymm2
- .byte 197,185,109,219 // vpunpckhqdq %xmm3,%xmm8,%xmm3
- .byte 196,226,125,19,219 // vcvtph2ps %xmm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_f16_skx
-.globl _sk_store_f16_skx
-FUNCTION(_sk_store_f16_skx)
-_sk_store_f16_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 196,195,125,29,192,4 // vcvtps2ph $0x4,%ymm0,%xmm8
- .byte 196,195,125,29,201,4 // vcvtps2ph $0x4,%ymm1,%xmm9
- .byte 196,195,125,29,210,4 // vcvtps2ph $0x4,%ymm2,%xmm10
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,195,125,29,219,4 // vcvtps2ph $0x4,%ymm3,%xmm11
- .byte 196,65,57,97,225 // vpunpcklwd %xmm9,%xmm8,%xmm12
- .byte 196,65,57,105,193 // vpunpckhwd %xmm9,%xmm8,%xmm8
- .byte 196,65,41,97,203 // vpunpcklwd %xmm11,%xmm10,%xmm9
- .byte 196,65,41,105,235 // vpunpckhwd %xmm11,%xmm10,%xmm13
- .byte 196,65,25,98,217 // vpunpckldq %xmm9,%xmm12,%xmm11
- .byte 196,65,25,106,209 // vpunpckhdq %xmm9,%xmm12,%xmm10
- .byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
- .byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 58c1 <_sk_store_f16_skx+0x75>
- .byte 196,65,122,127,28,208 // vmovdqu %xmm11,(%r8,%rdx,8)
- .byte 196,65,122,127,84,208,16 // vmovdqu %xmm10,0x10(%r8,%rdx,8)
- .byte 196,65,122,127,76,208,32 // vmovdqu %xmm9,0x20(%r8,%rdx,8)
- .byte 196,65,122,127,68,208,48 // vmovdqu %xmm8,0x30(%r8,%rdx,8)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,214,28,208 // vmovq %xmm11,(%r8,%rdx,8)
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 58bd <_sk_store_f16_skx+0x71>
- .byte 196,65,121,23,92,208,8 // vmovhpd %xmm11,0x8(%r8,%rdx,8)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 58bd <_sk_store_f16_skx+0x71>
- .byte 196,65,121,214,84,208,16 // vmovq %xmm10,0x10(%r8,%rdx,8)
- .byte 116,218 // je 58bd <_sk_store_f16_skx+0x71>
- .byte 196,65,121,23,84,208,24 // vmovhpd %xmm10,0x18(%r8,%rdx,8)
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 58bd <_sk_store_f16_skx+0x71>
- .byte 196,65,121,214,76,208,32 // vmovq %xmm9,0x20(%r8,%rdx,8)
- .byte 116,196 // je 58bd <_sk_store_f16_skx+0x71>
- .byte 196,65,121,23,76,208,40 // vmovhpd %xmm9,0x28(%r8,%rdx,8)
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 58bd <_sk_store_f16_skx+0x71>
- .byte 196,65,121,214,68,208,48 // vmovq %xmm8,0x30(%r8,%rdx,8)
- .byte 235,174 // jmp 58bd <_sk_store_f16_skx+0x71>
-
-HIDDEN _sk_load_u16_be_skx
-.globl _sk_load_u16_be_skx
-FUNCTION(_sk_load_u16_be_skx)
-_sk_load_u16_be_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne 59fc <_sk_load_u16_be_skx+0xed>
- .byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
- .byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
- .byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
- .byte 196,1,122,111,76,72,48 // vmovdqu 0x30(%r8,%r9,2),%xmm9
- .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0
- .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2
- .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1
- .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3
- .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8
- .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
- .byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2
- .byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
- .byte 197,185,108,194 // vpunpcklqdq %xmm2,%xmm8,%xmm0
- .byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1
- .byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0
- .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
- .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,255,107,3,0 // vbroadcastss 0x36bff(%rip),%ymm10 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
- .byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
- .byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
- .byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1
- .byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1
- .byte 196,226,125,51,201 // vpmovzxwd %xmm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
- .byte 196,193,49,108,211 // vpunpcklqdq %xmm11,%xmm9,%xmm2
- .byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3
- .byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2
- .byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2
- .byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
- .byte 196,193,49,109,219 // vpunpckhqdq %xmm11,%xmm9,%xmm3
- .byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8
- .byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3
- .byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
- .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 5a62 <_sk_load_u16_be_skx+0x153>
- .byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 5a62 <_sk_load_u16_be_skx+0x153>
- .byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 5a6f <_sk_load_u16_be_skx+0x160>
- .byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 5a6f <_sk_load_u16_be_skx+0x160>
- .byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je 594b <_sk_load_u16_be_skx+0x3c>
- .byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb 594b <_sk_load_u16_be_skx+0x3c>
- .byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,233,254,255,255 // jmpq 594b <_sk_load_u16_be_skx+0x3c>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq 594b <_sk_load_u16_be_skx+0x3c>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq 594b <_sk_load_u16_be_skx+0x3c>
-
-HIDDEN _sk_load_rgb_u16_be_skx
-.globl _sk_load_rgb_u16_be_skx
-FUNCTION(_sk_load_rgb_u16_be_skx)
-_sk_load_rgb_u16_be_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,202,0,0,0 // jne 5b5f <_sk_load_rgb_u16_be_skx+0xe7>
- .byte 196,1,121,16,28,72 // vmovupd (%r8,%r9,2),%xmm11
- .byte 196,129,121,16,92,72,12 // vmovupd 0xc(%r8,%r9,2),%xmm3
- .byte 196,129,121,16,84,72,24 // vmovupd 0x18(%r8,%r9,2),%xmm2
- .byte 98,145,125,8,115,92,72,2,4 // vpsrldq $0x4,0x20(%r8,%r9,2),%xmm0
- .byte 196,193,57,115,219,6 // vpsrldq $0x6,%xmm11,%xmm8
- .byte 197,169,115,219,6 // vpsrldq $0x6,%xmm3,%xmm10
- .byte 197,241,115,218,6 // vpsrldq $0x6,%xmm2,%xmm1
- .byte 197,177,115,216,6 // vpsrldq $0x6,%xmm0,%xmm9
- .byte 196,193,113,97,201 // vpunpcklwd %xmm9,%xmm1,%xmm1
- .byte 197,233,97,192 // vpunpcklwd %xmm0,%xmm2,%xmm0
- .byte 196,193,57,97,210 // vpunpcklwd %xmm10,%xmm8,%xmm2
- .byte 197,161,97,219 // vpunpcklwd %xmm3,%xmm11,%xmm3
- .byte 197,97,97,194 // vpunpcklwd %xmm2,%xmm3,%xmm8
- .byte 197,225,105,210 // vpunpckhwd %xmm2,%xmm3,%xmm2
- .byte 197,249,97,217 // vpunpcklwd %xmm1,%xmm0,%xmm3
- .byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0
- .byte 197,233,108,208 // vpunpcklqdq %xmm0,%xmm2,%xmm2
- .byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
- .byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1
- .byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0
- .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
- .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,127,106,3,0 // vbroadcastss 0x36a7f(%rip),%ymm9 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
- .byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
- .byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1
- .byte 197,225,235,201 // vpor %xmm1,%xmm3,%xmm1
- .byte 196,226,125,51,201 // vpmovzxwd %xmm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3
- .byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2
- .byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2
- .byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,159,105,3,0 // vbroadcastss 0x3699f(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
- .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 5b97 <_sk_load_rgb_u16_be_skx+0x11f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq 5ac7 <_sk_load_rgb_u16_be_skx+0x4f>
- .byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
- .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 5be1 <_sk_load_rgb_u16_be_skx+0x169>
- .byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
- .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 5bfb <_sk_load_rgb_u16_be_skx+0x183>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq 5ac7 <_sk_load_rgb_u16_be_skx+0x4f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq 5ac7 <_sk_load_rgb_u16_be_skx+0x4f>
- .byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
- .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 5c3c <_sk_load_rgb_u16_be_skx+0x1c4>
- .byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
- .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 5c4d <_sk_load_rgb_u16_be_skx+0x1d5>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq 5ac7 <_sk_load_rgb_u16_be_skx+0x4f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq 5ac7 <_sk_load_rgb_u16_be_skx+0x4f>
- .byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
- .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 5c80 <_sk_load_rgb_u16_be_skx+0x208>
- .byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
- .byte 196,65,49,87,201 // vxorpd %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq 5ac7 <_sk_load_rgb_u16_be_skx+0x4f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq 5ac7 <_sk_load_rgb_u16_be_skx+0x4f>
-
-HIDDEN _sk_store_u16_be_skx
-.globl _sk_store_u16_be_skx
-FUNCTION(_sk_store_u16_be_skx)
-_sk_store_u16_be_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 77,1,201 // add %r9,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,73,104,3,0 // vbroadcastss 0x36849(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,103,105,3,0 // vbroadcastss 0x36967(%rip),%ymm11 # 3c628 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,67,125,57,204,1 // vextracti128 $0x1,%ymm9,%xmm12
- .byte 196,66,49,43,204 // vpackusdw %xmm12,%xmm9,%xmm9
- .byte 196,193,25,113,241,8 // vpsllw $0x8,%xmm9,%xmm12
- .byte 196,193,49,113,209,8 // vpsrlw $0x8,%xmm9,%xmm9
- .byte 196,65,25,235,201 // vpor %xmm9,%xmm12,%xmm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,67,125,57,229,1 // vextracti128 $0x1,%ymm12,%xmm13
- .byte 196,66,25,43,229 // vpackusdw %xmm13,%xmm12,%xmm12
- .byte 196,193,17,113,244,8 // vpsllw $0x8,%xmm12,%xmm13
- .byte 196,193,25,113,212,8 // vpsrlw $0x8,%xmm12,%xmm12
- .byte 196,65,17,235,228 // vpor %xmm12,%xmm13,%xmm12
- .byte 197,60,95,234 // vmaxps %ymm2,%ymm8,%ymm13
- .byte 196,65,20,93,234 // vminps %ymm10,%ymm13,%ymm13
- .byte 196,65,20,89,235 // vmulps %ymm11,%ymm13,%ymm13
- .byte 196,65,125,91,237 // vcvtps2dq %ymm13,%ymm13
- .byte 196,67,125,57,238,1 // vextracti128 $0x1,%ymm13,%xmm14
- .byte 196,66,17,43,238 // vpackusdw %xmm14,%xmm13,%xmm13
- .byte 196,193,9,113,245,8 // vpsllw $0x8,%xmm13,%xmm14
- .byte 196,193,17,113,213,8 // vpsrlw $0x8,%xmm13,%xmm13
- .byte 196,65,9,235,237 // vpor %xmm13,%xmm14,%xmm13
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,67,125,57,194,1 // vextracti128 $0x1,%ymm8,%xmm10
- .byte 196,66,57,43,194 // vpackusdw %xmm10,%xmm8,%xmm8
- .byte 196,193,41,113,240,8 // vpsllw $0x8,%xmm8,%xmm10
- .byte 196,193,57,113,208,8 // vpsrlw $0x8,%xmm8,%xmm8
- .byte 196,65,41,235,192 // vpor %xmm8,%xmm10,%xmm8
- .byte 196,65,49,97,212 // vpunpcklwd %xmm12,%xmm9,%xmm10
- .byte 196,65,49,105,228 // vpunpckhwd %xmm12,%xmm9,%xmm12
- .byte 196,65,17,97,200 // vpunpcklwd %xmm8,%xmm13,%xmm9
- .byte 196,65,17,105,192 // vpunpckhwd %xmm8,%xmm13,%xmm8
- .byte 196,65,41,98,217 // vpunpckldq %xmm9,%xmm10,%xmm11
- .byte 196,65,41,106,209 // vpunpckhdq %xmm9,%xmm10,%xmm10
- .byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9
- .byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 5dc0 <_sk_store_u16_be_skx+0x137>
- .byte 196,1,122,127,28,65 // vmovdqu %xmm11,(%r9,%r8,2)
- .byte 196,1,122,127,84,65,16 // vmovdqu %xmm10,0x10(%r9,%r8,2)
- .byte 196,1,122,127,76,65,32 // vmovdqu %xmm9,0x20(%r9,%r8,2)
- .byte 196,1,122,127,68,65,48 // vmovdqu %xmm8,0x30(%r9,%r8,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,1,121,214,28,65 // vmovq %xmm11,(%r9,%r8,2)
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 5dbc <_sk_store_u16_be_skx+0x133>
- .byte 196,1,121,23,92,65,8 // vmovhpd %xmm11,0x8(%r9,%r8,2)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 5dbc <_sk_store_u16_be_skx+0x133>
- .byte 196,1,121,214,84,65,16 // vmovq %xmm10,0x10(%r9,%r8,2)
- .byte 116,218 // je 5dbc <_sk_store_u16_be_skx+0x133>
- .byte 196,1,121,23,84,65,24 // vmovhpd %xmm10,0x18(%r9,%r8,2)
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 5dbc <_sk_store_u16_be_skx+0x133>
- .byte 196,1,121,214,76,65,32 // vmovq %xmm9,0x20(%r9,%r8,2)
- .byte 116,196 // je 5dbc <_sk_store_u16_be_skx+0x133>
- .byte 196,1,121,23,76,65,40 // vmovhpd %xmm9,0x28(%r9,%r8,2)
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 5dbc <_sk_store_u16_be_skx+0x133>
- .byte 196,1,121,214,68,65,48 // vmovq %xmm8,0x30(%r9,%r8,2)
- .byte 235,174 // jmp 5dbc <_sk_store_u16_be_skx+0x133>
-
-HIDDEN _sk_load_f32_skx
-.globl _sk_load_f32_skx
-FUNCTION(_sk_load_f32_skx)
-_sk_load_f32_skx:
- .byte 98,225,253,40,40,223 // vmovapd %ymm7,%ymm19
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,57,1,0,0 // ja 5f5d <_sk_load_f32_skx+0x14f>
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 76,141,21,46,1,0,0 // lea 0x12e(%rip),%r10 # 5f70 <_sk_load_f32_skx+0x162>
- .byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
- .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
- .byte 197,237,87,210 // vxorpd %ymm2,%ymm2,%ymm2
- .byte 98,161,253,32,87,192 // vxorpd %ymm16,%ymm16,%ymm16
- .byte 196,65,29,87,228 // vxorpd %ymm12,%ymm12,%ymm12
- .byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
- .byte 196,65,37,87,219 // vxorpd %ymm11,%ymm11,%ymm11
- .byte 98,161,237,32,87,210 // vxorpd %ymm18,%ymm18,%ymm18
- .byte 196,65,5,87,255 // vxorpd %ymm15,%ymm15,%ymm15
- .byte 196,65,13,87,246 // vxorpd %ymm14,%ymm14,%ymm14
- .byte 196,65,21,87,237 // vxorpd %ymm13,%ymm13,%ymm13
- .byte 98,161,245,32,87,201 // vxorpd %ymm17,%ymm17,%ymm17
- .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
- .byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
- .byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,16,68,129,112 // vmovupd 0x70(%r9,%r8,4),%xmm0
- .byte 196,227,125,6,192,40 // vperm2f128 $0x28,%ymm0,%ymm0,%ymm0
- .byte 196,129,121,16,76,129,96 // vmovupd 0x60(%r9,%r8,4),%xmm1
- .byte 196,227,125,6,249,40 // vperm2f128 $0x28,%ymm1,%ymm0,%ymm7
- .byte 196,129,121,16,76,129,80 // vmovupd 0x50(%r9,%r8,4),%xmm1
- .byte 196,227,125,6,209,40 // vperm2f128 $0x28,%ymm1,%ymm0,%ymm2
- .byte 197,125,40,215 // vmovapd %ymm7,%ymm10
- .byte 196,129,121,16,76,129,64 // vmovupd 0x40(%r9,%r8,4),%xmm1
- .byte 196,227,125,6,217,40 // vperm2f128 $0x28,%ymm1,%ymm0,%ymm3
- .byte 98,193,253,40,40,194 // vmovapd %ymm10,%ymm16
- .byte 197,125,40,226 // vmovapd %ymm2,%ymm12
- .byte 196,129,121,16,76,129,48 // vmovupd 0x30(%r9,%r8,4),%xmm1
- .byte 196,227,117,13,192,12 // vblendpd $0xc,%ymm0,%ymm1,%ymm0
- .byte 98,49,253,40,40,216 // vmovapd %ymm16,%ymm11
- .byte 98,193,253,40,40,212 // vmovapd %ymm12,%ymm18
- .byte 197,125,40,251 // vmovapd %ymm3,%ymm15
- .byte 196,129,121,16,76,129,32 // vmovupd 0x20(%r9,%r8,4),%xmm1
- .byte 196,67,117,13,243,12 // vblendpd $0xc,%ymm11,%ymm1,%ymm14
- .byte 98,49,253,40,40,234 // vmovapd %ymm18,%ymm13
- .byte 98,193,253,40,40,207 // vmovapd %ymm15,%ymm17
- .byte 196,129,121,16,76,129,16 // vmovupd 0x10(%r9,%r8,4),%xmm1
- .byte 196,67,117,13,205,12 // vblendpd $0xc,%ymm13,%ymm1,%ymm9
- .byte 196,65,125,40,198 // vmovapd %ymm14,%ymm8
- .byte 98,177,253,40,40,201 // vmovapd %ymm17,%ymm1
- .byte 196,129,121,16,20,129 // vmovupd (%r9,%r8,4),%xmm2
- .byte 196,227,109,13,201,12 // vblendpd $0xc,%ymm1,%ymm2,%ymm1
- .byte 196,193,116,20,209 // vunpcklps %ymm9,%ymm1,%ymm2
- .byte 196,193,116,21,217 // vunpckhps %ymm9,%ymm1,%ymm3
- .byte 197,188,20,200 // vunpcklps %ymm0,%ymm8,%ymm1
- .byte 197,188,21,248 // vunpckhps %ymm0,%ymm8,%ymm7
- .byte 197,237,20,193 // vunpcklpd %ymm1,%ymm2,%ymm0
- .byte 197,237,21,201 // vunpckhpd %ymm1,%ymm2,%ymm1
- .byte 197,229,20,215 // vunpcklpd %ymm7,%ymm3,%ymm2
- .byte 197,229,21,223 // vunpckhpd %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,177,124,40,40,251 // vmovaps %ymm19,%ymm7
- .byte 255,224 // jmpq *%rax
- .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
- .byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
- .byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,196 // jmp 5f31 <_sk_load_f32_skx+0x123>
- .byte 15,31,0 // nopl (%rax)
- .byte 37,255,255,255,181 // and $0xb5ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,157,255,255,255,132 // lcall *-0x7b000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,103,255 // jmpq *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,80,255 // callq *-0x1(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 63 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,50 // pushq (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_f32_dst_skx
-.globl _sk_load_f32_dst_skx
-FUNCTION(_sk_load_f32_dst_skx)
-_sk_load_f32_dst_skx:
- .byte 98,225,253,40,40,219 // vmovapd %ymm3,%ymm19
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,59,1,0,0 // ja 60e1 <_sk_load_f32_dst_skx+0x151>
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 76,141,21,48,1,0,0 // lea 0x130(%rip),%r10 # 60f4 <_sk_load_f32_dst_skx+0x164>
- .byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
- .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
- .byte 197,205,87,246 // vxorpd %ymm6,%ymm6,%ymm6
- .byte 98,161,253,32,87,192 // vxorpd %ymm16,%ymm16,%ymm16
- .byte 196,65,29,87,228 // vxorpd %ymm12,%ymm12,%ymm12
- .byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
- .byte 196,65,37,87,219 // vxorpd %ymm11,%ymm11,%ymm11
- .byte 98,161,237,32,87,210 // vxorpd %ymm18,%ymm18,%ymm18
- .byte 196,65,5,87,255 // vxorpd %ymm15,%ymm15,%ymm15
- .byte 196,65,13,87,246 // vxorpd %ymm14,%ymm14,%ymm14
- .byte 196,65,21,87,237 // vxorpd %ymm13,%ymm13,%ymm13
- .byte 98,161,245,32,87,201 // vxorpd %ymm17,%ymm17,%ymm17
- .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
- .byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
- .byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,16,92,129,112 // vmovupd 0x70(%r9,%r8,4),%xmm3
- .byte 196,227,125,6,227,40 // vperm2f128 $0x28,%ymm3,%ymm0,%ymm4
- .byte 196,129,121,16,92,129,96 // vmovupd 0x60(%r9,%r8,4),%xmm3
- .byte 196,227,125,6,219,40 // vperm2f128 $0x28,%ymm3,%ymm0,%ymm3
- .byte 196,129,121,16,108,129,80 // vmovupd 0x50(%r9,%r8,4),%xmm5
- .byte 196,227,125,6,245,40 // vperm2f128 $0x28,%ymm5,%ymm0,%ymm6
- .byte 197,125,40,211 // vmovapd %ymm3,%ymm10
- .byte 196,129,121,16,92,129,64 // vmovupd 0x40(%r9,%r8,4),%xmm3
- .byte 196,227,125,6,251,40 // vperm2f128 $0x28,%ymm3,%ymm0,%ymm7
- .byte 98,193,253,40,40,194 // vmovapd %ymm10,%ymm16
- .byte 197,125,40,230 // vmovapd %ymm6,%ymm12
- .byte 196,129,121,16,92,129,48 // vmovupd 0x30(%r9,%r8,4),%xmm3
- .byte 196,227,101,13,228,12 // vblendpd $0xc,%ymm4,%ymm3,%ymm4
- .byte 98,49,253,40,40,216 // vmovapd %ymm16,%ymm11
- .byte 98,193,253,40,40,212 // vmovapd %ymm12,%ymm18
- .byte 197,125,40,255 // vmovapd %ymm7,%ymm15
- .byte 196,129,121,16,92,129,32 // vmovupd 0x20(%r9,%r8,4),%xmm3
- .byte 196,67,101,13,243,12 // vblendpd $0xc,%ymm11,%ymm3,%ymm14
- .byte 98,49,253,40,40,234 // vmovapd %ymm18,%ymm13
- .byte 98,193,253,40,40,207 // vmovapd %ymm15,%ymm17
- .byte 196,129,121,16,92,129,16 // vmovupd 0x10(%r9,%r8,4),%xmm3
- .byte 196,67,101,13,205,12 // vblendpd $0xc,%ymm13,%ymm3,%ymm9
- .byte 196,65,125,40,198 // vmovapd %ymm14,%ymm8
- .byte 98,177,253,40,40,233 // vmovapd %ymm17,%ymm5
- .byte 196,129,121,16,28,129 // vmovupd (%r9,%r8,4),%xmm3
- .byte 196,227,101,13,237,12 // vblendpd $0xc,%ymm5,%ymm3,%ymm5
- .byte 196,193,84,20,217 // vunpcklps %ymm9,%ymm5,%ymm3
- .byte 196,193,84,21,249 // vunpckhps %ymm9,%ymm5,%ymm7
- .byte 197,188,20,236 // vunpcklps %ymm4,%ymm8,%ymm5
- .byte 197,60,21,196 // vunpckhps %ymm4,%ymm8,%ymm8
- .byte 197,229,20,229 // vunpcklpd %ymm5,%ymm3,%ymm4
- .byte 197,229,21,237 // vunpckhpd %ymm5,%ymm3,%ymm5
- .byte 196,193,69,20,240 // vunpcklpd %ymm8,%ymm7,%ymm6
- .byte 196,193,69,21,248 // vunpckhpd %ymm8,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,177,124,40,40,219 // vmovaps %ymm19,%ymm3
- .byte 255,224 // jmpq *%rax
- .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
- .byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
- .byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,194 // jmp 60b3 <_sk_load_f32_dst_skx+0x123>
- .byte 15,31,0 // nopl (%rax)
- .byte 35,255 // and %edi,%edi
- .byte 255 // (bad)
- .byte 255,179,255,255,255,155 // pushq -0x64000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,130,255,255,255,101 // incl 0x65ffffff(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,78,255 // decl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 61,255,255,255,48 // cmp $0x30ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_f32_skx
-.globl _sk_store_f32_skx
-FUNCTION(_sk_store_f32_skx)
-_sk_store_f32_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 197,124,20,193 // vunpcklps %ymm1,%ymm0,%ymm8
- .byte 197,124,21,217 // vunpckhps %ymm1,%ymm0,%ymm11
- .byte 197,108,20,203 // vunpcklps %ymm3,%ymm2,%ymm9
- .byte 197,108,21,227 // vunpckhps %ymm3,%ymm2,%ymm12
- .byte 196,65,61,20,209 // vunpcklpd %ymm9,%ymm8,%ymm10
- .byte 196,65,61,21,201 // vunpckhpd %ymm9,%ymm8,%ymm9
- .byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
- .byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 618d <_sk_store_f32_skx+0x79>
- .byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
- .byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
- .byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
- .byte 196,67,61,6,195,49 // vperm2f128 $0x31,%ymm11,%ymm8,%ymm8
- .byte 196,1,125,17,36,136 // vmovupd %ymm12,(%r8,%r9,4)
- .byte 196,1,125,17,108,136,32 // vmovupd %ymm13,0x20(%r8,%r9,4)
- .byte 196,1,124,17,76,136,64 // vmovups %ymm9,0x40(%r8,%r9,4)
- .byte 196,1,125,17,68,136,96 // vmovupd %ymm8,0x60(%r8,%r9,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,1,121,17,20,136 // vmovupd %xmm10,(%r8,%r9,4)
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 6189 <_sk_store_f32_skx+0x75>
- .byte 196,1,121,17,76,136,16 // vmovupd %xmm9,0x10(%r8,%r9,4)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 6189 <_sk_store_f32_skx+0x75>
- .byte 196,1,121,17,68,136,32 // vmovupd %xmm8,0x20(%r8,%r9,4)
- .byte 116,218 // je 6189 <_sk_store_f32_skx+0x75>
- .byte 196,1,121,17,92,136,48 // vmovupd %xmm11,0x30(%r8,%r9,4)
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 6189 <_sk_store_f32_skx+0x75>
- .byte 196,3,125,25,84,136,64,1 // vextractf128 $0x1,%ymm10,0x40(%r8,%r9,4)
- .byte 116,195 // je 6189 <_sk_store_f32_skx+0x75>
- .byte 196,3,125,25,76,136,80,1 // vextractf128 $0x1,%ymm9,0x50(%r8,%r9,4)
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 6189 <_sk_store_f32_skx+0x75>
- .byte 196,3,125,25,68,136,96,1 // vextractf128 $0x1,%ymm8,0x60(%r8,%r9,4)
- .byte 235,171 // jmp 6189 <_sk_store_f32_skx+0x75>
-
-HIDDEN _sk_repeat_x_skx
-.globl _sk_repeat_x_skx
-FUNCTION(_sk_repeat_x_skx)
-_sk_repeat_x_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,113,124,56,89,64,1 // vmulps 0x4(%rax){1to8},%ymm0,%ymm8
- .byte 196,67,125,8,192,1 // vroundps $0x1,%ymm8,%ymm8
- .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
- .byte 196,194,61,188,193 // vfnmadd231ps %ymm9,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_repeat_y_skx
-.globl _sk_repeat_y_skx
-FUNCTION(_sk_repeat_y_skx)
-_sk_repeat_y_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,113,116,56,89,64,1 // vmulps 0x4(%rax){1to8},%ymm1,%ymm8
- .byte 196,67,125,8,192,1 // vroundps $0x1,%ymm8,%ymm8
- .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
- .byte 196,194,61,188,201 // vfnmadd231ps %ymm9,%ymm8,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_x_skx
-.globl _sk_mirror_x_skx
-FUNCTION(_sk_mirror_x_skx)
-_sk_mirror_x_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,72,4 // vmovss 0x4(%rax),%xmm9
- .byte 196,66,125,24,208 // vbroadcastss %xmm8,%ymm10
- .byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
- .byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
- .byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,185,98,3,0 // vmulss 0x362b9(%rip),%xmm9,%xmm0 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
- .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
- .byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
- .byte 196,194,61,172,195 // vfnmadd213ps %ymm11,%ymm8,%ymm0
- .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,192 // vsubps %ymm0,%ymm8,%ymm8
- .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_y_skx
-.globl _sk_mirror_y_skx
-FUNCTION(_sk_mirror_y_skx)
-_sk_mirror_y_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,72,4 // vmovss 0x4(%rax),%xmm9
- .byte 196,66,125,24,208 // vbroadcastss %xmm8,%ymm10
- .byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
- .byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
- .byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,104,98,3,0 // vmulss 0x36268(%rip),%xmm9,%xmm1 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
- .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
- .byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
- .byte 196,194,61,172,203 // vfnmadd213ps %ymm11,%ymm8,%ymm1
- .byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,193 // vsubps %ymm1,%ymm8,%ymm8
- .byte 197,188,84,201 // vandps %ymm1,%ymm8,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_x_1_skx
-.globl _sk_clamp_x_1_skx
-FUNCTION(_sk_clamp_x_1_skx)
-_sk_clamp_x_1_skx:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,47,98,3,0 // vminps 0x3622f(%rip){1to8},%ymm0,%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_repeat_x_1_skx
-.globl _sk_repeat_x_1_skx
-FUNCTION(_sk_repeat_x_1_skx)
-_sk_repeat_x_1_skx:
- .byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
- .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,13,98,3,0 // vminps 0x3620d(%rip){1to8},%ymm0,%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_x_1_skx
-.globl _sk_mirror_x_1_skx
-FUNCTION(_sk_mirror_x_1_skx)
-_sk_mirror_x_1_skx:
- .byte 196,98,125,24,5,24,98,3,0 // vbroadcastss 0x36218(%rip),%ymm8 # 3c514 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
- .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 98,113,124,56,89,13,237,97,3,0 // vmulps 0x361ed(%rip){1to8},%ymm0,%ymm9 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
- .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
- .byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
- .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
- .byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 98,241,124,56,93,5,193,97,3,0 // vminps 0x361c1(%rip){1to8},%ymm0,%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_skx
-.globl _sk_decal_x_skx
-FUNCTION(_sk_decal_x_skx)
-_sk_decal_x_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 98,241,60,40,194,200,2 // vcmpleps %ymm0,%ymm8,%k1
- .byte 98,241,124,57,194,64,16,1 // vcmpltps 0x40(%rax){1to8},%ymm0,%k0{%k1}
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,67,61,74,194,144 // vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- .byte 197,124,17,0 // vmovups %ymm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_y_skx
-.globl _sk_decal_y_skx
-FUNCTION(_sk_decal_y_skx)
-_sk_decal_y_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 98,241,60,40,194,201,2 // vcmpleps %ymm1,%ymm8,%k1
- .byte 98,241,116,57,194,64,17,1 // vcmpltps 0x44(%rax){1to8},%ymm1,%k0{%k1}
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,67,61,74,194,144 // vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- .byte 197,124,17,0 // vmovups %ymm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_and_y_skx
-.globl _sk_decal_x_and_y_skx
-FUNCTION(_sk_decal_x_and_y_skx)
-_sk_decal_x_and_y_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 98,241,60,40,194,201,2 // vcmpleps %ymm1,%ymm8,%k1
- .byte 98,241,60,41,194,200,2 // vcmpleps %ymm0,%ymm8,%k1{%k1}
- .byte 98,241,124,57,194,72,16,1 // vcmpltps 0x40(%rax){1to8},%ymm0,%k1{%k1}
- .byte 98,241,116,57,194,64,17,1 // vcmpltps 0x44(%rax){1to8},%ymm1,%k0{%k1}
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,67,61,74,194,144 // vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- .byte 197,124,17,0 // vmovups %ymm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_check_decal_mask_skx
-.globl _sk_check_decal_mask_skx
-FUNCTION(_sk_check_decal_mask_skx)
-_sk_check_decal_mask_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,16,0 // vmovups (%rax),%ymm8
- .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
- .byte 197,188,84,201 // vandps %ymm1,%ymm8,%ymm1
- .byte 197,188,84,210 // vandps %ymm2,%ymm8,%ymm2
- .byte 197,188,84,219 // vandps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_luminance_to_alpha_skx
-.globl _sk_luminance_to_alpha_skx
-FUNCTION(_sk_luminance_to_alpha_skx)
-_sk_luminance_to_alpha_skx:
- .byte 98,241,116,56,89,29,45,98,3,0 // vmulps 0x3622d(%rip){1to8},%ymm1,%ymm3 # 3c62c <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
- .byte 98,242,125,56,184,29,39,98,3,0 // vfmadd231ps 0x36227(%rip){1to8},%ymm0,%ymm3 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
- .byte 98,242,109,56,184,29,33,98,3,0 // vfmadd231ps 0x36221(%rip){1to8},%ymm2,%ymm3 # 3c634 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_translate_skx
-.globl _sk_matrix_translate_skx
-FUNCTION(_sk_matrix_translate_skx)
-_sk_matrix_translate_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,241,124,56,88,0 // vaddps (%rax){1to8},%ymm0,%ymm0
- .byte 98,241,116,56,88,72,1 // vaddps 0x4(%rax){1to8},%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_scale_translate_skx
-.globl _sk_matrix_scale_translate_skx
-FUNCTION(_sk_matrix_scale_translate_skx)
-_sk_matrix_scale_translate_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 98,242,61,56,168,64,2 // vfmadd213ps 0x8(%rax){1to8},%ymm8,%ymm0
- .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8
- .byte 98,242,61,56,168,72,3 // vfmadd213ps 0xc(%rax){1to8},%ymm8,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_2x3_skx
-.globl _sk_matrix_2x3_skx
-FUNCTION(_sk_matrix_2x3_skx)
-_sk_matrix_2x3_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
- .byte 196,98,125,24,64,8 // vbroadcastss 0x8(%rax),%ymm8
- .byte 98,114,117,56,168,64,4 // vfmadd213ps 0x10(%rax){1to8},%ymm1,%ymm8
- .byte 196,66,125,184,193 // vfmadd231ps %ymm9,%ymm0,%ymm8
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 98,114,117,56,168,72,5 // vfmadd213ps 0x14(%rax){1to8},%ymm1,%ymm9
- .byte 196,66,125,184,202 // vfmadd231ps %ymm10,%ymm0,%ymm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_3x4_skx
-.globl _sk_matrix_3x4_skx
-FUNCTION(_sk_matrix_3x4_skx)
-_sk_matrix_3x4_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
- .byte 196,98,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm10
- .byte 196,98,125,24,64,24 // vbroadcastss 0x18(%rax),%ymm8
- .byte 98,114,109,56,168,64,9 // vfmadd213ps 0x24(%rax){1to8},%ymm2,%ymm8
- .byte 196,66,117,184,194 // vfmadd231ps %ymm10,%ymm1,%ymm8
- .byte 196,66,125,184,193 // vfmadd231ps %ymm9,%ymm0,%ymm8
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 196,98,125,24,88,16 // vbroadcastss 0x10(%rax),%ymm11
- .byte 196,98,125,24,72,28 // vbroadcastss 0x1c(%rax),%ymm9
- .byte 98,114,109,56,168,72,10 // vfmadd213ps 0x28(%rax){1to8},%ymm2,%ymm9
- .byte 196,66,117,184,203 // vfmadd231ps %ymm11,%ymm1,%ymm9
- .byte 196,66,125,184,202 // vfmadd231ps %ymm10,%ymm0,%ymm9
- .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11
- .byte 196,98,125,24,96,20 // vbroadcastss 0x14(%rax),%ymm12
- .byte 196,98,125,24,80,32 // vbroadcastss 0x20(%rax),%ymm10
- .byte 98,114,109,56,168,80,11 // vfmadd213ps 0x2c(%rax){1to8},%ymm2,%ymm10
- .byte 196,66,117,184,212 // vfmadd231ps %ymm12,%ymm1,%ymm10
- .byte 196,66,125,184,211 // vfmadd231ps %ymm11,%ymm0,%ymm10
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
- .byte 197,124,41,210 // vmovaps %ymm10,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_4x5_skx
-.globl _sk_matrix_4x5_skx
-FUNCTION(_sk_matrix_4x5_skx)
-_sk_matrix_4x5_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
- .byte 196,98,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm10
- .byte 196,98,125,24,88,32 // vbroadcastss 0x20(%rax),%ymm11
- .byte 196,98,125,24,64,48 // vbroadcastss 0x30(%rax),%ymm8
- .byte 98,114,101,56,168,64,16 // vfmadd213ps 0x40(%rax){1to8},%ymm3,%ymm8
- .byte 196,66,109,184,195 // vfmadd231ps %ymm11,%ymm2,%ymm8
- .byte 196,66,117,184,194 // vfmadd231ps %ymm10,%ymm1,%ymm8
- .byte 196,66,125,184,193 // vfmadd231ps %ymm9,%ymm0,%ymm8
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
- .byte 196,98,125,24,96,36 // vbroadcastss 0x24(%rax),%ymm12
- .byte 196,98,125,24,72,52 // vbroadcastss 0x34(%rax),%ymm9
- .byte 98,114,101,56,168,72,17 // vfmadd213ps 0x44(%rax){1to8},%ymm3,%ymm9
- .byte 196,66,109,184,204 // vfmadd231ps %ymm12,%ymm2,%ymm9
- .byte 196,66,117,184,203 // vfmadd231ps %ymm11,%ymm1,%ymm9
- .byte 196,66,125,184,202 // vfmadd231ps %ymm10,%ymm0,%ymm9
- .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11
- .byte 196,98,125,24,96,24 // vbroadcastss 0x18(%rax),%ymm12
- .byte 196,98,125,24,104,40 // vbroadcastss 0x28(%rax),%ymm13
- .byte 196,98,125,24,80,56 // vbroadcastss 0x38(%rax),%ymm10
- .byte 98,114,101,56,168,80,18 // vfmadd213ps 0x48(%rax){1to8},%ymm3,%ymm10
- .byte 196,66,109,184,213 // vfmadd231ps %ymm13,%ymm2,%ymm10
- .byte 196,66,117,184,212 // vfmadd231ps %ymm12,%ymm1,%ymm10
- .byte 196,66,125,184,211 // vfmadd231ps %ymm11,%ymm0,%ymm10
- .byte 196,98,125,24,96,12 // vbroadcastss 0xc(%rax),%ymm12
- .byte 196,98,125,24,104,28 // vbroadcastss 0x1c(%rax),%ymm13
- .byte 196,98,125,24,112,44 // vbroadcastss 0x2c(%rax),%ymm14
- .byte 196,98,125,24,88,60 // vbroadcastss 0x3c(%rax),%ymm11
- .byte 98,114,101,56,168,88,19 // vfmadd213ps 0x4c(%rax){1to8},%ymm3,%ymm11
- .byte 196,66,109,184,222 // vfmadd231ps %ymm14,%ymm2,%ymm11
- .byte 196,66,117,184,221 // vfmadd231ps %ymm13,%ymm1,%ymm11
- .byte 196,66,125,184,220 // vfmadd231ps %ymm12,%ymm0,%ymm11
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
- .byte 197,124,41,210 // vmovaps %ymm10,%ymm2
- .byte 197,124,41,219 // vmovaps %ymm11,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_4x3_skx
-.globl _sk_matrix_4x3_skx
-FUNCTION(_sk_matrix_4x3_skx)
-_sk_matrix_4x3_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
- .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8
- .byte 98,114,117,56,168,64,8 // vfmadd213ps 0x20(%rax){1to8},%ymm1,%ymm8
- .byte 196,98,125,184,194 // vfmadd231ps %ymm2,%ymm0,%ymm8
- .byte 196,226,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm2
- .byte 196,98,125,24,72,20 // vbroadcastss 0x14(%rax),%ymm9
- .byte 98,114,117,56,168,72,9 // vfmadd213ps 0x24(%rax){1to8},%ymm1,%ymm9
- .byte 196,98,125,184,202 // vfmadd231ps %ymm2,%ymm0,%ymm9
- .byte 196,226,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm3
- .byte 196,226,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm2
- .byte 98,242,117,56,168,80,10 // vfmadd213ps 0x28(%rax){1to8},%ymm1,%ymm2
- .byte 196,226,125,184,211 // vfmadd231ps %ymm3,%ymm0,%ymm2
- .byte 196,98,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm10
- .byte 196,226,125,24,88,28 // vbroadcastss 0x1c(%rax),%ymm3
- .byte 98,242,117,56,168,88,11 // vfmadd213ps 0x2c(%rax){1to8},%ymm1,%ymm3
- .byte 196,194,125,184,218 // vfmadd231ps %ymm10,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_perspective_skx
-.globl _sk_matrix_perspective_skx
-FUNCTION(_sk_matrix_perspective_skx)
-_sk_matrix_perspective_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 196,98,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm9
- .byte 98,114,117,56,168,72,2 // vfmadd213ps 0x8(%rax){1to8},%ymm1,%ymm9
- .byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
- .byte 196,98,125,24,64,12 // vbroadcastss 0xc(%rax),%ymm8
- .byte 196,98,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm10
- .byte 98,114,117,56,168,80,5 // vfmadd213ps 0x14(%rax){1to8},%ymm1,%ymm10
- .byte 196,66,125,184,208 // vfmadd231ps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,64,24 // vbroadcastss 0x18(%rax),%ymm8
- .byte 196,98,125,24,88,28 // vbroadcastss 0x1c(%rax),%ymm11
- .byte 98,114,117,56,168,88,8 // vfmadd213ps 0x20(%rax){1to8},%ymm1,%ymm11
- .byte 196,66,125,184,216 // vfmadd231ps %ymm8,%ymm0,%ymm11
- .byte 98,210,125,40,76,203 // vrcp14ps %ymm11,%ymm1
- .byte 197,180,89,193 // vmulps %ymm1,%ymm9,%ymm0
- .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_gradient_skx
-.globl _sk_evenly_spaced_gradient_skx
-FUNCTION(_sk_evenly_spaced_gradient_skx)
-_sk_evenly_spaced_gradient_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,8 // mov (%rax),%r9
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 77,141,81,255 // lea -0x1(%r9),%r10
- .byte 98,210,253,72,124,202 // vpbroadcastq %r10,%zmm1
- .byte 98,241,255,72,122,201 // vcvtuqq2ps %zmm1,%ymm1
- .byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
- .byte 197,126,91,209 // vcvttps2dq %ymm1,%ymm10
- .byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja 6711 <_sk_evenly_spaced_gradient_skx+0x70>
- .byte 196,66,45,22,0 // vpermps (%r8),%ymm10,%ymm8
- .byte 76,139,64,40 // mov 0x28(%rax),%r8
- .byte 196,66,45,22,8 // vpermps (%r8),%ymm10,%ymm9
- .byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 196,194,45,22,8 // vpermps (%r8),%ymm10,%ymm1
- .byte 76,139,64,48 // mov 0x30(%rax),%r8
- .byte 196,66,45,22,24 // vpermps (%r8),%ymm10,%ymm11
- .byte 196,194,45,22,17 // vpermps (%r9),%ymm10,%ymm2
- .byte 76,139,64,56 // mov 0x38(%rax),%r8
- .byte 196,66,45,22,32 // vpermps (%r8),%ymm10,%ymm12
- .byte 76,139,64,32 // mov 0x20(%rax),%r8
- .byte 196,194,45,22,24 // vpermps (%r8),%ymm10,%ymm3
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 196,98,45,22,40 // vpermps (%rax),%ymm10,%ymm13
- .byte 233,147,0,0,0 // jmpq 67a4 <_sk_evenly_spaced_gradient_skx+0x103>
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,2,117,146,4,144 // vgatherdps %ymm1,(%r8,%ymm10,4),%ymm8
- .byte 76,139,64,40 // mov 0x28(%rax),%r8
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,2,117,146,12,144 // vgatherdps %ymm1,(%r8,%ymm10,4),%ymm9
- .byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,130,109,146,12,144 // vgatherdps %ymm2,(%r8,%ymm10,4),%ymm1
- .byte 76,139,64,48 // mov 0x30(%rax),%r8
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
- .byte 196,2,109,146,28,144 // vgatherdps %ymm2,(%r8,%ymm10,4),%ymm11
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,130,101,146,20,145 // vgatherdps %ymm3,(%r9,%ymm10,4),%ymm2
- .byte 76,139,64,56 // mov 0x38(%rax),%r8
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
- .byte 196,2,101,146,36,144 // vgatherdps %ymm3,(%r8,%ymm10,4),%ymm12
- .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
- .byte 76,139,64,32 // mov 0x20(%rax),%r8
- .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,130,21,146,28,144 // vgatherdps %ymm13,(%r8,%ymm10,4),%ymm3
- .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 196,34,13,146,44,144 // vgatherdps %ymm14,(%rax,%ymm10,4),%ymm13
- .byte 196,66,125,168,193 // vfmadd213ps %ymm9,%ymm0,%ymm8
- .byte 196,194,125,168,203 // vfmadd213ps %ymm11,%ymm0,%ymm1
- .byte 196,194,125,168,212 // vfmadd213ps %ymm12,%ymm0,%ymm2
- .byte 196,194,125,168,221 // vfmadd213ps %ymm13,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gradient_skx
-.globl _sk_gradient_skx
-FUNCTION(_sk_gradient_skx)
-_sk_gradient_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,229,0,0,0 // jbe 68b4 <_sk_gradient_skx+0xf4>
- .byte 76,139,72,72 // mov 0x48(%rax),%r9
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,26,93,3,0 // vbroadcastss 0x35d1a(%rip),%ymm2 # 3c500 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
- .byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
- .byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
- .byte 98,241,100,40,194,192,2 // vcmpleps %ymm0,%ymm3,%k0
- .byte 98,242,126,40,56,216 // vpmovm2d %k0,%ymm3
- .byte 196,227,117,74,218,48 // vblendvps %ymm3,%ymm2,%ymm1,%ymm3
- .byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
- .byte 73,131,194,1 // add $0x1,%r10
- .byte 77,57,208 // cmp %r10,%r8
- .byte 117,218 // jne 67eb <_sk_gradient_skx+0x2b>
- .byte 76,139,72,8 // mov 0x8(%rax),%r9
- .byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe 68bd <_sk_gradient_skx+0xfd>
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,2,117,146,4,137 // vgatherdps %ymm1,(%r9,%ymm9,4),%ymm8
- .byte 76,139,64,40 // mov 0x28(%rax),%r8
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,2,117,146,20,136 // vgatherdps %ymm1,(%r8,%ymm9,4),%ymm10
- .byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,130,109,146,12,136 // vgatherdps %ymm2,(%r8,%ymm9,4),%ymm1
- .byte 76,139,64,48 // mov 0x30(%rax),%r8
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
- .byte 196,2,109,146,28,136 // vgatherdps %ymm2,(%r8,%ymm9,4),%ymm11
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,130,101,146,20,137 // vgatherdps %ymm3,(%r9,%ymm9,4),%ymm2
- .byte 76,139,64,56 // mov 0x38(%rax),%r8
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
- .byte 196,2,101,146,36,136 // vgatherdps %ymm3,(%r8,%ymm9,4),%ymm12
- .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
- .byte 76,139,64,32 // mov 0x20(%rax),%r8
- .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,130,21,146,28,136 // vgatherdps %ymm13,(%r8,%ymm9,4),%ymm3
- .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 196,34,13,146,44,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm13
- .byte 235,77 // jmp 6901 <_sk_gradient_skx+0x141>
- .byte 76,139,72,8 // mov 0x8(%rax),%r9
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
- .byte 76,139,64,40 // mov 0x28(%rax),%r8
- .byte 196,66,53,22,16 // vpermps (%r8),%ymm9,%ymm10
- .byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 196,194,53,22,8 // vpermps (%r8),%ymm9,%ymm1
- .byte 76,139,64,48 // mov 0x30(%rax),%r8
- .byte 196,66,53,22,24 // vpermps (%r8),%ymm9,%ymm11
- .byte 196,194,53,22,17 // vpermps (%r9),%ymm9,%ymm2
- .byte 76,139,64,56 // mov 0x38(%rax),%r8
- .byte 196,66,53,22,32 // vpermps (%r8),%ymm9,%ymm12
- .byte 76,139,64,32 // mov 0x20(%rax),%r8
- .byte 196,194,53,22,24 // vpermps (%r8),%ymm9,%ymm3
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 196,98,53,22,40 // vpermps (%rax),%ymm9,%ymm13
- .byte 196,66,125,168,194 // vfmadd213ps %ymm10,%ymm0,%ymm8
- .byte 196,194,125,168,203 // vfmadd213ps %ymm11,%ymm0,%ymm1
- .byte 196,194,125,168,212 // vfmadd213ps %ymm12,%ymm0,%ymm2
- .byte 196,194,125,168,221 // vfmadd213ps %ymm13,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_2_stop_gradient_skx
-.globl _sk_evenly_spaced_2_stop_gradient_skx
-FUNCTION(_sk_evenly_spaced_2_stop_gradient_skx)
-_sk_evenly_spaced_2_stop_gradient_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 98,114,125,56,168,64,4 // vfmadd213ps 0x10(%rax){1to8},%ymm0,%ymm8
- .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1
- .byte 98,242,125,56,168,72,5 // vfmadd213ps 0x14(%rax){1to8},%ymm0,%ymm1
- .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2
- .byte 98,242,125,56,168,80,6 // vfmadd213ps 0x18(%rax){1to8},%ymm0,%ymm2
- .byte 196,226,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm3
- .byte 98,242,125,56,168,88,7 // vfmadd213ps 0x1c(%rax){1to8},%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_unit_angle_skx
-.globl _sk_xy_to_unit_angle_skx
-FUNCTION(_sk_xy_to_unit_angle_skx)
-_sk_xy_to_unit_angle_skx:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
- .byte 197,52,84,200 // vandps %ymm0,%ymm9,%ymm9
- .byte 197,60,92,209 // vsubps %ymm1,%ymm8,%ymm10
- .byte 197,44,84,209 // vandps %ymm1,%ymm10,%ymm10
- .byte 196,65,52,93,218 // vminps %ymm10,%ymm9,%ymm11
- .byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
- .byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
- .byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,172,92,3,0 // vbroadcastss 0x35cac(%rip),%ymm13 # 3c638 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
- .byte 98,114,29,56,168,45,166,92,3,0 // vfmadd213ps 0x35ca6(%rip){1to8},%ymm12,%ymm13 # 3c63c <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
- .byte 98,114,29,56,168,45,160,92,3,0 // vfmadd213ps 0x35ca0(%rip){1to8},%ymm12,%ymm13 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
- .byte 98,114,29,56,168,45,154,92,3,0 // vfmadd213ps 0x35c9a(%rip){1to8},%ymm12,%ymm13 # 3c644 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
- .byte 196,65,36,89,221 // vmulps %ymm13,%ymm11,%ymm11
- .byte 98,209,52,40,194,194,1 // vcmpltps %ymm10,%ymm9,%k0
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,131,92,3,0 // vbroadcastss 0x35c83(%rip),%ymm10 # 3c648 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
- .byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
- .byte 98,209,124,40,194,192,1 // vcmpltps %ymm8,%ymm0,%k0
- .byte 98,242,126,40,56,192 // vpmovm2d %k0,%ymm0
- .byte 196,98,125,24,21,18,91,3,0 // vbroadcastss 0x35b12(%rip),%ymm10 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
- .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- .byte 98,209,116,40,194,192,1 // vcmpltps %ymm8,%ymm1,%k0
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,98,125,24,21,245,90,3,0 // vbroadcastss 0x35af5(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
- .byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
- .byte 98,209,124,40,194,192,3 // vcmpunordps %ymm8,%ymm0,%k0
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,195,125,74,192,144 // vblendvps %ymm9,%ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_radius_skx
-.globl _sk_xy_to_radius_skx
-FUNCTION(_sk_xy_to_radius_skx)
-_sk_xy_to_radius_skx:
- .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
- .byte 196,98,125,184,192 // vfmadd231ps %ymm0,%ymm0,%ymm8
- .byte 196,193,124,81,192 // vsqrtps %ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_negate_x_skx
-.globl _sk_negate_x_skx
-FUNCTION(_sk_negate_x_skx)
-_sk_negate_x_skx:
- .byte 98,241,124,56,87,5,8,92,3,0 // vxorps 0x35c08(%rip){1to8},%ymm0,%ymm0 # 3c64c <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_strip_skx
-.globl _sk_xy_to_2pt_conical_strip_skx
-FUNCTION(_sk_xy_to_2pt_conical_strip_skx)
-_sk_xy_to_2pt_conical_strip_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,64 // vbroadcastss 0x40(%rax),%ymm8
- .byte 196,98,117,188,193 // vfnmadd231ps %ymm1,%ymm1,%ymm8
- .byte 196,65,124,81,192 // vsqrtps %ymm8,%ymm8
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_focal_on_circle_skx
-.globl _sk_xy_to_2pt_conical_focal_on_circle_skx
-FUNCTION(_sk_xy_to_2pt_conical_focal_on_circle_skx)
-_sk_xy_to_2pt_conical_focal_on_circle_skx:
- .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
- .byte 197,60,94,192 // vdivps %ymm0,%ymm8,%ymm8
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_well_behaved_skx
-.globl _sk_xy_to_2pt_conical_well_behaved_skx
-FUNCTION(_sk_xy_to_2pt_conical_well_behaved_skx)
-_sk_xy_to_2pt_conical_well_behaved_skx:
- .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
- .byte 196,98,125,184,192 // vfmadd231ps %ymm0,%ymm0,%ymm8
- .byte 196,65,124,81,192 // vsqrtps %ymm8,%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,72,64 // vbroadcastss 0x40(%rax),%ymm9
- .byte 196,194,53,172,192 // vfnmadd213ps %ymm8,%ymm9,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_greater_skx
-.globl _sk_xy_to_2pt_conical_greater_skx
-FUNCTION(_sk_xy_to_2pt_conical_greater_skx)
-_sk_xy_to_2pt_conical_greater_skx:
- .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
- .byte 196,98,125,186,192 // vfmsub231ps %ymm0,%ymm0,%ymm8
- .byte 196,65,124,81,192 // vsqrtps %ymm8,%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,72,64 // vbroadcastss 0x40(%rax),%ymm9
- .byte 196,194,53,172,192 // vfnmadd213ps %ymm8,%ymm9,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_smaller_skx
-.globl _sk_xy_to_2pt_conical_smaller_skx
-FUNCTION(_sk_xy_to_2pt_conical_smaller_skx)
-_sk_xy_to_2pt_conical_smaller_skx:
- .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
- .byte 196,98,125,186,192 // vfmsub231ps %ymm0,%ymm0,%ymm8
- .byte 196,65,124,81,192 // vsqrtps %ymm8,%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,72,64 // vbroadcastss 0x40(%rax),%ymm9
- .byte 196,194,53,174,192 // vfnmsub213ps %ymm8,%ymm9,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_alter_2pt_conical_compensate_focal_skx
-.globl _sk_alter_2pt_conical_compensate_focal_skx
-FUNCTION(_sk_alter_2pt_conical_compensate_focal_skx)
-_sk_alter_2pt_conical_compensate_focal_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_alter_2pt_conical_unswap_skx
-.globl _sk_alter_2pt_conical_unswap_skx
-FUNCTION(_sk_alter_2pt_conical_unswap_skx)
-_sk_alter_2pt_conical_unswap_skx:
- .byte 196,98,125,24,5,20,90,3,0 // vbroadcastss 0x35a14(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mask_2pt_conical_nan_skx
-.globl _sk_mask_2pt_conical_nan_skx
-FUNCTION(_sk_mask_2pt_conical_nan_skx)
-_sk_mask_2pt_conical_nan_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 98,209,124,40,194,192,7 // vcmpordps %ymm8,%ymm0,%k0
- .byte 98,209,124,40,194,200,3 // vcmpunordps %ymm8,%ymm0,%k1
- .byte 98,114,126,40,56,201 // vpmovm2d %k1,%ymm9
- .byte 196,195,125,74,192,144 // vblendvps %ymm9,%ymm8,%ymm0,%ymm0
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,67,61,74,194,144 // vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- .byte 197,124,17,0 // vmovups %ymm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mask_2pt_conical_degenerates_skx
-.globl _sk_mask_2pt_conical_degenerates_skx
-FUNCTION(_sk_mask_2pt_conical_degenerates_skx)
-_sk_mask_2pt_conical_degenerates_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 98,241,60,40,194,192,1 // vcmpltps %ymm0,%ymm8,%k0
- .byte 98,241,60,40,194,200,5 // vcmpnltps %ymm0,%ymm8,%k1
- .byte 98,114,126,40,56,201 // vpmovm2d %k1,%ymm9
- .byte 196,195,125,74,192,144 // vblendvps %ymm9,%ymm8,%ymm0,%ymm0
- .byte 98,114,126,40,56,200 // vpmovm2d %k0,%ymm9
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,67,61,74,194,144 // vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- .byte 197,124,17,0 // vmovups %ymm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_apply_vector_mask_skx
-.globl _sk_apply_vector_mask_skx
-FUNCTION(_sk_apply_vector_mask_skx)
-_sk_apply_vector_mask_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,16,0 // vmovups (%rax),%ymm8
- .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
- .byte 197,188,84,201 // vandps %ymm1,%ymm8,%ymm1
- .byte 197,188,84,210 // vandps %ymm2,%ymm8,%ymm2
- .byte 197,188,84,219 // vandps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_save_xy_skx
-.globl _sk_save_xy_skx
-FUNCTION(_sk_save_xy_skx)
-_sk_save_xy_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,111,89,3,0 // vbroadcastss 0x3596f(%rip),%ymm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
- .byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
- .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,65,116,88,192 // vaddps %ymm8,%ymm1,%ymm8
- .byte 196,67,125,8,208,1 // vroundps $0x1,%ymm8,%ymm10
- .byte 196,65,60,92,194 // vsubps %ymm10,%ymm8,%ymm8
- .byte 197,252,17,0 // vmovups %ymm0,(%rax)
- .byte 197,252,17,72,64 // vmovups %ymm1,0x40(%rax)
- .byte 197,124,17,136,128,0,0,0 // vmovups %ymm9,0x80(%rax)
- .byte 197,124,17,128,192,0,0,0 // vmovups %ymm8,0xc0(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_accumulate_skx
-.globl _sk_accumulate_skx
-FUNCTION(_sk_accumulate_skx)
-_sk_accumulate_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,16,128,0,1,0,0 // vmovups 0x100(%rax),%ymm8
- .byte 197,60,89,128,64,1,0,0 // vmulps 0x140(%rax),%ymm8,%ymm8
- .byte 196,226,61,184,224 // vfmadd231ps %ymm0,%ymm8,%ymm4
- .byte 196,226,61,184,233 // vfmadd231ps %ymm1,%ymm8,%ymm5
- .byte 196,226,61,184,242 // vfmadd231ps %ymm2,%ymm8,%ymm6
- .byte 196,98,101,168,199 // vfmadd213ps %ymm7,%ymm3,%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,199 // vmovaps %ymm8,%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_nx_skx
-.globl _sk_bilinear_nx_skx
-FUNCTION(_sk_bilinear_nx_skx)
-_sk_bilinear_nx_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,76,90,3,0 // vaddps 0x35a4c(%rip){1to8},%ymm0,%ymm0 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 196,98,125,24,5,239,88,3,0 // vbroadcastss 0x358ef(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_px_skx
-.globl _sk_bilinear_px_skx
-FUNCTION(_sk_bilinear_px_skx)
-_sk_bilinear_px_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 98,241,124,56,88,5,191,88,3,0 // vaddps 0x358bf(%rip){1to8},%ymm0,%ymm0 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_ny_skx
-.globl _sk_bilinear_ny_skx
-FUNCTION(_sk_bilinear_ny_skx)
-_sk_bilinear_ny_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,250,89,3,0 // vaddps 0x359fa(%rip){1to8},%ymm1,%ymm1 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 196,98,125,24,5,157,88,3,0 // vbroadcastss 0x3589d(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_py_skx
-.globl _sk_bilinear_py_skx
-FUNCTION(_sk_bilinear_py_skx)
-_sk_bilinear_py_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 98,241,116,56,88,13,108,88,3,0 // vaddps 0x3586c(%rip){1to8},%ymm1,%ymm1 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n3x_skx
-.globl _sk_bicubic_n3x_skx
-FUNCTION(_sk_bicubic_n3x_skx)
-_sk_bicubic_n3x_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,172,89,3,0 // vaddps 0x359ac(%rip){1to8},%ymm0,%ymm0 # 3c654 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 196,98,125,24,5,75,88,3,0 // vbroadcastss 0x3584b(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,145,89,3,0 // vbroadcastss 0x35991(%rip),%ymm10 # 3c658 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 98,114,61,56,168,21,159,88,3,0 // vfmadd213ps 0x3589f(%rip){1to8},%ymm8,%ymm10 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n1x_skx
-.globl _sk_bicubic_n1x_skx
-FUNCTION(_sk_bicubic_n1x_skx)
-_sk_bicubic_n1x_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 98,241,124,56,88,5,94,89,3,0 // vaddps 0x3595e(%rip){1to8},%ymm0,%ymm0 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 196,98,125,24,5,1,88,3,0 // vbroadcastss 0x35801(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,80,89,3,0 // vbroadcastss 0x35950(%rip),%ymm9 # 3c65c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- .byte 98,114,61,56,168,13,74,89,3,0 // vfmadd213ps 0x3594a(%rip){1to8},%ymm8,%ymm9 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 98,114,61,56,168,13,216,87,3,0 // vfmadd213ps 0x357d8(%rip){1to8},%ymm8,%ymm9 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,61,56,168,13,58,89,3,0 // vfmadd213ps 0x3593a(%rip){1to8},%ymm8,%ymm9 # 3c664 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- .byte 197,124,17,136,0,1,0,0 // vmovups %ymm9,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p1x_skx
-.globl _sk_bicubic_p1x_skx
-FUNCTION(_sk_bicubic_p1x_skx)
-_sk_bicubic_p1x_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,183,87,3,0 // vbroadcastss 0x357b7(%rip),%ymm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
- .byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,6,89,3,0 // vbroadcastss 0x35906(%rip),%ymm10 # 3c65c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- .byte 98,114,53,56,168,21,0,89,3,0 // vfmadd213ps 0x35900(%rip){1to8},%ymm9,%ymm10 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,245,88,3,0 // vfmadd213ps 0x358f5(%rip){1to8},%ymm9,%ymm10 # 3c664 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- .byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p3x_skx
-.globl _sk_bicubic_p3x_skx
-FUNCTION(_sk_bicubic_p3x_skx)
-_sk_bicubic_p3x_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 98,241,124,56,88,5,205,88,3,0 // vaddps 0x358cd(%rip){1to8},%ymm0,%ymm0 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,183,88,3,0 // vbroadcastss 0x358b7(%rip),%ymm10 # 3c658 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 98,114,61,56,168,21,197,87,3,0 // vfmadd213ps 0x357c5(%rip){1to8},%ymm8,%ymm10 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n3y_skx
-.globl _sk_bicubic_n3y_skx
-FUNCTION(_sk_bicubic_n3y_skx)
-_sk_bicubic_n3y_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,135,88,3,0 // vaddps 0x35887(%rip){1to8},%ymm1,%ymm1 # 3c654 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 196,98,125,24,5,38,87,3,0 // vbroadcastss 0x35726(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,108,88,3,0 // vbroadcastss 0x3586c(%rip),%ymm10 # 3c658 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 98,114,61,56,168,21,122,87,3,0 // vfmadd213ps 0x3577a(%rip){1to8},%ymm8,%ymm10 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,65,44,89,193 // vmulps %ymm9,%ymm10,%ymm8
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n1y_skx
-.globl _sk_bicubic_n1y_skx
-FUNCTION(_sk_bicubic_n1y_skx)
-_sk_bicubic_n1y_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 98,241,116,56,88,13,56,88,3,0 // vaddps 0x35838(%rip){1to8},%ymm1,%ymm1 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 196,98,125,24,5,219,86,3,0 // vbroadcastss 0x356db(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,42,88,3,0 // vbroadcastss 0x3582a(%rip),%ymm9 # 3c65c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- .byte 98,114,61,56,168,13,36,88,3,0 // vfmadd213ps 0x35824(%rip){1to8},%ymm8,%ymm9 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 98,114,61,56,168,13,178,86,3,0 // vfmadd213ps 0x356b2(%rip){1to8},%ymm8,%ymm9 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 98,114,61,56,168,13,20,88,3,0 // vfmadd213ps 0x35814(%rip){1to8},%ymm8,%ymm9 # 3c664 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- .byte 197,124,17,136,64,1,0,0 // vmovups %ymm9,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p1y_skx
-.globl _sk_bicubic_p1y_skx
-FUNCTION(_sk_bicubic_p1y_skx)
-_sk_bicubic_p1y_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,145,86,3,0 // vbroadcastss 0x35691(%rip),%ymm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
- .byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,223,87,3,0 // vbroadcastss 0x357df(%rip),%ymm10 # 3c65c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- .byte 98,114,53,56,168,21,217,87,3,0 // vfmadd213ps 0x357d9(%rip){1to8},%ymm9,%ymm10 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 196,66,53,168,208 // vfmadd213ps %ymm8,%ymm9,%ymm10
- .byte 98,114,53,56,168,21,206,87,3,0 // vfmadd213ps 0x357ce(%rip){1to8},%ymm9,%ymm10 # 3c664 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- .byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p3y_skx
-.globl _sk_bicubic_p3y_skx
-FUNCTION(_sk_bicubic_p3y_skx)
-_sk_bicubic_p3y_skx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,72,64 // vmovups 0x40(%rax),%ymm1
- .byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 98,241,116,56,88,13,165,87,3,0 // vaddps 0x357a5(%rip){1to8},%ymm1,%ymm1 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,143,87,3,0 // vbroadcastss 0x3578f(%rip),%ymm10 # 3c658 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 98,114,61,56,168,21,157,86,3,0 // vfmadd213ps 0x3569d(%rip){1to8},%ymm8,%ymm10 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,65,52,89,194 // vmulps %ymm10,%ymm9,%ymm8
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_callback_skx
-.globl _sk_callback_skx
-FUNCTION(_sk_callback_skx)
-_sk_callback_skx:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,228,224 // and $0xffffffffffffffe0,%rsp
- .byte 72,129,236,160,0,0,0 // sub $0xa0,%rsp
- .byte 197,252,41,124,36,96 // vmovaps %ymm7,0x60(%rsp)
- .byte 197,252,41,116,36,64 // vmovaps %ymm6,0x40(%rsp)
- .byte 197,252,41,108,36,32 // vmovaps %ymm5,0x20(%rsp)
- .byte 197,252,41,36,36 // vmovaps %ymm4,(%rsp)
- .byte 73,137,206 // mov %rcx,%r14
- .byte 73,137,215 // mov %rdx,%r15
- .byte 73,137,253 // mov %rdi,%r13
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,137,195 // mov %rax,%rbx
- .byte 73,137,244 // mov %rsi,%r12
- .byte 197,252,20,225 // vunpcklps %ymm1,%ymm0,%ymm4
- .byte 197,252,21,193 // vunpckhps %ymm1,%ymm0,%ymm0
- .byte 197,236,20,203 // vunpcklps %ymm3,%ymm2,%ymm1
- .byte 197,236,21,211 // vunpckhps %ymm3,%ymm2,%ymm2
- .byte 197,221,20,217 // vunpcklpd %ymm1,%ymm4,%ymm3
- .byte 197,221,21,201 // vunpckhpd %ymm1,%ymm4,%ymm1
- .byte 197,253,20,226 // vunpcklpd %ymm2,%ymm0,%ymm4
- .byte 197,253,21,194 // vunpckhpd %ymm2,%ymm0,%ymm0
- .byte 196,227,101,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm2
- .byte 196,227,93,24,232,1 // vinsertf128 $0x1,%xmm0,%ymm4,%ymm5
- .byte 196,227,101,6,201,49 // vperm2f128 $0x31,%ymm1,%ymm3,%ymm1
- .byte 196,227,93,6,192,49 // vperm2f128 $0x31,%ymm0,%ymm4,%ymm0
- .byte 197,253,17,83,8 // vmovupd %ymm2,0x8(%rbx)
- .byte 197,253,17,107,40 // vmovupd %ymm5,0x28(%rbx)
- .byte 197,253,17,75,72 // vmovupd %ymm1,0x48(%rbx)
- .byte 197,253,17,67,104 // vmovupd %ymm0,0x68(%rbx)
- .byte 77,133,237 // test %r13,%r13
- .byte 190,8,0,0,0 // mov $0x8,%esi
- .byte 65,15,69,245 // cmovne %r13d,%esi
- .byte 72,137,223 // mov %rbx,%rdi
- .byte 197,248,119 // vzeroupper
- .byte 255,19 // callq *(%rbx)
- .byte 72,139,131,8,1,0,0 // mov 0x108(%rbx),%rax
- .byte 197,248,16,0 // vmovups (%rax),%xmm0
- .byte 197,248,16,72,16 // vmovups 0x10(%rax),%xmm1
- .byte 197,248,16,80,32 // vmovups 0x20(%rax),%xmm2
- .byte 197,248,16,88,48 // vmovups 0x30(%rax),%xmm3
- .byte 196,227,101,24,88,112,1 // vinsertf128 $0x1,0x70(%rax),%ymm3,%ymm3
- .byte 196,227,109,24,80,96,1 // vinsertf128 $0x1,0x60(%rax),%ymm2,%ymm2
- .byte 196,227,117,24,72,80,1 // vinsertf128 $0x1,0x50(%rax),%ymm1,%ymm1
- .byte 196,227,125,24,64,64,1 // vinsertf128 $0x1,0x40(%rax),%ymm0,%ymm0
- .byte 197,252,20,225 // vunpcklps %ymm1,%ymm0,%ymm4
- .byte 197,252,21,233 // vunpckhps %ymm1,%ymm0,%ymm5
- .byte 197,236,20,203 // vunpcklps %ymm3,%ymm2,%ymm1
- .byte 197,236,21,219 // vunpckhps %ymm3,%ymm2,%ymm3
- .byte 197,221,20,193 // vunpcklpd %ymm1,%ymm4,%ymm0
- .byte 197,221,21,201 // vunpckhpd %ymm1,%ymm4,%ymm1
- .byte 197,213,20,211 // vunpcklpd %ymm3,%ymm5,%ymm2
- .byte 197,213,21,219 // vunpckhpd %ymm3,%ymm5,%ymm3
- .byte 76,137,230 // mov %r12,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,137,239 // mov %r13,%rdi
- .byte 76,137,250 // mov %r15,%rdx
- .byte 76,137,241 // mov %r14,%rcx
- .byte 197,252,40,36,36 // vmovaps (%rsp),%ymm4
- .byte 197,252,40,108,36,32 // vmovaps 0x20(%rsp),%ymm5
- .byte 197,252,40,116,36,64 // vmovaps 0x40(%rsp),%ymm6
- .byte 197,252,40,124,36,96 // vmovaps 0x60(%rsp),%ymm7
- .byte 72,141,101,216 // lea -0x28(%rbp),%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clut_3D_skx
-.globl _sk_clut_3D_skx
-FUNCTION(_sk_clut_3D_skx)
-_sk_clut_3D_skx:
- .byte 72,129,236,24,1,0,0 // sub $0x118,%rsp
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,16 // mov 0x10(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 98,82,125,40,124,193 // vpbroadcastd %r9d,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,126,91,210 // vcvttps2dq %ymm2,%ymm10
- .byte 197,124,40,242 // vmovaps %ymm2,%ymm14
- .byte 197,124,17,116,36,224 // vmovups %ymm14,-0x20(%rsp)
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 98,210,125,40,124,208 // vpbroadcastd %r8d,%ymm2
- .byte 68,139,64,12 // mov 0xc(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 98,82,125,40,124,201 // vpbroadcastd %r9d,%ymm9
- .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 98,97,52,40,89,225 // vmulps %ymm1,%ymm9,%ymm28
- .byte 98,145,126,40,91,204 // vcvttps2dq %ymm28,%ymm1
- .byte 197,254,127,140,36,128,0,0,0 // vmovdqu %ymm1,0x80(%rsp)
- .byte 98,98,109,40,64,201 // vpmulld %ymm1,%ymm2,%ymm25
- .byte 98,81,53,32,254,202 // vpaddd %ymm10,%ymm25,%ymm9
- .byte 196,65,125,111,250 // vmovdqa %ymm10,%ymm15
- .byte 197,126,127,124,36,160 // vmovdqu %ymm15,-0x60(%rsp)
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,194,117,64,200 // vpmulld %ymm8,%ymm1,%ymm1
- .byte 196,98,125,88,193 // vpbroadcastd %xmm1,%ymm8
- .byte 68,139,64,8 // mov 0x8(%rax),%r8d
- .byte 65,131,192,255 // add $0xffffffff,%r8d
- .byte 98,210,125,40,124,200 // vpbroadcastd %r8d,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,97,116,40,89,192 // vmulps %ymm0,%ymm1,%ymm24
- .byte 98,145,126,40,91,192 // vcvttps2dq %ymm24,%ymm0
- .byte 197,254,127,68,36,128 // vmovdqu %ymm0,-0x80(%rsp)
- .byte 98,226,61,40,64,224 // vpmulld %ymm0,%ymm8,%ymm20
- .byte 98,209,93,32,254,193 // vpaddd %ymm9,%ymm20,%ymm0
- .byte 72,139,0 // mov (%rax),%rax
- .byte 98,98,125,40,88,29,153,85,3,0 // vpbroadcastd 0x35599(%rip),%ymm27 # 3c66c <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0
- .byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,98,117,146,20,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm10
- .byte 98,193,124,40,40,210 // vmovaps %ymm10,%ymm18
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 197,125,250,209 // vpsubd %ymm1,%ymm0,%ymm10
- .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
- .byte 196,162,37,146,12,144 // vgatherdps %ymm11,(%rax,%ymm10,4),%ymm1
- .byte 98,97,124,40,40,233 // vmovaps %ymm1,%ymm29
- .byte 196,98,125,24,21,79,85,3,0 // vbroadcastss 0x3554f(%rip),%ymm10 # 3c668 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- .byte 98,81,60,32,88,218 // vaddps %ymm10,%ymm24,%ymm11
- .byte 98,226,125,40,88,5,223,83,3,0 // vpbroadcastd 0x353df(%rip),%ymm16 # 3c508 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- .byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
- .byte 196,226,29,146,12,128 // vgatherdps %ymm12,(%rax,%ymm0,4),%ymm1
- .byte 98,97,124,40,40,241 // vmovaps %ymm1,%ymm30
- .byte 196,193,126,91,195 // vcvttps2dq %ymm11,%ymm0
- .byte 98,226,61,40,64,232 // vpmulld %ymm0,%ymm8,%ymm21
- .byte 98,209,85,32,254,193 // vpaddd %ymm9,%ymm21,%ymm0
- .byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,226,61,146,12,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm1
- .byte 197,252,17,140,36,224,0,0,0 // vmovups %ymm1,0xe0(%rsp)
- .byte 196,65,125,250,197 // vpsubd %ymm13,%ymm0,%ymm8
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,162,53,146,12,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm1
- .byte 197,252,17,140,36,192,0,0,0 // vmovups %ymm1,0xc0(%rsp)
- .byte 98,81,28,32,88,194 // vaddps %ymm10,%ymm28,%ymm8
- .byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
- .byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,226,53,146,12,128 // vgatherdps %ymm9,(%rax,%ymm0,4),%ymm1
- .byte 197,252,17,140,36,160,0,0,0 // vmovups %ymm1,0xa0(%rsp)
- .byte 98,66,109,40,64,208 // vpmulld %ymm8,%ymm2,%ymm26
- .byte 98,209,45,32,254,199 // vpaddd %ymm15,%ymm26,%ymm0
- .byte 98,177,125,40,254,212 // vpaddd %ymm20,%ymm0,%ymm2
- .byte 98,146,109,40,64,211 // vpmulld %ymm27,%ymm2,%ymm2
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,226,61,146,12,144 // vgatherdps %ymm8,(%rax,%ymm2,4),%ymm1
- .byte 197,252,17,76,36,96 // vmovups %ymm1,0x60(%rsp)
- .byte 196,65,109,250,197 // vpsubd %ymm13,%ymm2,%ymm8
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,162,53,146,12,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm1
- .byte 197,252,17,76,36,64 // vmovups %ymm1,0x40(%rsp)
- .byte 98,177,109,40,254,208 // vpaddd %ymm16,%ymm2,%ymm2
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,226,61,146,12,144 // vgatherdps %ymm8,(%rax,%ymm2,4),%ymm1
- .byte 197,252,17,76,36,32 // vmovups %ymm1,0x20(%rsp)
- .byte 98,241,85,32,254,192 // vpaddd %ymm0,%ymm21,%ymm0
- .byte 98,146,125,40,64,195 // vpmulld %ymm27,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,226,109,146,12,128 // vgatherdps %ymm2,(%rax,%ymm0,4),%ymm1
- .byte 197,252,17,12,36 // vmovups %ymm1,(%rsp)
- .byte 196,193,125,250,213 // vpsubd %ymm13,%ymm0,%ymm2
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,226,61,146,12,144 // vgatherdps %ymm8,(%rax,%ymm2,4),%ymm1
- .byte 197,252,17,76,36,192 // vmovups %ymm1,-0x40(%rsp)
- .byte 98,177,125,40,254,192 // vpaddd %ymm16,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,226,109,146,12,128 // vgatherdps %ymm2,(%rax,%ymm0,4),%ymm1
- .byte 98,97,124,40,40,249 // vmovaps %ymm1,%ymm31
- .byte 196,193,12,88,194 // vaddps %ymm10,%ymm14,%ymm0
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 98,113,53,32,254,208 // vpaddd %ymm0,%ymm25,%ymm10
- .byte 98,209,93,32,254,210 // vpaddd %ymm10,%ymm20,%ymm2
- .byte 98,146,109,40,64,211 // vpmulld %ymm27,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,98,53,146,4,144 // vgatherdps %ymm9,(%rax,%ymm2,4),%ymm8
- .byte 196,65,109,250,221 // vpsubd %ymm13,%ymm2,%ymm11
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
- .byte 196,34,29,146,12,152 // vgatherdps %ymm12,(%rax,%ymm11,4),%ymm9
- .byte 98,49,109,40,254,216 // vpaddd %ymm16,%ymm2,%ymm11
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
- .byte 196,162,29,146,12,152 // vgatherdps %ymm12,(%rax,%ymm11,4),%ymm1
- .byte 98,225,124,40,40,249 // vmovaps %ymm1,%ymm23
- .byte 98,81,85,32,254,210 // vpaddd %ymm10,%ymm21,%ymm10
- .byte 98,18,45,40,64,211 // vpmulld %ymm27,%ymm10,%ymm10
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
- .byte 196,162,29,146,12,144 // vgatherdps %ymm12,(%rax,%ymm10,4),%ymm1
- .byte 98,225,124,40,40,201 // vmovaps %ymm1,%ymm17
- .byte 196,65,45,250,245 // vpsubd %ymm13,%ymm10,%ymm14
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
- .byte 196,162,5,146,12,176 // vgatherdps %ymm15,(%rax,%ymm14,4),%ymm1
- .byte 98,225,124,40,40,241 // vmovaps %ymm1,%ymm22
- .byte 98,49,45,40,254,240 // vpaddd %ymm16,%ymm10,%ymm14
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
- .byte 196,162,5,146,12,176 // vgatherdps %ymm15,(%rax,%ymm14,4),%ymm1
- .byte 98,225,124,40,40,217 // vmovaps %ymm1,%ymm19
- .byte 98,97,45,32,254,200 // vpaddd %ymm0,%ymm26,%ymm25
- .byte 98,177,53,32,254,196 // vpaddd %ymm20,%ymm25,%ymm0
- .byte 98,18,125,40,64,243 // vpmulld %ymm27,%ymm0,%ymm14
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
- .byte 196,162,5,146,4,176 // vgatherdps %ymm15,(%rax,%ymm14,4),%ymm0
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,193,13,250,202 // vpsubd %ymm10,%ymm14,%ymm1
- .byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
- .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
- .byte 196,98,29,146,60,136 // vgatherdps %ymm12,(%rax,%ymm1,4),%ymm15
- .byte 98,177,13,40,254,200 // vpaddd %ymm16,%ymm14,%ymm1
- .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
- .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
- .byte 196,98,29,146,52,136 // vgatherdps %ymm12,(%rax,%ymm1,4),%ymm14
- .byte 98,145,85,32,254,201 // vpaddd %ymm25,%ymm21,%ymm1
- .byte 98,146,117,40,64,203 // vpmulld %ymm27,%ymm1,%ymm1
- .byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
- .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
- .byte 196,98,37,146,36,136 // vgatherdps %ymm11,(%rax,%ymm1,4),%ymm12
- .byte 196,193,117,250,210 // vpsubd %ymm10,%ymm1,%ymm2
- .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
- .byte 196,65,21,239,237 // vpxor %ymm13,%ymm13,%ymm13
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,98,45,146,44,144 // vgatherdps %ymm10,(%rax,%ymm2,4),%ymm13
- .byte 98,177,117,40,254,200 // vpaddd %ymm16,%ymm1,%ymm1
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,98,37,146,20,136 // vgatherdps %ymm11,(%rax,%ymm1,4),%ymm10
- .byte 197,252,16,140,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm1
- .byte 98,177,116,40,92,202 // vsubps %ymm18,%ymm1,%ymm1
- .byte 197,252,16,84,36,128 // vmovups -0x80(%rsp),%ymm2
- .byte 197,124,91,218 // vcvtdq2ps %ymm2,%ymm11
- .byte 98,81,60,32,92,219 // vsubps %ymm11,%ymm24,%ymm11
- .byte 98,178,37,40,168,202 // vfmadd213ps %ymm18,%ymm11,%ymm1
- .byte 197,252,16,148,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm2
- .byte 98,129,108,40,92,197 // vsubps %ymm29,%ymm2,%ymm16
- .byte 98,130,37,40,168,197 // vfmadd213ps %ymm29,%ymm11,%ymm16
- .byte 197,252,16,148,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm2
- .byte 98,129,108,40,92,214 // vsubps %ymm30,%ymm2,%ymm18
- .byte 98,130,37,40,168,214 // vfmadd213ps %ymm30,%ymm11,%ymm18
- .byte 197,252,16,84,36,96 // vmovups 0x60(%rsp),%ymm2
- .byte 98,225,124,40,16,36,36 // vmovups (%rsp),%ymm20
- .byte 98,225,92,32,92,226 // vsubps %ymm2,%ymm20,%ymm20
- .byte 98,226,37,40,168,226 // vfmadd213ps %ymm2,%ymm11,%ymm20
- .byte 197,252,16,84,36,64 // vmovups 0x40(%rsp),%ymm2
- .byte 98,225,124,40,16,108,36,254 // vmovups -0x40(%rsp),%ymm21
- .byte 98,225,84,32,92,234 // vsubps %ymm2,%ymm21,%ymm21
- .byte 98,226,37,40,168,234 // vfmadd213ps %ymm2,%ymm11,%ymm21
- .byte 197,252,16,84,36,32 // vmovups 0x20(%rsp),%ymm2
- .byte 98,97,4,32,92,194 // vsubps %ymm2,%ymm31,%ymm24
- .byte 98,98,37,40,168,194 // vfmadd213ps %ymm2,%ymm11,%ymm24
- .byte 98,65,116,32,92,200 // vsubps %ymm8,%ymm17,%ymm25
- .byte 98,66,37,40,168,200 // vfmadd213ps %ymm8,%ymm11,%ymm25
- .byte 197,252,16,148,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm2
- .byte 197,124,91,194 // vcvtdq2ps %ymm2,%ymm8
- .byte 98,81,28,32,92,192 // vsubps %ymm8,%ymm28,%ymm8
- .byte 98,225,92,32,92,201 // vsubps %ymm1,%ymm20,%ymm17
- .byte 98,226,61,40,168,201 // vfmadd213ps %ymm1,%ymm8,%ymm17
- .byte 98,161,84,32,92,224 // vsubps %ymm16,%ymm21,%ymm20
- .byte 98,162,61,40,168,224 // vfmadd213ps %ymm16,%ymm8,%ymm20
- .byte 98,161,60,32,92,194 // vsubps %ymm18,%ymm24,%ymm16
- .byte 98,162,61,40,168,194 // vfmadd213ps %ymm18,%ymm8,%ymm16
- .byte 98,209,76,32,92,201 // vsubps %ymm9,%ymm22,%ymm1
- .byte 196,194,37,168,201 // vfmadd213ps %ymm9,%ymm11,%ymm1
- .byte 98,49,100,32,92,207 // vsubps %ymm23,%ymm19,%ymm9
- .byte 98,50,37,40,168,207 // vfmadd213ps %ymm23,%ymm11,%ymm9
- .byte 197,156,92,208 // vsubps %ymm0,%ymm12,%ymm2
- .byte 196,226,37,168,208 // vfmadd213ps %ymm0,%ymm11,%ymm2
- .byte 196,193,20,92,199 // vsubps %ymm15,%ymm13,%ymm0
- .byte 196,194,37,168,199 // vfmadd213ps %ymm15,%ymm11,%ymm0
- .byte 196,65,44,92,214 // vsubps %ymm14,%ymm10,%ymm10
- .byte 196,66,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm10
- .byte 98,145,108,40,92,209 // vsubps %ymm25,%ymm2,%ymm2
- .byte 98,146,61,40,168,209 // vfmadd213ps %ymm25,%ymm8,%ymm2
- .byte 197,124,92,217 // vsubps %ymm1,%ymm0,%ymm11
- .byte 196,98,61,168,217 // vfmadd213ps %ymm1,%ymm8,%ymm11
- .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
- .byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 197,252,16,68,36,160 // vmovups -0x60(%rsp),%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,16,76,36,224 // vmovups -0x20(%rsp),%ymm1
- .byte 197,116,92,192 // vsubps %ymm0,%ymm1,%ymm8
- .byte 98,177,108,40,92,193 // vsubps %ymm17,%ymm2,%ymm0
- .byte 98,178,61,40,168,193 // vfmadd213ps %ymm17,%ymm8,%ymm0
- .byte 98,177,36,40,92,204 // vsubps %ymm20,%ymm11,%ymm1
- .byte 98,178,61,40,168,204 // vfmadd213ps %ymm20,%ymm8,%ymm1
- .byte 98,177,44,40,92,208 // vsubps %ymm16,%ymm10,%ymm2
- .byte 98,178,61,40,168,208 // vfmadd213ps %ymm16,%ymm8,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,129,196,24,1,0,0 // add $0x118,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clut_4D_skx
-.globl _sk_clut_4D_skx
-FUNCTION(_sk_clut_4D_skx)
-_sk_clut_4D_skx:
- .byte 72,129,236,88,5,0,0 // sub $0x558,%rsp
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,20 // mov 0x14(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 98,82,125,40,124,193 // vpbroadcastd %r9d,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 197,126,91,211 // vcvttps2dq %ymm3,%ymm10
- .byte 197,124,40,251 // vmovaps %ymm3,%ymm15
- .byte 197,124,17,188,36,160,2,0,0 // vmovups %ymm15,0x2a0(%rsp)
- .byte 196,65,121,110,200 // vmovd %r8d,%xmm9
- .byte 98,210,125,40,124,216 // vpbroadcastd %r8d,%ymm3
- .byte 68,139,64,16 // mov 0x10(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 98,82,125,40,124,193 // vpbroadcastd %r9d,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,60,89,194 // vmulps %ymm2,%ymm8,%ymm8
- .byte 196,193,126,91,208 // vcvttps2dq %ymm8,%ymm2
- .byte 98,193,124,40,40,248 // vmovaps %ymm8,%ymm23
- .byte 98,225,124,40,17,124,36,14 // vmovups %ymm23,0x1c0(%rsp)
- .byte 197,254,127,148,36,32,5,0,0 // vmovdqu %ymm2,0x520(%rsp)
- .byte 98,226,101,40,64,218 // vpmulld %ymm2,%ymm3,%ymm19
- .byte 98,81,101,32,254,194 // vpaddd %ymm10,%ymm19,%ymm8
- .byte 98,193,253,40,111,210 // vmovdqa64 %ymm10,%ymm18
- .byte 98,225,254,40,127,84,36,33 // vmovdqu64 %ymm18,0x420(%rsp)
- .byte 196,65,121,110,208 // vmovd %r8d,%xmm10
- .byte 196,66,45,64,209 // vpmulld %ymm9,%ymm10,%ymm10
- .byte 196,66,125,88,202 // vpbroadcastd %xmm10,%ymm9
- .byte 68,139,64,12 // mov 0xc(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 98,82,125,40,124,217 // vpbroadcastd %r9d,%ymm11
- .byte 196,65,124,91,219 // vcvtdq2ps %ymm11,%ymm11
- .byte 197,164,89,209 // vmulps %ymm1,%ymm11,%ymm2
- .byte 197,254,91,202 // vcvttps2dq %ymm2,%ymm1
- .byte 98,97,124,40,40,202 // vmovaps %ymm2,%ymm25
- .byte 98,97,124,40,17,76,36,13 // vmovups %ymm25,0x1a0(%rsp)
- .byte 197,254,127,140,36,0,5,0,0 // vmovdqu %ymm1,0x500(%rsp)
- .byte 98,98,53,40,64,193 // vpmulld %ymm1,%ymm9,%ymm24
- .byte 98,209,61,32,254,200 // vpaddd %ymm8,%ymm24,%ymm1
- .byte 196,65,121,110,216 // vmovd %r8d,%xmm11
- .byte 196,66,37,64,210 // vpmulld %ymm10,%ymm11,%ymm10
- .byte 196,66,125,88,210 // vpbroadcastd %xmm10,%ymm10
- .byte 68,139,64,8 // mov 0x8(%rax),%r8d
- .byte 65,131,192,255 // add $0xffffffff,%r8d
- .byte 98,82,125,40,124,216 // vpbroadcastd %r8d,%ymm11
- .byte 196,65,124,91,219 // vcvtdq2ps %ymm11,%ymm11
- .byte 98,97,36,40,89,224 // vmulps %ymm0,%ymm11,%ymm28
- .byte 98,129,126,40,91,236 // vcvttps2dq %ymm28,%ymm21
- .byte 98,162,45,40,64,229 // vpmulld %ymm21,%ymm10,%ymm20
- .byte 98,241,93,32,254,193 // vpaddd %ymm1,%ymm20,%ymm0
- .byte 72,139,0 // mov (%rax),%rax
- .byte 98,226,125,40,88,5,43,80,3,0 // vpbroadcastd 0x3502b(%rip),%ymm16 # 3c66c <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 98,50,125,40,64,216 // vpmulld %ymm16,%ymm0,%ymm11
- .byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
- .byte 197,253,118,192 // vpcmpeqd %ymm0,%ymm0,%ymm0
- .byte 196,34,125,146,36,152 // vgatherdps %ymm0,(%rax,%ymm11,4),%ymm12
- .byte 197,124,17,164,36,224,4,0,0 // vmovups %ymm12,0x4e0(%rsp)
- .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
- .byte 196,193,37,250,198 // vpsubd %ymm14,%ymm11,%ymm0
- .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
- .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
- .byte 196,98,29,146,44,128 // vgatherdps %ymm12,(%rax,%ymm0,4),%ymm13
- .byte 197,124,17,172,36,192,4,0,0 // vmovups %ymm13,0x4c0(%rsp)
- .byte 196,226,125,24,5,221,79,3,0 // vbroadcastss 0x34fdd(%rip),%ymm0 # 3c668 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- .byte 98,113,28,32,88,224 // vaddps %ymm0,%ymm28,%ymm12
- .byte 98,226,125,40,88,13,109,78,3,0 // vpbroadcastd 0x34e6d(%rip),%ymm17 # 3c508 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- .byte 98,49,37,40,254,217 // vpaddd %ymm17,%ymm11,%ymm11
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
- .byte 196,162,21,146,20,152 // vgatherdps %ymm13,(%rax,%ymm11,4),%ymm2
- .byte 197,252,17,148,36,160,4,0,0 // vmovups %ymm2,0x4a0(%rsp)
- .byte 196,65,126,91,220 // vcvttps2dq %ymm12,%ymm11
- .byte 98,194,45,40,64,243 // vpmulld %ymm11,%ymm10,%ymm22
- .byte 98,241,77,32,254,201 // vpaddd %ymm1,%ymm22,%ymm1
- .byte 98,178,117,40,64,200 // vpmulld %ymm16,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,226,45,146,20,136 // vgatherdps %ymm10,(%rax,%ymm1,4),%ymm2
- .byte 197,252,17,148,36,128,4,0,0 // vmovups %ymm2,0x480(%rsp)
- .byte 196,65,117,250,214 // vpsubd %ymm14,%ymm1,%ymm10
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
- .byte 196,162,37,146,20,144 // vgatherdps %ymm11,(%rax,%ymm10,4),%ymm2
- .byte 197,252,17,148,36,96,4,0,0 // vmovups %ymm2,0x460(%rsp)
- .byte 98,113,52,32,88,208 // vaddps %ymm0,%ymm25,%ymm10
- .byte 196,65,126,91,210 // vcvttps2dq %ymm10,%ymm10
- .byte 98,177,117,40,254,201 // vpaddd %ymm17,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
- .byte 196,226,37,146,20,136 // vgatherdps %ymm11,(%rax,%ymm1,4),%ymm2
- .byte 197,252,17,148,36,64,4,0,0 // vmovups %ymm2,0x440(%rsp)
- .byte 98,66,53,40,64,234 // vpmulld %ymm10,%ymm9,%ymm29
- .byte 98,209,21,32,254,200 // vpaddd %ymm8,%ymm29,%ymm1
- .byte 98,49,117,40,254,196 // vpaddd %ymm20,%ymm1,%ymm8
- .byte 98,50,61,40,64,192 // vpmulld %ymm16,%ymm8,%ymm8
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
- .byte 197,252,17,148,36,0,4,0,0 // vmovups %ymm2,0x400(%rsp)
- .byte 196,65,61,250,206 // vpsubd %ymm14,%ymm8,%ymm9
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,162,45,146,20,136 // vgatherdps %ymm10,(%rax,%ymm9,4),%ymm2
- .byte 197,252,17,148,36,224,3,0,0 // vmovups %ymm2,0x3e0(%rsp)
- .byte 98,49,61,40,254,193 // vpaddd %ymm17,%ymm8,%ymm8
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
- .byte 197,252,17,148,36,192,3,0,0 // vmovups %ymm2,0x3c0(%rsp)
- .byte 98,241,77,32,254,201 // vpaddd %ymm1,%ymm22,%ymm1
- .byte 98,178,117,40,64,200 // vpmulld %ymm16,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,226,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm1,4),%ymm2
- .byte 197,252,17,148,36,160,3,0,0 // vmovups %ymm2,0x3a0(%rsp)
- .byte 196,65,117,250,198 // vpsubd %ymm14,%ymm1,%ymm8
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
- .byte 197,252,17,148,36,128,3,0,0 // vmovups %ymm2,0x380(%rsp)
- .byte 98,177,117,40,254,201 // vpaddd %ymm17,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,226,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm1,4),%ymm2
- .byte 197,252,17,148,36,96,3,0,0 // vmovups %ymm2,0x360(%rsp)
- .byte 98,241,68,32,88,200 // vaddps %ymm0,%ymm23,%ymm1
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 98,98,101,40,64,249 // vpmulld %ymm1,%ymm3,%ymm31
- .byte 98,177,5,32,254,202 // vpaddd %ymm18,%ymm31,%ymm1
- .byte 98,145,117,40,254,216 // vpaddd %ymm24,%ymm1,%ymm3
- .byte 98,49,101,40,254,196 // vpaddd %ymm20,%ymm3,%ymm8
- .byte 98,50,61,40,64,192 // vpmulld %ymm16,%ymm8,%ymm8
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
- .byte 197,252,17,148,36,64,3,0,0 // vmovups %ymm2,0x340(%rsp)
- .byte 196,65,61,250,206 // vpsubd %ymm14,%ymm8,%ymm9
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,162,45,146,20,136 // vgatherdps %ymm10,(%rax,%ymm9,4),%ymm2
- .byte 197,252,17,148,36,32,3,0,0 // vmovups %ymm2,0x320(%rsp)
- .byte 98,49,61,40,254,193 // vpaddd %ymm17,%ymm8,%ymm8
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
- .byte 197,252,17,148,36,0,3,0,0 // vmovups %ymm2,0x300(%rsp)
- .byte 98,241,77,32,254,219 // vpaddd %ymm3,%ymm22,%ymm3
- .byte 98,178,101,40,64,216 // vpmulld %ymm16,%ymm3,%ymm3
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,226,61,146,20,152 // vgatherdps %ymm8,(%rax,%ymm3,4),%ymm2
- .byte 197,252,17,148,36,224,2,0,0 // vmovups %ymm2,0x2e0(%rsp)
- .byte 196,65,101,250,198 // vpsubd %ymm14,%ymm3,%ymm8
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
- .byte 197,252,17,148,36,192,2,0,0 // vmovups %ymm2,0x2c0(%rsp)
- .byte 98,177,101,40,254,217 // vpaddd %ymm17,%ymm3,%ymm3
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,226,61,146,20,152 // vgatherdps %ymm8,(%rax,%ymm3,4),%ymm2
- .byte 197,252,17,148,36,128,2,0,0 // vmovups %ymm2,0x280(%rsp)
- .byte 98,241,21,32,254,201 // vpaddd %ymm1,%ymm29,%ymm1
- .byte 98,177,117,40,254,220 // vpaddd %ymm20,%ymm1,%ymm3
- .byte 98,178,101,40,64,216 // vpmulld %ymm16,%ymm3,%ymm3
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,226,61,146,20,152 // vgatherdps %ymm8,(%rax,%ymm3,4),%ymm2
- .byte 197,252,17,148,36,96,2,0,0 // vmovups %ymm2,0x260(%rsp)
- .byte 196,65,101,250,198 // vpsubd %ymm14,%ymm3,%ymm8
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,162,53,146,20,128 // vgatherdps %ymm9,(%rax,%ymm8,4),%ymm2
- .byte 197,252,17,148,36,64,2,0,0 // vmovups %ymm2,0x240(%rsp)
- .byte 98,177,101,40,254,217 // vpaddd %ymm17,%ymm3,%ymm3
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,98,61,146,12,152 // vgatherdps %ymm8,(%rax,%ymm3,4),%ymm9
- .byte 98,241,77,32,254,201 // vpaddd %ymm1,%ymm22,%ymm1
- .byte 98,178,117,40,64,200 // vpmulld %ymm16,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,226,101,146,20,136 // vgatherdps %ymm3,(%rax,%ymm1,4),%ymm2
- .byte 197,252,17,148,36,32,2,0,0 // vmovups %ymm2,0x220(%rsp)
- .byte 196,193,117,250,222 // vpsubd %ymm14,%ymm1,%ymm3
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,226,61,146,20,152 // vgatherdps %ymm8,(%rax,%ymm3,4),%ymm2
- .byte 197,252,17,148,36,0,2,0,0 // vmovups %ymm2,0x200(%rsp)
- .byte 98,177,117,40,254,201 // vpaddd %ymm17,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,226,101,146,20,136 // vgatherdps %ymm3,(%rax,%ymm1,4),%ymm2
- .byte 197,252,17,148,36,224,1,0,0 // vmovups %ymm2,0x1e0(%rsp)
- .byte 197,132,88,192 // vaddps %ymm0,%ymm15,%ymm0
- .byte 98,97,126,40,91,240 // vcvttps2dq %ymm0,%ymm30
- .byte 98,145,101,32,254,198 // vpaddd %ymm30,%ymm19,%ymm0
- .byte 98,241,61,32,254,200 // vpaddd %ymm0,%ymm24,%ymm1
- .byte 98,241,93,32,254,209 // vpaddd %ymm1,%ymm20,%ymm2
- .byte 98,178,109,40,64,208 // vpmulld %ymm16,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,98,101,146,4,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm8
- .byte 197,124,17,132,36,128,1,0,0 // vmovups %ymm8,0x180(%rsp)
- .byte 196,193,109,250,222 // vpsubd %ymm14,%ymm2,%ymm3
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,98,61,146,20,152 // vgatherdps %ymm8,(%rax,%ymm3,4),%ymm10
- .byte 197,124,17,148,36,96,1,0,0 // vmovups %ymm10,0x160(%rsp)
- .byte 98,177,109,40,254,209 // vpaddd %ymm17,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,98,101,146,4,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm8
- .byte 98,241,77,32,254,201 // vpaddd %ymm1,%ymm22,%ymm1
- .byte 98,178,117,40,64,200 // vpmulld %ymm16,%ymm1,%ymm1
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,156,36,64,1,0,0 // vmovups %ymm3,0x140(%rsp)
- .byte 196,193,117,250,214 // vpsubd %ymm14,%ymm1,%ymm2
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,98,101,146,20,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm10
- .byte 197,124,17,148,36,32,1,0,0 // vmovups %ymm10,0x120(%rsp)
- .byte 98,177,117,40,254,201 // vpaddd %ymm17,%ymm1,%ymm1
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,156,36,0,1,0,0 // vmovups %ymm3,0x100(%rsp)
- .byte 98,241,21,32,254,192 // vpaddd %ymm0,%ymm29,%ymm0
- .byte 98,177,125,40,254,204 // vpaddd %ymm20,%ymm0,%ymm1
- .byte 98,178,117,40,64,200 // vpmulld %ymm16,%ymm1,%ymm1
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,156,36,224,0,0,0 // vmovups %ymm3,0xe0(%rsp)
- .byte 196,193,117,250,214 // vpsubd %ymm14,%ymm1,%ymm2
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,98,101,146,20,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm10
- .byte 197,124,17,148,36,192,0,0,0 // vmovups %ymm10,0xc0(%rsp)
- .byte 98,177,117,40,254,201 // vpaddd %ymm17,%ymm1,%ymm1
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,156,36,160,0,0,0 // vmovups %ymm3,0xa0(%rsp)
- .byte 98,241,77,32,254,192 // vpaddd %ymm0,%ymm22,%ymm0
- .byte 98,178,125,40,64,192 // vpmulld %ymm16,%ymm0,%ymm0
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,226,117,146,20,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm2
- .byte 197,252,17,148,36,128,0,0,0 // vmovups %ymm2,0x80(%rsp)
- .byte 196,193,125,250,206 // vpsubd %ymm14,%ymm0,%ymm1
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,92,36,96 // vmovups %ymm3,0x60(%rsp)
- .byte 98,177,125,40,254,193 // vpaddd %ymm17,%ymm0,%ymm0
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,226,117,146,20,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm2
- .byte 197,252,17,84,36,64 // vmovups %ymm2,0x40(%rsp)
- .byte 98,145,5,32,254,198 // vpaddd %ymm30,%ymm31,%ymm0
- .byte 98,145,125,40,254,200 // vpaddd %ymm24,%ymm0,%ymm1
- .byte 98,177,117,40,254,212 // vpaddd %ymm20,%ymm1,%ymm2
- .byte 98,178,109,40,64,208 // vpmulld %ymm16,%ymm2,%ymm2
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,98,101,146,20,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm10
- .byte 197,124,17,84,36,32 // vmovups %ymm10,0x20(%rsp)
- .byte 196,193,109,250,222 // vpsubd %ymm14,%ymm2,%ymm3
- .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,98,45,146,28,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm11
- .byte 197,124,17,28,36 // vmovups %ymm11,(%rsp)
- .byte 98,177,109,40,254,209 // vpaddd %ymm17,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,226,45,146,28,144 // vgatherdps %ymm10,(%rax,%ymm2,4),%ymm3
- .byte 98,225,124,40,40,251 // vmovaps %ymm3,%ymm23
- .byte 98,241,77,32,254,201 // vpaddd %ymm1,%ymm22,%ymm1
- .byte 98,178,117,40,64,200 // vpmulld %ymm16,%ymm1,%ymm1
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,92,36,192 // vmovups %ymm3,-0x40(%rsp)
- .byte 196,193,117,250,214 // vpsubd %ymm14,%ymm1,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,226,45,146,28,144 // vgatherdps %ymm10,(%rax,%ymm2,4),%ymm3
- .byte 98,97,124,40,40,211 // vmovaps %ymm3,%ymm26
- .byte 98,177,117,40,254,201 // vpaddd %ymm17,%ymm1,%ymm1
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 98,97,124,40,40,203 // vmovaps %ymm3,%ymm25
- .byte 98,97,21,32,254,192 // vpaddd %ymm0,%ymm29,%ymm24
- .byte 98,177,61,32,254,196 // vpaddd %ymm20,%ymm24,%ymm0
- .byte 98,178,125,40,64,192 // vpmulld %ymm16,%ymm0,%ymm0
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,226,117,146,20,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm2
- .byte 98,225,124,40,40,218 // vmovaps %ymm2,%ymm19
- .byte 196,193,125,250,214 // vpsubd %ymm14,%ymm0,%ymm2
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
- .byte 196,226,5,146,12,144 // vgatherdps %ymm15,(%rax,%ymm2,4),%ymm1
- .byte 98,225,124,40,40,209 // vmovaps %ymm1,%ymm18
- .byte 98,177,125,40,254,209 // vpaddd %ymm17,%ymm0,%ymm2
- .byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
- .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
- .byte 196,98,5,146,36,144 // vgatherdps %ymm15,(%rax,%ymm2,4),%ymm12
- .byte 98,145,77,32,254,208 // vpaddd %ymm24,%ymm22,%ymm2
- .byte 98,178,109,40,64,208 // vpmulld %ymm16,%ymm2,%ymm2
- .byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
- .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
- .byte 196,98,21,146,60,144 // vgatherdps %ymm13,(%rax,%ymm2,4),%ymm15
- .byte 197,252,17,124,36,224 // vmovups %ymm7,-0x20(%rsp)
- .byte 197,252,17,116,36,160 // vmovups %ymm6,-0x60(%rsp)
- .byte 197,252,17,108,36,128 // vmovups %ymm5,-0x80(%rsp)
- .byte 98,97,124,40,40,220 // vmovaps %ymm4,%ymm27
- .byte 196,65,109,250,238 // vpsubd %ymm14,%ymm2,%ymm13
- .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,34,45,146,28,168 // vgatherdps %ymm10,(%rax,%ymm13,4),%ymm11
- .byte 98,177,109,40,254,209 // vpaddd %ymm17,%ymm2,%ymm2
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,98,13,146,20,144 // vgatherdps %ymm14,(%rax,%ymm2,4),%ymm10
- .byte 197,252,16,132,36,224,4,0,0 // vmovups 0x4e0(%rsp),%ymm0
- .byte 197,252,16,140,36,128,4,0,0 // vmovups 0x480(%rsp),%ymm1
- .byte 197,244,92,240 // vsubps %ymm0,%ymm1,%ymm6
- .byte 98,49,124,40,91,237 // vcvtdq2ps %ymm21,%ymm13
- .byte 98,81,28,32,92,237 // vsubps %ymm13,%ymm28,%ymm13
- .byte 196,226,21,168,240 // vfmadd213ps %ymm0,%ymm13,%ymm6
- .byte 197,252,16,132,36,192,4,0,0 // vmovups 0x4c0(%rsp),%ymm0
- .byte 197,252,16,140,36,96,4,0,0 // vmovups 0x460(%rsp),%ymm1
- .byte 197,116,92,240 // vsubps %ymm0,%ymm1,%ymm14
- .byte 196,98,21,168,240 // vfmadd213ps %ymm0,%ymm13,%ymm14
- .byte 197,252,16,132,36,160,4,0,0 // vmovups 0x4a0(%rsp),%ymm0
- .byte 197,252,16,140,36,64,4,0,0 // vmovups 0x440(%rsp),%ymm1
- .byte 98,225,116,40,92,192 // vsubps %ymm0,%ymm1,%ymm16
- .byte 98,226,21,40,168,192 // vfmadd213ps %ymm0,%ymm13,%ymm16
- .byte 197,252,16,132,36,0,4,0,0 // vmovups 0x400(%rsp),%ymm0
- .byte 197,252,16,140,36,160,3,0,0 // vmovups 0x3a0(%rsp),%ymm1
- .byte 98,225,116,40,92,200 // vsubps %ymm0,%ymm1,%ymm17
- .byte 98,226,21,40,168,200 // vfmadd213ps %ymm0,%ymm13,%ymm17
- .byte 197,252,16,132,36,224,3,0,0 // vmovups 0x3e0(%rsp),%ymm0
- .byte 197,252,16,140,36,128,3,0,0 // vmovups 0x380(%rsp),%ymm1
- .byte 98,225,116,40,92,224 // vsubps %ymm0,%ymm1,%ymm20
- .byte 98,226,21,40,168,224 // vfmadd213ps %ymm0,%ymm13,%ymm20
- .byte 197,252,16,132,36,192,3,0,0 // vmovups 0x3c0(%rsp),%ymm0
- .byte 197,252,16,140,36,96,3,0,0 // vmovups 0x360(%rsp),%ymm1
- .byte 98,225,116,40,92,232 // vsubps %ymm0,%ymm1,%ymm21
- .byte 98,226,21,40,168,232 // vfmadd213ps %ymm0,%ymm13,%ymm21
- .byte 197,252,16,132,36,64,3,0,0 // vmovups 0x340(%rsp),%ymm0
- .byte 197,252,16,140,36,224,2,0,0 // vmovups 0x2e0(%rsp),%ymm1
- .byte 98,225,116,40,92,240 // vsubps %ymm0,%ymm1,%ymm22
- .byte 98,226,21,40,168,240 // vfmadd213ps %ymm0,%ymm13,%ymm22
- .byte 197,252,16,132,36,32,3,0,0 // vmovups 0x320(%rsp),%ymm0
- .byte 197,252,16,140,36,192,2,0,0 // vmovups 0x2c0(%rsp),%ymm1
- .byte 98,97,116,40,92,192 // vsubps %ymm0,%ymm1,%ymm24
- .byte 98,98,21,40,168,192 // vfmadd213ps %ymm0,%ymm13,%ymm24
- .byte 197,252,16,132,36,0,3,0,0 // vmovups 0x300(%rsp),%ymm0
- .byte 197,252,16,140,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm1
- .byte 98,97,116,40,92,224 // vsubps %ymm0,%ymm1,%ymm28
- .byte 98,98,21,40,168,224 // vfmadd213ps %ymm0,%ymm13,%ymm28
- .byte 197,252,16,132,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm0
- .byte 197,252,16,140,36,32,2,0,0 // vmovups 0x220(%rsp),%ymm1
- .byte 98,97,116,40,92,232 // vsubps %ymm0,%ymm1,%ymm29
- .byte 98,98,21,40,168,232 // vfmadd213ps %ymm0,%ymm13,%ymm29
- .byte 197,252,16,132,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm0
- .byte 197,252,16,140,36,0,2,0,0 // vmovups 0x200(%rsp),%ymm1
- .byte 98,97,116,40,92,240 // vsubps %ymm0,%ymm1,%ymm30
- .byte 98,98,21,40,168,240 // vfmadd213ps %ymm0,%ymm13,%ymm30
- .byte 197,252,16,132,36,224,1,0,0 // vmovups 0x1e0(%rsp),%ymm0
- .byte 98,65,124,40,92,249 // vsubps %ymm9,%ymm0,%ymm31
- .byte 98,66,21,40,168,249 // vfmadd213ps %ymm9,%ymm13,%ymm31
- .byte 197,252,16,132,36,128,1,0,0 // vmovups 0x180(%rsp),%ymm0
- .byte 197,252,16,140,36,64,1,0,0 // vmovups 0x140(%rsp),%ymm1
- .byte 197,244,92,216 // vsubps %ymm0,%ymm1,%ymm3
- .byte 196,226,21,168,216 // vfmadd213ps %ymm0,%ymm13,%ymm3
- .byte 197,252,16,132,36,96,1,0,0 // vmovups 0x160(%rsp),%ymm0
- .byte 197,252,16,140,36,32,1,0,0 // vmovups 0x120(%rsp),%ymm1
- .byte 197,244,92,224 // vsubps %ymm0,%ymm1,%ymm4
- .byte 196,226,21,168,224 // vfmadd213ps %ymm0,%ymm13,%ymm4
- .byte 197,252,16,132,36,0,1,0,0 // vmovups 0x100(%rsp),%ymm0
- .byte 196,193,124,92,232 // vsubps %ymm8,%ymm0,%ymm5
- .byte 196,194,21,168,232 // vfmadd213ps %ymm8,%ymm13,%ymm5
- .byte 197,252,16,132,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm0
- .byte 197,252,16,140,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm1
- .byte 197,244,92,248 // vsubps %ymm0,%ymm1,%ymm7
- .byte 196,226,21,168,248 // vfmadd213ps %ymm0,%ymm13,%ymm7
- .byte 197,252,16,132,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm0
- .byte 197,252,16,76,36,96 // vmovups 0x60(%rsp),%ymm1
- .byte 197,116,92,192 // vsubps %ymm0,%ymm1,%ymm8
- .byte 196,98,21,168,192 // vfmadd213ps %ymm0,%ymm13,%ymm8
- .byte 197,252,16,132,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm0
- .byte 197,252,16,76,36,64 // vmovups 0x40(%rsp),%ymm1
- .byte 197,116,92,200 // vsubps %ymm0,%ymm1,%ymm9
- .byte 196,98,21,168,200 // vfmadd213ps %ymm0,%ymm13,%ymm9
- .byte 197,252,16,76,36,32 // vmovups 0x20(%rsp),%ymm1
- .byte 197,252,16,68,36,192 // vmovups -0x40(%rsp),%ymm0
- .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
- .byte 196,226,21,168,193 // vfmadd213ps %ymm1,%ymm13,%ymm0
- .byte 197,252,16,20,36 // vmovups (%rsp),%ymm2
- .byte 98,241,44,32,92,202 // vsubps %ymm2,%ymm26,%ymm1
- .byte 196,226,21,168,202 // vfmadd213ps %ymm2,%ymm13,%ymm1
- .byte 98,177,52,32,92,215 // vsubps %ymm23,%ymm25,%ymm2
- .byte 98,178,21,40,168,215 // vfmadd213ps %ymm23,%ymm13,%ymm2
- .byte 98,49,4,40,92,251 // vsubps %ymm19,%ymm15,%ymm15
- .byte 98,50,21,40,168,251 // vfmadd213ps %ymm19,%ymm13,%ymm15
- .byte 98,49,36,40,92,218 // vsubps %ymm18,%ymm11,%ymm11
- .byte 98,50,21,40,168,218 // vfmadd213ps %ymm18,%ymm13,%ymm11
- .byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
- .byte 196,66,21,168,212 // vfmadd213ps %ymm12,%ymm13,%ymm10
- .byte 197,124,16,164,36,0,5,0,0 // vmovups 0x500(%rsp),%ymm12
- .byte 196,65,124,91,228 // vcvtdq2ps %ymm12,%ymm12
- .byte 197,124,16,172,36,160,1,0,0 // vmovups 0x1a0(%rsp),%ymm13
- .byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 98,113,116,32,92,238 // vsubps %ymm6,%ymm17,%ymm13
- .byte 196,98,29,168,238 // vfmadd213ps %ymm6,%ymm12,%ymm13
- .byte 98,209,92,32,92,246 // vsubps %ymm14,%ymm20,%ymm6
- .byte 196,194,29,168,246 // vfmadd213ps %ymm14,%ymm12,%ymm6
- .byte 98,49,84,32,92,240 // vsubps %ymm16,%ymm21,%ymm14
- .byte 98,50,29,40,168,240 // vfmadd213ps %ymm16,%ymm12,%ymm14
- .byte 98,161,20,32,92,198 // vsubps %ymm22,%ymm29,%ymm16
- .byte 98,162,29,40,168,198 // vfmadd213ps %ymm22,%ymm12,%ymm16
- .byte 98,129,12,32,92,200 // vsubps %ymm24,%ymm30,%ymm17
- .byte 98,130,29,40,168,200 // vfmadd213ps %ymm24,%ymm12,%ymm17
- .byte 98,129,4,32,92,228 // vsubps %ymm28,%ymm31,%ymm20
- .byte 98,130,29,40,168,228 // vfmadd213ps %ymm28,%ymm12,%ymm20
- .byte 197,196,92,251 // vsubps %ymm3,%ymm7,%ymm7
- .byte 196,226,29,168,251 // vfmadd213ps %ymm3,%ymm12,%ymm7
- .byte 197,188,92,220 // vsubps %ymm4,%ymm8,%ymm3
- .byte 196,226,29,168,220 // vfmadd213ps %ymm4,%ymm12,%ymm3
- .byte 197,180,92,229 // vsubps %ymm5,%ymm9,%ymm4
- .byte 196,226,29,168,229 // vfmadd213ps %ymm5,%ymm12,%ymm4
- .byte 197,132,92,232 // vsubps %ymm0,%ymm15,%ymm5
- .byte 196,226,29,168,232 // vfmadd213ps %ymm0,%ymm12,%ymm5
- .byte 197,164,92,193 // vsubps %ymm1,%ymm11,%ymm0
- .byte 196,226,29,168,193 // vfmadd213ps %ymm1,%ymm12,%ymm0
- .byte 197,172,92,202 // vsubps %ymm2,%ymm10,%ymm1
- .byte 196,226,29,168,202 // vfmadd213ps %ymm2,%ymm12,%ymm1
- .byte 197,252,16,148,36,32,5,0,0 // vmovups 0x520(%rsp),%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,124,16,132,36,192,1,0,0 // vmovups 0x1c0(%rsp),%ymm8
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 98,81,124,32,92,197 // vsubps %ymm13,%ymm16,%ymm8
- .byte 196,66,109,168,197 // vfmadd213ps %ymm13,%ymm2,%ymm8
- .byte 98,113,116,32,92,206 // vsubps %ymm6,%ymm17,%ymm9
- .byte 196,98,109,168,206 // vfmadd213ps %ymm6,%ymm2,%ymm9
- .byte 98,209,92,32,92,246 // vsubps %ymm14,%ymm20,%ymm6
- .byte 196,194,109,168,246 // vfmadd213ps %ymm14,%ymm2,%ymm6
- .byte 197,212,92,239 // vsubps %ymm7,%ymm5,%ymm5
- .byte 196,226,109,168,239 // vfmadd213ps %ymm7,%ymm2,%ymm5
- .byte 197,252,92,251 // vsubps %ymm3,%ymm0,%ymm7
- .byte 196,226,109,168,251 // vfmadd213ps %ymm3,%ymm2,%ymm7
- .byte 197,244,92,220 // vsubps %ymm4,%ymm1,%ymm3
- .byte 196,226,109,168,220 // vfmadd213ps %ymm4,%ymm2,%ymm3
- .byte 197,252,16,132,36,32,4,0,0 // vmovups 0x420(%rsp),%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,16,140,36,160,2,0,0 // vmovups 0x2a0(%rsp),%ymm1
- .byte 197,244,92,224 // vsubps %ymm0,%ymm1,%ymm4
- .byte 196,193,84,92,192 // vsubps %ymm8,%ymm5,%ymm0
- .byte 196,194,93,168,192 // vfmadd213ps %ymm8,%ymm4,%ymm0
- .byte 196,193,68,92,201 // vsubps %ymm9,%ymm7,%ymm1
- .byte 196,194,93,168,201 // vfmadd213ps %ymm9,%ymm4,%ymm1
- .byte 197,228,92,214 // vsubps %ymm6,%ymm3,%ymm2
- .byte 196,226,93,168,214 // vfmadd213ps %ymm6,%ymm4,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,11,69,3,0 // vbroadcastss 0x3450b(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 98,145,124,40,40,227 // vmovaps %ymm27,%ymm4
- .byte 197,252,16,108,36,128 // vmovups -0x80(%rsp),%ymm5
- .byte 197,252,16,116,36,160 // vmovups -0x60(%rsp),%ymm6
- .byte 197,252,16,124,36,224 // vmovups -0x20(%rsp),%ymm7
- .byte 72,129,196,88,5,0,0 // add $0x558,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gauss_a_to_rgba_skx
-.globl _sk_gauss_a_to_rgba_skx
-FUNCTION(_sk_gauss_a_to_rgba_skx)
-_sk_gauss_a_to_rgba_skx:
- .byte 196,226,125,24,5,85,70,3,0 // vbroadcastss 0x34655(%rip),%ymm0 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
- .byte 98,242,101,56,168,5,79,70,3,0 // vfmadd213ps 0x3464f(%rip){1to8},%ymm3,%ymm0 # 3c674 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
- .byte 98,242,101,56,168,5,73,70,3,0 // vfmadd213ps 0x34649(%rip){1to8},%ymm3,%ymm0 # 3c678 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
- .byte 98,242,101,56,168,5,67,70,3,0 // vfmadd213ps 0x34643(%rip){1to8},%ymm3,%ymm0 # 3c67c <_sk_srcover_bgra_8888_sse2_lowp+0x430>
- .byte 98,242,101,56,168,5,61,70,3,0 // vfmadd213ps 0x3463d(%rip){1to8},%ymm3,%ymm0 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilerp_clamp_8888_skx
-.globl _sk_bilerp_clamp_8888_skx
-FUNCTION(_sk_bilerp_clamp_8888_skx)
-_sk_bilerp_clamp_8888_skx:
- .byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
- .byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 197,252,17,108,36,136 // vmovups %ymm5,-0x78(%rsp)
- .byte 98,225,124,40,40,244 // vmovaps %ymm4,%ymm22
- .byte 98,97,124,40,40,249 // vmovaps %ymm1,%ymm31
- .byte 196,226,125,24,21,126,68,3,0 // vbroadcastss 0x3447e(%rip),%ymm2 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,252,88,218 // vaddps %ymm2,%ymm0,%ymm3
- .byte 196,227,125,8,227,1 // vroundps $0x1,%ymm3,%ymm4
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 98,241,4,32,88,210 // vaddps %ymm2,%ymm31,%ymm2
- .byte 196,227,125,8,234,1 // vroundps $0x1,%ymm2,%ymm5
- .byte 197,100,92,212 // vsubps %ymm4,%ymm3,%ymm10
- .byte 197,236,92,205 // vsubps %ymm5,%ymm2,%ymm1
- .byte 196,226,125,24,21,89,68,3,0 // vbroadcastss 0x34459(%rip),%ymm2 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,108,92,226 // vsubps %ymm10,%ymm2,%ymm12
- .byte 98,225,124,40,40,217 // vmovaps %ymm1,%ymm19
- .byte 98,225,108,40,92,233 // vsubps %ymm1,%ymm2,%ymm21
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,109,254,243 // vpaddd %ymm3,%ymm2,%ymm14
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 98,225,109,40,254,211 // vpaddd %ymm3,%ymm2,%ymm18
- .byte 76,139,0 // mov (%rax),%r8
- .byte 98,226,125,40,88,64,2 // vpbroadcastd 0x8(%rax),%ymm16
- .byte 98,225,126,8,16,13,110,69,3,0 // vmovss 0x3456e(%rip),%xmm17 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
- .byte 197,192,87,255 // vxorps %xmm7,%xmm7,%xmm7
- .byte 184,17,17,17,17 // mov $0x11111111,%eax
- .byte 98,226,125,40,24,37,122,68,3,0 // vbroadcastss 0x3447a(%rip),%ymm20 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,250,16,53,250,67,3,0 // vmovss 0x343fa(%rip),%xmm6 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,250,16,45,238,67,3,0 // vmovss 0x343ee(%rip),%xmm5 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 98,33,124,8,40,201 // vmovaps %xmm17,%xmm25
- .byte 98,146,125,40,24,225 // vbroadcastss %xmm25,%ymm4
- .byte 98,145,92,40,88,231 // vaddps %ymm31,%ymm4,%ymm4
- .byte 197,148,95,228 // vmaxps %ymm4,%ymm13,%ymm4
- .byte 98,97,124,8,46,207 // vucomiss %xmm7,%xmm25
- .byte 98,177,124,40,40,203 // vmovaps %ymm19,%ymm1
- .byte 98,225,124,40,40,249 // vmovaps %ymm1,%ymm23
- .byte 119,12 // ja 8152 <_sk_bilerp_clamp_8888_skx+0xff>
- .byte 98,177,124,40,40,205 // vmovaps %ymm21,%ymm1
- .byte 98,225,124,40,40,249 // vmovaps %ymm1,%ymm23
- .byte 98,177,92,40,93,226 // vminps %ymm18,%ymm4,%ymm4
- .byte 197,254,91,228 // vcvttps2dq %ymm4,%ymm4
- .byte 98,98,125,32,64,196 // vpmulld %ymm4,%ymm16,%ymm24
- .byte 98,177,124,8,40,225 // vmovaps %xmm17,%xmm4
- .byte 98,98,125,40,24,212 // vbroadcastss %xmm4,%ymm26
- .byte 98,97,44,32,88,208 // vaddps %ymm0,%ymm26,%ymm26
- .byte 98,1,20,40,95,210 // vmaxps %ymm26,%ymm13,%ymm26
- .byte 98,65,44,32,93,214 // vminps %ymm14,%ymm26,%ymm26
- .byte 98,1,126,40,91,210 // vcvttps2dq %ymm26,%ymm26
- .byte 98,17,61,32,254,218 // vpaddd %ymm26,%ymm24,%ymm11
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,65,5,239,255 // vpxor %ymm15,%ymm15,%ymm15
- .byte 196,2,117,144,60,152 // vpgatherdd %ymm1,(%r8,%ymm11,4),%ymm15
- .byte 197,251,146,200 // kmovd %eax,%k1
- .byte 98,209,127,169,111,207 // vmovdqu8 %ymm15,%ymm1{%k1}{z}
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,33,116,40,89,212 // vmulps %ymm20,%ymm1,%ymm26
- .byte 196,193,117,114,215,8 // vpsrld $0x8,%ymm15,%ymm1
- .byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,33,116,40,89,220 // vmulps %ymm20,%ymm1,%ymm27
- .byte 196,193,117,114,215,16 // vpsrld $0x10,%ymm15,%ymm1
- .byte 98,241,127,169,111,201 // vmovdqu8 %ymm1,%ymm1{%k1}{z}
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,33,116,40,89,228 // vmulps %ymm20,%ymm1,%ymm28
- .byte 196,193,117,114,215,24 // vpsrld $0x18,%ymm15,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 98,33,116,40,89,236 // vmulps %ymm20,%ymm1,%ymm29
- .byte 197,248,46,231 // vucomiss %xmm7,%xmm4
- .byte 98,65,124,40,40,242 // vmovaps %ymm10,%ymm30
- .byte 119,6 // ja 81fd <_sk_bilerp_clamp_8888_skx+0x1aa>
- .byte 98,65,124,40,40,244 // vmovaps %ymm12,%ymm30
- .byte 98,145,68,32,89,206 // vmulps %ymm30,%ymm23,%ymm1
- .byte 98,18,117,40,184,202 // vfmadd231ps %ymm26,%ymm1,%ymm9
- .byte 98,18,117,40,184,195 // vfmadd231ps %ymm27,%ymm1,%ymm8
- .byte 98,146,117,40,184,212 // vfmadd231ps %ymm28,%ymm1,%ymm2
- .byte 98,146,117,40,184,221 // vfmadd231ps %ymm29,%ymm1,%ymm3
- .byte 197,218,88,230 // vaddss %xmm6,%xmm4,%xmm4
- .byte 197,248,46,236 // vucomiss %xmm4,%xmm5
- .byte 15,131,63,255,255,255 // jae 8168 <_sk_bilerp_clamp_8888_skx+0x115>
- .byte 98,97,54,0,88,206 // vaddss %xmm6,%xmm25,%xmm25
- .byte 98,145,124,8,46,233 // vucomiss %xmm25,%xmm5
- .byte 15,131,231,254,255,255 // jae 8122 <_sk_bilerp_clamp_8888_skx+0xcf>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,200 // vmovaps %ymm9,%ymm0
- .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
- .byte 98,177,124,40,40,230 // vmovaps %ymm22,%ymm4
- .byte 197,252,16,108,36,136 // vmovups -0x78(%rsp),%ymm5
- .byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
- .byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
-
-HIDDEN _sk_start_pipeline_hsw
-.globl _sk_start_pipeline_hsw
-FUNCTION(_sk_start_pipeline_hsw)
-_sk_start_pipeline_hsw:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 73,137,215 // mov %rdx,%r15
- .byte 72,137,243 // mov %rsi,%rbx
- .byte 72,137,125,208 // mov %rdi,-0x30(%rbp)
- .byte 76,137,198 // mov %r8,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 73,137,197 // mov %rax,%r13
- .byte 73,137,246 // mov %rsi,%r14
- .byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
- .byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 832a <_sk_start_pipeline_hsw+0xca>
- .byte 72,139,69,208 // mov -0x30(%rbp),%rax
- .byte 72,141,64,8 // lea 0x8(%rax),%rax
- .byte 72,137,69,200 // mov %rax,-0x38(%rbp)
- .byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 82ec <_sk_start_pipeline_hsw+0x8c>
- .byte 76,139,101,208 // mov -0x30(%rbp),%r12
- .byte 49,255 // xor %edi,%edi
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 76,137,226 // mov %r12,%rdx
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 73,141,84,36,8 // lea 0x8(%r12),%rdx
- .byte 73,131,196,16 // add $0x10,%r12
- .byte 77,57,252 // cmp %r15,%r12
- .byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 82ad <_sk_start_pipeline_hsw+0x4d>
- .byte 76,137,255 // mov %r15,%rdi
- .byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 831d <_sk_start_pipeline_hsw+0xbd>
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 72,255,195 // inc %rbx
- .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 829f <_sk_start_pipeline_hsw+0x3f>
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 197,248,119 // vzeroupper
- .byte 195 // retq
-
-HIDDEN _sk_just_return_hsw
-.globl _sk_just_return_hsw
-FUNCTION(_sk_just_return_hsw)
-_sk_just_return_hsw:
- .byte 195 // retq
-
-HIDDEN _sk_seed_shader_hsw
-.globl _sk_seed_shader_hsw
-FUNCTION(_sk_seed_shader_hsw)
-_sk_seed_shader_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,249,110,194 // vmovd %edx,%xmm0
- .byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 197,249,110,201 // vmovd %ecx,%xmm1
- .byte 196,226,125,88,201 // vpbroadcastd %xmm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,146,65,3,0 // vbroadcastss 0x34192(%rip),%ymm2 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,135,65,3,0 // vbroadcastss 0x34187(%rip),%ymm2 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dither_hsw
-.globl _sk_dither_hsw
-FUNCTION(_sk_dither_hsw)
-_sk_dither_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,121,110,194 // vmovd %edx,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 197,61,254,5,66,67,3,0 // vpaddd 0x34342(%rip),%ymm8,%ymm8 # 3c6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x494>
- .byte 197,121,110,201 // vmovd %ecx,%xmm9
- .byte 196,66,125,88,201 // vpbroadcastd %xmm9,%ymm9
- .byte 196,65,53,239,200 // vpxor %ymm8,%ymm9,%ymm9
- .byte 196,98,125,88,21,75,65,3,0 // vpbroadcastd 0x3414b(%rip),%ymm10 # 3c500 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
- .byte 196,65,53,219,218 // vpand %ymm10,%ymm9,%ymm11
- .byte 196,193,37,114,243,5 // vpslld $0x5,%ymm11,%ymm11
- .byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
- .byte 196,193,45,114,242,4 // vpslld $0x4,%ymm10,%ymm10
- .byte 196,98,125,88,37,48,65,3,0 // vpbroadcastd 0x34130(%rip),%ymm12 # 3c504 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- .byte 196,98,125,88,45,43,65,3,0 // vpbroadcastd 0x3412b(%rip),%ymm13 # 3c508 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- .byte 196,65,53,219,245 // vpand %ymm13,%ymm9,%ymm14
- .byte 196,193,13,114,246,2 // vpslld $0x2,%ymm14,%ymm14
- .byte 196,65,37,235,222 // vpor %ymm14,%ymm11,%ymm11
- .byte 196,65,61,219,237 // vpand %ymm13,%ymm8,%ymm13
- .byte 196,65,21,254,237 // vpaddd %ymm13,%ymm13,%ymm13
- .byte 196,65,21,235,210 // vpor %ymm10,%ymm13,%ymm10
- .byte 196,65,53,219,204 // vpand %ymm12,%ymm9,%ymm9
- .byte 196,193,53,114,209,1 // vpsrld $0x1,%ymm9,%ymm9
- .byte 196,65,61,219,196 // vpand %ymm12,%ymm8,%ymm8
- .byte 196,193,61,114,208,2 // vpsrld $0x2,%ymm8,%ymm8
- .byte 196,65,45,235,192 // vpor %ymm8,%ymm10,%ymm8
- .byte 196,65,61,235,195 // vpor %ymm11,%ymm8,%ymm8
- .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,221,64,3,0 // vbroadcastss 0x340dd(%rip),%ymm9 # 3c50c <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- .byte 196,98,125,24,21,216,64,3,0 // vbroadcastss 0x340d8(%rip),%ymm10 # 3c510 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
- .byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 196,65,44,89,192 // vmulps %ymm8,%ymm10,%ymm8
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1
- .byte 197,188,88,210 // vaddps %ymm2,%ymm8,%ymm2
- .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
- .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_uniform_color_hsw
-.globl _sk_uniform_color_hsw
-FUNCTION(_sk_uniform_color_hsw)
-_sk_uniform_color_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
- .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1
- .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2
- .byte 196,226,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_black_color_hsw
-.globl _sk_black_color_hsw
-FUNCTION(_sk_black_color_hsw)
-_sk_black_color_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,96,64,3,0 // vbroadcastss 0x34060(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_white_color_hsw
-.globl _sk_white_color_hsw
-FUNCTION(_sk_white_color_hsw)
-_sk_white_color_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,71,64,3,0 // vbroadcastss 0x34047(%rip),%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_rgba_hsw
-.globl _sk_load_rgba_hsw
-FUNCTION(_sk_load_rgba_hsw)
-_sk_load_rgba_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
- .byte 197,252,16,80,64 // vmovups 0x40(%rax),%ymm2
- .byte 197,252,16,88,96 // vmovups 0x60(%rax),%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_rgba_hsw
-.globl _sk_store_rgba_hsw
-FUNCTION(_sk_store_rgba_hsw)
-_sk_store_rgba_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,17,0 // vmovups %ymm0,(%rax)
- .byte 197,252,17,72,32 // vmovups %ymm1,0x20(%rax)
- .byte 197,252,17,80,64 // vmovups %ymm2,0x40(%rax)
- .byte 197,252,17,88,96 // vmovups %ymm3,0x60(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clear_hsw
-.globl _sk_clear_hsw
-FUNCTION(_sk_clear_hsw)
-_sk_clear_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcatop_hsw
-.globl _sk_srcatop_hsw
-FUNCTION(_sk_srcatop_hsw)
-_sk_srcatop_hsw:
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,230,63,3,0 // vbroadcastss 0x33fe6(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 196,226,61,184,205 // vfmadd231ps %ymm5,%ymm8,%ymm1
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 196,226,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm2
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 196,194,69,168,216 // vfmadd213ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstatop_hsw
-.globl _sk_dstatop_hsw
-FUNCTION(_sk_dstatop_hsw)
-_sk_dstatop_hsw:
- .byte 196,98,125,24,5,181,63,3,0 // vbroadcastss 0x33fb5(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,101,184,205 // vfmadd231ps %ymm5,%ymm3,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 196,226,101,184,214 // vfmadd231ps %ymm6,%ymm3,%ymm2
- .byte 197,60,89,195 // vmulps %ymm3,%ymm8,%ymm8
- .byte 196,194,69,168,216 // vfmadd213ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcin_hsw
-.globl _sk_srcin_hsw
-FUNCTION(_sk_srcin_hsw)
-_sk_srcin_hsw:
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstin_hsw
-.globl _sk_dstin_hsw
-FUNCTION(_sk_dstin_hsw)
-_sk_dstin_hsw:
- .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
- .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
- .byte 197,228,89,214 // vmulps %ymm6,%ymm3,%ymm2
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcout_hsw
-.globl _sk_srcout_hsw
-FUNCTION(_sk_srcout_hsw)
-_sk_srcout_hsw:
- .byte 196,98,125,24,5,88,63,3,0 // vbroadcastss 0x33f58(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstout_hsw
-.globl _sk_dstout_hsw
-FUNCTION(_sk_dstout_hsw)
-_sk_dstout_hsw:
- .byte 196,226,125,24,5,55,63,3,0 // vbroadcastss 0x33f37(%rip),%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
- .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
- .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
- .byte 197,228,89,214 // vmulps %ymm6,%ymm3,%ymm2
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_hsw
-.globl _sk_srcover_hsw
-FUNCTION(_sk_srcover_hsw)
-_sk_srcover_hsw:
- .byte 196,98,125,24,5,22,63,3,0 // vbroadcastss 0x33f16(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,194,93,184,192 // vfmadd231ps %ymm8,%ymm4,%ymm0
- .byte 196,194,85,184,200 // vfmadd231ps %ymm8,%ymm5,%ymm1
- .byte 196,194,77,184,208 // vfmadd231ps %ymm8,%ymm6,%ymm2
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstover_hsw
-.globl _sk_dstover_hsw
-FUNCTION(_sk_dstover_hsw)
-_sk_dstover_hsw:
- .byte 196,98,125,24,5,241,62,3,0 // vbroadcastss 0x33ef1(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
- .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
- .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
- .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2
- .byte 196,226,61,168,223 // vfmadd213ps %ymm7,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_modulate_hsw
-.globl _sk_modulate_hsw
-FUNCTION(_sk_modulate_hsw)
-_sk_modulate_hsw:
- .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
- .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1
- .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_multiply_hsw
-.globl _sk_multiply_hsw
-FUNCTION(_sk_multiply_hsw)
-_sk_multiply_hsw:
- .byte 196,98,125,24,5,184,62,3,0 // vbroadcastss 0x33eb8(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
- .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,61,184,212 // vfmadd231ps %ymm4,%ymm8,%ymm10
- .byte 196,194,93,168,194 // vfmadd213ps %ymm10,%ymm4,%ymm0
- .byte 197,52,89,209 // vmulps %ymm1,%ymm9,%ymm10
- .byte 196,98,61,184,213 // vfmadd231ps %ymm5,%ymm8,%ymm10
- .byte 196,194,85,168,202 // vfmadd213ps %ymm10,%ymm5,%ymm1
- .byte 197,52,89,210 // vmulps %ymm2,%ymm9,%ymm10
- .byte 196,98,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm10
- .byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
- .byte 197,52,89,203 // vmulps %ymm3,%ymm9,%ymm9
- .byte 196,66,69,168,193 // vfmadd213ps %ymm9,%ymm7,%ymm8
- .byte 196,194,69,168,216 // vfmadd213ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_plus__hsw
-.globl _sk_plus__hsw
-FUNCTION(_sk_plus__hsw)
-_sk_plus__hsw:
- .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,103,62,3,0 // vbroadcastss 0x33e67(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2
- .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_screen_hsw
-.globl _sk_screen_hsw
-FUNCTION(_sk_screen_hsw)
-_sk_screen_hsw:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 196,194,93,172,192 // vfnmadd213ps %ymm8,%ymm4,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 196,194,85,172,200 // vfnmadd213ps %ymm8,%ymm5,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 196,194,77,172,208 // vfnmadd213ps %ymm8,%ymm6,%ymm2
- .byte 197,100,88,199 // vaddps %ymm7,%ymm3,%ymm8
- .byte 196,194,69,172,216 // vfnmadd213ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xor__hsw
-.globl _sk_xor__hsw
-FUNCTION(_sk_xor__hsw)
-_sk_xor__hsw:
- .byte 196,98,125,24,5,18,62,3,0 // vbroadcastss 0x33e12(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
- .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
- .byte 196,226,61,184,205 // vfmadd231ps %ymm5,%ymm8,%ymm1
- .byte 197,180,89,210 // vmulps %ymm2,%ymm9,%ymm2
- .byte 196,226,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm2
- .byte 197,180,89,219 // vmulps %ymm3,%ymm9,%ymm3
- .byte 196,98,69,168,195 // vfmadd213ps %ymm3,%ymm7,%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,195 // vmovaps %ymm8,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_darken_hsw
-.globl _sk_darken_hsw
-FUNCTION(_sk_darken_hsw)
-_sk_darken_hsw:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
- .byte 196,193,124,95,193 // vmaxps %ymm9,%ymm0,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,193,116,95,201 // vmaxps %ymm9,%ymm1,%ymm1
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
- .byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,150,61,3,0 // vbroadcastss 0x33d96(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lighten_hsw
-.globl _sk_lighten_hsw
-FUNCTION(_sk_lighten_hsw)
-_sk_lighten_hsw:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
- .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
- .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,65,61,3,0 // vbroadcastss 0x33d41(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_difference_hsw
-.globl _sk_difference_hsw
-FUNCTION(_sk_difference_hsw)
-_sk_difference_hsw:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
- .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0
- .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1
- .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
- .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
- .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,224,60,3,0 // vbroadcastss 0x33ce0(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_exclusion_hsw
-.globl _sk_exclusion_hsw
-FUNCTION(_sk_exclusion_hsw)
-_sk_exclusion_hsw:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
- .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1
- .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
- .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,154,60,3,0 // vbroadcastss 0x33c9a(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_colorburn_hsw
-.globl _sk_colorburn_hsw
-FUNCTION(_sk_colorburn_hsw)
-_sk_colorburn_hsw:
- .byte 196,98,125,24,5,132,60,3,0 // vbroadcastss 0x33c84(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
- .byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,65,124,194,226,0 // vcmpeqps %ymm10,%ymm0,%ymm12
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,68,92,236 // vsubps %ymm4,%ymm7,%ymm13
- .byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13
- .byte 197,252,83,192 // vrcpps %ymm0,%ymm0
- .byte 197,148,89,192 // vmulps %ymm0,%ymm13,%ymm0
- .byte 197,60,89,236 // vmulps %ymm4,%ymm8,%ymm13
- .byte 197,196,93,192 // vminps %ymm0,%ymm7,%ymm0
- .byte 197,196,92,192 // vsubps %ymm0,%ymm7,%ymm0
- .byte 196,194,101,168,195 // vfmadd213ps %ymm11,%ymm3,%ymm0
- .byte 197,148,88,192 // vaddps %ymm0,%ymm13,%ymm0
- .byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- .byte 197,92,194,231,0 // vcmpeqps %ymm7,%ymm4,%ymm12
- .byte 197,36,88,220 // vaddps %ymm4,%ymm11,%ymm11
- .byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0
- .byte 197,52,89,217 // vmulps %ymm1,%ymm9,%ymm11
- .byte 196,65,116,194,226,0 // vcmpeqps %ymm10,%ymm1,%ymm12
- .byte 197,68,92,237 // vsubps %ymm5,%ymm7,%ymm13
- .byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13
- .byte 197,252,83,201 // vrcpps %ymm1,%ymm1
- .byte 197,148,89,201 // vmulps %ymm1,%ymm13,%ymm1
- .byte 197,60,89,237 // vmulps %ymm5,%ymm8,%ymm13
- .byte 197,196,93,201 // vminps %ymm1,%ymm7,%ymm1
- .byte 197,196,92,201 // vsubps %ymm1,%ymm7,%ymm1
- .byte 196,194,101,168,203 // vfmadd213ps %ymm11,%ymm3,%ymm1
- .byte 197,148,88,201 // vaddps %ymm1,%ymm13,%ymm1
- .byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- .byte 197,84,194,231,0 // vcmpeqps %ymm7,%ymm5,%ymm12
- .byte 197,36,88,221 // vaddps %ymm5,%ymm11,%ymm11
- .byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
- .byte 197,52,89,202 // vmulps %ymm2,%ymm9,%ymm9
- .byte 196,65,108,194,210,0 // vcmpeqps %ymm10,%ymm2,%ymm10
- .byte 197,68,92,222 // vsubps %ymm6,%ymm7,%ymm11
- .byte 197,36,89,219 // vmulps %ymm3,%ymm11,%ymm11
- .byte 197,252,83,210 // vrcpps %ymm2,%ymm2
- .byte 197,164,89,210 // vmulps %ymm2,%ymm11,%ymm2
- .byte 197,60,89,222 // vmulps %ymm6,%ymm8,%ymm11
- .byte 197,196,93,210 // vminps %ymm2,%ymm7,%ymm2
- .byte 197,196,92,210 // vsubps %ymm2,%ymm7,%ymm2
- .byte 196,194,101,168,209 // vfmadd213ps %ymm9,%ymm3,%ymm2
- .byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 196,195,109,74,211,160 // vblendvps %ymm10,%ymm11,%ymm2,%ymm2
- .byte 197,76,194,215,0 // vcmpeqps %ymm7,%ymm6,%ymm10
- .byte 197,52,88,206 // vaddps %ymm6,%ymm9,%ymm9
- .byte 196,195,109,74,209,160 // vblendvps %ymm10,%ymm9,%ymm2,%ymm2
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_colordodge_hsw
-.globl _sk_colordodge_hsw
-FUNCTION(_sk_colordodge_hsw)
-_sk_colordodge_hsw:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,148,59,3,0 // vbroadcastss 0x33b94(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
- .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
- .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 197,100,89,228 // vmulps %ymm4,%ymm3,%ymm12
- .byte 197,100,92,232 // vsubps %ymm0,%ymm3,%ymm13
- .byte 196,65,124,83,237 // vrcpps %ymm13,%ymm13
- .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 197,52,89,236 // vmulps %ymm4,%ymm9,%ymm13
- .byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12
- .byte 196,66,101,168,227 // vfmadd213ps %ymm11,%ymm3,%ymm12
- .byte 196,65,20,88,228 // vaddps %ymm12,%ymm13,%ymm12
- .byte 197,20,88,232 // vaddps %ymm0,%ymm13,%ymm13
- .byte 197,252,194,195,0 // vcmpeqps %ymm3,%ymm0,%ymm0
- .byte 196,195,29,74,197,0 // vblendvps %ymm0,%ymm13,%ymm12,%ymm0
- .byte 196,65,92,194,224,0 // vcmpeqps %ymm8,%ymm4,%ymm12
- .byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0
- .byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11
- .byte 197,100,89,229 // vmulps %ymm5,%ymm3,%ymm12
- .byte 197,100,92,233 // vsubps %ymm1,%ymm3,%ymm13
- .byte 196,65,124,83,237 // vrcpps %ymm13,%ymm13
- .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 197,52,89,237 // vmulps %ymm5,%ymm9,%ymm13
- .byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12
- .byte 196,66,101,168,227 // vfmadd213ps %ymm11,%ymm3,%ymm12
- .byte 196,65,20,88,228 // vaddps %ymm12,%ymm13,%ymm12
- .byte 197,20,88,233 // vaddps %ymm1,%ymm13,%ymm13
- .byte 197,244,194,203,0 // vcmpeqps %ymm3,%ymm1,%ymm1
- .byte 196,195,29,74,205,16 // vblendvps %ymm1,%ymm13,%ymm12,%ymm1
- .byte 196,65,84,194,224,0 // vcmpeqps %ymm8,%ymm5,%ymm12
- .byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
- .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
- .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 197,100,92,226 // vsubps %ymm2,%ymm3,%ymm12
- .byte 196,65,124,83,228 // vrcpps %ymm12,%ymm12
- .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 197,52,89,230 // vmulps %ymm6,%ymm9,%ymm12
- .byte 196,65,68,93,219 // vminps %ymm11,%ymm7,%ymm11
- .byte 196,66,101,168,218 // vfmadd213ps %ymm10,%ymm3,%ymm11
- .byte 196,65,28,88,219 // vaddps %ymm11,%ymm12,%ymm11
- .byte 197,28,88,226 // vaddps %ymm2,%ymm12,%ymm12
- .byte 197,236,194,211,0 // vcmpeqps %ymm3,%ymm2,%ymm2
- .byte 196,195,37,74,212,32 // vblendvps %ymm2,%ymm12,%ymm11,%ymm2
- .byte 196,65,76,194,192,0 // vcmpeqps %ymm8,%ymm6,%ymm8
- .byte 196,195,109,74,210,128 // vblendvps %ymm8,%ymm10,%ymm2,%ymm2
- .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hardlight_hsw
-.globl _sk_hardlight_hsw
-FUNCTION(_sk_hardlight_hsw)
-_sk_hardlight_hsw:
- .byte 196,98,125,24,5,174,58,3,0 // vbroadcastss 0x33aae(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
- .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,61,184,220 // vfmadd231ps %ymm4,%ymm8,%ymm11
- .byte 197,124,88,200 // vaddps %ymm0,%ymm0,%ymm9
- .byte 197,52,194,227,2 // vcmpleps %ymm3,%ymm9,%ymm12
- .byte 197,124,89,204 // vmulps %ymm4,%ymm0,%ymm9
- .byte 196,65,52,88,233 // vaddps %ymm9,%ymm9,%ymm13
- .byte 197,100,89,207 // vmulps %ymm7,%ymm3,%ymm9
- .byte 197,68,92,244 // vsubps %ymm4,%ymm7,%ymm14
- .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0
- .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
- .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
- .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
- .byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11
- .byte 196,98,61,184,221 // vfmadd231ps %ymm5,%ymm8,%ymm11
- .byte 197,116,88,225 // vaddps %ymm1,%ymm1,%ymm12
- .byte 197,28,194,227,2 // vcmpleps %ymm3,%ymm12,%ymm12
- .byte 197,116,89,237 // vmulps %ymm5,%ymm1,%ymm13
- .byte 196,65,20,88,237 // vaddps %ymm13,%ymm13,%ymm13
- .byte 197,68,92,245 // vsubps %ymm5,%ymm7,%ymm14
- .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1
- .byte 196,193,116,89,206 // vmulps %ymm14,%ymm1,%ymm1
- .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
- .byte 197,180,92,201 // vsubps %ymm1,%ymm9,%ymm1
- .byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
- .byte 196,98,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm10
- .byte 197,108,88,218 // vaddps %ymm2,%ymm2,%ymm11
- .byte 197,36,194,219,2 // vcmpleps %ymm3,%ymm11,%ymm11
- .byte 197,108,89,230 // vmulps %ymm6,%ymm2,%ymm12
- .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
- .byte 197,68,92,238 // vsubps %ymm6,%ymm7,%ymm13
- .byte 197,228,92,210 // vsubps %ymm2,%ymm3,%ymm2
- .byte 196,193,108,89,213 // vmulps %ymm13,%ymm2,%ymm2
- .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
- .byte 197,180,92,210 // vsubps %ymm2,%ymm9,%ymm2
- .byte 196,195,109,74,212,176 // vblendvps %ymm11,%ymm12,%ymm2,%ymm2
- .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_overlay_hsw
-.globl _sk_overlay_hsw
-FUNCTION(_sk_overlay_hsw)
-_sk_overlay_hsw:
- .byte 196,98,125,24,5,226,57,3,0 // vbroadcastss 0x339e2(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
- .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,98,61,184,220 // vfmadd231ps %ymm4,%ymm8,%ymm11
- .byte 197,92,88,204 // vaddps %ymm4,%ymm4,%ymm9
- .byte 197,52,194,231,2 // vcmpleps %ymm7,%ymm9,%ymm12
- .byte 197,124,89,204 // vmulps %ymm4,%ymm0,%ymm9
- .byte 196,65,52,88,233 // vaddps %ymm9,%ymm9,%ymm13
- .byte 197,100,89,207 // vmulps %ymm7,%ymm3,%ymm9
- .byte 197,68,92,244 // vsubps %ymm4,%ymm7,%ymm14
- .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0
- .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
- .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
- .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
- .byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11
- .byte 196,98,61,184,221 // vfmadd231ps %ymm5,%ymm8,%ymm11
- .byte 197,84,88,229 // vaddps %ymm5,%ymm5,%ymm12
- .byte 197,28,194,231,2 // vcmpleps %ymm7,%ymm12,%ymm12
- .byte 197,116,89,237 // vmulps %ymm5,%ymm1,%ymm13
- .byte 196,65,20,88,237 // vaddps %ymm13,%ymm13,%ymm13
- .byte 197,68,92,245 // vsubps %ymm5,%ymm7,%ymm14
- .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1
- .byte 196,193,116,89,206 // vmulps %ymm14,%ymm1,%ymm1
- .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
- .byte 197,180,92,201 // vsubps %ymm1,%ymm9,%ymm1
- .byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
- .byte 196,98,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm10
- .byte 197,76,88,222 // vaddps %ymm6,%ymm6,%ymm11
- .byte 197,36,194,223,2 // vcmpleps %ymm7,%ymm11,%ymm11
- .byte 197,108,89,230 // vmulps %ymm6,%ymm2,%ymm12
- .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
- .byte 197,68,92,238 // vsubps %ymm6,%ymm7,%ymm13
- .byte 197,228,92,210 // vsubps %ymm2,%ymm3,%ymm2
- .byte 196,193,108,89,213 // vmulps %ymm13,%ymm2,%ymm2
- .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
- .byte 197,180,92,210 // vsubps %ymm2,%ymm9,%ymm2
- .byte 196,195,109,74,212,176 // vblendvps %ymm11,%ymm12,%ymm2,%ymm2
- .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_softlight_hsw
-.globl _sk_softlight_hsw
-FUNCTION(_sk_softlight_hsw)
-_sk_softlight_hsw:
- .byte 197,252,17,84,36,200 // vmovups %ymm2,-0x38(%rsp)
- .byte 197,252,40,209 // vmovaps %ymm1,%ymm2
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,52,194,215,1 // vcmpltps %ymm7,%ymm9,%ymm10
- .byte 197,92,94,199 // vdivps %ymm7,%ymm4,%ymm8
- .byte 196,67,53,74,232,160 // vblendvps %ymm10,%ymm8,%ymm9,%ymm13
- .byte 196,65,20,88,197 // vaddps %ymm13,%ymm13,%ymm8
- .byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
- .byte 196,66,61,168,192 // vfmadd213ps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,29,253,56,3,0 // vbroadcastss 0x338fd(%rip),%ymm11 # 3c514 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
- .byte 196,65,20,88,227 // vaddps %ymm11,%ymm13,%ymm12
- .byte 196,65,28,89,192 // vmulps %ymm8,%ymm12,%ymm8
- .byte 196,98,125,24,37,238,56,3,0 // vbroadcastss 0x338ee(%rip),%ymm12 # 3c518 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
- .byte 196,66,21,184,196 // vfmadd231ps %ymm12,%ymm13,%ymm8
- .byte 196,65,124,82,245 // vrsqrtps %ymm13,%ymm14
- .byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
- .byte 196,65,12,92,245 // vsubps %ymm13,%ymm14,%ymm14
- .byte 197,92,88,252 // vaddps %ymm4,%ymm4,%ymm15
- .byte 196,65,4,88,255 // vaddps %ymm15,%ymm15,%ymm15
- .byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
- .byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
- .byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,157,56,3,0 // vbroadcastss 0x3389d(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,60,92,237 // vsubps %ymm13,%ymm8,%ymm13
- .byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
- .byte 196,98,125,168,235 // vfmadd213ps %ymm3,%ymm0,%ymm13
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
- .byte 197,20,89,236 // vmulps %ymm4,%ymm13,%ymm13
- .byte 196,226,101,184,196 // vfmadd231ps %ymm4,%ymm3,%ymm0
- .byte 197,4,194,243,2 // vcmpleps %ymm3,%ymm15,%ymm14
- .byte 196,195,125,74,197,224 // vblendvps %ymm14,%ymm13,%ymm0,%ymm0
- .byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
- .byte 197,212,94,199 // vdivps %ymm7,%ymm5,%ymm0
- .byte 196,227,53,74,192,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm0
- .byte 197,124,88,240 // vaddps %ymm0,%ymm0,%ymm14
- .byte 196,65,12,88,246 // vaddps %ymm14,%ymm14,%ymm14
- .byte 196,66,13,168,246 // vfmadd213ps %ymm14,%ymm14,%ymm14
- .byte 196,65,124,88,251 // vaddps %ymm11,%ymm0,%ymm15
- .byte 196,65,4,89,246 // vmulps %ymm14,%ymm15,%ymm14
- .byte 196,66,125,184,244 // vfmadd231ps %ymm12,%ymm0,%ymm14
- .byte 197,124,82,248 // vrsqrtps %ymm0,%ymm15
- .byte 196,65,124,83,255 // vrcpps %ymm15,%ymm15
- .byte 197,4,92,248 // vsubps %ymm0,%ymm15,%ymm15
- .byte 197,84,88,237 // vaddps %ymm5,%ymm5,%ymm13
- .byte 196,65,20,88,237 // vaddps %ymm13,%ymm13,%ymm13
- .byte 197,20,194,239,2 // vcmpleps %ymm7,%ymm13,%ymm13
- .byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,108,88,242 // vaddps %ymm2,%ymm2,%ymm14
- .byte 197,12,92,251 // vsubps %ymm3,%ymm14,%ymm15
- .byte 196,226,5,168,195 // vfmadd213ps %ymm3,%ymm15,%ymm0
- .byte 197,4,89,255 // vmulps %ymm7,%ymm15,%ymm15
- .byte 196,65,4,89,237 // vmulps %ymm13,%ymm15,%ymm13
- .byte 197,252,89,197 // vmulps %ymm5,%ymm0,%ymm0
- .byte 196,98,101,184,237 // vfmadd231ps %ymm5,%ymm3,%ymm13
- .byte 197,12,194,243,2 // vcmpleps %ymm3,%ymm14,%ymm14
- .byte 196,99,21,74,240,224 // vblendvps %ymm14,%ymm0,%ymm13,%ymm14
- .byte 197,204,94,199 // vdivps %ymm7,%ymm6,%ymm0
- .byte 196,227,53,74,192,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm0
- .byte 197,124,88,200 // vaddps %ymm0,%ymm0,%ymm9
- .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
- .byte 196,66,53,168,201 // vfmadd213ps %ymm9,%ymm9,%ymm9
- .byte 196,65,124,88,211 // vaddps %ymm11,%ymm0,%ymm10
- .byte 196,65,44,89,201 // vmulps %ymm9,%ymm10,%ymm9
- .byte 196,66,125,184,204 // vfmadd231ps %ymm12,%ymm0,%ymm9
- .byte 197,124,82,208 // vrsqrtps %ymm0,%ymm10
- .byte 196,65,124,83,210 // vrcpps %ymm10,%ymm10
- .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
- .byte 197,76,88,222 // vaddps %ymm6,%ymm6,%ymm11
- .byte 196,65,36,88,219 // vaddps %ymm11,%ymm11,%ymm11
- .byte 197,36,194,223,2 // vcmpleps %ymm7,%ymm11,%ymm11
- .byte 196,67,45,74,201,176 // vblendvps %ymm11,%ymm9,%ymm10,%ymm9
- .byte 197,124,16,100,36,200 // vmovups -0x38(%rsp),%ymm12
- .byte 196,65,28,88,212 // vaddps %ymm12,%ymm12,%ymm10
- .byte 197,44,92,219 // vsubps %ymm3,%ymm10,%ymm11
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 196,226,37,168,195 // vfmadd213ps %ymm3,%ymm11,%ymm0
- .byte 197,36,89,223 // vmulps %ymm7,%ymm11,%ymm11
- .byte 196,65,36,89,201 // vmulps %ymm9,%ymm11,%ymm9
- .byte 197,252,89,198 // vmulps %ymm6,%ymm0,%ymm0
- .byte 196,98,101,184,206 // vfmadd231ps %ymm6,%ymm3,%ymm9
- .byte 197,44,194,211,2 // vcmpleps %ymm3,%ymm10,%ymm10
- .byte 196,99,53,74,200,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm9
- .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
- .byte 197,172,89,193 // vmulps %ymm1,%ymm10,%ymm0
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 196,226,61,184,196 // vfmadd231ps %ymm4,%ymm8,%ymm0
- .byte 197,252,88,68,36,168 // vaddps -0x58(%rsp),%ymm0,%ymm0
- .byte 197,172,89,202 // vmulps %ymm2,%ymm10,%ymm1
- .byte 196,226,61,184,205 // vfmadd231ps %ymm5,%ymm8,%ymm1
- .byte 196,193,116,88,206 // vaddps %ymm14,%ymm1,%ymm1
- .byte 196,193,44,89,212 // vmulps %ymm12,%ymm10,%ymm2
- .byte 196,226,61,184,214 // vfmadd231ps %ymm6,%ymm8,%ymm2
- .byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,194,69,184,216 // vfmadd231ps %ymm8,%ymm7,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hue_hsw
-.globl _sk_hue_hsw
-FUNCTION(_sk_hue_hsw)
-_sk_hue_hsw:
- .byte 197,124,40,194 // vmovaps %ymm2,%ymm8
- .byte 197,124,17,68,36,200 // vmovups %ymm8,-0x38(%rsp)
- .byte 197,252,17,76,36,168 // vmovups %ymm1,-0x58(%rsp)
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 197,108,89,203 // vmulps %ymm3,%ymm2,%ymm9
- .byte 197,116,89,211 // vmulps %ymm3,%ymm1,%ymm10
- .byte 197,60,89,219 // vmulps %ymm3,%ymm8,%ymm11
- .byte 197,84,95,198 // vmaxps %ymm6,%ymm5,%ymm8
- .byte 196,65,92,95,192 // vmaxps %ymm8,%ymm4,%ymm8
- .byte 197,84,93,230 // vminps %ymm6,%ymm5,%ymm12
- .byte 196,65,92,93,228 // vminps %ymm12,%ymm4,%ymm12
- .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8
- .byte 197,60,89,227 // vmulps %ymm3,%ymm8,%ymm12
- .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8
- .byte 196,65,52,93,232 // vminps %ymm8,%ymm9,%ymm13
- .byte 196,65,44,95,195 // vmaxps %ymm11,%ymm10,%ymm8
- .byte 196,65,52,95,192 // vmaxps %ymm8,%ymm9,%ymm8
- .byte 196,65,60,92,245 // vsubps %ymm13,%ymm8,%ymm14
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,12,194,248,0 // vcmpeqps %ymm8,%ymm14,%ymm15
- .byte 196,65,52,92,205 // vsubps %ymm13,%ymm9,%ymm9
- .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9
- .byte 196,65,52,94,206 // vdivps %ymm14,%ymm9,%ymm9
- .byte 196,67,53,74,200,240 // vblendvps %ymm15,%ymm8,%ymm9,%ymm9
- .byte 196,65,44,92,213 // vsubps %ymm13,%ymm10,%ymm10
- .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
- .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
- .byte 196,195,45,74,200,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm1
- .byte 196,65,36,92,213 // vsubps %ymm13,%ymm11,%ymm10
- .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
- .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
- .byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,181,54,3,0 // vbroadcastss 0x336b5(%rip),%ymm14 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,61,176,54,3,0 // vbroadcastss 0x336b0(%rip),%ymm15 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- .byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
- .byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,161,54,3,0 // vbroadcastss 0x336a1(%rip),%ymm0 # 3c524 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- .byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
- .byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
- .byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
- .byte 196,98,29,184,208 // vfmadd231ps %ymm0,%ymm12,%ymm10
- .byte 196,66,101,170,234 // vfmsub213ps %ymm10,%ymm3,%ymm13
- .byte 196,65,52,88,213 // vaddps %ymm13,%ymm9,%ymm10
- .byte 196,65,116,88,221 // vaddps %ymm13,%ymm1,%ymm11
- .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
- .byte 196,193,36,93,204 // vminps %ymm12,%ymm11,%ymm1
- .byte 197,44,93,233 // vminps %ymm1,%ymm10,%ymm13
- .byte 196,65,36,89,207 // vmulps %ymm15,%ymm11,%ymm9
- .byte 196,66,45,184,206 // vfmadd231ps %ymm14,%ymm10,%ymm9
- .byte 196,98,29,184,200 // vfmadd231ps %ymm0,%ymm12,%ymm9
- .byte 196,193,44,92,193 // vsubps %ymm9,%ymm10,%ymm0
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,193,52,92,205 // vsubps %ymm13,%ymm9,%ymm1
- .byte 197,252,94,193 // vdivps %ymm1,%ymm0,%ymm0
- .byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14
- .byte 196,65,52,89,246 // vmulps %ymm14,%ymm9,%ymm14
- .byte 197,12,94,241 // vdivps %ymm1,%ymm14,%ymm14
- .byte 196,65,28,92,249 // vsubps %ymm9,%ymm12,%ymm15
- .byte 196,65,52,89,255 // vmulps %ymm15,%ymm9,%ymm15
- .byte 197,132,94,201 // vdivps %ymm1,%ymm15,%ymm1
- .byte 196,65,60,194,237,2 // vcmpleps %ymm13,%ymm8,%ymm13
- .byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,67,13,74,243,208 // vblendvps %ymm13,%ymm11,%ymm14,%ymm14
- .byte 196,65,36,95,220 // vmaxps %ymm12,%ymm11,%ymm11
- .byte 197,180,88,201 // vaddps %ymm1,%ymm9,%ymm1
- .byte 196,195,117,74,204,208 // vblendvps %ymm13,%ymm12,%ymm1,%ymm1
- .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
- .byte 196,195,125,74,194,208 // vblendvps %ymm13,%ymm10,%ymm0,%ymm0
- .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12
- .byte 196,65,44,95,211 // vmaxps %ymm11,%ymm10,%ymm10
- .byte 196,65,124,92,217 // vsubps %ymm9,%ymm0,%ymm11
- .byte 196,65,28,92,233 // vsubps %ymm9,%ymm12,%ymm13
- .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
- .byte 196,65,28,194,250,1 // vcmpltps %ymm10,%ymm12,%ymm15
- .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
- .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
- .byte 196,65,52,88,219 // vaddps %ymm11,%ymm9,%ymm11
- .byte 196,195,125,74,195,240 // vblendvps %ymm15,%ymm11,%ymm0,%ymm0
- .byte 196,65,12,92,217 // vsubps %ymm9,%ymm14,%ymm11
- .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
- .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
- .byte 196,65,52,88,219 // vaddps %ymm11,%ymm9,%ymm11
- .byte 196,67,13,74,219,240 // vblendvps %ymm15,%ymm11,%ymm14,%ymm11
- .byte 196,65,116,92,241 // vsubps %ymm9,%ymm1,%ymm14
- .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 196,195,117,74,201,240 // vblendvps %ymm15,%ymm9,%ymm1,%ymm1
- .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
- .byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,98,53,3,0 // vbroadcastss 0x33562(%rip),%ymm1 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
- .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
- .byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
- .byte 196,226,37,184,212 // vfmadd231ps %ymm4,%ymm11,%ymm2
- .byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0
- .byte 197,172,89,76,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm1
- .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1
- .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
- .byte 197,172,89,84,36,200 // vmulps -0x38(%rsp),%ymm10,%ymm2
- .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11
- .byte 196,193,36,88,208 // vaddps %ymm8,%ymm11,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_saturation_hsw
-.globl _sk_saturation_hsw
-FUNCTION(_sk_saturation_hsw)
-_sk_saturation_hsw:
- .byte 197,124,40,194 // vmovaps %ymm2,%ymm8
- .byte 197,252,17,76,36,168 // vmovups %ymm1,-0x58(%rsp)
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
- .byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
- .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,252,17,68,36,200 // vmovups %ymm0,-0x38(%rsp)
- .byte 197,116,95,192 // vmaxps %ymm0,%ymm1,%ymm8
- .byte 196,65,108,95,192 // vmaxps %ymm8,%ymm2,%ymm8
- .byte 197,116,93,224 // vminps %ymm0,%ymm1,%ymm12
- .byte 196,65,108,93,228 // vminps %ymm12,%ymm2,%ymm12
- .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8
- .byte 197,60,89,231 // vmulps %ymm7,%ymm8,%ymm12
- .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8
- .byte 196,65,52,93,232 // vminps %ymm8,%ymm9,%ymm13
- .byte 196,65,44,95,195 // vmaxps %ymm11,%ymm10,%ymm8
- .byte 196,65,52,95,192 // vmaxps %ymm8,%ymm9,%ymm8
- .byte 196,65,60,92,245 // vsubps %ymm13,%ymm8,%ymm14
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,12,194,248,0 // vcmpeqps %ymm8,%ymm14,%ymm15
- .byte 196,65,52,92,205 // vsubps %ymm13,%ymm9,%ymm9
- .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9
- .byte 196,65,52,94,206 // vdivps %ymm14,%ymm9,%ymm9
- .byte 196,67,53,74,200,240 // vblendvps %ymm15,%ymm8,%ymm9,%ymm9
- .byte 196,65,44,92,213 // vsubps %ymm13,%ymm10,%ymm10
- .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
- .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
- .byte 196,195,45,74,200,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm1
- .byte 196,65,36,92,213 // vsubps %ymm13,%ymm11,%ymm10
- .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
- .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
- .byte 196,67,45,74,224,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- .byte 196,98,125,24,53,149,52,3,0 // vbroadcastss 0x33495(%rip),%ymm14 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,61,144,52,3,0 // vbroadcastss 0x33490(%rip),%ymm15 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- .byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
- .byte 196,66,93,184,238 // vfmadd231ps %ymm14,%ymm4,%ymm13
- .byte 196,226,125,24,5,129,52,3,0 // vbroadcastss 0x33481(%rip),%ymm0 # 3c524 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- .byte 196,98,77,184,232 // vfmadd231ps %ymm0,%ymm6,%ymm13
- .byte 196,65,116,89,215 // vmulps %ymm15,%ymm1,%ymm10
- .byte 196,66,53,184,214 // vfmadd231ps %ymm14,%ymm9,%ymm10
- .byte 196,98,29,184,208 // vfmadd231ps %ymm0,%ymm12,%ymm10
- .byte 196,66,101,170,234 // vfmsub213ps %ymm10,%ymm3,%ymm13
- .byte 196,65,52,88,213 // vaddps %ymm13,%ymm9,%ymm10
- .byte 196,65,116,88,221 // vaddps %ymm13,%ymm1,%ymm11
- .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
- .byte 196,193,36,93,204 // vminps %ymm12,%ymm11,%ymm1
- .byte 197,44,93,233 // vminps %ymm1,%ymm10,%ymm13
- .byte 196,65,36,89,207 // vmulps %ymm15,%ymm11,%ymm9
- .byte 196,66,45,184,206 // vfmadd231ps %ymm14,%ymm10,%ymm9
- .byte 196,98,29,184,200 // vfmadd231ps %ymm0,%ymm12,%ymm9
- .byte 196,193,44,92,193 // vsubps %ymm9,%ymm10,%ymm0
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,193,52,92,205 // vsubps %ymm13,%ymm9,%ymm1
- .byte 197,252,94,193 // vdivps %ymm1,%ymm0,%ymm0
- .byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14
- .byte 196,65,52,89,246 // vmulps %ymm14,%ymm9,%ymm14
- .byte 197,12,94,241 // vdivps %ymm1,%ymm14,%ymm14
- .byte 196,65,28,92,249 // vsubps %ymm9,%ymm12,%ymm15
- .byte 196,65,52,89,255 // vmulps %ymm15,%ymm9,%ymm15
- .byte 197,132,94,201 // vdivps %ymm1,%ymm15,%ymm1
- .byte 196,65,60,194,237,2 // vcmpleps %ymm13,%ymm8,%ymm13
- .byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,67,13,74,243,208 // vblendvps %ymm13,%ymm11,%ymm14,%ymm14
- .byte 196,65,36,95,220 // vmaxps %ymm12,%ymm11,%ymm11
- .byte 197,180,88,201 // vaddps %ymm1,%ymm9,%ymm1
- .byte 196,195,117,74,204,208 // vblendvps %ymm13,%ymm12,%ymm1,%ymm1
- .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
- .byte 196,195,125,74,194,208 // vblendvps %ymm13,%ymm10,%ymm0,%ymm0
- .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12
- .byte 196,65,44,95,211 // vmaxps %ymm11,%ymm10,%ymm10
- .byte 196,65,124,92,217 // vsubps %ymm9,%ymm0,%ymm11
- .byte 196,65,28,92,233 // vsubps %ymm9,%ymm12,%ymm13
- .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
- .byte 196,65,28,194,250,1 // vcmpltps %ymm10,%ymm12,%ymm15
- .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
- .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
- .byte 196,65,52,88,219 // vaddps %ymm11,%ymm9,%ymm11
- .byte 196,195,125,74,195,240 // vblendvps %ymm15,%ymm11,%ymm0,%ymm0
- .byte 196,65,12,92,217 // vsubps %ymm9,%ymm14,%ymm11
- .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
- .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
- .byte 196,65,52,88,219 // vaddps %ymm11,%ymm9,%ymm11
- .byte 196,67,13,74,219,240 // vblendvps %ymm15,%ymm11,%ymm14,%ymm11
- .byte 196,65,116,92,241 // vsubps %ymm9,%ymm1,%ymm14
- .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,65,20,94,210 // vdivps %ymm10,%ymm13,%ymm10
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 196,195,117,74,201,240 // vblendvps %ymm15,%ymm9,%ymm1,%ymm1
- .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,65,36,95,200 // vmaxps %ymm8,%ymm11,%ymm9
- .byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 196,226,125,24,13,66,51,3,0 // vbroadcastss 0x33342(%rip),%ymm1 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,116,92,215 // vsubps %ymm7,%ymm1,%ymm10
- .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
- .byte 197,116,92,219 // vsubps %ymm3,%ymm1,%ymm11
- .byte 196,226,37,184,212 // vfmadd231ps %ymm4,%ymm11,%ymm2
- .byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0
- .byte 197,172,89,76,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm1
- .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1
- .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
- .byte 197,172,89,84,36,200 // vmulps -0x38(%rsp),%ymm10,%ymm2
- .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11
- .byte 196,193,36,88,208 // vaddps %ymm8,%ymm11,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_color_hsw
-.globl _sk_color_hsw
-FUNCTION(_sk_color_hsw)
-_sk_color_hsw:
- .byte 197,124,40,202 // vmovaps %ymm2,%ymm9
- .byte 197,124,17,76,36,200 // vmovups %ymm9,-0x38(%rsp)
- .byte 197,252,17,76,36,168 // vmovups %ymm1,-0x58(%rsp)
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 197,108,89,199 // vmulps %ymm7,%ymm2,%ymm8
- .byte 197,116,89,215 // vmulps %ymm7,%ymm1,%ymm10
- .byte 197,52,89,223 // vmulps %ymm7,%ymm9,%ymm11
- .byte 196,98,125,24,45,247,50,3,0 // vbroadcastss 0x332f7(%rip),%ymm13 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,242,50,3,0 // vbroadcastss 0x332f2(%rip),%ymm14 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- .byte 196,65,84,89,230 // vmulps %ymm14,%ymm5,%ymm12
- .byte 196,66,93,184,229 // vfmadd231ps %ymm13,%ymm4,%ymm12
- .byte 196,98,125,24,61,227,50,3,0 // vbroadcastss 0x332e3(%rip),%ymm15 # 3c524 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- .byte 196,66,77,184,231 // vfmadd231ps %ymm15,%ymm6,%ymm12
- .byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
- .byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
- .byte 196,66,37,184,207 // vfmadd231ps %ymm15,%ymm11,%ymm9
- .byte 196,66,101,170,225 // vfmsub213ps %ymm9,%ymm3,%ymm12
- .byte 196,65,60,88,204 // vaddps %ymm12,%ymm8,%ymm9
- .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8
- .byte 196,65,52,93,224 // vminps %ymm8,%ymm9,%ymm12
- .byte 196,65,44,89,198 // vmulps %ymm14,%ymm10,%ymm8
- .byte 196,66,53,184,197 // vfmadd231ps %ymm13,%ymm9,%ymm8
- .byte 196,66,37,184,199 // vfmadd231ps %ymm15,%ymm11,%ymm8
- .byte 196,65,52,92,232 // vsubps %ymm8,%ymm9,%ymm13
- .byte 196,65,60,89,237 // vmulps %ymm13,%ymm8,%ymm13
- .byte 196,65,60,92,244 // vsubps %ymm12,%ymm8,%ymm14
- .byte 196,193,20,94,198 // vdivps %ymm14,%ymm13,%ymm0
- .byte 196,65,44,92,248 // vsubps %ymm8,%ymm10,%ymm15
- .byte 196,65,60,89,255 // vmulps %ymm15,%ymm8,%ymm15
- .byte 196,65,4,94,254 // vdivps %ymm14,%ymm15,%ymm15
- .byte 196,65,36,92,232 // vsubps %ymm8,%ymm11,%ymm13
- .byte 196,65,60,89,237 // vmulps %ymm13,%ymm8,%ymm13
- .byte 196,65,20,94,238 // vdivps %ymm14,%ymm13,%ymm13
- .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
- .byte 196,65,12,194,228,2 // vcmpleps %ymm12,%ymm14,%ymm12
- .byte 196,65,60,88,255 // vaddps %ymm15,%ymm8,%ymm15
- .byte 196,67,5,74,250,192 // vblendvps %ymm12,%ymm10,%ymm15,%ymm15
- .byte 196,65,44,95,211 // vmaxps %ymm11,%ymm10,%ymm10
- .byte 196,65,60,88,237 // vaddps %ymm13,%ymm8,%ymm13
- .byte 196,67,21,74,219,192 // vblendvps %ymm12,%ymm11,%ymm13,%ymm11
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 196,195,125,74,201,192 // vblendvps %ymm12,%ymm9,%ymm0,%ymm1
- .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12
- .byte 196,65,52,95,202 // vmaxps %ymm10,%ymm9,%ymm9
- .byte 196,65,116,92,208 // vsubps %ymm8,%ymm1,%ymm10
- .byte 196,65,28,92,232 // vsubps %ymm8,%ymm12,%ymm13
- .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10
- .byte 196,193,28,194,193,1 // vcmpltps %ymm9,%ymm12,%ymm0
- .byte 196,65,52,92,200 // vsubps %ymm8,%ymm9,%ymm9
- .byte 196,65,44,94,209 // vdivps %ymm9,%ymm10,%ymm10
- .byte 196,65,60,88,210 // vaddps %ymm10,%ymm8,%ymm10
- .byte 196,195,117,74,202,0 // vblendvps %ymm0,%ymm10,%ymm1,%ymm1
- .byte 196,65,4,92,208 // vsubps %ymm8,%ymm15,%ymm10
- .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10
- .byte 196,65,44,94,209 // vdivps %ymm9,%ymm10,%ymm10
- .byte 196,65,60,88,210 // vaddps %ymm10,%ymm8,%ymm10
- .byte 196,67,5,74,210,0 // vblendvps %ymm0,%ymm10,%ymm15,%ymm10
- .byte 196,65,36,92,248 // vsubps %ymm8,%ymm11,%ymm15
- .byte 196,65,20,89,239 // vmulps %ymm15,%ymm13,%ymm13
- .byte 196,65,20,94,201 // vdivps %ymm9,%ymm13,%ymm9
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
- .byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
- .byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
- .byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,153,49,3,0 // vbroadcastss 0x33199(%rip),%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
- .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
- .byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
- .byte 196,226,37,184,212 // vfmadd231ps %ymm4,%ymm11,%ymm2
- .byte 197,236,88,193 // vaddps %ymm1,%ymm2,%ymm0
- .byte 197,172,89,76,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm1
- .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1
- .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
- .byte 197,172,89,84,36,200 // vmulps -0x38(%rsp),%ymm10,%ymm2
- .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11
- .byte 196,193,36,88,209 // vaddps %ymm9,%ymm11,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_luminosity_hsw
-.globl _sk_luminosity_hsw
-FUNCTION(_sk_luminosity_hsw)
-_sk_luminosity_hsw:
- .byte 197,124,40,202 // vmovaps %ymm2,%ymm9
- .byte 197,124,17,76,36,168 // vmovups %ymm9,-0x58(%rsp)
- .byte 197,252,17,76,36,200 // vmovups %ymm1,-0x38(%rsp)
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
- .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,98,125,24,45,78,49,3,0 // vbroadcastss 0x3314e(%rip),%ymm13 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,98,125,24,53,73,49,3,0 // vbroadcastss 0x33149(%rip),%ymm14 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- .byte 196,65,116,89,230 // vmulps %ymm14,%ymm1,%ymm12
- .byte 196,66,109,184,229 // vfmadd231ps %ymm13,%ymm2,%ymm12
- .byte 196,98,125,24,61,58,49,3,0 // vbroadcastss 0x3313a(%rip),%ymm15 # 3c524 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- .byte 196,66,53,184,231 // vfmadd231ps %ymm15,%ymm9,%ymm12
- .byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
- .byte 196,66,61,184,205 // vfmadd231ps %ymm13,%ymm8,%ymm9
- .byte 196,66,37,184,207 // vfmadd231ps %ymm15,%ymm11,%ymm9
- .byte 196,66,69,170,225 // vfmsub213ps %ymm9,%ymm7,%ymm12
- .byte 196,65,60,88,204 // vaddps %ymm12,%ymm8,%ymm9
- .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8
- .byte 196,65,52,93,224 // vminps %ymm8,%ymm9,%ymm12
- .byte 196,65,44,89,198 // vmulps %ymm14,%ymm10,%ymm8
- .byte 196,66,53,184,197 // vfmadd231ps %ymm13,%ymm9,%ymm8
- .byte 196,66,37,184,199 // vfmadd231ps %ymm15,%ymm11,%ymm8
- .byte 196,65,52,92,232 // vsubps %ymm8,%ymm9,%ymm13
- .byte 196,65,60,89,237 // vmulps %ymm13,%ymm8,%ymm13
- .byte 196,65,60,92,244 // vsubps %ymm12,%ymm8,%ymm14
- .byte 196,193,20,94,198 // vdivps %ymm14,%ymm13,%ymm0
- .byte 196,65,44,92,248 // vsubps %ymm8,%ymm10,%ymm15
- .byte 196,65,60,89,255 // vmulps %ymm15,%ymm8,%ymm15
- .byte 196,65,4,94,254 // vdivps %ymm14,%ymm15,%ymm15
- .byte 196,65,36,92,232 // vsubps %ymm8,%ymm11,%ymm13
- .byte 196,65,60,89,237 // vmulps %ymm13,%ymm8,%ymm13
- .byte 196,65,20,94,238 // vdivps %ymm14,%ymm13,%ymm13
- .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
- .byte 196,65,12,194,228,2 // vcmpleps %ymm12,%ymm14,%ymm12
- .byte 196,65,60,88,255 // vaddps %ymm15,%ymm8,%ymm15
- .byte 196,67,5,74,250,192 // vblendvps %ymm12,%ymm10,%ymm15,%ymm15
- .byte 196,65,44,95,211 // vmaxps %ymm11,%ymm10,%ymm10
- .byte 196,65,60,88,237 // vaddps %ymm13,%ymm8,%ymm13
- .byte 196,67,21,74,219,192 // vblendvps %ymm12,%ymm11,%ymm13,%ymm11
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 196,195,125,74,201,192 // vblendvps %ymm12,%ymm9,%ymm0,%ymm1
- .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12
- .byte 196,65,52,95,202 // vmaxps %ymm10,%ymm9,%ymm9
- .byte 196,65,116,92,208 // vsubps %ymm8,%ymm1,%ymm10
- .byte 196,65,28,92,232 // vsubps %ymm8,%ymm12,%ymm13
- .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10
- .byte 196,193,28,194,193,1 // vcmpltps %ymm9,%ymm12,%ymm0
- .byte 196,65,52,92,200 // vsubps %ymm8,%ymm9,%ymm9
- .byte 196,65,44,94,209 // vdivps %ymm9,%ymm10,%ymm10
- .byte 196,65,60,88,210 // vaddps %ymm10,%ymm8,%ymm10
- .byte 196,195,117,74,202,0 // vblendvps %ymm0,%ymm10,%ymm1,%ymm1
- .byte 196,65,4,92,208 // vsubps %ymm8,%ymm15,%ymm10
- .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10
- .byte 196,65,44,94,209 // vdivps %ymm9,%ymm10,%ymm10
- .byte 196,65,60,88,210 // vaddps %ymm10,%ymm8,%ymm10
- .byte 196,67,5,74,210,0 // vblendvps %ymm0,%ymm10,%ymm15,%ymm10
- .byte 196,65,36,92,248 // vsubps %ymm8,%ymm11,%ymm15
- .byte 196,65,20,89,239 // vmulps %ymm15,%ymm13,%ymm13
- .byte 196,65,20,94,201 // vdivps %ymm9,%ymm13,%ymm9
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
- .byte 196,193,116,95,206 // vmaxps %ymm14,%ymm1,%ymm1
- .byte 196,65,44,95,198 // vmaxps %ymm14,%ymm10,%ymm8
- .byte 196,65,124,95,206 // vmaxps %ymm14,%ymm0,%ymm9
- .byte 196,226,125,24,5,240,47,3,0 // vbroadcastss 0x32ff0(%rip),%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
- .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
- .byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
- .byte 196,226,37,184,212 // vfmadd231ps %ymm4,%ymm11,%ymm2
- .byte 197,236,88,193 // vaddps %ymm1,%ymm2,%ymm0
- .byte 197,172,89,76,36,200 // vmulps -0x38(%rsp),%ymm10,%ymm1
- .byte 196,226,37,184,205 // vfmadd231ps %ymm5,%ymm11,%ymm1
- .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
- .byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
- .byte 196,98,77,168,218 // vfmadd213ps %ymm2,%ymm6,%ymm11
- .byte 196,193,36,88,209 // vaddps %ymm9,%ymm11,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_rgba_8888_hsw
-.globl _sk_srcover_rgba_8888_hsw
-FUNCTION(_sk_srcover_rgba_8888_hsw)
-_sk_srcover_rgba_8888_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,224,0,0,0 // jne 9648 <_sk_srcover_rgba_8888_hsw+0xfa>
- .byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
- .byte 197,197,219,37,138,49,3,0 // vpand 0x3318a(%rip),%ymm7,%ymm4 # 3c700 <_sk_srcover_bgra_8888_sse2_lowp+0x4b4>
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,69,0,45,157,49,3,0 // vpshufb 0x3319d(%rip),%ymm7,%ymm5 # 3c720 <_sk_srcover_bgra_8888_sse2_lowp+0x4d4>
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,69,0,53,176,49,3,0 // vpshufb 0x331b0(%rip),%ymm7,%ymm6 # 3c740 <_sk_srcover_bgra_8888_sse2_lowp+0x4f4>
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,81,47,3,0 // vbroadcastss 0x32f51(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,112,47,3,0 // vbroadcastss 0x32f70(%rip),%ymm10 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
- .byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
- .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
- .byte 196,194,85,184,201 // vfmadd231ps %ymm9,%ymm5,%ymm1
- .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
- .byte 196,194,77,184,209 // vfmadd231ps %ymm9,%ymm6,%ymm2
- .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
- .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11
- .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11
- .byte 196,65,37,235,201 // vpor %ymm9,%ymm11,%ymm9
- .byte 197,60,95,218 // vmaxps %ymm2,%ymm8,%ymm11
- .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,37,114,243,16 // vpslld $0x10,%ymm11,%ymm11
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
- .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 9678 <_sk_srcover_rgba_8888_hsw+0x12a>
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,20,255,255,255 // ja 956e <_sk_srcover_rgba_8888_hsw+0x20>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,248,0,0,0 // lea 0xf8(%rip),%r9 # 975c <_sk_srcover_rgba_8888_hsw+0x20e>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 233,246,254,255,255 // jmpq 956e <_sk_srcover_rgba_8888_hsw+0x20>
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,194 // ja 9644 <_sk_srcover_rgba_8888_hsw+0xf6>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,236,0,0,0 // lea 0xec(%rip),%r9 # 9778 <_sk_srcover_rgba_8888_hsw+0x22a>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,167 // jmp 9644 <_sk_srcover_rgba_8888_hsw+0xf6>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
- .byte 196,193,122,126,36,144 // vmovq (%r8,%rdx,4),%xmm4
- .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,170,254,255,255 // jmpq 956e <_sk_srcover_rgba_8888_hsw+0x20>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
- .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,91,254,255,255 // jmpq 956e <_sk_srcover_rgba_8888_hsw+0x20>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,30,255,255,255 // jmpq 9644 <_sk_srcover_rgba_8888_hsw+0xf6>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 233,234,254,255,255 // jmpq 9644 <_sk_srcover_rgba_8888_hsw+0xf6>
- .byte 102,144 // xchg %ax,%ax
- .byte 17,255 // adc %edi,%edi
- .byte 255 // (bad)
- .byte 255,87,255 // callq *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,65,255 // incl -0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,166,255,255,255,146 // jmpq *-0x6d000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 126,255 // jle 9771 <_sk_srcover_rgba_8888_hsw+0x223>
- .byte 255 // (bad)
- .byte 255,104,255 // ljmp *-0x1(%rax)
- .byte 255 // (bad)
- .byte 255,29,255,255,255,163 // lcall *-0x5c000001(%rip) # ffffffffa400977c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffa3fcd530>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,155,255,255,255,215 // lcall *-0x28000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,202 // dec %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 188,255,255,255,174 // mov $0xaeffffff,%esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_srcover_bgra_8888_hsw
-.globl _sk_srcover_bgra_8888_hsw
-FUNCTION(_sk_srcover_bgra_8888_hsw)
-_sk_srcover_bgra_8888_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,224,0,0,0 // jne 988e <_sk_srcover_bgra_8888_hsw+0xfa>
- .byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
- .byte 197,197,219,37,164,47,3,0 // vpand 0x32fa4(%rip),%ymm7,%ymm4 # 3c760 <_sk_srcover_bgra_8888_sse2_lowp+0x514>
- .byte 197,252,91,244 // vcvtdq2ps %ymm4,%ymm6
- .byte 196,226,69,0,37,183,47,3,0 // vpshufb 0x32fb7(%rip),%ymm7,%ymm4 # 3c780 <_sk_srcover_bgra_8888_sse2_lowp+0x534>
- .byte 197,252,91,236 // vcvtdq2ps %ymm4,%ymm5
- .byte 196,226,69,0,37,202,47,3,0 // vpshufb 0x32fca(%rip),%ymm7,%ymm4 # 3c7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x554>
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,11,45,3,0 // vbroadcastss 0x32d0b(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 196,98,125,24,21,42,45,3,0 // vbroadcastss 0x32d2a(%rip),%ymm10 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
- .byte 196,194,93,184,193 // vfmadd231ps %ymm9,%ymm4,%ymm0
- .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
- .byte 196,194,85,184,201 // vfmadd231ps %ymm9,%ymm5,%ymm1
- .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
- .byte 196,194,77,184,209 // vfmadd231ps %ymm9,%ymm6,%ymm2
- .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
- .byte 196,194,69,184,217 // vfmadd231ps %ymm9,%ymm7,%ymm3
- .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11
- .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,37,114,243,8 // vpslld $0x8,%ymm11,%ymm11
- .byte 196,65,37,235,201 // vpor %ymm9,%ymm11,%ymm9
- .byte 197,60,95,216 // vmaxps %ymm0,%ymm8,%ymm11
- .byte 196,65,36,93,218 // vminps %ymm10,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,37,114,243,16 // vpslld $0x10,%ymm11,%ymm11
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
- .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 98be <_sk_srcover_bgra_8888_hsw+0x12a>
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,20,255,255,255 // ja 97b4 <_sk_srcover_bgra_8888_hsw+0x20>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,246,0,0,0 // lea 0xf6(%rip),%r9 # 99a0 <_sk_srcover_bgra_8888_hsw+0x20c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 233,246,254,255,255 // jmpq 97b4 <_sk_srcover_bgra_8888_hsw+0x20>
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,194 // ja 988a <_sk_srcover_bgra_8888_hsw+0xf6>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,234,0,0,0 // lea 0xea(%rip),%r9 # 99bc <_sk_srcover_bgra_8888_hsw+0x228>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,167 // jmp 988a <_sk_srcover_bgra_8888_hsw+0xf6>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
- .byte 196,193,122,126,36,144 // vmovq (%r8,%rdx,4),%xmm4
- .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,170,254,255,255 // jmpq 97b4 <_sk_srcover_bgra_8888_hsw+0x20>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
- .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,91,254,255,255 // jmpq 97b4 <_sk_srcover_bgra_8888_hsw+0x20>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,30,255,255,255 // jmpq 988a <_sk_srcover_bgra_8888_hsw+0xf6>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 233,234,254,255,255 // jmpq 988a <_sk_srcover_bgra_8888_hsw+0xf6>
- .byte 19,255 // adc %edi,%edi
- .byte 255 // (bad)
- .byte 255,89,255 // lcall *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,67,255 // incl -0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,148 // ljmp *-0x6b000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,128,255,255,255,106 // incl 0x6affffff(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,31 // lcall *(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,165,255,255,255,157 // jmpq *-0x62000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255,204 // dec %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190,255,255,255,176 // mov $0xb0ffffff,%esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_clamp_0_hsw
-.globl _sk_clamp_0_hsw
-FUNCTION(_sk_clamp_0_hsw)
-_sk_clamp_0_hsw:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_1_hsw
-.globl _sk_clamp_1_hsw
-FUNCTION(_sk_clamp_1_hsw)
-_sk_clamp_1_hsw:
- .byte 196,98,125,24,5,254,42,3,0 // vbroadcastss 0x32afe(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
- .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_hsw
-.globl _sk_clamp_a_hsw
-FUNCTION(_sk_clamp_a_hsw)
-_sk_clamp_a_hsw:
- .byte 196,98,125,24,5,221,42,3,0 // vbroadcastss 0x32add(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
- .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
- .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
- .byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_dst_hsw
-.globl _sk_clamp_a_dst_hsw
-FUNCTION(_sk_clamp_a_dst_hsw)
-_sk_clamp_a_dst_hsw:
- .byte 196,98,125,24,5,191,42,3,0 // vbroadcastss 0x32abf(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
- .byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
- .byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
- .byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_set_rgb_hsw
-.globl _sk_set_rgb_hsw
-FUNCTION(_sk_set_rgb_hsw)
-_sk_set_rgb_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
- .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1
- .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_swap_rb_hsw
-.globl _sk_swap_rb_hsw
-FUNCTION(_sk_swap_rb_hsw)
-_sk_swap_rb_hsw:
- .byte 197,124,40,192 // vmovaps %ymm0,%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,194 // vmovaps %ymm2,%ymm0
- .byte 197,124,41,194 // vmovaps %ymm8,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_invert_hsw
-.globl _sk_invert_hsw
-FUNCTION(_sk_invert_hsw)
-_sk_invert_hsw:
- .byte 196,98,125,24,5,122,42,3,0 // vbroadcastss 0x32a7a(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 197,188,92,219 // vsubps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_src_dst_hsw
-.globl _sk_move_src_dst_hsw
-FUNCTION(_sk_move_src_dst_hsw)
-_sk_move_src_dst_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 197,252,40,233 // vmovaps %ymm1,%ymm5
- .byte 197,252,40,242 // vmovaps %ymm2,%ymm6
- .byte 197,252,40,251 // vmovaps %ymm3,%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_dst_src_hsw
-.globl _sk_move_dst_src_hsw
-FUNCTION(_sk_move_dst_src_hsw)
-_sk_move_dst_src_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,196 // vmovaps %ymm4,%ymm0
- .byte 197,252,40,205 // vmovaps %ymm5,%ymm1
- .byte 197,252,40,214 // vmovaps %ymm6,%ymm2
- .byte 197,252,40,223 // vmovaps %ymm7,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_hsw
-.globl _sk_premul_hsw
-FUNCTION(_sk_premul_hsw)
-_sk_premul_hsw:
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_dst_hsw
-.globl _sk_premul_dst_hsw
-FUNCTION(_sk_premul_dst_hsw)
-_sk_premul_dst_hsw:
- .byte 197,220,89,231 // vmulps %ymm7,%ymm4,%ymm4
- .byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_unpremul_hsw
-.globl _sk_unpremul_hsw
-FUNCTION(_sk_unpremul_hsw)
-_sk_unpremul_hsw:
- .byte 196,98,125,24,5,21,42,3,0 // vbroadcastss 0x32a15(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,56,42,3,0 // vbroadcastss 0x32a38(%rip),%ymm9 # 3c52c <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
- .byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_hsw
-.globl _sk_force_opaque_hsw
-FUNCTION(_sk_force_opaque_hsw)
-_sk_force_opaque_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,220,41,3,0 // vbroadcastss 0x329dc(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_dst_hsw
-.globl _sk_force_opaque_dst_hsw
-FUNCTION(_sk_force_opaque_dst_hsw)
-_sk_force_opaque_dst_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,207,41,3,0 // vbroadcastss 0x329cf(%rip),%ymm7 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_from_srgb_hsw
-.globl _sk_from_srgb_hsw
-FUNCTION(_sk_from_srgb_hsw)
-_sk_from_srgb_hsw:
- .byte 196,98,125,24,5,248,41,3,0 // vbroadcastss 0x329f8(%rip),%ymm8 # 3c530 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
- .byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,234,41,3,0 // vbroadcastss 0x329ea(%rip),%ymm11 # 3c534 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,201,41,3,0 // vbroadcastss 0x329c9(%rip),%ymm12 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
- .byte 196,66,125,168,235 // vfmadd213ps %ymm11,%ymm0,%ymm13
- .byte 196,98,125,24,53,210,41,3,0 // vbroadcastss 0x329d2(%rip),%ymm14 # 3c538 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
- .byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,200,41,3,0 // vbroadcastss 0x329c8(%rip),%ymm10 # 3c53c <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
- .byte 196,193,124,194,194,1 // vcmpltps %ymm10,%ymm0,%ymm0
- .byte 196,195,21,74,193,0 // vblendvps %ymm0,%ymm9,%ymm13,%ymm0
- .byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
- .byte 197,116,89,233 // vmulps %ymm1,%ymm1,%ymm13
- .byte 196,65,124,40,252 // vmovaps %ymm12,%ymm15
- .byte 196,66,117,168,251 // vfmadd213ps %ymm11,%ymm1,%ymm15
- .byte 196,66,21,168,254 // vfmadd213ps %ymm14,%ymm13,%ymm15
- .byte 196,193,116,194,202,1 // vcmpltps %ymm10,%ymm1,%ymm1
- .byte 196,195,5,74,201,16 // vblendvps %ymm1,%ymm9,%ymm15,%ymm1
- .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
- .byte 197,108,89,202 // vmulps %ymm2,%ymm2,%ymm9
- .byte 196,66,109,168,227 // vfmadd213ps %ymm11,%ymm2,%ymm12
- .byte 196,66,53,168,230 // vfmadd213ps %ymm14,%ymm9,%ymm12
- .byte 196,193,108,194,210,1 // vcmpltps %ymm10,%ymm2,%ymm2
- .byte 196,195,29,74,208,32 // vblendvps %ymm2,%ymm8,%ymm12,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_from_srgb_dst_hsw
-.globl _sk_from_srgb_dst_hsw
-FUNCTION(_sk_from_srgb_dst_hsw)
-_sk_from_srgb_dst_hsw:
- .byte 196,98,125,24,5,96,41,3,0 // vbroadcastss 0x32960(%rip),%ymm8 # 3c530 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
- .byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
- .byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,82,41,3,0 // vbroadcastss 0x32952(%rip),%ymm11 # 3c534 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,98,125,24,37,49,41,3,0 // vbroadcastss 0x32931(%rip),%ymm12 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
- .byte 196,66,93,168,235 // vfmadd213ps %ymm11,%ymm4,%ymm13
- .byte 196,98,125,24,53,58,41,3,0 // vbroadcastss 0x3293a(%rip),%ymm14 # 3c538 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
- .byte 196,66,45,168,238 // vfmadd213ps %ymm14,%ymm10,%ymm13
- .byte 196,98,125,24,21,48,41,3,0 // vbroadcastss 0x32930(%rip),%ymm10 # 3c53c <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
- .byte 196,193,92,194,226,1 // vcmpltps %ymm10,%ymm4,%ymm4
- .byte 196,195,21,74,225,64 // vblendvps %ymm4,%ymm9,%ymm13,%ymm4
- .byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
- .byte 197,84,89,237 // vmulps %ymm5,%ymm5,%ymm13
- .byte 196,65,124,40,252 // vmovaps %ymm12,%ymm15
- .byte 196,66,85,168,251 // vfmadd213ps %ymm11,%ymm5,%ymm15
- .byte 196,66,21,168,254 // vfmadd213ps %ymm14,%ymm13,%ymm15
- .byte 196,193,84,194,234,1 // vcmpltps %ymm10,%ymm5,%ymm5
- .byte 196,195,5,74,233,80 // vblendvps %ymm5,%ymm9,%ymm15,%ymm5
- .byte 196,65,76,89,192 // vmulps %ymm8,%ymm6,%ymm8
- .byte 197,76,89,206 // vmulps %ymm6,%ymm6,%ymm9
- .byte 196,66,77,168,227 // vfmadd213ps %ymm11,%ymm6,%ymm12
- .byte 196,66,53,168,230 // vfmadd213ps %ymm14,%ymm9,%ymm12
- .byte 196,193,76,194,242,1 // vcmpltps %ymm10,%ymm6,%ymm6
- .byte 196,195,29,74,240,96 // vblendvps %ymm6,%ymm8,%ymm12,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_to_srgb_hsw
-.globl _sk_to_srgb_hsw
-FUNCTION(_sk_to_srgb_hsw)
-_sk_to_srgb_hsw:
- .byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,212,40,3,0 // vbroadcastss 0x328d4(%rip),%ymm8 # 3c540 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
- .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,202,40,3,0 // vbroadcastss 0x328ca(%rip),%ymm11 # 3c544 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- .byte 196,98,125,24,37,197,40,3,0 // vbroadcastss 0x328c5(%rip),%ymm12 # 3c548 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
- .byte 196,65,124,40,236 // vmovaps %ymm12,%ymm13
- .byte 196,66,53,168,235 // vfmadd213ps %ymm11,%ymm9,%ymm13
- .byte 196,98,125,24,53,238,41,3,0 // vbroadcastss 0x329ee(%rip),%ymm14 # 3c684 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- .byte 196,66,53,168,238 // vfmadd213ps %ymm14,%ymm9,%ymm13
- .byte 196,98,125,24,61,228,41,3,0 // vbroadcastss 0x329e4(%rip),%ymm15 # 3c688 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
- .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
- .byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
- .byte 196,65,20,89,201 // vmulps %ymm9,%ymm13,%ymm9
- .byte 196,98,125,24,45,152,40,3,0 // vbroadcastss 0x32898(%rip),%ymm13 # 3c554 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
- .byte 196,193,124,194,197,1 // vcmpltps %ymm13,%ymm0,%ymm0
- .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- .byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
- .byte 196,65,124,40,212 // vmovaps %ymm12,%ymm10
- .byte 196,66,53,168,211 // vfmadd213ps %ymm11,%ymm9,%ymm10
- .byte 196,66,53,168,214 // vfmadd213ps %ymm14,%ymm9,%ymm10
- .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
- .byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
- .byte 196,65,44,89,201 // vmulps %ymm9,%ymm10,%ymm9
- .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
- .byte 196,193,116,194,205,1 // vcmpltps %ymm13,%ymm1,%ymm1
- .byte 196,195,53,74,202,16 // vblendvps %ymm1,%ymm10,%ymm9,%ymm1
- .byte 197,124,82,202 // vrsqrtps %ymm2,%ymm9
- .byte 196,66,53,168,227 // vfmadd213ps %ymm11,%ymm9,%ymm12
- .byte 196,66,53,168,230 // vfmadd213ps %ymm14,%ymm9,%ymm12
- .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
- .byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
- .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9
- .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
- .byte 196,193,108,194,213,1 // vcmpltps %ymm13,%ymm2,%ymm2
- .byte 196,195,53,74,208,32 // vblendvps %ymm2,%ymm8,%ymm9,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_rgb_to_hsl_hsw
-.globl _sk_rgb_to_hsl_hsw
-FUNCTION(_sk_rgb_to_hsl_hsw)
-_sk_rgb_to_hsl_hsw:
- .byte 197,116,95,194 // vmaxps %ymm2,%ymm1,%ymm8
- .byte 196,65,124,95,192 // vmaxps %ymm8,%ymm0,%ymm8
- .byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
- .byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
- .byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,175,39,3,0 // vbroadcastss 0x327af(%rip),%ymm11 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
- .byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
- .byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
- .byte 196,98,125,24,53,244,39,3,0 // vbroadcastss 0x327f4(%rip),%ymm14 # 3c558 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
- .byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
- .byte 196,67,5,74,238,208 // vblendvps %ymm13,%ymm14,%ymm15,%ymm13
- .byte 196,66,37,168,229 // vfmadd213ps %ymm13,%ymm11,%ymm12
- .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 197,124,92,233 // vsubps %ymm1,%ymm0,%ymm13
- .byte 196,98,125,24,53,219,39,3,0 // vbroadcastss 0x327db(%rip),%ymm14 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
- .byte 196,66,37,168,238 // vfmadd213ps %ymm14,%ymm11,%ymm13
- .byte 196,98,125,24,53,201,39,3,0 // vbroadcastss 0x327c9(%rip),%ymm14 # 3c55c <_sk_srcover_bgra_8888_sse2_lowp+0x310>
- .byte 196,194,37,168,214 // vfmadd213ps %ymm14,%ymm11,%ymm2
- .byte 197,188,194,201,0 // vcmpeqps %ymm1,%ymm8,%ymm1
- .byte 196,227,21,74,202,16 // vblendvps %ymm1,%ymm2,%ymm13,%ymm1
- .byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
- .byte 196,195,117,74,196,0 // vblendvps %ymm0,%ymm12,%ymm1,%ymm0
- .byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,29,60,39,3,0 // vbroadcastss 0x3273c(%rip),%ymm11 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
- .byte 197,36,194,218,1 // vcmpltps %ymm2,%ymm11,%ymm11
- .byte 196,65,12,92,224 // vsubps %ymm8,%ymm14,%ymm12
- .byte 196,65,28,92,225 // vsubps %ymm9,%ymm12,%ymm12
- .byte 196,195,117,74,204,176 // vblendvps %ymm11,%ymm12,%ymm1,%ymm1
- .byte 196,65,60,194,193,0 // vcmpeqps %ymm9,%ymm8,%ymm8
- .byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
- .byte 196,195,125,74,199,128 // vblendvps %ymm8,%ymm15,%ymm0,%ymm0
- .byte 196,195,117,74,207,128 // vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- .byte 196,98,125,24,5,111,39,3,0 // vbroadcastss 0x3276f(%rip),%ymm8 # 3c564 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hsl_to_rgb_hsw
-.globl _sk_hsl_to_rgb_hsw
-FUNCTION(_sk_hsl_to_rgb_hsw)
-_sk_hsl_to_rgb_hsw:
- .byte 72,131,236,56 // sub $0x38,%rsp
- .byte 197,252,17,60,36 // vmovups %ymm7,(%rsp)
- .byte 197,252,17,116,36,224 // vmovups %ymm6,-0x20(%rsp)
- .byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
- .byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
- .byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
- .byte 197,252,40,233 // vmovaps %ymm1,%ymm5
- .byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 196,98,125,24,5,200,38,3,0 // vbroadcastss 0x326c8(%rip),%ymm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
- .byte 197,84,89,210 // vmulps %ymm2,%ymm5,%ymm10
- .byte 196,65,84,92,218 // vsubps %ymm10,%ymm5,%ymm11
- .byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
- .byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
- .byte 196,98,125,24,13,11,39,3,0 // vbroadcastss 0x3270b(%rip),%ymm9 # 3c55c <_sk_srcover_bgra_8888_sse2_lowp+0x310>
- .byte 196,66,109,170,202 // vfmsub213ps %ymm10,%ymm2,%ymm9
- .byte 196,98,125,24,29,9,39,3,0 // vbroadcastss 0x32709(%rip),%ymm11 # 3c568 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- .byte 196,65,92,88,219 // vaddps %ymm11,%ymm4,%ymm11
- .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
- .byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
- .byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,45,219,38,3,0 // vbroadcastss 0x326db(%rip),%ymm13 # 3c558 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
- .byte 196,193,4,89,197 // vmulps %ymm13,%ymm15,%ymm0
- .byte 196,98,125,24,53,213,38,3,0 // vbroadcastss 0x326d5(%rip),%ymm14 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
- .byte 197,12,92,224 // vsubps %ymm0,%ymm14,%ymm12
- .byte 196,66,37,168,225 // vfmadd213ps %ymm9,%ymm11,%ymm12
- .byte 196,226,125,24,29,207,38,3,0 // vbroadcastss 0x326cf(%rip),%ymm3 # 3c56c <_sk_srcover_bgra_8888_sse2_lowp+0x320>
- .byte 196,193,100,194,255,2 // vcmpleps %ymm15,%ymm3,%ymm7
- .byte 196,195,29,74,249,112 // vblendvps %ymm7,%ymm9,%ymm12,%ymm7
- .byte 196,65,60,194,231,2 // vcmpleps %ymm15,%ymm8,%ymm12
- .byte 196,227,45,74,255,192 // vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,37,166,38,3,0 // vbroadcastss 0x326a6(%rip),%ymm12 # 3c564 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
- .byte 196,65,28,194,255,2 // vcmpleps %ymm15,%ymm12,%ymm15
- .byte 196,194,37,168,193 // vfmadd213ps %ymm9,%ymm11,%ymm0
- .byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15
- .byte 196,227,125,8,196,1 // vroundps $0x1,%ymm4,%ymm0
- .byte 197,220,92,192 // vsubps %ymm0,%ymm4,%ymm0
- .byte 196,193,124,89,253 // vmulps %ymm13,%ymm0,%ymm7
- .byte 197,140,92,207 // vsubps %ymm7,%ymm14,%ymm1
- .byte 196,194,37,168,201 // vfmadd213ps %ymm9,%ymm11,%ymm1
- .byte 197,228,194,240,2 // vcmpleps %ymm0,%ymm3,%ymm6
- .byte 196,195,117,74,201,96 // vblendvps %ymm6,%ymm9,%ymm1,%ymm1
- .byte 197,188,194,240,2 // vcmpleps %ymm0,%ymm8,%ymm6
- .byte 196,227,45,74,201,96 // vblendvps %ymm6,%ymm1,%ymm10,%ymm1
- .byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0
- .byte 196,194,37,168,249 // vfmadd213ps %ymm9,%ymm11,%ymm7
- .byte 196,227,69,74,201,0 // vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- .byte 196,226,125,24,5,90,38,3,0 // vbroadcastss 0x3265a(%rip),%ymm0 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
- .byte 196,227,125,8,224,1 // vroundps $0x1,%ymm0,%ymm4
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3
- .byte 196,193,124,89,229 // vmulps %ymm13,%ymm0,%ymm4
- .byte 197,140,92,244 // vsubps %ymm4,%ymm14,%ymm6
- .byte 196,194,37,168,241 // vfmadd213ps %ymm9,%ymm11,%ymm6
- .byte 196,195,77,74,217,48 // vblendvps %ymm3,%ymm9,%ymm6,%ymm3
- .byte 197,188,194,240,2 // vcmpleps %ymm0,%ymm8,%ymm6
- .byte 196,227,45,74,219,96 // vblendvps %ymm6,%ymm3,%ymm10,%ymm3
- .byte 196,98,37,184,204 // vfmadd231ps %ymm4,%ymm11,%ymm9
- .byte 197,156,194,192,2 // vcmpleps %ymm0,%ymm12,%ymm0
- .byte 196,227,53,74,219,0 // vblendvps %ymm0,%ymm3,%ymm9,%ymm3
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,212,194,224,0 // vcmpeqps %ymm0,%ymm5,%ymm4
- .byte 196,227,5,74,194,64 // vblendvps %ymm4,%ymm2,%ymm15,%ymm0
- .byte 196,227,117,74,202,64 // vblendvps %ymm4,%ymm2,%ymm1,%ymm1
- .byte 196,227,101,74,210,64 // vblendvps %ymm4,%ymm2,%ymm3,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,92,36,128 // vmovups -0x80(%rsp),%ymm3
- .byte 197,252,16,100,36,160 // vmovups -0x60(%rsp),%ymm4
- .byte 197,252,16,108,36,192 // vmovups -0x40(%rsp),%ymm5
- .byte 197,252,16,116,36,224 // vmovups -0x20(%rsp),%ymm6
- .byte 197,252,16,60,36 // vmovups (%rsp),%ymm7
- .byte 72,131,196,56 // add $0x38,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_1_float_hsw
-.globl _sk_scale_1_float_hsw
-FUNCTION(_sk_scale_1_float_hsw)
-_sk_scale_1_float_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_u8_hsw
-.globl _sk_scale_u8_hsw
-FUNCTION(_sk_scale_u8_hsw)
-_sk_scale_u8_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,58 // jne 9fff <_sk_scale_u8_hsw+0x4c>
- .byte 196,66,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm8
- .byte 197,57,219,5,221,46,3,0 // vpand 0x32edd(%rip),%xmm8,%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,142,37,3,0 // vbroadcastss 0x3258e(%rip),%ymm9 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,189 // ja 9fcb <_sk_scale_u8_hsw+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,124,0,0,0 // lea 0x7c(%rip),%r9 # a094 <_sk_scale_u8_hsw+0xe1>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,159 // jmp 9fcb <_sk_scale_u8_hsw+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
- .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,118,255,255,255 // jmpq 9fcb <_sk_scale_u8_hsw+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,57,196,192,5 // vpinsrw $0x5,%eax,%xmm8,%xmm8
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,57,196,192,4 // vpinsrw $0x4,%eax,%xmm8,%xmm8
- .byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
- .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
- .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,58,255,255,255 // jmpq 9fcb <_sk_scale_u8_hsw+0x18>
- .byte 15,31,0 // nopl (%rax)
- .byte 141 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,152 // ljmp *-0x67000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,193 // inc %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_scale_565_hsw
-.globl _sk_scale_565_hsw
-FUNCTION(_sk_scale_565_hsw)
-_sk_scale_565_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,161,0,0,0 // jne a16a <_sk_scale_565_hsw+0xba>
- .byte 196,65,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm8
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,155,36,3,0 // vpbroadcastd 0x3249b(%rip),%ymm9 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
- .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,140,36,3,0 // vbroadcastss 0x3248c(%rip),%ymm10 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,130,36,3,0 // vpbroadcastd 0x32482(%rip),%ymm10 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
- .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,115,36,3,0 // vbroadcastss 0x32473(%rip),%ymm11 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,105,36,3,0 // vpbroadcastd 0x32469(%rip),%ymm11 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,90,36,3,0 // vbroadcastss 0x3245a(%rip),%ymm11 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
- .byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
- .byte 196,65,52,93,228 // vminps %ymm12,%ymm9,%ymm12
- .byte 196,65,44,95,232 // vmaxps %ymm8,%ymm10,%ymm13
- .byte 196,65,52,95,237 // vmaxps %ymm13,%ymm9,%ymm13
- .byte 196,67,21,74,220,176 // vblendvps %ymm11,%ymm12,%ymm13,%ymm11
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,164,89,219 // vmulps %ymm3,%ymm11,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,82,255,255,255 // ja a0cf <_sk_scale_565_hsw+0x1f>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,101,0,0,0 // lea 0x65(%rip),%r9 # a1ec <_sk_scale_565_hsw+0x13c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,49,255,255,255 // jmpq a0cf <_sk_scale_565_hsw+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
- .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,19,255,255,255 // jmpq a0cf <_sk_scale_565_hsw+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,57,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,57,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
- .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,229,254,255,255 // jmpq a0cf <_sk_scale_565_hsw+0x1f>
- .byte 102,144 // xchg %ax,%ax
- .byte 164 // movsb %ds:(%rsi),%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,178 // mov $0xb2ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 237 // in (%dx),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,208 // callq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_1_float_hsw
-.globl _sk_lerp_1_float_hsw
-FUNCTION(_sk_lerp_1_float_hsw)
-_sk_lerp_1_float_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
- .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
- .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
- .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
- .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2
- .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3
- .byte 196,226,61,168,223 // vfmadd213ps %ymm7,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lerp_u8_hsw
-.globl _sk_lerp_u8_hsw
-FUNCTION(_sk_lerp_u8_hsw)
-_sk_lerp_u8_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,78 // jne a297 <_sk_lerp_u8_hsw+0x60>
- .byte 196,66,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm8
- .byte 197,57,219,5,89,44,3,0 // vpand 0x32c59(%rip),%xmm8,%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,10,35,3,0 // vbroadcastss 0x3230a(%rip),%ymm9 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 196,226,61,168,196 // vfmadd213ps %ymm4,%ymm8,%ymm0
- .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
- .byte 196,226,61,168,205 // vfmadd213ps %ymm5,%ymm8,%ymm1
- .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
- .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2
- .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3
- .byte 196,226,61,168,223 // vfmadd213ps %ymm7,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,169 // ja a24f <_sk_lerp_u8_hsw+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,124,0,0,0 // lea 0x7c(%rip),%r9 # a32c <_sk_lerp_u8_hsw+0xf5>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,139 // jmp a24f <_sk_lerp_u8_hsw+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
- .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,98,255,255,255 // jmpq a24f <_sk_lerp_u8_hsw+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,57,196,192,5 // vpinsrw $0x5,%eax,%xmm8,%xmm8
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,57,196,192,4 // vpinsrw $0x4,%eax,%xmm8,%xmm8
- .byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
- .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
- .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,38,255,255,255 // jmpq a24f <_sk_lerp_u8_hsw+0x18>
- .byte 15,31,0 // nopl (%rax)
- .byte 141 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,152 // ljmp *-0x67000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,193 // inc %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_565_hsw
-.globl _sk_lerp_565_hsw
-FUNCTION(_sk_lerp_565_hsw)
-_sk_lerp_565_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,181,0,0,0 // jne a416 <_sk_lerp_565_hsw+0xce>
- .byte 196,65,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm8
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,98,125,88,13,3,34,3,0 // vpbroadcastd 0x32203(%rip),%ymm9 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 196,65,61,219,201 // vpand %ymm9,%ymm8,%ymm9
- .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,244,33,3,0 // vbroadcastss 0x321f4(%rip),%ymm10 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,88,21,234,33,3,0 // vpbroadcastd 0x321ea(%rip),%ymm10 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 196,65,61,219,210 // vpand %ymm10,%ymm8,%ymm10
- .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,219,33,3,0 // vbroadcastss 0x321db(%rip),%ymm11 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,88,29,209,33,3,0 // vpbroadcastd 0x321d1(%rip),%ymm11 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 196,65,61,219,195 // vpand %ymm11,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,194,33,3,0 // vbroadcastss 0x321c2(%rip),%ymm11 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
- .byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
- .byte 196,65,52,93,228 // vminps %ymm12,%ymm9,%ymm12
- .byte 196,65,44,95,232 // vmaxps %ymm8,%ymm10,%ymm13
- .byte 196,65,52,95,237 // vmaxps %ymm13,%ymm9,%ymm13
- .byte 196,67,21,74,220,176 // vblendvps %ymm11,%ymm12,%ymm13,%ymm11
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 196,226,53,168,196 // vfmadd213ps %ymm4,%ymm9,%ymm0
- .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
- .byte 196,226,45,168,205 // vfmadd213ps %ymm5,%ymm10,%ymm1
- .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
- .byte 196,226,61,168,214 // vfmadd213ps %ymm6,%ymm8,%ymm2
- .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3
- .byte 196,226,37,168,223 // vfmadd213ps %ymm7,%ymm11,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,62,255,255,255 // ja a367 <_sk_lerp_565_hsw+0x1f>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,101,0,0,0 // lea 0x65(%rip),%r9 # a498 <_sk_lerp_565_hsw+0x150>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,29,255,255,255 // jmpq a367 <_sk_lerp_565_hsw+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
- .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,255,254,255,255 // jmpq a367 <_sk_lerp_565_hsw+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,57,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,57,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
- .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 233,209,254,255,255 // jmpq a367 <_sk_lerp_565_hsw+0x1f>
- .byte 102,144 // xchg %ax,%ax
- .byte 164 // movsb %ds:(%rsi),%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,178 // mov $0xb2ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 237 // in (%dx),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,208 // callq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_tables_hsw
-.globl _sk_load_tables_hsw
-FUNCTION(_sk_load_tables_hsw)
-_sk_load_tables_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,116 // jne a532 <_sk_load_tables_hsw+0x7e>
- .byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,13,244,34,3,0 // vpand 0x322f4(%rip),%ymm3,%ymm1 # 3c7c0 <_sk_srcover_bgra_8888_sse2_lowp+0x574>
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,194,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0
- .byte 196,98,101,0,13,235,34,3,0 // vpshufb 0x322eb(%rip),%ymm3,%ymm9 # 3c7e0 <_sk_srcover_bgra_8888_sse2_lowp+0x594>
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,130,45,146,12,137 // vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
- .byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,98,101,0,13,239,34,3,0 // vpshufb 0x322ef(%rip),%ymm3,%ymm9 # 3c800 <_sk_srcover_bgra_8888_sse2_lowp+0x5b4>
- .byte 196,162,61,146,20,136 // vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
- .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,75,32,3,0 // vbroadcastss 0x3204b(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,122,255,255,255 // ja a4c4 <_sk_load_tables_hsw+0x10>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,139,0,0,0 // lea 0x8b(%rip),%r10 # a5e0 <_sk_load_tables_hsw+0x12c>
- .byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
- .byte 77,1,209 // add %r10,%r9
- .byte 65,255,225 // jmpq *%r9
- .byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,90,255,255,255 // jmpq a4c4 <_sk_load_tables_hsw+0x10>
- .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
- .byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
- .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,51,255,255,255 // jmpq a4c4 <_sk_load_tables_hsw+0x10>
- .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,216,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
- .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,228,254,255,255 // jmpq a4c4 <_sk_load_tables_hsw+0x10>
- .byte 127,255 // jg a5e1 <_sk_load_tables_hsw+0x12d>
- .byte 255 // (bad)
- .byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 177,255 // mov $0xff,%cl
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_tables_u16_be_hsw
-.globl _sk_load_tables_u16_be_hsw
-FUNCTION(_sk_load_tables_u16_be_hsw)
-_sk_load_tables_u16_be_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,215,0,0,0 // jne a6e9 <_sk_load_tables_u16_be_hsw+0xed>
- .byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
- .byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
- .byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
- .byte 196,1,122,111,76,72,48 // vmovdqu 0x30(%r8,%r9,2),%xmm9
- .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0
- .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2
- .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1
- .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3
- .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8
- .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
- .byte 197,241,97,195 // vpunpcklwd %xmm3,%xmm1,%xmm0
- .byte 197,113,105,243 // vpunpckhwd %xmm3,%xmm1,%xmm14
- .byte 197,185,108,200 // vpunpcklqdq %xmm0,%xmm8,%xmm1
- .byte 197,57,109,192 // vpunpckhqdq %xmm0,%xmm8,%xmm8
- .byte 196,65,49,108,214 // vpunpcklqdq %xmm14,%xmm9,%xmm10
- .byte 197,121,111,29,76,40,3,0 // vmovdqa 0x3284c(%rip),%xmm11 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,193,113,219,195 // vpand %xmm11,%xmm1,%xmm0
- .byte 196,226,125,51,200 // vpmovzxwd %xmm0,%ymm1
- .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 196,194,21,146,4,136 // vgatherdps %ymm13,(%r8,%ymm1,4),%ymm0
- .byte 196,193,57,219,203 // vpand %xmm11,%xmm8,%xmm1
- .byte 196,98,125,51,193 // vpmovzxwd %xmm1,%ymm8
- .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,130,21,146,12,129 // vgatherdps %ymm13,(%r9,%ymm8,4),%ymm1
- .byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 196,193,41,219,219 // vpand %xmm11,%xmm10,%xmm3
- .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
- .byte 196,226,29,146,20,152 // vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2
- .byte 196,193,49,109,222 // vpunpckhqdq %xmm14,%xmm9,%xmm3
- .byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8
- .byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3
- .byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
- .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,176,30,3,0 // vbroadcastss 0x31eb0(%rip),%ymm8 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je a74f <_sk_load_tables_u16_be_hsw+0x153>
- .byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb a74f <_sk_load_tables_u16_be_hsw+0x153>
- .byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je a75c <_sk_load_tables_u16_be_hsw+0x160>
- .byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb a75c <_sk_load_tables_u16_be_hsw+0x160>
- .byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,251,254,255,255 // je a62d <_sk_load_tables_u16_be_hsw+0x31>
- .byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,234,254,255,255 // jb a62d <_sk_load_tables_u16_be_hsw+0x31>
- .byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,222,254,255,255 // jmpq a62d <_sk_load_tables_u16_be_hsw+0x31>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,209,254,255,255 // jmpq a62d <_sk_load_tables_u16_be_hsw+0x31>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,200,254,255,255 // jmpq a62d <_sk_load_tables_u16_be_hsw+0x31>
-
-HIDDEN _sk_load_tables_rgb_u16_be_hsw
-.globl _sk_load_tables_rgb_u16_be_hsw
-FUNCTION(_sk_load_tables_rgb_u16_be_hsw)
-_sk_load_tables_rgb_u16_be_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,206,0,0,0 // jne a845 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
- .byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
- .byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
- .byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
- .byte 196,129,122,111,68,72,32 // vmovdqu 0x20(%r8,%r9,2),%xmm0
- .byte 197,249,115,216,4 // vpsrldq $0x4,%xmm0,%xmm0
- .byte 196,193,57,115,219,6 // vpsrldq $0x6,%xmm11,%xmm8
- .byte 197,169,115,219,6 // vpsrldq $0x6,%xmm3,%xmm10
- .byte 197,241,115,218,6 // vpsrldq $0x6,%xmm2,%xmm1
- .byte 197,177,115,216,6 // vpsrldq $0x6,%xmm0,%xmm9
- .byte 196,65,113,97,201 // vpunpcklwd %xmm9,%xmm1,%xmm9
- .byte 197,233,97,192 // vpunpcklwd %xmm0,%xmm2,%xmm0
- .byte 196,193,57,97,210 // vpunpcklwd %xmm10,%xmm8,%xmm2
- .byte 197,161,97,219 // vpunpcklwd %xmm3,%xmm11,%xmm3
- .byte 197,225,97,202 // vpunpcklwd %xmm2,%xmm3,%xmm1
- .byte 197,225,105,210 // vpunpckhwd %xmm2,%xmm3,%xmm2
- .byte 196,193,121,97,217 // vpunpcklwd %xmm9,%xmm0,%xmm3
- .byte 196,193,121,105,193 // vpunpckhwd %xmm9,%xmm0,%xmm0
- .byte 197,105,108,192 // vpunpcklqdq %xmm0,%xmm2,%xmm8
- .byte 197,241,108,195 // vpunpcklqdq %xmm3,%xmm1,%xmm0
- .byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,249,111,29,204,38,3,0 // vmovdqa 0x326cc(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 197,249,219,195 // vpand %xmm3,%xmm0,%xmm0
- .byte 196,98,125,51,200 // vpmovzxwd %xmm0,%ymm9
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 196,130,37,146,4,136 // vgatherdps %ymm11,(%r8,%ymm9,4),%ymm0
- .byte 197,241,219,203 // vpand %xmm3,%xmm1,%xmm1
- .byte 196,98,125,51,201 // vpmovzxwd %xmm1,%ymm9
- .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,130,37,146,12,137 // vgatherdps %ymm11,(%r9,%ymm9,4),%ymm1
- .byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 197,185,219,219 // vpand %xmm3,%xmm8,%xmm3
- .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
- .byte 196,226,45,146,20,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,185,28,3,0 // vbroadcastss 0x31cb9(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne a87d <_sk_load_tables_rgb_u16_be_hsw+0x118>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,47,255,255,255 // jmpq a7ac <_sk_load_tables_rgb_u16_be_hsw+0x47>
- .byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb a8c7 <_sk_load_tables_rgb_u16_be_hsw+0x162>
- .byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne a8e1 <_sk_load_tables_rgb_u16_be_hsw+0x17c>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,229,254,255,255 // jmpq a7ac <_sk_load_tables_rgb_u16_be_hsw+0x47>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,203,254,255,255 // jmpq a7ac <_sk_load_tables_rgb_u16_be_hsw+0x47>
- .byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb a922 <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
- .byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne a933 <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,138,254,255,255 // jmpq a7ac <_sk_load_tables_rgb_u16_be_hsw+0x47>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,121,254,255,255 // jmpq a7ac <_sk_load_tables_rgb_u16_be_hsw+0x47>
- .byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb a966 <_sk_load_tables_rgb_u16_be_hsw+0x201>
- .byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,70,254,255,255 // jmpq a7ac <_sk_load_tables_rgb_u16_be_hsw+0x47>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,61,254,255,255 // jmpq a7ac <_sk_load_tables_rgb_u16_be_hsw+0x47>
-
-HIDDEN _sk_byte_tables_hsw
-.globl _sk_byte_tables_hsw
-FUNCTION(_sk_byte_tables_hsw)
-_sk_byte_tables_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,29,121,27,3,0 // vbroadcastss 0x31b79(%rip),%ymm11 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,211 // vminps %ymm11,%ymm9,%ymm10
- .byte 196,98,125,24,13,151,27,3,0 // vbroadcastss 0x31b97(%rip),%ymm9 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,44,89,209 // vmulps %ymm9,%ymm10,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,65,249,126,208 // vmovq %xmm10,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 76,139,16 // mov (%rax),%r10
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,193,121,110,193 // vmovd %r9d,%xmm0
- .byte 196,67,249,22,209,1 // vpextrq $0x1,%xmm10,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,99,125,57,208,1 // vextracti128 $0x1,%ymm10,%xmm0
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,25,32,208,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm10
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,41,32,209,3 // vpinsrb $0x3,%r9d,%xmm10,%xmm10
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,41,32,209,4 // vpinsrb $0x4,%r9d,%xmm10,%xmm10
- .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,41,32,192,5 // vpinsrb $0x5,%r8d,%xmm10,%xmm0
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,121,32,192,6 // vpinsrb $0x6,%r8d,%xmm0,%xmm0
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,121,32,209,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm10
- .byte 197,188,95,193 // vmaxps %ymm1,%ymm8,%ymm0
- .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,195,121,32,194,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm0
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,195,121,32,194,4 // vpinsrb $0x4,%r10d,%xmm0,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,5 // vpinsrb $0x5,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0
- .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
- .byte 196,195,121,32,200,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm1
- .byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 197,188,95,194 // vmaxps %ymm2,%ymm8,%ymm0
- .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,210,1 // vextracti128 $0x1,%ymm2,%xmm2
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,195,121,32,194,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm0
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,195,121,32,194,4 // vpinsrb $0x4,%r10d,%xmm0,%xmm0
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,5 // vpinsrb $0x5,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
- .byte 196,195,121,32,208,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm2
- .byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 197,188,95,195 // vmaxps %ymm3,%ymm8,%ymm0
- .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 68,137,192 // mov %r8d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 197,249,110,216 // vmovd %eax,%xmm3
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,97,32,216,1 // vpinsrb $0x1,%eax,%xmm3,%xmm3
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,97,32,216,2 // vpinsrb $0x2,%eax,%xmm3,%xmm3
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,227,97,32,216,3 // vpinsrb $0x3,%eax,%xmm3,%xmm3
- .byte 68,137,192 // mov %r8d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,97,32,216,4 // vpinsrb $0x4,%eax,%xmm3,%xmm3
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,97,32,192,5 // vpinsrb $0x5,%eax,%xmm3,%xmm0
- .byte 68,137,208 // mov %r10d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,121,32,216,6 // vpinsrb $0x6,%eax,%xmm0,%xmm3
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,77,25,3,0 // vbroadcastss 0x3194d(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,125,49,210 // vpmovzxbd %xmm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,227,97,32,216,7 // vpinsrb $0x7,%eax,%xmm3,%xmm3
- .byte 196,226,125,49,219 // vpmovzxbd %xmm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_byte_tables_rgb_hsw
-.globl _sk_byte_tables_rgb_hsw
-FUNCTION(_sk_byte_tables_rgb_hsw)
-_sk_byte_tables_rgb_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,24 // mov 0x18(%rax),%r8d
- .byte 65,255,200 // dec %r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,52,95,208 // vmaxps %ymm0,%ymm9,%ymm10
- .byte 196,98,125,24,29,114,24,3,0 // vbroadcastss 0x31872(%rip),%ymm11 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,44,93,211 // vminps %ymm11,%ymm10,%ymm10
- .byte 196,65,44,89,208 // vmulps %ymm8,%ymm10,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,65,249,126,208 // vmovq %xmm10,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 76,139,16 // mov (%rax),%r10
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,193,121,110,193 // vmovd %r9d,%xmm0
- .byte 196,67,249,22,209,1 // vpextrq $0x1,%xmm10,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,99,125,57,208,1 // vextracti128 $0x1,%ymm10,%xmm0
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,25,32,208,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm10
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,41,32,209,3 // vpinsrb $0x3,%r9d,%xmm10,%xmm10
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,41,32,209,4 // vpinsrb $0x4,%r9d,%xmm10,%xmm10
- .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,41,32,192,5 // vpinsrb $0x5,%r8d,%xmm10,%xmm0
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,121,32,192,6 // vpinsrb $0x6,%r8d,%xmm0,%xmm0
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,121,32,209,7 // vpinsrb $0x7,%r9d,%xmm0,%xmm10
- .byte 197,180,95,193 // vmaxps %ymm1,%ymm9,%ymm0
- .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,253,91,200 // vcvtps2dq %ymm0,%ymm1
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,195,121,32,194,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm0
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,195,121,32,194,4 // vpinsrb $0x4,%r10d,%xmm0,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,5 // vpinsrb $0x5,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,6 // vpinsrb $0x6,%r9d,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
- .byte 196,195,121,32,200,7 // vpinsrb $0x7,%r8d,%xmm0,%xmm1
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 197,180,95,194 // vmaxps %ymm2,%ymm9,%ymm0
- .byte 196,193,124,93,195 // vminps %ymm11,%ymm0,%ymm0
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 68,137,192 // mov %r8d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,105,32,208,1 // vpinsrb $0x1,%eax,%xmm2,%xmm2
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,105,32,208,2 // vpinsrb $0x2,%eax,%xmm2,%xmm2
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,227,105,32,208,3 // vpinsrb $0x3,%eax,%xmm2,%xmm2
- .byte 68,137,192 // mov %r8d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,105,32,208,4 // vpinsrb $0x4,%eax,%xmm2,%xmm2
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,105,32,192,5 // vpinsrb $0x5,%eax,%xmm2,%xmm0
- .byte 68,137,208 // mov %r10d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,121,32,208,6 // vpinsrb $0x6,%eax,%xmm0,%xmm2
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,194,125,49,194 // vpmovzxbd %xmm10,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,246,22,3,0 // vbroadcastss 0x316f6(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,125,49,201 // vpmovzxbd %xmm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,227,105,32,208,7 // vpinsrb $0x7,%eax,%xmm2,%xmm2
- .byte 196,226,125,49,210 // vpmovzxbd %xmm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_r_hsw
-.globl _sk_table_r_hsw
-FUNCTION(_sk_table_r_hsw)
-_sk_table_r_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,21,41,22,3,0 // vbroadcastss 0x31629(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,66,53,146,4,128 // vgatherdps %ymm9,(%r8,%ymm0,4),%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_g_hsw
-.globl _sk_table_g_hsw
-FUNCTION(_sk_table_g_hsw)
-_sk_table_g_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 196,98,125,24,21,222,21,3,0 // vbroadcastss 0x315de(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,116,93,202 // vminps %ymm10,%ymm1,%ymm1
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,66,53,146,4,136 // vgatherdps %ymm9,(%r8,%ymm1,4),%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_b_hsw
-.globl _sk_table_b_hsw
-FUNCTION(_sk_table_b_hsw)
-_sk_table_b_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,21,147,21,3,0 // vbroadcastss 0x31593(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,108,93,210 // vminps %ymm10,%ymm2,%ymm2
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,66,53,146,4,144 // vgatherdps %ymm9,(%r8,%ymm2,4),%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,194 // vmovaps %ymm8,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_a_hsw
-.globl _sk_table_a_hsw
-FUNCTION(_sk_table_a_hsw)
-_sk_table_a_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,88,192 // vpbroadcastd %xmm8,%ymm8
- .byte 196,65,124,91,200 // vcvtdq2ps %ymm8,%ymm9
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 196,98,125,24,21,72,21,3,0 // vbroadcastss 0x31548(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,100,93,218 // vminps %ymm10,%ymm3,%ymm3
- .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
- .byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,66,53,146,4,152 // vgatherdps %ymm9,(%r8,%ymm3,4),%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,195 // vmovaps %ymm8,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_r_hsw
-.globl _sk_parametric_r_hsw
-FUNCTION(_sk_parametric_r_hsw)
-_sk_parametric_r_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8
- .byte 196,65,124,194,192,2 // vcmpleps %ymm8,%ymm0,%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10
- .byte 196,66,125,168,202 // vfmadd213ps %ymm10,%ymm0,%ymm9
- .byte 196,98,125,24,88,4 // vbroadcastss 0x4(%rax),%ymm11
- .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10
- .byte 196,66,125,168,218 // vfmadd213ps %ymm10,%ymm0,%ymm11
- .byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,36,194,208,0 // vcmpeqps %ymm0,%ymm11,%ymm10
- .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,115,21,3,0 // vbroadcastss 0x31573(%rip),%ymm14 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,110,21,3,0 // vbroadcastss 0x3156e(%rip),%ymm15 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,192,20,3,0 // vbroadcastss 0x314c0(%rip),%ymm15 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,86,21,3,0 // vbroadcastss 0x31556(%rip),%ymm15 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,76,21,3,0 // vbroadcastss 0x3154c(%rip),%ymm13 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,66,21,3,0 // vbroadcastss 0x31542(%rip),%ymm14 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,56,21,3,0 // vbroadcastss 0x31538(%rip),%ymm14 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
- .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
- .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,25,21,3,0 // vbroadcastss 0x31519(%rip),%ymm13 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,15,21,3,0 // vbroadcastss 0x3150f(%rip),%ymm13 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,5,21,3,0 // vbroadcastss 0x31505(%rip),%ymm11 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,251,20,3,0 // vbroadcastss 0x314fb(%rip),%ymm12 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
- .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,236,20,3,0 // vbroadcastss 0x314ec(%rip),%ymm12 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,99,37,74,208,160 // vblendvps %ymm10,%ymm0,%ymm11,%ymm10
- .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,254,19,3,0 // vbroadcastss 0x313fe(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_g_hsw
-.globl _sk_parametric_g_hsw
-FUNCTION(_sk_parametric_g_hsw)
-_sk_parametric_g_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8
- .byte 196,65,116,194,192,2 // vcmpleps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10
- .byte 196,66,117,168,202 // vfmadd213ps %ymm10,%ymm1,%ymm9
- .byte 196,98,125,24,88,4 // vbroadcastss 0x4(%rax),%ymm11
- .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10
- .byte 196,66,117,168,218 // vfmadd213ps %ymm10,%ymm1,%ymm11
- .byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,36,194,209,0 // vcmpeqps %ymm1,%ymm11,%ymm10
- .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,65,20,3,0 // vbroadcastss 0x31441(%rip),%ymm14 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,60,20,3,0 // vbroadcastss 0x3143c(%rip),%ymm15 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,142,19,3,0 // vbroadcastss 0x3138e(%rip),%ymm15 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,36,20,3,0 // vbroadcastss 0x31424(%rip),%ymm15 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,26,20,3,0 // vbroadcastss 0x3141a(%rip),%ymm13 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,16,20,3,0 // vbroadcastss 0x31410(%rip),%ymm14 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,6,20,3,0 // vbroadcastss 0x31406(%rip),%ymm14 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
- .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
- .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,231,19,3,0 // vbroadcastss 0x313e7(%rip),%ymm13 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,221,19,3,0 // vbroadcastss 0x313dd(%rip),%ymm13 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,211,19,3,0 // vbroadcastss 0x313d3(%rip),%ymm11 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,201,19,3,0 // vbroadcastss 0x313c9(%rip),%ymm12 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
- .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,186,19,3,0 // vbroadcastss 0x313ba(%rip),%ymm12 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,99,37,74,209,160 // vblendvps %ymm10,%ymm1,%ymm11,%ymm10
- .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 196,98,125,24,5,204,18,3,0 // vbroadcastss 0x312cc(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_b_hsw
-.globl _sk_parametric_b_hsw
-FUNCTION(_sk_parametric_b_hsw)
-_sk_parametric_b_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8
- .byte 196,65,108,194,192,2 // vcmpleps %ymm8,%ymm2,%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10
- .byte 196,66,109,168,202 // vfmadd213ps %ymm10,%ymm2,%ymm9
- .byte 196,98,125,24,88,4 // vbroadcastss 0x4(%rax),%ymm11
- .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10
- .byte 196,66,109,168,218 // vfmadd213ps %ymm10,%ymm2,%ymm11
- .byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,36,194,210,0 // vcmpeqps %ymm2,%ymm11,%ymm10
- .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,15,19,3,0 // vbroadcastss 0x3130f(%rip),%ymm14 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,10,19,3,0 // vbroadcastss 0x3130a(%rip),%ymm15 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,92,18,3,0 // vbroadcastss 0x3125c(%rip),%ymm15 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,242,18,3,0 // vbroadcastss 0x312f2(%rip),%ymm15 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,232,18,3,0 // vbroadcastss 0x312e8(%rip),%ymm13 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,222,18,3,0 // vbroadcastss 0x312de(%rip),%ymm14 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,212,18,3,0 // vbroadcastss 0x312d4(%rip),%ymm14 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
- .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
- .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,181,18,3,0 // vbroadcastss 0x312b5(%rip),%ymm13 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,171,18,3,0 // vbroadcastss 0x312ab(%rip),%ymm13 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,161,18,3,0 // vbroadcastss 0x312a1(%rip),%ymm11 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,151,18,3,0 // vbroadcastss 0x31297(%rip),%ymm12 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
- .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,136,18,3,0 // vbroadcastss 0x31288(%rip),%ymm12 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,99,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm10
- .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,154,17,3,0 // vbroadcastss 0x3119a(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_a_hsw
-.globl _sk_parametric_a_hsw
-FUNCTION(_sk_parametric_a_hsw)
-_sk_parametric_a_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8
- .byte 196,65,100,194,192,2 // vcmpleps %ymm8,%ymm3,%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10
- .byte 196,66,101,168,202 // vfmadd213ps %ymm10,%ymm3,%ymm9
- .byte 196,98,125,24,88,4 // vbroadcastss 0x4(%rax),%ymm11
- .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10
- .byte 196,66,101,168,218 // vfmadd213ps %ymm10,%ymm3,%ymm11
- .byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,36,194,211,0 // vcmpeqps %ymm3,%ymm11,%ymm10
- .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,221,17,3,0 // vbroadcastss 0x311dd(%rip),%ymm14 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,98,125,24,61,216,17,3,0 // vbroadcastss 0x311d8(%rip),%ymm15 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 196,65,36,84,223 // vandps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,42,17,3,0 // vbroadcastss 0x3112a(%rip),%ymm15 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,36,86,223 // vorps %ymm15,%ymm11,%ymm11
- .byte 196,98,125,24,61,192,17,3,0 // vbroadcastss 0x311c0(%rip),%ymm15 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 196,66,21,184,254 // vfmadd231ps %ymm14,%ymm13,%ymm15
- .byte 196,98,125,24,45,182,17,3,0 // vbroadcastss 0x311b6(%rip),%ymm13 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 196,66,37,172,239 // vfnmadd213ps %ymm15,%ymm11,%ymm13
- .byte 196,98,125,24,53,172,17,3,0 // vbroadcastss 0x311ac(%rip),%ymm14 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,162,17,3,0 // vbroadcastss 0x311a2(%rip),%ymm14 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
- .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
- .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,131,17,3,0 // vbroadcastss 0x31183(%rip),%ymm13 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,121,17,3,0 // vbroadcastss 0x31179(%rip),%ymm13 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,66,29,172,235 // vfnmadd213ps %ymm11,%ymm12,%ymm13
- .byte 196,98,125,24,29,111,17,3,0 // vbroadcastss 0x3116f(%rip),%ymm11 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 196,65,36,92,220 // vsubps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,101,17,3,0 // vbroadcastss 0x31165(%rip),%ymm12 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 196,65,28,94,219 // vdivps %ymm11,%ymm12,%ymm11
- .byte 196,65,20,88,219 // vaddps %ymm11,%ymm13,%ymm11
- .byte 196,98,125,24,37,86,17,3,0 // vbroadcastss 0x31156(%rip),%ymm12 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,99,37,74,211,160 // vblendvps %ymm10,%ymm3,%ymm11,%ymm10
- .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- .byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 196,98,125,24,5,104,16,3,0 // vbroadcastss 0x31068(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gamma_hsw
-.globl _sk_gamma_hsw
-FUNCTION(_sk_gamma_hsw)
-_sk_gamma_hsw:
- .byte 72,129,236,248,0,0,0 // sub $0xf8,%rsp
- .byte 197,252,17,188,36,192,0,0,0 // vmovups %ymm7,0xc0(%rsp)
- .byte 197,252,17,180,36,160,0,0,0 // vmovups %ymm6,0xa0(%rsp)
- .byte 197,252,17,172,36,128,0,0,0 // vmovups %ymm5,0x80(%rsp)
- .byte 197,252,17,100,36,96 // vmovups %ymm4,0x60(%rsp)
- .byte 197,252,17,92,36,64 // vmovups %ymm3,0x40(%rsp)
- .byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp)
- .byte 197,252,17,12,36 // vmovups %ymm1,(%rsp)
- .byte 197,124,91,208 // vcvtdq2ps %ymm0,%ymm10
- .byte 196,98,125,24,29,177,16,3,0 // vbroadcastss 0x310b1(%rip),%ymm11 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,226,125,24,37,172,16,3,0 // vbroadcastss 0x310ac(%rip),%ymm4 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 197,124,84,228 // vandps %ymm4,%ymm0,%ymm12
- .byte 196,226,125,24,29,255,15,3,0 // vbroadcastss 0x30fff(%rip),%ymm3 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,252,17,92,36,32 // vmovups %ymm3,0x20(%rsp)
- .byte 197,28,86,227 // vorps %ymm3,%ymm12,%ymm12
- .byte 196,98,125,24,45,144,16,3,0 // vbroadcastss 0x31090(%rip),%ymm13 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
- .byte 197,124,91,241 // vcvtdq2ps %ymm1,%ymm14
- .byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
- .byte 197,124,91,250 // vcvtdq2ps %ymm2,%ymm15
- .byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,226,125,24,45,116,16,3,0 // vbroadcastss 0x31074(%rip),%ymm5 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 196,98,29,188,213 // vfnmadd231ps %ymm5,%ymm12,%ymm10
- .byte 196,226,125,24,13,106,16,3,0 // vbroadcastss 0x3106a(%rip),%ymm1 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
- .byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12
- .byte 196,98,125,24,5,91,16,3,0 // vbroadcastss 0x3105b(%rip),%ymm8 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 196,65,60,94,228 // vdivps %ymm12,%ymm8,%ymm12
- .byte 197,124,17,68,36,128 // vmovups %ymm8,-0x80(%rsp)
- .byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,40 // vbroadcastss (%rax),%ymm13
- .byte 196,65,44,89,213 // vmulps %ymm13,%ymm10,%ymm10
- .byte 196,195,125,8,250,1 // vroundps $0x1,%ymm10,%ymm7
- .byte 197,172,92,255 // vsubps %ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,29,48,16,3,0 // vbroadcastss 0x31030(%rip),%ymm11 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,37,38,16,3,0 // vbroadcastss 0x31026(%rip),%ymm12 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,66,69,188,212 // vfnmadd231ps %ymm12,%ymm7,%ymm10
- .byte 196,98,125,24,13,28,16,3,0 // vbroadcastss 0x3101c(%rip),%ymm9 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 197,180,92,255 // vsubps %ymm7,%ymm9,%ymm7
- .byte 196,226,125,24,13,19,16,3,0 // vbroadcastss 0x31013(%rip),%ymm1 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 197,244,94,255 // vdivps %ymm7,%ymm1,%ymm7
- .byte 197,172,88,255 // vaddps %ymm7,%ymm10,%ymm7
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,193,124,194,242,0 // vcmpeqps %ymm10,%ymm0,%ymm6
- .byte 196,226,125,24,29,251,15,3,0 // vbroadcastss 0x30ffb(%rip),%ymm3 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 197,196,89,251 // vmulps %ymm3,%ymm7,%ymm7
- .byte 197,253,91,255 // vcvtps2dq %ymm7,%ymm7
- .byte 196,195,69,74,194,96 // vblendvps %ymm6,%ymm10,%ymm7,%ymm0
- .byte 197,252,17,68,36,192 // vmovups %ymm0,-0x40(%rsp)
- .byte 197,252,16,4,36 // vmovups (%rsp),%ymm0
- .byte 197,252,84,244 // vandps %ymm4,%ymm0,%ymm6
- .byte 197,252,16,84,36,32 // vmovups 0x20(%rsp),%ymm2
- .byte 197,204,86,242 // vorps %ymm2,%ymm6,%ymm6
- .byte 196,98,77,188,245 // vfnmadd231ps %ymm5,%ymm6,%ymm14
- .byte 197,252,16,124,36,160 // vmovups -0x60(%rsp),%ymm7
- .byte 197,204,88,247 // vaddps %ymm7,%ymm6,%ymm6
- .byte 197,188,94,246 // vdivps %ymm6,%ymm8,%ymm6
- .byte 197,140,92,246 // vsubps %ymm6,%ymm14,%ymm6
- .byte 196,193,76,89,245 // vmulps %ymm13,%ymm6,%ymm6
- .byte 196,99,125,8,246,1 // vroundps $0x1,%ymm6,%ymm14
- .byte 196,65,76,92,246 // vsubps %ymm14,%ymm6,%ymm14
- .byte 196,193,76,88,243 // vaddps %ymm11,%ymm6,%ymm6
- .byte 196,194,13,188,244 // vfnmadd231ps %ymm12,%ymm14,%ymm6
- .byte 196,65,52,92,246 // vsubps %ymm14,%ymm9,%ymm14
- .byte 196,65,116,94,246 // vdivps %ymm14,%ymm1,%ymm14
- .byte 196,193,76,88,246 // vaddps %ymm14,%ymm6,%ymm6
- .byte 196,65,124,194,242,0 // vcmpeqps %ymm10,%ymm0,%ymm14
- .byte 197,204,89,243 // vmulps %ymm3,%ymm6,%ymm6
- .byte 197,253,91,246 // vcvtps2dq %ymm6,%ymm6
- .byte 196,195,77,74,242,224 // vblendvps %ymm14,%ymm10,%ymm6,%ymm6
- .byte 197,124,16,116,36,224 // vmovups -0x20(%rsp),%ymm14
- .byte 197,12,84,196 // vandps %ymm4,%ymm14,%ymm8
- .byte 197,60,86,194 // vorps %ymm2,%ymm8,%ymm8
- .byte 196,98,61,188,253 // vfnmadd231ps %ymm5,%ymm8,%ymm15
- .byte 197,60,88,199 // vaddps %ymm7,%ymm8,%ymm8
- .byte 197,252,16,68,36,128 // vmovups -0x80(%rsp),%ymm0
- .byte 196,193,124,94,232 // vdivps %ymm8,%ymm0,%ymm5
- .byte 197,132,92,237 // vsubps %ymm5,%ymm15,%ymm5
- .byte 196,193,84,89,237 // vmulps %ymm13,%ymm5,%ymm5
- .byte 196,99,125,8,197,1 // vroundps $0x1,%ymm5,%ymm8
- .byte 196,65,84,92,192 // vsubps %ymm8,%ymm5,%ymm8
- .byte 196,193,84,88,227 // vaddps %ymm11,%ymm5,%ymm4
- .byte 196,194,61,188,228 // vfnmadd231ps %ymm12,%ymm8,%ymm4
- .byte 196,193,52,92,208 // vsubps %ymm8,%ymm9,%ymm2
- .byte 197,244,94,202 // vdivps %ymm2,%ymm1,%ymm1
- .byte 197,220,88,201 // vaddps %ymm1,%ymm4,%ymm1
- .byte 197,244,89,195 // vmulps %ymm3,%ymm1,%ymm0
- .byte 196,193,12,194,202,0 // vcmpeqps %ymm10,%ymm14,%ymm1
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,195,125,74,210,16 // vblendvps %ymm1,%ymm10,%ymm0,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,68,36,192 // vmovups -0x40(%rsp),%ymm0
- .byte 197,252,40,206 // vmovaps %ymm6,%ymm1
- .byte 197,252,16,92,36,64 // vmovups 0x40(%rsp),%ymm3
- .byte 197,252,16,100,36,96 // vmovups 0x60(%rsp),%ymm4
- .byte 197,252,16,172,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm5
- .byte 197,252,16,180,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm6
- .byte 197,252,16,188,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm7
- .byte 72,129,196,248,0,0,0 // add $0xf8,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gamma_dst_hsw
-.globl _sk_gamma_dst_hsw
-FUNCTION(_sk_gamma_dst_hsw)
-_sk_gamma_dst_hsw:
- .byte 72,129,236,216,0,0,0 // sub $0xd8,%rsp
- .byte 197,252,17,188,36,160,0,0,0 // vmovups %ymm7,0xa0(%rsp)
- .byte 197,252,17,116,36,128 // vmovups %ymm6,-0x80(%rsp)
- .byte 197,252,17,156,36,128,0,0,0 // vmovups %ymm3,0x80(%rsp)
- .byte 197,252,17,84,36,96 // vmovups %ymm2,0x60(%rsp)
- .byte 197,252,17,76,36,64 // vmovups %ymm1,0x40(%rsp)
- .byte 197,252,17,68,36,32 // vmovups %ymm0,0x20(%rsp)
- .byte 197,124,91,212 // vcvtdq2ps %ymm4,%ymm10
- .byte 196,98,125,24,29,125,14,3,0 // vbroadcastss 0x30e7d(%rip),%ymm11 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,226,125,24,5,120,14,3,0 // vbroadcastss 0x30e78(%rip),%ymm0 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 197,92,84,224 // vandps %ymm0,%ymm4,%ymm12
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 197,252,40,220 // vmovaps %ymm4,%ymm3
- .byte 196,226,125,24,5,195,13,3,0 // vbroadcastss 0x30dc3(%rip),%ymm0 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,252,17,4,36 // vmovups %ymm0,(%rsp)
- .byte 197,28,86,224 // vorps %ymm0,%ymm12,%ymm12
- .byte 196,98,125,24,45,85,14,3,0 // vbroadcastss 0x30e55(%rip),%ymm13 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 196,66,37,168,213 // vfmadd213ps %ymm13,%ymm11,%ymm10
- .byte 197,252,40,197 // vmovaps %ymm5,%ymm0
- .byte 197,124,91,240 // vcvtdq2ps %ymm0,%ymm14
- .byte 196,66,37,168,245 // vfmadd213ps %ymm13,%ymm11,%ymm14
- .byte 197,124,91,124,36,128 // vcvtdq2ps -0x80(%rsp),%ymm15
- .byte 196,66,37,168,253 // vfmadd213ps %ymm13,%ymm11,%ymm15
- .byte 196,226,125,24,45,51,14,3,0 // vbroadcastss 0x30e33(%rip),%ymm5 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 196,98,29,188,213 // vfnmadd231ps %ymm5,%ymm12,%ymm10
- .byte 196,226,125,24,13,41,14,3,0 // vbroadcastss 0x30e29(%rip),%ymm1 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 197,252,17,76,36,192 // vmovups %ymm1,-0x40(%rsp)
- .byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12
- .byte 196,98,125,24,13,26,14,3,0 // vbroadcastss 0x30e1a(%rip),%ymm9 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 196,65,52,94,228 // vdivps %ymm12,%ymm9,%ymm12
- .byte 197,124,17,76,36,160 // vmovups %ymm9,-0x60(%rsp)
- .byte 196,65,44,92,212 // vsubps %ymm12,%ymm10,%ymm10
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,40 // vbroadcastss (%rax),%ymm13
- .byte 196,65,44,89,213 // vmulps %ymm13,%ymm10,%ymm10
- .byte 196,195,125,8,250,1 // vroundps $0x1,%ymm10,%ymm7
- .byte 197,172,92,255 // vsubps %ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,29,239,13,3,0 // vbroadcastss 0x30def(%rip),%ymm11 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,37,229,13,3,0 // vbroadcastss 0x30de5(%rip),%ymm12 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,66,69,188,212 // vfnmadd231ps %ymm12,%ymm7,%ymm10
- .byte 196,98,125,24,5,219,13,3,0 // vbroadcastss 0x30ddb(%rip),%ymm8 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 197,188,92,255 // vsubps %ymm7,%ymm8,%ymm7
- .byte 196,226,125,24,13,210,13,3,0 // vbroadcastss 0x30dd2(%rip),%ymm1 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 197,244,94,255 // vdivps %ymm7,%ymm1,%ymm7
- .byte 197,172,88,255 // vaddps %ymm7,%ymm10,%ymm7
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,193,100,194,242,0 // vcmpeqps %ymm10,%ymm3,%ymm6
- .byte 196,226,125,24,29,186,13,3,0 // vbroadcastss 0x30dba(%rip),%ymm3 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 197,196,89,251 // vmulps %ymm3,%ymm7,%ymm7
- .byte 197,253,91,255 // vcvtps2dq %ymm7,%ymm7
- .byte 196,195,69,74,226,96 // vblendvps %ymm6,%ymm10,%ymm7,%ymm4
- .byte 197,252,17,100,36,224 // vmovups %ymm4,-0x20(%rsp)
- .byte 197,252,40,226 // vmovaps %ymm2,%ymm4
- .byte 197,252,84,244 // vandps %ymm4,%ymm0,%ymm6
- .byte 197,252,16,20,36 // vmovups (%rsp),%ymm2
- .byte 197,204,86,242 // vorps %ymm2,%ymm6,%ymm6
- .byte 196,98,77,188,245 // vfnmadd231ps %ymm5,%ymm6,%ymm14
- .byte 197,252,16,124,36,192 // vmovups -0x40(%rsp),%ymm7
- .byte 197,204,88,247 // vaddps %ymm7,%ymm6,%ymm6
- .byte 197,180,94,246 // vdivps %ymm6,%ymm9,%ymm6
- .byte 197,140,92,246 // vsubps %ymm6,%ymm14,%ymm6
- .byte 196,193,76,89,245 // vmulps %ymm13,%ymm6,%ymm6
- .byte 196,99,125,8,246,1 // vroundps $0x1,%ymm6,%ymm14
- .byte 196,65,76,92,246 // vsubps %ymm14,%ymm6,%ymm14
- .byte 196,193,76,88,243 // vaddps %ymm11,%ymm6,%ymm6
- .byte 196,194,13,188,244 // vfnmadd231ps %ymm12,%ymm14,%ymm6
- .byte 196,65,60,92,246 // vsubps %ymm14,%ymm8,%ymm14
- .byte 196,65,116,94,246 // vdivps %ymm14,%ymm1,%ymm14
- .byte 196,193,76,88,246 // vaddps %ymm14,%ymm6,%ymm6
- .byte 196,65,124,194,242,0 // vcmpeqps %ymm10,%ymm0,%ymm14
- .byte 197,204,89,243 // vmulps %ymm3,%ymm6,%ymm6
- .byte 197,253,91,246 // vcvtps2dq %ymm6,%ymm6
- .byte 196,67,77,74,242,224 // vblendvps %ymm14,%ymm10,%ymm6,%ymm14
- .byte 197,124,16,76,36,128 // vmovups -0x80(%rsp),%ymm9
- .byte 197,180,84,244 // vandps %ymm4,%ymm9,%ymm6
- .byte 197,204,86,242 // vorps %ymm2,%ymm6,%ymm6
- .byte 196,98,77,188,253 // vfnmadd231ps %ymm5,%ymm6,%ymm15
- .byte 197,204,88,247 // vaddps %ymm7,%ymm6,%ymm6
- .byte 197,252,16,68,36,160 // vmovups -0x60(%rsp),%ymm0
- .byte 197,252,94,238 // vdivps %ymm6,%ymm0,%ymm5
- .byte 197,132,92,237 // vsubps %ymm5,%ymm15,%ymm5
- .byte 196,193,84,89,237 // vmulps %ymm13,%ymm5,%ymm5
- .byte 196,227,125,8,245,1 // vroundps $0x1,%ymm5,%ymm6
- .byte 197,212,92,246 // vsubps %ymm6,%ymm5,%ymm6
- .byte 196,193,84,88,227 // vaddps %ymm11,%ymm5,%ymm4
- .byte 196,194,77,188,228 // vfnmadd231ps %ymm12,%ymm6,%ymm4
- .byte 197,188,92,214 // vsubps %ymm6,%ymm8,%ymm2
- .byte 197,244,94,202 // vdivps %ymm2,%ymm1,%ymm1
- .byte 197,220,88,201 // vaddps %ymm1,%ymm4,%ymm1
- .byte 197,244,89,195 // vmulps %ymm3,%ymm1,%ymm0
- .byte 196,193,52,194,202,0 // vcmpeqps %ymm10,%ymm9,%ymm1
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,195,125,74,242,16 // vblendvps %ymm1,%ymm10,%ymm0,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,68,36,32 // vmovups 0x20(%rsp),%ymm0
- .byte 197,252,16,76,36,64 // vmovups 0x40(%rsp),%ymm1
- .byte 197,252,16,84,36,96 // vmovups 0x60(%rsp),%ymm2
- .byte 197,252,16,156,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm3
- .byte 197,252,16,100,36,224 // vmovups -0x20(%rsp),%ymm4
- .byte 197,124,41,245 // vmovaps %ymm14,%ymm5
- .byte 197,252,16,188,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm7
- .byte 72,129,196,216,0,0,0 // add $0xd8,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lab_to_xyz_hsw
-.globl _sk_lab_to_xyz_hsw
-FUNCTION(_sk_lab_to_xyz_hsw)
-_sk_lab_to_xyz_hsw:
- .byte 196,98,125,24,5,165,12,3,0 // vbroadcastss 0x30ca5(%rip),%ymm8 # 3c5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- .byte 196,98,125,24,13,4,12,3,0 // vbroadcastss 0x30c04(%rip),%ymm9 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,21,151,12,3,0 // vbroadcastss 0x30c97(%rip),%ymm10 # 3c5c4 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
- .byte 196,194,53,168,202 // vfmadd213ps %ymm10,%ymm9,%ymm1
- .byte 196,194,53,168,210 // vfmadd213ps %ymm10,%ymm9,%ymm2
- .byte 196,98,125,24,13,136,12,3,0 // vbroadcastss 0x30c88(%rip),%ymm9 # 3c5c8 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
- .byte 196,66,125,184,200 // vfmadd231ps %ymm8,%ymm0,%ymm9
- .byte 196,226,125,24,5,126,12,3,0 // vbroadcastss 0x30c7e(%rip),%ymm0 # 3c5cc <_sk_srcover_bgra_8888_sse2_lowp+0x380>
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,117,12,3,0 // vbroadcastss 0x30c75(%rip),%ymm8 # 3c5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
- .byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 196,98,125,24,13,107,12,3,0 // vbroadcastss 0x30c6b(%rip),%ymm9 # 3c5d4 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
- .byte 196,98,109,172,200 // vfnmadd213ps %ymm0,%ymm2,%ymm9
- .byte 196,193,60,89,200 // vmulps %ymm8,%ymm8,%ymm1
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,226,125,24,21,88,12,3,0 // vbroadcastss 0x30c58(%rip),%ymm2 # 3c5d8 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
- .byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,98,125,24,29,78,12,3,0 // vbroadcastss 0x30c4e(%rip),%ymm11 # 3c5dc <_sk_srcover_bgra_8888_sse2_lowp+0x390>
- .byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,37,68,12,3,0 // vbroadcastss 0x30c44(%rip),%ymm12 # 3c5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
- .byte 196,65,60,89,196 // vmulps %ymm12,%ymm8,%ymm8
- .byte 196,99,61,74,193,160 // vblendvps %ymm10,%ymm1,%ymm8,%ymm8
- .byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
- .byte 197,252,89,201 // vmulps %ymm1,%ymm0,%ymm1
- .byte 197,108,194,209,1 // vcmpltps %ymm1,%ymm2,%ymm10
- .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,193,124,89,196 // vmulps %ymm12,%ymm0,%ymm0
- .byte 196,227,125,74,201,160 // vblendvps %ymm10,%ymm1,%ymm0,%ymm1
- .byte 196,193,52,89,193 // vmulps %ymm9,%ymm9,%ymm0
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 197,236,194,208,1 // vcmpltps %ymm0,%ymm2,%ymm2
- .byte 196,65,52,88,203 // vaddps %ymm11,%ymm9,%ymm9
- .byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
- .byte 196,227,53,74,208,32 // vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- .byte 196,226,125,24,5,249,11,3,0 // vbroadcastss 0x30bf9(%rip),%ymm0 # 3c5e4 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,240,11,3,0 // vbroadcastss 0x30bf0(%rip),%ymm8 # 3c5e8 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_a8_hsw
-.globl _sk_load_a8_hsw
-FUNCTION(_sk_load_a8_hsw)
-_sk_load_a8_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne ba47 <_sk_load_a8_hsw+0x46>
- .byte 196,194,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm0
- .byte 197,249,219,5,143,20,3,0 // vpand 0x3148f(%rip),%xmm0,%xmm0 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,65,11,3,0 // vbroadcastss 0x30b41(%rip),%ymm1 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,196 // ja ba19 <_sk_load_a8_hsw+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,117,0,0,0 // lea 0x75(%rip),%r9 # bad4 <_sk_load_a8_hsw+0xd3>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,166 // jmp ba19 <_sk_load_a8_hsw+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
- .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,129 // jmp ba19 <_sk_load_a8_hsw+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0
- .byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
- .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
- .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,70,255,255,255 // jmpq ba19 <_sk_load_a8_hsw+0x18>
- .byte 144 // nop
- .byte 148 // xchg %eax,%esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,174,255,255,255,159 // ljmp *-0x60000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 233,255,255,255,222 // jmpq ffffffffdf00bae4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdefcf898>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,196 // inc %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_dst_hsw
-.globl _sk_load_a8_dst_hsw
-FUNCTION(_sk_load_a8_dst_hsw)
-_sk_load_a8_dst_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne bb36 <_sk_load_a8_dst_hsw+0x46>
- .byte 196,194,121,48,36,16 // vpmovzxbw (%r8,%rdx,1),%xmm4
- .byte 197,217,219,37,160,19,3,0 // vpand 0x313a0(%rip),%xmm4,%xmm4 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,82,10,3,0 // vbroadcastss 0x30a52(%rip),%ymm5 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,196 // ja bb08 <_sk_load_a8_dst_hsw+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,118,0,0,0 // lea 0x76(%rip),%r9 # bbc4 <_sk_load_a8_dst_hsw+0xd4>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,166 // jmp bb08 <_sk_load_a8_dst_hsw+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,249,110,232 // vmovd %eax,%xmm5
- .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
- .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,129 // jmp bb08 <_sk_load_a8_dst_hsw+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,217,196,224,5 // vpinsrw $0x5,%eax,%xmm4,%xmm4
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,217,196,224,4 // vpinsrw $0x4,%eax,%xmm4,%xmm4
- .byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
- .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
- .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,70,255,255,255 // jmpq bb08 <_sk_load_a8_dst_hsw+0x18>
- .byte 102,144 // xchg %ax,%ax
- .byte 147 // xchg %eax,%ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,173,255,255,255,158 // ljmp *-0x61000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00bbd4 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfcf988>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,195 // inc %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_a8_hsw
-.globl _sk_gather_a8_hsw
-FUNCTION(_sk_gather_a8_hsw)
-_sk_gather_a8_hsw:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2
- .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,194 // vmovq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,199 // vmovq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 71,15,182,28,24 // movzbl (%r8,%r11,1),%r11d
- .byte 196,193,121,110,195 // vmovd %r11d,%xmm0
- .byte 196,195,121,32,194,1 // vpinsrb $0x1,%r10d,%xmm0,%xmm0
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0
- .byte 67,15,182,4,32 // movzbl (%r8,%r12,1),%eax
- .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0
- .byte 67,15,182,4,56 // movzbl (%r8,%r15,1),%eax
- .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0
- .byte 67,15,182,4,48 // movzbl (%r8,%r14,1),%eax
- .byte 196,227,121,32,192,6 // vpinsrb $0x6,%eax,%xmm0,%xmm0
- .byte 65,15,182,4,24 // movzbl (%r8,%rbx,1),%eax
- .byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
- .byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,163,8,3,0 // vbroadcastss 0x308a3(%rip),%ymm1 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_a8_hsw
-.globl _sk_store_a8_hsw
-FUNCTION(_sk_store_a8_hsw)
-_sk_store_a8_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,241,7,3,0 // vbroadcastss 0x307f1(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,15,8,3,0 // vbroadcastss 0x3080f(%rip),%ymm9 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
- .byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne bd41 <_sk_store_a8_hsw+0x55>
- .byte 196,65,121,214,4,16 // vmovq %xmm8,(%r8,%rdx,1)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja bd3d <_sk_store_a8_hsw+0x51>
- .byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,86,0,0,0 // lea 0x56(%rip),%r9 # bdb0 <_sk_store_a8_hsw+0xc4>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,209 // jmp bd3d <_sk_store_a8_hsw+0x51>
- .byte 196,67,121,20,68,16,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%rdx,1)
- .byte 196,98,57,0,5,67,17,3,0 // vpshufb 0x31143(%rip),%xmm8,%xmm8 # 3cec0 <_sk_srcover_bgra_8888_sse2_lowp+0xc74>
- .byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,183 // jmp bd3d <_sk_store_a8_hsw+0x51>
- .byte 196,67,121,20,68,16,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%rdx,1)
- .byte 196,67,121,20,68,16,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%rdx,1)
- .byte 196,67,121,20,68,16,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%rdx,1)
- .byte 196,98,57,0,5,41,17,3,0 // vpshufb 0x31129(%rip),%xmm8,%xmm8 # 3ced0 <_sk_srcover_bgra_8888_sse2_lowp+0xc84>
- .byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,142 // jmp bd3d <_sk_store_a8_hsw+0x51>
- .byte 144 // nop
- .byte 179,255 // mov $0xff,%bl
- .byte 255 // (bad)
- .byte 255,196 // inc %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 188,255,255,255,238 // mov $0xeeffffff,%esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
- .byte 255 // (bad)
- .byte 255,214 // callq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_hsw
-.globl _sk_load_g8_hsw
-FUNCTION(_sk_load_g8_hsw)
-_sk_load_g8_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne be17 <_sk_load_g8_hsw+0x4b>
- .byte 196,194,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm0
- .byte 197,249,219,5,196,16,3,0 // vpand 0x310c4(%rip),%xmm0,%xmm0 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,118,7,3,0 // vbroadcastss 0x30776(%rip),%ymm1 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,239,6,3,0 // vbroadcastss 0x306ef(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,191 // ja bde4 <_sk_load_g8_hsw+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # bea8 <_sk_load_g8_hsw+0xdc>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,161 // jmp bde4 <_sk_load_g8_hsw+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
- .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,121,255,255,255 // jmpq bde4 <_sk_load_g8_hsw+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0
- .byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
- .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
- .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,62,255,255,255 // jmpq bde4 <_sk_load_g8_hsw+0x18>
- .byte 102,144 // xchg %ax,%ax
- .byte 144 // nop
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,170,255,255,255,155 // ljmp *-0x64000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00beb8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfcfc6c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,195 // inc %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_dst_hsw
-.globl _sk_load_g8_dst_hsw
-FUNCTION(_sk_load_g8_dst_hsw)
-_sk_load_g8_dst_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,57 // jne bf0f <_sk_load_g8_dst_hsw+0x4b>
- .byte 196,194,121,48,36,16 // vpmovzxbw (%r8,%rdx,1),%xmm4
- .byte 197,217,219,37,204,15,3,0 // vpand 0x30fcc(%rip),%xmm4,%xmm4 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,226,125,51,228 // vpmovzxwd %xmm4,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,126,6,3,0 // vbroadcastss 0x3067e(%rip),%ymm5 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,247,5,3,0 // vbroadcastss 0x305f7(%rip),%ymm7 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,40,236 // vmovaps %ymm4,%ymm5
- .byte 197,252,40,244 // vmovaps %ymm4,%ymm6
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,191 // ja bedc <_sk_load_g8_dst_hsw+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # bfa0 <_sk_load_g8_dst_hsw+0xdc>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,161 // jmp bedc <_sk_load_g8_dst_hsw+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,249,110,232 // vmovd %eax,%xmm5
- .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
- .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,121,255,255,255 // jmpq bedc <_sk_load_g8_dst_hsw+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,217,196,224,5 // vpinsrw $0x5,%eax,%xmm4,%xmm4
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,217,196,224,4 // vpinsrw $0x4,%eax,%xmm4,%xmm4
- .byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
- .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
- .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,62,255,255,255 // jmpq bedc <_sk_load_g8_dst_hsw+0x18>
- .byte 102,144 // xchg %ax,%ax
- .byte 144 // nop
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,170,255,255,255,155 // ljmp *-0x64000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde00bfb0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfcfd64>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,195 // inc %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_g8_hsw
-.globl _sk_gather_g8_hsw
-FUNCTION(_sk_gather_g8_hsw)
-_sk_gather_g8_hsw:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2
- .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,194 // vmovq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,199 // vmovq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 71,15,182,28,24 // movzbl (%r8,%r11,1),%r11d
- .byte 196,193,121,110,195 // vmovd %r11d,%xmm0
- .byte 196,195,121,32,194,1 // vpinsrb $0x1,%r10d,%xmm0,%xmm0
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm0
- .byte 67,15,182,4,32 // movzbl (%r8,%r12,1),%eax
- .byte 196,227,121,32,192,4 // vpinsrb $0x4,%eax,%xmm0,%xmm0
- .byte 67,15,182,4,56 // movzbl (%r8,%r15,1),%eax
- .byte 196,227,121,32,192,5 // vpinsrb $0x5,%eax,%xmm0,%xmm0
- .byte 67,15,182,4,48 // movzbl (%r8,%r14,1),%eax
- .byte 196,227,121,32,192,6 // vpinsrb $0x6,%eax,%xmm0,%xmm0
- .byte 65,15,182,4,24 // movzbl (%r8,%rbx,1),%eax
- .byte 196,227,121,32,192,7 // vpinsrb $0x7,%eax,%xmm0,%xmm0
- .byte 196,226,125,49,192 // vpmovzxbd %xmm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,199,4,3,0 // vbroadcastss 0x304c7(%rip),%ymm1 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,64,4,3,0 // vbroadcastss 0x30440(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_565_hsw
-.globl _sk_load_565_hsw
-FUNCTION(_sk_load_565_hsw)
-_sk_load_565_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne c154 <_sk_load_565_hsw+0x87>
- .byte 196,193,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm0
- .byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,130,4,3,0 // vpbroadcastd 0x30482(%rip),%ymm0 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,117,4,3,0 // vbroadcastss 0x30475(%rip),%ymm1 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,108,4,3,0 // vpbroadcastd 0x3046c(%rip),%ymm1 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,95,4,3,0 // vbroadcastss 0x3045f(%rip),%ymm3 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,86,4,3,0 // vpbroadcastd 0x30456(%rip),%ymm3 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,73,4,3,0 // vbroadcastss 0x30449(%rip),%ymm3 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,170,3,3,0 // vbroadcastss 0x303aa(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,134 // ja c0e8 <_sk_load_565_hsw+0x1b>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,100,0,0,0 // lea 0x64(%rip),%r9 # c1d0 <_sk_load_565_hsw+0x103>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,101,255,255,255 // jmpq c0e8 <_sk_load_565_hsw+0x1b>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
- .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,72,255,255,255 // jmpq c0e8 <_sk_load_565_hsw+0x1b>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
- .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,27,255,255,255 // jmpq c0e8 <_sk_load_565_hsw+0x1b>
- .byte 15,31,0 // nopl (%rax)
- .byte 165 // movsl %ds:(%rsi),%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,179 // mov $0xb3ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 236 // in (%dx),%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,228 // jmpq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,208 // callq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_565_dst_hsw
-.globl _sk_load_565_dst_hsw
-FUNCTION(_sk_load_565_dst_hsw)
-_sk_load_565_dst_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,114 // jne c273 <_sk_load_565_dst_hsw+0x87>
- .byte 196,193,122,111,36,80 // vmovdqu (%r8,%rdx,2),%xmm4
- .byte 196,226,125,51,244 // vpmovzxwd %xmm4,%ymm6
- .byte 196,226,125,88,37,99,3,3,0 // vpbroadcastd 0x30363(%rip),%ymm4 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 197,205,219,228 // vpand %ymm4,%ymm6,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,86,3,3,0 // vbroadcastss 0x30356(%rip),%ymm5 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,77,3,3,0 // vpbroadcastd 0x3034d(%rip),%ymm5 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,64,3,3,0 // vbroadcastss 0x30340(%rip),%ymm7 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,88,61,55,3,3,0 // vpbroadcastd 0x30337(%rip),%ymm7 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,42,3,3,0 // vbroadcastss 0x3032a(%rip),%ymm7 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,139,2,3,0 // vbroadcastss 0x3028b(%rip),%ymm7 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,134 // ja c207 <_sk_load_565_dst_hsw+0x1b>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # c2ec <_sk_load_565_dst_hsw+0x100>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,101,255,255,255 // jmpq c207 <_sk_load_565_dst_hsw+0x1b>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,100,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
- .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,72,255,255,255 // jmpq c207 <_sk_load_565_dst_hsw+0x1b>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,100,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,89,196,100,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,89,196,100,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
- .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,27,255,255,255 // jmpq c207 <_sk_load_565_dst_hsw+0x1b>
- .byte 168,255 // test $0xff,%al
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,182,255,255,255,239 // pushq -0x10000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_565_hsw
-.globl _sk_gather_565_hsw
-FUNCTION(_sk_gather_565_hsw)
-_sk_gather_565_hsw:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2
- .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,194 // vmovq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,199 // vmovq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,183,20,80 // movzwl (%r8,%r10,2),%r10d
- .byte 71,15,183,28,88 // movzwl (%r8,%r11,2),%r11d
- .byte 196,193,121,110,195 // vmovd %r11d,%xmm0
- .byte 196,193,121,196,194,1 // vpinsrw $0x1,%r10d,%xmm0,%xmm0
- .byte 71,15,183,12,72 // movzwl (%r8,%r9,2),%r9d
- .byte 196,193,121,196,193,2 // vpinsrw $0x2,%r9d,%xmm0,%xmm0
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,249,196,192,3 // vpinsrw $0x3,%eax,%xmm0,%xmm0
- .byte 67,15,183,4,96 // movzwl (%r8,%r12,2),%eax
- .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0
- .byte 67,15,183,4,120 // movzwl (%r8,%r15,2),%eax
- .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0
- .byte 67,15,183,4,112 // movzwl (%r8,%r14,2),%eax
- .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
- .byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
- .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
- .byte 196,226,125,51,208 // vpmovzxwd %xmm0,%ymm2
- .byte 196,226,125,88,5,136,1,3,0 // vpbroadcastd 0x30188(%rip),%ymm0 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 197,237,219,192 // vpand %ymm0,%ymm2,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,123,1,3,0 // vbroadcastss 0x3017b(%rip),%ymm1 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,114,1,3,0 // vpbroadcastd 0x30172(%rip),%ymm1 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,101,1,3,0 // vbroadcastss 0x30165(%rip),%ymm3 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,88,29,92,1,3,0 // vpbroadcastd 0x3015c(%rip),%ymm3 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,79,1,3,0 // vbroadcastss 0x3014f(%rip),%ymm3 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,176,0,3,0 // vbroadcastss 0x300b0(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_565_hsw
-.globl _sk_store_565_hsw
-FUNCTION(_sk_store_565_hsw)
-_sk_store_565_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,133,0,3,0 // vbroadcastss 0x30085(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,103,1,3,0 // vbroadcastss 0x30167(%rip),%ymm11 # 3c5ec <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,193,53,114,241,11 // vpslld $0xb,%ymm9,%ymm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,98,125,24,45,73,1,3,0 // vbroadcastss 0x30149(%rip),%ymm13 # 3c5f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
- .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,5 // vpslld $0x5,%ymm12,%ymm12
- .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
- .byte 197,60,95,194 // vmaxps %ymm2,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c4ee <_sk_store_565_hsw+0x99>
- .byte 196,65,122,127,4,80 // vmovdqu %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja c4ea <_sk_store_565_hsw+0x95>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,66,0,0,0 // lea 0x42(%rip),%r9 # c544 <_sk_store_565_hsw+0xef>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,214 // jmp c4ea <_sk_store_565_hsw+0x95>
- .byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- .byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 235,198 // jmp c4ea <_sk_store_565_hsw+0x95>
- .byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- .byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,166 // jmp c4ea <_sk_store_565_hsw+0x95>
- .byte 199 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
- .byte 255 // (bad)
- .byte 255,208 // callq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 248 // clc
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,240 // push %rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe100c55c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fd0310>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_4444_hsw
-.globl _sk_load_4444_hsw
-FUNCTION(_sk_load_4444_hsw)
-_sk_load_4444_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne c603 <_sk_load_4444_hsw+0xa3>
- .byte 196,193,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm0
- .byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,103,0,3,0 // vpbroadcastd 0x30067(%rip),%ymm0 # 3c5f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- .byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,90,0,3,0 // vbroadcastss 0x3005a(%rip),%ymm1 # 3c5f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,81,0,3,0 // vpbroadcastd 0x30051(%rip),%ymm1 # 3c5fc <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- .byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,68,0,3,0 // vbroadcastss 0x30044(%rip),%ymm2 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,59,0,3,0 // vpbroadcastd 0x3003b(%rip),%ymm2 # 3c604 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- .byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,46,0,3,0 // vbroadcastss 0x3002e(%rip),%ymm8 # 3c608 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,36,0,3,0 // vpbroadcastd 0x30024(%rip),%ymm8 # 3c60c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- .byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,22,0,3,0 // vbroadcastss 0x30016(%rip),%ymm8 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,106,255,255,255 // ja c57f <_sk_load_4444_hsw+0x1f>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # c680 <_sk_load_4444_hsw+0x120>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,73,255,255,255 // jmpq c57f <_sk_load_4444_hsw+0x1f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
- .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,44,255,255,255 // jmpq c57f <_sk_load_4444_hsw+0x1f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
- .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 233,255,254,255,255 // jmpq c57f <_sk_load_4444_hsw+0x1f>
- .byte 168,255 // test $0xff,%al
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,182,255,255,255,239 // pushq -0x10000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_4444_dst_hsw
-.globl _sk_load_4444_dst_hsw
-FUNCTION(_sk_load_4444_dst_hsw)
-_sk_load_4444_dst_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,138,0,0,0 // jne c73f <_sk_load_4444_dst_hsw+0xa3>
- .byte 196,193,122,111,36,80 // vmovdqu (%r8,%rdx,2),%xmm4
- .byte 196,226,125,51,252 // vpmovzxwd %xmm4,%ymm7
- .byte 196,226,125,88,37,43,255,2,0 // vpbroadcastd 0x2ff2b(%rip),%ymm4 # 3c5f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- .byte 197,197,219,228 // vpand %ymm4,%ymm7,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,30,255,2,0 // vbroadcastss 0x2ff1e(%rip),%ymm5 # 3c5f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,88,45,21,255,2,0 // vpbroadcastd 0x2ff15(%rip),%ymm5 # 3c5fc <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- .byte 197,197,219,237 // vpand %ymm5,%ymm7,%ymm5
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,8,255,2,0 // vbroadcastss 0x2ff08(%rip),%ymm6 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,88,53,255,254,2,0 // vpbroadcastd 0x2feff(%rip),%ymm6 # 3c604 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- .byte 197,197,219,246 // vpand %ymm6,%ymm7,%ymm6
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,242,254,2,0 // vbroadcastss 0x2fef2(%rip),%ymm8 # 3c608 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,88,5,232,254,2,0 // vpbroadcastd 0x2fee8(%rip),%ymm8 # 3c60c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- .byte 196,193,69,219,248 // vpand %ymm8,%ymm7,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,218,254,2,0 // vbroadcastss 0x2feda(%rip),%ymm8 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,106,255,255,255 // ja c6bb <_sk_load_4444_dst_hsw+0x1f>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # c7bc <_sk_load_4444_dst_hsw+0x120>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,73,255,255,255 // jmpq c6bb <_sk_load_4444_dst_hsw+0x1f>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,100,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
- .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,44,255,255,255 // jmpq c6bb <_sk_load_4444_dst_hsw+0x1f>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,100,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,89,196,100,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,89,196,100,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
- .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 233,255,254,255,255 // jmpq c6bb <_sk_load_4444_dst_hsw+0x1f>
- .byte 168,255 // test $0xff,%al
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,182,255,255,255,239 // pushq -0x10000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_4444_hsw
-.globl _sk_gather_4444_hsw
-FUNCTION(_sk_gather_4444_hsw)
-_sk_gather_4444_hsw:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2
- .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,194 // vmovq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,199 // vmovq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,183,20,80 // movzwl (%r8,%r10,2),%r10d
- .byte 71,15,183,28,88 // movzwl (%r8,%r11,2),%r11d
- .byte 196,193,121,110,195 // vmovd %r11d,%xmm0
- .byte 196,193,121,196,194,1 // vpinsrw $0x1,%r10d,%xmm0,%xmm0
- .byte 71,15,183,12,72 // movzwl (%r8,%r9,2),%r9d
- .byte 196,193,121,196,193,2 // vpinsrw $0x2,%r9d,%xmm0,%xmm0
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,249,196,192,3 // vpinsrw $0x3,%eax,%xmm0,%xmm0
- .byte 67,15,183,4,96 // movzwl (%r8,%r12,2),%eax
- .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0
- .byte 67,15,183,4,120 // movzwl (%r8,%r15,2),%eax
- .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0
- .byte 67,15,183,4,112 // movzwl (%r8,%r14,2),%eax
- .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
- .byte 65,15,183,4,88 // movzwl (%r8,%rbx,2),%eax
- .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
- .byte 196,226,125,51,216 // vpmovzxwd %xmm0,%ymm3
- .byte 196,226,125,88,5,52,253,2,0 // vpbroadcastd 0x2fd34(%rip),%ymm0 # 3c5f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- .byte 197,229,219,192 // vpand %ymm0,%ymm3,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,39,253,2,0 // vbroadcastss 0x2fd27(%rip),%ymm1 # 3c5f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,88,13,30,253,2,0 // vpbroadcastd 0x2fd1e(%rip),%ymm1 # 3c5fc <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- .byte 197,229,219,201 // vpand %ymm1,%ymm3,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,17,253,2,0 // vbroadcastss 0x2fd11(%rip),%ymm2 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,88,21,8,253,2,0 // vpbroadcastd 0x2fd08(%rip),%ymm2 # 3c604 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- .byte 197,229,219,210 // vpand %ymm2,%ymm3,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,251,252,2,0 // vbroadcastss 0x2fcfb(%rip),%ymm8 # 3c608 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,88,5,241,252,2,0 // vpbroadcastd 0x2fcf1(%rip),%ymm8 # 3c60c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- .byte 196,193,101,219,216 // vpand %ymm8,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,227,252,2,0 // vbroadcastss 0x2fce3(%rip),%ymm8 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_4444_hsw
-.globl _sk_store_4444_hsw
-FUNCTION(_sk_store_4444_hsw)
-_sk_store_4444_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,157,251,2,0 // vbroadcastss 0x2fb9d(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,167,252,2,0 // vbroadcastss 0x2fca7(%rip),%ymm11 # 3c614 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,193,53,114,241,12 // vpslld $0xc,%ymm9,%ymm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
- .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
- .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,4 // vpslld $0x4,%ymm12,%ymm12
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne c9eb <_sk_store_4444_hsw+0xae>
- .byte 196,65,122,127,4,80 // vmovdqu %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja c9e7 <_sk_store_4444_hsw+0xaa>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,69,0,0,0 // lea 0x45(%rip),%r9 # ca44 <_sk_store_4444_hsw+0x107>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,214 // jmp c9e7 <_sk_store_4444_hsw+0xaa>
- .byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- .byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 235,198 // jmp c9e7 <_sk_store_4444_hsw+0xaa>
- .byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- .byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,166 // jmp c9e7 <_sk_store_4444_hsw+0xaa>
- .byte 15,31,0 // nopl (%rax)
- .byte 196 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,245 // push %rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 237 // in (%dx),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_8888_hsw
-.globl _sk_load_8888_hsw
-FUNCTION(_sk_load_8888_hsw)
-_sk_load_8888_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne cacc <_sk_load_8888_hsw+0x6c>
- .byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,5,156,253,2,0 // vpand 0x2fd9c(%rip),%ymm3,%ymm0 # 3c820 <_sk_srcover_bgra_8888_sse2_lowp+0x5d4>
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,227,250,2,0 // vbroadcastss 0x2fae3(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,226,101,0,13,161,253,2,0 // vpshufb 0x2fda1(%rip),%ymm3,%ymm1 # 3c840 <_sk_srcover_bgra_8888_sse2_lowp+0x5f4>
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,101,0,21,175,253,2,0 // vpshufb 0x2fdaf(%rip),%ymm3,%ymm2 # 3c860 <_sk_srcover_bgra_8888_sse2_lowp+0x614>
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,162 // ja ca7c <_sk_load_8888_hsw+0x1c>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,136,0,0,0 // lea 0x88(%rip),%r9 # cb6c <_sk_load_8888_hsw+0x10c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 235,135 // jmp ca7c <_sk_load_8888_hsw+0x1c>
- .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
- .byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
- .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,96,255,255,255 // jmpq ca7c <_sk_load_8888_hsw+0x1c>
- .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,216,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
- .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,17,255,255,255 // jmpq ca7c <_sk_load_8888_hsw+0x1c>
- .byte 144 // nop
- .byte 129,255,255,255,159,255 // cmp $0xff9fffff,%edi
- .byte 255 // (bad)
- .byte 255,137,255,255,255,238 // decl -0x11000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 176,255 // mov $0xff,%al
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_8888_dst_hsw
-.globl _sk_load_8888_dst_hsw
-FUNCTION(_sk_load_8888_dst_hsw)
-_sk_load_8888_dst_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne cbf4 <_sk_load_8888_dst_hsw+0x6c>
- .byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
- .byte 197,197,219,37,212,252,2,0 // vpand 0x2fcd4(%rip),%ymm7,%ymm4 # 3c880 <_sk_srcover_bgra_8888_sse2_lowp+0x634>
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,187,249,2,0 // vbroadcastss 0x2f9bb(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,226,69,0,45,217,252,2,0 // vpshufb 0x2fcd9(%rip),%ymm7,%ymm5 # 3c8a0 <_sk_srcover_bgra_8888_sse2_lowp+0x654>
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,226,69,0,53,231,252,2,0 // vpshufb 0x2fce7(%rip),%ymm7,%ymm6 # 3c8c0 <_sk_srcover_bgra_8888_sse2_lowp+0x674>
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,162 // ja cba4 <_sk_load_8888_dst_hsw+0x1c>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,136,0,0,0 // lea 0x88(%rip),%r9 # cc94 <_sk_load_8888_dst_hsw+0x10c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 235,135 // jmp cba4 <_sk_load_8888_dst_hsw+0x1c>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
- .byte 196,193,122,126,36,144 // vmovq (%r8,%rdx,4),%xmm4
- .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,96,255,255,255 // jmpq cba4 <_sk_load_8888_dst_hsw+0x1c>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
- .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,17,255,255,255 // jmpq cba4 <_sk_load_8888_dst_hsw+0x1c>
- .byte 144 // nop
- .byte 129,255,255,255,159,255 // cmp $0xff9fffff,%edi
- .byte 255 // (bad)
- .byte 255,137,255,255,255,238 // decl -0x11000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 176,255 // mov $0xff,%al
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_8888_hsw
-.globl _sk_gather_8888_hsw
-FUNCTION(_sk_gather_8888_hsw)
-_sk_gather_8888_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2
- .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,217,251,2,0 // vpand 0x2fbd9(%rip),%ymm8,%ymm0 # 3c8e0 <_sk_srcover_bgra_8888_sse2_lowp+0x694>
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,96,248,2,0 // vbroadcastss 0x2f860(%rip),%ymm3 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,61,0,13,223,251,2,0 // vpshufb 0x2fbdf(%rip),%ymm8,%ymm1 # 3c900 <_sk_srcover_bgra_8888_sse2_lowp+0x6b4>
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,61,0,21,238,251,2,0 // vpshufb 0x2fbee(%rip),%ymm8,%ymm2 # 3c920 <_sk_srcover_bgra_8888_sse2_lowp+0x6d4>
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_8888_hsw
-.globl _sk_store_8888_hsw
-FUNCTION(_sk_store_8888_hsw)
-_sk_store_8888_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,140,247,2,0 // vbroadcastss 0x2f78c(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,170,247,2,0 // vbroadcastss 0x2f7aa(%rip),%ymm11 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
- .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
- .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,16 // vpslld $0x10,%ymm12,%ymm12
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
- .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne cdf1 <_sk_store_8888_hsw+0xa4>
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja cded <_sk_store_8888_hsw+0xa0>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # ce58 <_sk_store_8888_hsw+0x10b>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp cded <_sk_store_8888_hsw+0xa0>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 235,199 // jmp cded <_sk_store_8888_hsw+0xa0>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,150 // jmp cded <_sk_store_8888_hsw+0xa0>
- .byte 144 // nop
- .byte 182,255 // mov $0xff,%dh
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190,255,255,255,247 // mov $0xf7ffffff,%esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,206 // dec %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_hsw
-.globl _sk_load_bgra_hsw
-FUNCTION(_sk_load_bgra_hsw)
-_sk_load_bgra_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne cee0 <_sk_load_bgra_hsw+0x6c>
- .byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 197,229,219,5,168,250,2,0 // vpand 0x2faa8(%rip),%ymm3,%ymm0 # 3c940 <_sk_srcover_bgra_8888_sse2_lowp+0x6f4>
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,207,246,2,0 // vbroadcastss 0x2f6cf(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,124,89,208 // vmulps %ymm8,%ymm0,%ymm2
- .byte 196,226,101,0,5,173,250,2,0 // vpshufb 0x2faad(%rip),%ymm3,%ymm0 # 3c960 <_sk_srcover_bgra_8888_sse2_lowp+0x714>
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,226,101,0,5,187,250,2,0 // vpshufb 0x2fabb(%rip),%ymm3,%ymm0 # 3c980 <_sk_srcover_bgra_8888_sse2_lowp+0x734>
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,229,114,211,24 // vpsrld $0x18,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,162 // ja ce90 <_sk_load_bgra_hsw+0x1c>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,136,0,0,0 // lea 0x88(%rip),%r9 # cf80 <_sk_load_bgra_hsw+0x10c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 235,135 // jmp ce90 <_sk_load_bgra_hsw+0x1c>
- .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
- .byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
- .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,96,255,255,255 // jmpq ce90 <_sk_load_bgra_hsw+0x1c>
- .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,216,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
- .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,17,255,255,255 // jmpq ce90 <_sk_load_bgra_hsw+0x1c>
- .byte 144 // nop
- .byte 129,255,255,255,159,255 // cmp $0xff9fffff,%edi
- .byte 255 // (bad)
- .byte 255,137,255,255,255,238 // decl -0x11000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 176,255 // mov $0xff,%al
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_dst_hsw
-.globl _sk_load_bgra_dst_hsw
-FUNCTION(_sk_load_bgra_dst_hsw)
-_sk_load_bgra_dst_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,86 // jne d008 <_sk_load_bgra_dst_hsw+0x6c>
- .byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
- .byte 197,197,219,37,224,249,2,0 // vpand 0x2f9e0(%rip),%ymm7,%ymm4 # 3c9a0 <_sk_srcover_bgra_8888_sse2_lowp+0x754>
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,167,245,2,0 // vbroadcastss 0x2f5a7(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,92,89,240 // vmulps %ymm8,%ymm4,%ymm6
- .byte 196,226,69,0,37,229,249,2,0 // vpshufb 0x2f9e5(%rip),%ymm7,%ymm4 # 3c9c0 <_sk_srcover_bgra_8888_sse2_lowp+0x774>
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 196,226,69,0,37,243,249,2,0 // vpshufb 0x2f9f3(%rip),%ymm7,%ymm4 # 3c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x794>
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 197,197,114,215,24 // vpsrld $0x18,%ymm7,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,162 // ja cfb8 <_sk_load_bgra_dst_hsw+0x1c>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,136,0,0,0 // lea 0x88(%rip),%r9 # d0a8 <_sk_load_bgra_dst_hsw+0x10c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 235,135 // jmp cfb8 <_sk_load_bgra_dst_hsw+0x1c>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
- .byte 196,193,122,126,36,144 // vmovq (%r8,%rdx,4),%xmm4
- .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,96,255,255,255 // jmpq cfb8 <_sk_load_bgra_dst_hsw+0x1c>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
- .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,17,255,255,255 // jmpq cfb8 <_sk_load_bgra_dst_hsw+0x1c>
- .byte 144 // nop
- .byte 129,255,255,255,159,255 // cmp $0xff9fffff,%edi
- .byte 255 // (bad)
- .byte 255,137,255,255,255,238 // decl -0x11000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 176,255 // mov $0xff,%al
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_bgra_hsw
-.globl _sk_gather_bgra_hsw
-FUNCTION(_sk_gather_bgra_hsw)
-_sk_gather_bgra_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2
- .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 197,189,219,5,229,248,2,0 // vpand 0x2f8e5(%rip),%ymm8,%ymm0 # 3ca00 <_sk_srcover_bgra_8888_sse2_lowp+0x7b4>
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,76,244,2,0 // vbroadcastss 0x2f44c(%rip),%ymm3 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,252,89,211 // vmulps %ymm3,%ymm0,%ymm2
- .byte 196,226,61,0,5,235,248,2,0 // vpshufb 0x2f8eb(%rip),%ymm8,%ymm0 # 3ca20 <_sk_srcover_bgra_8888_sse2_lowp+0x7d4>
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,89,203 // vmulps %ymm3,%ymm0,%ymm1
- .byte 196,226,61,0,5,250,248,2,0 // vpshufb 0x2f8fa(%rip),%ymm8,%ymm0 # 3ca40 <_sk_srcover_bgra_8888_sse2_lowp+0x7f4>
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,193,61,114,208,24 // vpsrld $0x18,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_bgra_hsw
-.globl _sk_store_bgra_hsw
-FUNCTION(_sk_store_bgra_hsw)
-_sk_store_bgra_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
- .byte 196,98,125,24,21,120,243,2,0 // vbroadcastss 0x2f378(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,150,243,2,0 // vbroadcastss 0x2f396(%rip),%ymm11 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,8 // vpslld $0x8,%ymm12,%ymm12
- .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
- .byte 197,60,95,224 // vmaxps %ymm0,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,16 // vpslld $0x10,%ymm12,%ymm12
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,61,114,240,24 // vpslld $0x18,%ymm8,%ymm8
- .byte 196,65,29,235,192 // vpor %ymm8,%ymm12,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne d205 <_sk_store_bgra_hsw+0xa4>
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja d201 <_sk_store_bgra_hsw+0xa0>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # d26c <_sk_store_bgra_hsw+0x10b>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp d201 <_sk_store_bgra_hsw+0xa0>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 235,199 // jmp d201 <_sk_store_bgra_hsw+0xa0>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,150 // jmp d201 <_sk_store_bgra_hsw+0xa0>
- .byte 144 // nop
- .byte 182,255 // mov $0xff,%dh
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190,255,255,255,247 // mov $0xf7ffffff,%esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,206 // dec %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_1010102_hsw
-.globl _sk_load_1010102_hsw
-FUNCTION(_sk_load_1010102_hsw)
-_sk_load_1010102_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,100 // jne d302 <_sk_load_1010102_hsw+0x7a>
- .byte 196,193,126,111,28,144 // vmovdqu (%r8,%rdx,4),%ymm3
- .byte 196,226,125,88,21,107,243,2,0 // vpbroadcastd 0x2f36b(%rip),%ymm2 # 3c618 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- .byte 197,229,219,194 // vpand %ymm2,%ymm3,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,94,243,2,0 // vbroadcastss 0x2f35e(%rip),%ymm8 # 3c61c <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,245,114,211,10 // vpsrld $0xa,%ymm3,%ymm1
- .byte 197,245,219,202 // vpand %ymm2,%ymm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 197,181,114,211,20 // vpsrld $0x14,%ymm3,%ymm9
- .byte 197,181,219,210 // vpand %ymm2,%ymm9,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 197,229,114,211,30 // vpsrld $0x1e,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,111,242,2,0 // vbroadcastss 0x2f26f(%rip),%ymm8 # 3c568 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,148 // ja d2a4 <_sk_load_1010102_hsw+0x1c>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,138,0,0,0 // lea 0x8a(%rip),%r9 # d3a4 <_sk_load_1010102_hsw+0x11c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,28,144 // vmovd (%r8,%rdx,4),%xmm3
- .byte 233,118,255,255,255 // jmpq d2a4 <_sk_load_1010102_hsw+0x1c>
- .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,216,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm3
- .byte 196,193,122,126,4,144 // vmovq (%r8,%rdx,4),%xmm0
- .byte 196,227,101,2,216,3 // vpblendd $0x3,%ymm0,%ymm3,%ymm3
- .byte 233,79,255,255,255 // jmpq d2a4 <_sk_load_1010102_hsw+0x1c>
- .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,216,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,227,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm0
- .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,227,101,56,216,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 196,193,122,111,4,144 // vmovdqu (%r8,%rdx,4),%xmm0
- .byte 196,227,125,2,219,240 // vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- .byte 233,0,255,255,255 // jmpq d2a4 <_sk_load_1010102_hsw+0x1c>
- .byte 127,255 // jg d3a5 <_sk_load_1010102_hsw+0x11d>
- .byte 255 // (bad)
- .byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 177,255 // mov $0xff,%cl
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_1010102_dst_hsw
-.globl _sk_load_1010102_dst_hsw
-FUNCTION(_sk_load_1010102_dst_hsw)
-_sk_load_1010102_dst_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,100 // jne d43a <_sk_load_1010102_dst_hsw+0x7a>
- .byte 196,193,126,111,60,144 // vmovdqu (%r8,%rdx,4),%ymm7
- .byte 196,226,125,88,53,51,242,2,0 // vpbroadcastd 0x2f233(%rip),%ymm6 # 3c618 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- .byte 197,197,219,230 // vpand %ymm6,%ymm7,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,38,242,2,0 // vbroadcastss 0x2f226(%rip),%ymm8 # 3c61c <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 197,213,114,215,10 // vpsrld $0xa,%ymm7,%ymm5
- .byte 197,213,219,238 // vpand %ymm6,%ymm5,%ymm5
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 197,181,114,215,20 // vpsrld $0x14,%ymm7,%ymm9
- .byte 197,181,219,246 // vpand %ymm6,%ymm9,%ymm6
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 197,197,114,215,30 // vpsrld $0x1e,%ymm7,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,55,241,2,0 // vbroadcastss 0x2f137(%rip),%ymm8 # 3c568 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,148 // ja d3dc <_sk_load_1010102_dst_hsw+0x1c>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,138,0,0,0 // lea 0x8a(%rip),%r9 # d4dc <_sk_load_1010102_dst_hsw+0x11c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,60,144 // vmovd (%r8,%rdx,4),%xmm7
- .byte 233,118,255,255,255 // jmpq d3dc <_sk_load_1010102_dst_hsw+0x1c>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm7
- .byte 196,193,122,126,36,144 // vmovq (%r8,%rdx,4),%xmm4
- .byte 196,227,69,2,252,3 // vpblendd $0x3,%ymm4,%ymm7,%ymm7
- .byte 233,79,255,255,255 // jmpq d3dc <_sk_load_1010102_dst_hsw+0x1c>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,252,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,227,125,57,252,1 // vextracti128 $0x1,%ymm7,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,227,69,56,252,1 // vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- .byte 196,193,122,111,36,144 // vmovdqu (%r8,%rdx,4),%xmm4
- .byte 196,227,93,2,255,240 // vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- .byte 233,0,255,255,255 // jmpq d3dc <_sk_load_1010102_dst_hsw+0x1c>
- .byte 127,255 // jg d4dd <_sk_load_1010102_dst_hsw+0x11d>
- .byte 255 // (bad)
- .byte 255,160,255,255,255,138 // jmpq *-0x75000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 177,255 // mov $0xff,%cl
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_1010102_hsw
-.globl _sk_gather_1010102_hsw
-FUNCTION(_sk_gather_1010102_hsw)
-_sk_gather_1010102_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2
- .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 196,66,101,144,4,128 // vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- .byte 196,226,125,88,21,200,240,2,0 // vpbroadcastd 0x2f0c8(%rip),%ymm2 # 3c618 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- .byte 197,189,219,194 // vpand %ymm2,%ymm8,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,29,187,240,2,0 // vbroadcastss 0x2f0bb(%rip),%ymm3 # 3c61c <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,193,117,114,208,10 // vpsrld $0xa,%ymm8,%ymm1
- .byte 197,245,219,202 // vpand %ymm2,%ymm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,193,53,114,208,20 // vpsrld $0x14,%ymm8,%ymm9
- .byte 197,181,219,210 // vpand %ymm2,%ymm9,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 196,193,101,114,208,30 // vpsrld $0x1e,%ymm8,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,204,239,2,0 // vbroadcastss 0x2efcc(%rip),%ymm8 # 3c568 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_1010102_hsw
-.globl _sk_store_1010102_hsw
-FUNCTION(_sk_store_1010102_hsw)
-_sk_store_1010102_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,52,239,2,0 // vbroadcastss 0x2ef34(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,74,240,2,0 // vbroadcastss 0x2f04a(%rip),%ymm11 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,29,114,244,10 // vpslld $0xa,%ymm12,%ymm12
- .byte 196,65,29,235,201 // vpor %ymm9,%ymm12,%ymm9
- .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,37,114,243,20 // vpslld $0x14,%ymm11,%ymm11
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,251,239,2,0 // vbroadcastss 0x2effb(%rip),%ymm10 # 3c624 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
- .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,61,114,240,30 // vpslld $0x1e,%ymm8,%ymm8
- .byte 196,65,37,235,192 // vpor %ymm8,%ymm11,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne d652 <_sk_store_1010102_hsw+0xad>
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja d64e <_sk_store_1010102_hsw+0xa9>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,82,0,0,0 // lea 0x52(%rip),%r9 # d6b8 <_sk_store_1010102_hsw+0x113>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp d64e <_sk_store_1010102_hsw+0xa9>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 235,199 // jmp d64e <_sk_store_1010102_hsw+0xa9>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,150 // jmp d64e <_sk_store_1010102_hsw+0xa9>
- .byte 183,255 // mov $0xff,%bh
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,248 // mov $0xf8ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 235,255 // jmp d6c9 <_sk_store_1010102_hsw+0x124>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,255 // (bad)
- .byte 255 // (bad)
- .byte 255,207 // dec %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_f16_hsw
-.globl _sk_load_f16_hsw
-FUNCTION(_sk_load_f16_hsw)
-_sk_load_f16_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne d74f <_sk_load_f16_hsw+0x7b>
- .byte 196,65,121,16,4,208 // vmovupd (%r8,%rdx,8),%xmm8
- .byte 196,193,121,16,84,208,16 // vmovupd 0x10(%r8,%rdx,8),%xmm2
- .byte 196,193,121,16,92,208,32 // vmovupd 0x20(%r8,%rdx,8),%xmm3
- .byte 196,65,122,111,76,208,48 // vmovdqu 0x30(%r8,%rdx,8),%xmm9
- .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0
- .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2
- .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1
- .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3
- .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8
- .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
- .byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2
- .byte 197,241,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm3
- .byte 197,185,108,194 // vpunpcklqdq %xmm2,%xmm8,%xmm0
- .byte 196,226,125,19,192 // vcvtph2ps %xmm0,%ymm0
- .byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
- .byte 196,226,125,19,201 // vcvtph2ps %xmm1,%ymm1
- .byte 197,177,108,211 // vpunpcklqdq %xmm3,%xmm9,%xmm2
- .byte 196,226,125,19,210 // vcvtph2ps %xmm2,%ymm2
- .byte 197,177,109,219 // vpunpckhqdq %xmm3,%xmm9,%xmm3
- .byte 196,226,125,19,219 // vcvtph2ps %xmm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,123,16,4,208 // vmovsd (%r8,%rdx,8),%xmm8
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je d7b5 <_sk_load_f16_hsw+0xe1>
- .byte 196,65,57,22,68,208,8 // vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb d7b5 <_sk_load_f16_hsw+0xe1>
- .byte 196,193,123,16,84,208,16 // vmovsd 0x10(%r8,%rdx,8),%xmm2
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je d7c2 <_sk_load_f16_hsw+0xee>
- .byte 196,193,105,22,84,208,24 // vmovhpd 0x18(%r8,%rdx,8),%xmm2,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb d7c2 <_sk_load_f16_hsw+0xee>
- .byte 196,193,123,16,92,208,32 // vmovsd 0x20(%r8,%rdx,8),%xmm3
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je d705 <_sk_load_f16_hsw+0x31>
- .byte 196,193,97,22,92,208,40 // vmovhpd 0x28(%r8,%rdx,8),%xmm3,%xmm3
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb d705 <_sk_load_f16_hsw+0x31>
- .byte 196,65,122,126,76,208,48 // vmovq 0x30(%r8,%rdx,8),%xmm9
- .byte 233,80,255,255,255 // jmpq d705 <_sk_load_f16_hsw+0x31>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,67,255,255,255 // jmpq d705 <_sk_load_f16_hsw+0x31>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,58,255,255,255 // jmpq d705 <_sk_load_f16_hsw+0x31>
-
-HIDDEN _sk_load_f16_dst_hsw
-.globl _sk_load_f16_dst_hsw
-FUNCTION(_sk_load_f16_dst_hsw)
-_sk_load_f16_dst_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne d846 <_sk_load_f16_dst_hsw+0x7b>
- .byte 196,65,121,16,4,208 // vmovupd (%r8,%rdx,8),%xmm8
- .byte 196,193,121,16,116,208,16 // vmovupd 0x10(%r8,%rdx,8),%xmm6
- .byte 196,193,121,16,124,208,32 // vmovupd 0x20(%r8,%rdx,8),%xmm7
- .byte 196,65,122,111,76,208,48 // vmovdqu 0x30(%r8,%rdx,8),%xmm9
- .byte 197,185,97,230 // vpunpcklwd %xmm6,%xmm8,%xmm4
- .byte 197,185,105,246 // vpunpckhwd %xmm6,%xmm8,%xmm6
- .byte 196,193,65,97,233 // vpunpcklwd %xmm9,%xmm7,%xmm5
- .byte 196,193,65,105,249 // vpunpckhwd %xmm9,%xmm7,%xmm7
- .byte 197,89,97,198 // vpunpcklwd %xmm6,%xmm4,%xmm8
- .byte 197,89,105,206 // vpunpckhwd %xmm6,%xmm4,%xmm9
- .byte 197,209,97,247 // vpunpcklwd %xmm7,%xmm5,%xmm6
- .byte 197,209,105,255 // vpunpckhwd %xmm7,%xmm5,%xmm7
- .byte 197,185,108,230 // vpunpcklqdq %xmm6,%xmm8,%xmm4
- .byte 196,226,125,19,228 // vcvtph2ps %xmm4,%ymm4
- .byte 197,185,109,238 // vpunpckhqdq %xmm6,%xmm8,%xmm5
- .byte 196,226,125,19,237 // vcvtph2ps %xmm5,%ymm5
- .byte 197,177,108,247 // vpunpcklqdq %xmm7,%xmm9,%xmm6
- .byte 196,226,125,19,246 // vcvtph2ps %xmm6,%ymm6
- .byte 197,177,109,255 // vpunpckhqdq %xmm7,%xmm9,%xmm7
- .byte 196,226,125,19,255 // vcvtph2ps %xmm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,123,16,4,208 // vmovsd (%r8,%rdx,8),%xmm8
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je d8ac <_sk_load_f16_dst_hsw+0xe1>
- .byte 196,65,57,22,68,208,8 // vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb d8ac <_sk_load_f16_dst_hsw+0xe1>
- .byte 196,193,123,16,116,208,16 // vmovsd 0x10(%r8,%rdx,8),%xmm6
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je d8b9 <_sk_load_f16_dst_hsw+0xee>
- .byte 196,193,73,22,116,208,24 // vmovhpd 0x18(%r8,%rdx,8),%xmm6,%xmm6
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb d8b9 <_sk_load_f16_dst_hsw+0xee>
- .byte 196,193,123,16,124,208,32 // vmovsd 0x20(%r8,%rdx,8),%xmm7
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,109,255,255,255 // je d7fc <_sk_load_f16_dst_hsw+0x31>
- .byte 196,193,65,22,124,208,40 // vmovhpd 0x28(%r8,%rdx,8),%xmm7,%xmm7
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,92,255,255,255 // jb d7fc <_sk_load_f16_dst_hsw+0x31>
- .byte 196,65,122,126,76,208,48 // vmovq 0x30(%r8,%rdx,8),%xmm9
- .byte 233,80,255,255,255 // jmpq d7fc <_sk_load_f16_dst_hsw+0x31>
- .byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,67,255,255,255 // jmpq d7fc <_sk_load_f16_dst_hsw+0x31>
- .byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,58,255,255,255 // jmpq d7fc <_sk_load_f16_dst_hsw+0x31>
-
-HIDDEN _sk_gather_f16_hsw
-.globl _sk_gather_f16_hsw
-FUNCTION(_sk_gather_f16_hsw)
-_sk_gather_f16_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,88,80,12 // vpbroadcastd 0xc(%rax),%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,88,80,16 // vpbroadcastd 0x10(%rax),%ymm2
- .byte 197,237,254,211 // vpaddd %ymm3,%ymm2,%ymm2
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,226,125,88,80,8 // vpbroadcastd 0x8(%rax),%ymm2
- .byte 196,226,109,64,201 // vpmulld %ymm1,%ymm2,%ymm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,245,254,192 // vpaddd %ymm0,%ymm1,%ymm0
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 196,194,245,144,20,192 // vpgatherdq %ymm1,(%r8,%xmm0,8),%ymm2
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 196,66,229,144,4,192 // vpgatherdq %ymm3,(%r8,%xmm0,8),%ymm8
- .byte 196,227,125,57,208,1 // vextracti128 $0x1,%ymm2,%xmm0
- .byte 196,99,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm1
- .byte 197,233,97,216 // vpunpcklwd %xmm0,%xmm2,%xmm3
- .byte 197,233,105,192 // vpunpckhwd %xmm0,%xmm2,%xmm0
- .byte 197,185,97,209 // vpunpcklwd %xmm1,%xmm8,%xmm2
- .byte 197,185,105,201 // vpunpckhwd %xmm1,%xmm8,%xmm1
- .byte 197,97,97,192 // vpunpcklwd %xmm0,%xmm3,%xmm8
- .byte 197,97,105,200 // vpunpckhwd %xmm0,%xmm3,%xmm9
- .byte 197,233,97,217 // vpunpcklwd %xmm1,%xmm2,%xmm3
- .byte 197,105,105,209 // vpunpckhwd %xmm1,%xmm2,%xmm10
- .byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
- .byte 196,226,125,19,192 // vcvtph2ps %xmm0,%ymm0
- .byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
- .byte 196,226,125,19,201 // vcvtph2ps %xmm1,%ymm1
- .byte 196,193,49,108,210 // vpunpcklqdq %xmm10,%xmm9,%xmm2
- .byte 196,226,125,19,210 // vcvtph2ps %xmm2,%ymm2
- .byte 196,193,49,109,218 // vpunpckhqdq %xmm10,%xmm9,%xmm3
- .byte 196,226,125,19,219 // vcvtph2ps %xmm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_f16_hsw
-.globl _sk_store_f16_hsw
-FUNCTION(_sk_store_f16_hsw)
-_sk_store_f16_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,195,125,29,192,4 // vcvtps2ph $0x4,%ymm0,%xmm8
- .byte 196,195,125,29,201,4 // vcvtps2ph $0x4,%ymm1,%xmm9
- .byte 196,195,125,29,210,4 // vcvtps2ph $0x4,%ymm2,%xmm10
- .byte 196,195,125,29,219,4 // vcvtps2ph $0x4,%ymm3,%xmm11
- .byte 196,65,57,97,225 // vpunpcklwd %xmm9,%xmm8,%xmm12
- .byte 196,65,57,105,193 // vpunpckhwd %xmm9,%xmm8,%xmm8
- .byte 196,65,41,97,203 // vpunpcklwd %xmm11,%xmm10,%xmm9
- .byte 196,65,41,105,235 // vpunpckhwd %xmm11,%xmm10,%xmm13
- .byte 196,65,25,98,217 // vpunpckldq %xmm9,%xmm12,%xmm11
- .byte 196,65,25,106,209 // vpunpckhdq %xmm9,%xmm12,%xmm10
- .byte 196,65,57,98,205 // vpunpckldq %xmm13,%xmm8,%xmm9
- .byte 196,65,57,106,197 // vpunpckhdq %xmm13,%xmm8,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne d9f0 <_sk_store_f16_hsw+0x75>
- .byte 196,65,122,127,28,208 // vmovdqu %xmm11,(%r8,%rdx,8)
- .byte 196,65,122,127,84,208,16 // vmovdqu %xmm10,0x10(%r8,%rdx,8)
- .byte 196,65,122,127,76,208,32 // vmovdqu %xmm9,0x20(%r8,%rdx,8)
- .byte 196,65,122,127,68,208,48 // vmovdqu %xmm8,0x30(%r8,%rdx,8)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,214,28,208 // vmovq %xmm11,(%r8,%rdx,8)
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je d9ec <_sk_store_f16_hsw+0x71>
- .byte 196,65,121,23,92,208,8 // vmovhpd %xmm11,0x8(%r8,%rdx,8)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb d9ec <_sk_store_f16_hsw+0x71>
- .byte 196,65,121,214,84,208,16 // vmovq %xmm10,0x10(%r8,%rdx,8)
- .byte 116,218 // je d9ec <_sk_store_f16_hsw+0x71>
- .byte 196,65,121,23,84,208,24 // vmovhpd %xmm10,0x18(%r8,%rdx,8)
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb d9ec <_sk_store_f16_hsw+0x71>
- .byte 196,65,121,214,76,208,32 // vmovq %xmm9,0x20(%r8,%rdx,8)
- .byte 116,196 // je d9ec <_sk_store_f16_hsw+0x71>
- .byte 196,65,121,23,76,208,40 // vmovhpd %xmm9,0x28(%r8,%rdx,8)
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb d9ec <_sk_store_f16_hsw+0x71>
- .byte 196,65,121,214,68,208,48 // vmovq %xmm8,0x30(%r8,%rdx,8)
- .byte 235,174 // jmp d9ec <_sk_store_f16_hsw+0x71>
-
-HIDDEN _sk_load_u16_be_hsw
-.globl _sk_load_u16_be_hsw
-FUNCTION(_sk_load_u16_be_hsw)
-_sk_load_u16_be_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 77,1,201 // add %r9,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,204,0,0,0 // jne db2b <_sk_load_u16_be_hsw+0xed>
- .byte 196,1,121,16,4,65 // vmovupd (%r9,%r8,2),%xmm8
- .byte 196,129,121,16,84,65,16 // vmovupd 0x10(%r9,%r8,2),%xmm2
- .byte 196,129,121,16,92,65,32 // vmovupd 0x20(%r9,%r8,2),%xmm3
- .byte 196,1,122,111,76,65,48 // vmovdqu 0x30(%r9,%r8,2),%xmm9
- .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0
- .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2
- .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1
- .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3
- .byte 197,121,97,194 // vpunpcklwd %xmm2,%xmm0,%xmm8
- .byte 197,121,105,202 // vpunpckhwd %xmm2,%xmm0,%xmm9
- .byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2
- .byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
- .byte 197,185,108,194 // vpunpcklqdq %xmm2,%xmm8,%xmm0
- .byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1
- .byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0
- .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
- .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,208,234,2,0 // vbroadcastss 0x2ead0(%rip),%ymm10 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
- .byte 197,185,109,202 // vpunpckhqdq %xmm2,%xmm8,%xmm1
- .byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
- .byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1
- .byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1
- .byte 196,226,125,51,201 // vpmovzxwd %xmm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
- .byte 196,193,49,108,211 // vpunpcklqdq %xmm11,%xmm9,%xmm2
- .byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3
- .byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2
- .byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2
- .byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,210 // vmulps %ymm10,%ymm2,%ymm2
- .byte 196,193,49,109,219 // vpunpckhqdq %xmm11,%xmm9,%xmm3
- .byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8
- .byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3
- .byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
- .byte 196,226,125,51,219 // vpmovzxwd %xmm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,1,123,16,4,65 // vmovsd (%r9,%r8,2),%xmm8
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je db91 <_sk_load_u16_be_hsw+0x153>
- .byte 196,1,57,22,68,65,8 // vmovhpd 0x8(%r9,%r8,2),%xmm8,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb db91 <_sk_load_u16_be_hsw+0x153>
- .byte 196,129,123,16,84,65,16 // vmovsd 0x10(%r9,%r8,2),%xmm2
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je db9e <_sk_load_u16_be_hsw+0x160>
- .byte 196,129,105,22,84,65,24 // vmovhpd 0x18(%r9,%r8,2),%xmm2,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb db9e <_sk_load_u16_be_hsw+0x160>
- .byte 196,129,123,16,92,65,32 // vmovsd 0x20(%r9,%r8,2),%xmm3
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,6,255,255,255 // je da7a <_sk_load_u16_be_hsw+0x3c>
- .byte 196,129,97,22,92,65,40 // vmovhpd 0x28(%r9,%r8,2),%xmm3,%xmm3
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,245,254,255,255 // jb da7a <_sk_load_u16_be_hsw+0x3c>
- .byte 196,1,122,126,76,65,48 // vmovq 0x30(%r9,%r8,2),%xmm9
- .byte 233,233,254,255,255 // jmpq da7a <_sk_load_u16_be_hsw+0x3c>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,220,254,255,255 // jmpq da7a <_sk_load_u16_be_hsw+0x3c>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,211,254,255,255 // jmpq da7a <_sk_load_u16_be_hsw+0x3c>
-
-HIDDEN _sk_load_rgb_u16_be_hsw
-.globl _sk_load_rgb_u16_be_hsw
-FUNCTION(_sk_load_rgb_u16_be_hsw)
-_sk_load_rgb_u16_be_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,82 // lea (%rdx,%rdx,2),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 77,1,201 // add %r9,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,205,0,0,0 // jne dc91 <_sk_load_rgb_u16_be_hsw+0xea>
- .byte 196,1,122,111,28,65 // vmovdqu (%r9,%r8,2),%xmm11
- .byte 196,129,122,111,92,65,12 // vmovdqu 0xc(%r9,%r8,2),%xmm3
- .byte 196,129,122,111,84,65,24 // vmovdqu 0x18(%r9,%r8,2),%xmm2
- .byte 196,129,122,111,68,65,32 // vmovdqu 0x20(%r9,%r8,2),%xmm0
- .byte 197,249,115,216,4 // vpsrldq $0x4,%xmm0,%xmm0
- .byte 196,193,57,115,219,6 // vpsrldq $0x6,%xmm11,%xmm8
- .byte 197,169,115,219,6 // vpsrldq $0x6,%xmm3,%xmm10
- .byte 197,241,115,218,6 // vpsrldq $0x6,%xmm2,%xmm1
- .byte 197,177,115,216,6 // vpsrldq $0x6,%xmm0,%xmm9
- .byte 196,193,113,97,201 // vpunpcklwd %xmm9,%xmm1,%xmm1
- .byte 197,233,97,192 // vpunpcklwd %xmm0,%xmm2,%xmm0
- .byte 196,193,57,97,210 // vpunpcklwd %xmm10,%xmm8,%xmm2
- .byte 197,161,97,219 // vpunpcklwd %xmm3,%xmm11,%xmm3
- .byte 197,97,97,194 // vpunpcklwd %xmm2,%xmm3,%xmm8
- .byte 197,225,105,210 // vpunpckhwd %xmm2,%xmm3,%xmm2
- .byte 197,249,97,217 // vpunpcklwd %xmm1,%xmm0,%xmm3
- .byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0
- .byte 197,233,108,208 // vpunpcklqdq %xmm0,%xmm2,%xmm2
- .byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
- .byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1
- .byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0
- .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
- .byte 196,226,125,51,192 // vpmovzxwd %xmm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,77,233,2,0 // vbroadcastss 0x2e94d(%rip),%ymm9 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
- .byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
- .byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1
- .byte 197,225,235,201 // vpor %xmm1,%xmm3,%xmm1
- .byte 196,226,125,51,201 // vpmovzxwd %xmm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3
- .byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2
- .byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2
- .byte 196,226,125,51,210 // vpmovzxwd %xmm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,109,232,2,0 // vbroadcastss 0x2e86d(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,110,4,65 // vmovd (%r9,%r8,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,92,65,4,2 // vpinsrw $0x2,0x4(%r9,%r8,2),%xmm0,%xmm11
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne dcc9 <_sk_load_rgb_u16_be_hsw+0x122>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,48,255,255,255 // jmpq dbf9 <_sk_load_rgb_u16_be_hsw+0x52>
- .byte 196,129,121,110,68,65,6 // vmovd 0x6(%r9,%r8,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,68,65,10,2 // vpinsrw $0x2,0xa(%r9,%r8,2),%xmm0,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb dd13 <_sk_load_rgb_u16_be_hsw+0x16c>
- .byte 196,129,121,110,68,65,12 // vmovd 0xc(%r9,%r8,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,92,65,16,2 // vpinsrw $0x2,0x10(%r9,%r8,2),%xmm0,%xmm3
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne dd2d <_sk_load_rgb_u16_be_hsw+0x186>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,230,254,255,255 // jmpq dbf9 <_sk_load_rgb_u16_be_hsw+0x52>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,204,254,255,255 // jmpq dbf9 <_sk_load_rgb_u16_be_hsw+0x52>
- .byte 196,129,121,110,68,65,18 // vmovd 0x12(%r9,%r8,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,84,65,22,2 // vpinsrw $0x2,0x16(%r9,%r8,2),%xmm0,%xmm10
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb dd6e <_sk_load_rgb_u16_be_hsw+0x1c7>
- .byte 196,129,121,110,68,65,24 // vmovd 0x18(%r9,%r8,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,84,65,28,2 // vpinsrw $0x2,0x1c(%r9,%r8,2),%xmm0,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne dd7f <_sk_load_rgb_u16_be_hsw+0x1d8>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,139,254,255,255 // jmpq dbf9 <_sk_load_rgb_u16_be_hsw+0x52>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,122,254,255,255 // jmpq dbf9 <_sk_load_rgb_u16_be_hsw+0x52>
- .byte 196,129,121,110,68,65,30 // vmovd 0x1e(%r9,%r8,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,76,65,34,2 // vpinsrw $0x2,0x22(%r9,%r8,2),%xmm0,%xmm1
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb ddb2 <_sk_load_rgb_u16_be_hsw+0x20b>
- .byte 196,129,121,110,68,65,36 // vmovd 0x24(%r9,%r8,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,68,65,40,2 // vpinsrw $0x2,0x28(%r9,%r8,2),%xmm0,%xmm0
- .byte 233,71,254,255,255 // jmpq dbf9 <_sk_load_rgb_u16_be_hsw+0x52>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,62,254,255,255 // jmpq dbf9 <_sk_load_rgb_u16_be_hsw+0x52>
-
-HIDDEN _sk_store_u16_be_hsw
-.globl _sk_store_u16_be_hsw
-FUNCTION(_sk_store_u16_be_hsw)
-_sk_store_u16_be_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 77,1,201 // add %r9,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,23,231,2,0 // vbroadcastss 0x2e717(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,53,232,2,0 // vbroadcastss 0x2e835(%rip),%ymm11 # 3c628 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,67,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm12
- .byte 196,66,49,43,204 // vpackusdw %xmm12,%xmm9,%xmm9
- .byte 196,193,25,113,241,8 // vpsllw $0x8,%xmm9,%xmm12
- .byte 196,193,49,113,209,8 // vpsrlw $0x8,%xmm9,%xmm9
- .byte 196,65,25,235,201 // vpor %xmm9,%xmm12,%xmm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,66,25,43,229 // vpackusdw %xmm13,%xmm12,%xmm12
- .byte 196,193,17,113,244,8 // vpsllw $0x8,%xmm12,%xmm13
- .byte 196,193,25,113,212,8 // vpsrlw $0x8,%xmm12,%xmm12
- .byte 196,65,17,235,228 // vpor %xmm12,%xmm13,%xmm12
- .byte 197,60,95,234 // vmaxps %ymm2,%ymm8,%ymm13
- .byte 196,65,20,93,234 // vminps %ymm10,%ymm13,%ymm13
- .byte 196,65,20,89,235 // vmulps %ymm11,%ymm13,%ymm13
- .byte 196,65,125,91,237 // vcvtps2dq %ymm13,%ymm13
- .byte 196,67,125,25,238,1 // vextractf128 $0x1,%ymm13,%xmm14
- .byte 196,66,17,43,238 // vpackusdw %xmm14,%xmm13,%xmm13
- .byte 196,193,9,113,245,8 // vpsllw $0x8,%xmm13,%xmm14
- .byte 196,193,17,113,213,8 // vpsrlw $0x8,%xmm13,%xmm13
- .byte 196,65,9,235,237 // vpor %xmm13,%xmm14,%xmm13
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,67,125,25,194,1 // vextractf128 $0x1,%ymm8,%xmm10
- .byte 196,66,57,43,194 // vpackusdw %xmm10,%xmm8,%xmm8
- .byte 196,193,41,113,240,8 // vpsllw $0x8,%xmm8,%xmm10
- .byte 196,193,57,113,208,8 // vpsrlw $0x8,%xmm8,%xmm8
- .byte 196,65,41,235,192 // vpor %xmm8,%xmm10,%xmm8
- .byte 196,65,49,97,212 // vpunpcklwd %xmm12,%xmm9,%xmm10
- .byte 196,65,49,105,228 // vpunpckhwd %xmm12,%xmm9,%xmm12
- .byte 196,65,17,97,200 // vpunpcklwd %xmm8,%xmm13,%xmm9
- .byte 196,65,17,105,192 // vpunpckhwd %xmm8,%xmm13,%xmm8
- .byte 196,65,41,98,217 // vpunpckldq %xmm9,%xmm10,%xmm11
- .byte 196,65,41,106,209 // vpunpckhdq %xmm9,%xmm10,%xmm10
- .byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9
- .byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne def2 <_sk_store_u16_be_hsw+0x137>
- .byte 196,1,122,127,28,65 // vmovdqu %xmm11,(%r9,%r8,2)
- .byte 196,1,122,127,84,65,16 // vmovdqu %xmm10,0x10(%r9,%r8,2)
- .byte 196,1,122,127,76,65,32 // vmovdqu %xmm9,0x20(%r9,%r8,2)
- .byte 196,1,122,127,68,65,48 // vmovdqu %xmm8,0x30(%r9,%r8,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,1,121,214,28,65 // vmovq %xmm11,(%r9,%r8,2)
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je deee <_sk_store_u16_be_hsw+0x133>
- .byte 196,1,121,23,92,65,8 // vmovhpd %xmm11,0x8(%r9,%r8,2)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb deee <_sk_store_u16_be_hsw+0x133>
- .byte 196,1,121,214,84,65,16 // vmovq %xmm10,0x10(%r9,%r8,2)
- .byte 116,218 // je deee <_sk_store_u16_be_hsw+0x133>
- .byte 196,1,121,23,84,65,24 // vmovhpd %xmm10,0x18(%r9,%r8,2)
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb deee <_sk_store_u16_be_hsw+0x133>
- .byte 196,1,121,214,76,65,32 // vmovq %xmm9,0x20(%r9,%r8,2)
- .byte 116,196 // je deee <_sk_store_u16_be_hsw+0x133>
- .byte 196,1,121,23,76,65,40 // vmovhpd %xmm9,0x28(%r9,%r8,2)
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb deee <_sk_store_u16_be_hsw+0x133>
- .byte 196,1,121,214,68,65,48 // vmovq %xmm8,0x30(%r9,%r8,2)
- .byte 235,174 // jmp deee <_sk_store_u16_be_hsw+0x133>
-
-HIDDEN _sk_load_f32_hsw
-.globl _sk_load_f32_hsw
-FUNCTION(_sk_load_f32_hsw)
-_sk_load_f32_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,91,1,0,0 // ja e0ab <_sk_load_f32_hsw+0x16b>
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
- .byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
- .byte 197,253,17,116,36,192 // vmovupd %ymm6,-0x40(%rsp)
- .byte 197,253,17,124,36,224 // vmovupd %ymm7,-0x20(%rsp)
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # e0bc <_sk_load_f32_hsw+0x17c>
- .byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
- .byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
- .byte 197,237,87,210 // vxorpd %ymm2,%ymm2,%ymm2
- .byte 196,65,37,87,219 // vxorpd %ymm11,%ymm11,%ymm11
- .byte 196,65,29,87,228 // vxorpd %ymm12,%ymm12,%ymm12
- .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
- .byte 196,65,13,87,246 // vxorpd %ymm14,%ymm14,%ymm14
- .byte 197,205,87,246 // vxorpd %ymm6,%ymm6,%ymm6
- .byte 196,65,5,87,255 // vxorpd %ymm15,%ymm15,%ymm15
- .byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 196,65,21,87,237 // vxorpd %ymm13,%ymm13,%ymm13
- .byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
- .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
- .byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,16,68,129,112 // vmovupd 0x70(%r9,%r8,4),%xmm0
- .byte 196,227,125,6,192,40 // vperm2f128 $0x28,%ymm0,%ymm0,%ymm0
- .byte 196,129,121,16,76,129,96 // vmovupd 0x60(%r9,%r8,4),%xmm1
- .byte 196,227,125,6,225,40 // vperm2f128 $0x28,%ymm1,%ymm0,%ymm4
- .byte 196,129,121,16,76,129,80 // vmovupd 0x50(%r9,%r8,4),%xmm1
- .byte 196,227,125,6,209,40 // vperm2f128 $0x28,%ymm1,%ymm0,%ymm2
- .byte 197,125,40,204 // vmovapd %ymm4,%ymm9
- .byte 196,129,121,16,76,129,64 // vmovupd 0x40(%r9,%r8,4),%xmm1
- .byte 196,99,125,6,193,40 // vperm2f128 $0x28,%ymm1,%ymm0,%ymm8
- .byte 196,65,125,40,217 // vmovapd %ymm9,%ymm11
- .byte 197,125,40,226 // vmovapd %ymm2,%ymm12
- .byte 196,129,121,16,76,129,48 // vmovupd 0x30(%r9,%r8,4),%xmm1
- .byte 196,227,117,13,192,12 // vblendpd $0xc,%ymm0,%ymm1,%ymm0
- .byte 196,65,125,40,243 // vmovapd %ymm11,%ymm14
- .byte 197,125,41,230 // vmovapd %ymm12,%ymm6
- .byte 196,65,125,40,248 // vmovapd %ymm8,%ymm15
- .byte 196,129,121,16,76,129,32 // vmovupd 0x20(%r9,%r8,4),%xmm1
- .byte 196,195,117,13,206,12 // vblendpd $0xc,%ymm14,%ymm1,%ymm1
- .byte 197,125,40,238 // vmovapd %ymm6,%ymm13
- .byte 197,125,41,253 // vmovapd %ymm15,%ymm5
- .byte 196,129,121,16,84,129,16 // vmovupd 0x10(%r9,%r8,4),%xmm2
- .byte 196,67,109,13,213,12 // vblendpd $0xc,%ymm13,%ymm2,%ymm10
- .byte 197,253,40,217 // vmovapd %ymm1,%ymm3
- .byte 197,253,40,253 // vmovapd %ymm5,%ymm7
- .byte 196,129,121,16,12,129 // vmovupd (%r9,%r8,4),%xmm1
- .byte 196,227,117,13,207,12 // vblendpd $0xc,%ymm7,%ymm1,%ymm1
- .byte 197,252,16,124,36,224 // vmovups -0x20(%rsp),%ymm7
- .byte 197,252,16,116,36,192 // vmovups -0x40(%rsp),%ymm6
- .byte 197,252,16,108,36,160 // vmovups -0x60(%rsp),%ymm5
- .byte 197,252,16,100,36,128 // vmovups -0x80(%rsp),%ymm4
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 196,193,116,20,210 // vunpcklps %ymm10,%ymm1,%ymm2
- .byte 196,65,116,21,194 // vunpckhps %ymm10,%ymm1,%ymm8
- .byte 197,228,20,200 // vunpcklps %ymm0,%ymm3,%ymm1
- .byte 197,228,21,216 // vunpckhps %ymm0,%ymm3,%ymm3
- .byte 197,237,20,193 // vunpcklpd %ymm1,%ymm2,%ymm0
- .byte 197,237,21,201 // vunpckhpd %ymm1,%ymm2,%ymm1
- .byte 197,189,20,211 // vunpcklpd %ymm3,%ymm8,%ymm2
- .byte 197,189,21,219 // vunpckhpd %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
- .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
- .byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp e085 <_sk_load_f32_hsw+0x145>
- .byte 102,144 // xchg %ax,%ax
- .byte 27,255 // sbb %edi,%edi
- .byte 255 // (bad)
- .byte 255,161,255,255,255,140 // jmpq *-0x73000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,119,255 // pushq -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255,70,255 // incl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900e0d8 <_sk_srcover_bgra_8888_sse2_lowp+0x28fd1e8c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_f32_dst_hsw
-.globl _sk_load_f32_dst_hsw
-FUNCTION(_sk_load_f32_dst_hsw)
-_sk_load_f32_dst_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,91,1,0,0 // ja e247 <_sk_load_f32_dst_hsw+0x16b>
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
- .byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
- .byte 197,253,17,84,36,192 // vmovupd %ymm2,-0x40(%rsp)
- .byte 197,253,17,92,36,224 // vmovupd %ymm3,-0x20(%rsp)
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # e258 <_sk_load_f32_dst_hsw+0x17c>
- .byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
- .byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
- .byte 197,205,87,246 // vxorpd %ymm6,%ymm6,%ymm6
- .byte 196,65,37,87,219 // vxorpd %ymm11,%ymm11,%ymm11
- .byte 196,65,29,87,228 // vxorpd %ymm12,%ymm12,%ymm12
- .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
- .byte 196,65,13,87,246 // vxorpd %ymm14,%ymm14,%ymm14
- .byte 197,237,87,210 // vxorpd %ymm2,%ymm2,%ymm2
- .byte 196,65,5,87,255 // vxorpd %ymm15,%ymm15,%ymm15
- .byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 196,65,21,87,237 // vxorpd %ymm13,%ymm13,%ymm13
- .byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
- .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
- .byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,16,68,129,112 // vmovupd 0x70(%r9,%r8,4),%xmm0
- .byte 196,227,125,6,224,40 // vperm2f128 $0x28,%ymm0,%ymm0,%ymm4
- .byte 196,129,121,16,68,129,96 // vmovupd 0x60(%r9,%r8,4),%xmm0
- .byte 196,227,125,6,192,40 // vperm2f128 $0x28,%ymm0,%ymm0,%ymm0
- .byte 196,129,121,16,76,129,80 // vmovupd 0x50(%r9,%r8,4),%xmm1
- .byte 196,227,125,6,241,40 // vperm2f128 $0x28,%ymm1,%ymm0,%ymm6
- .byte 197,125,40,200 // vmovapd %ymm0,%ymm9
- .byte 196,129,121,16,68,129,64 // vmovupd 0x40(%r9,%r8,4),%xmm0
- .byte 196,99,125,6,192,40 // vperm2f128 $0x28,%ymm0,%ymm0,%ymm8
- .byte 196,65,125,40,217 // vmovapd %ymm9,%ymm11
- .byte 197,125,40,230 // vmovapd %ymm6,%ymm12
- .byte 196,129,121,16,68,129,48 // vmovupd 0x30(%r9,%r8,4),%xmm0
- .byte 196,227,125,13,228,12 // vblendpd $0xc,%ymm4,%ymm0,%ymm4
- .byte 196,65,125,40,243 // vmovapd %ymm11,%ymm14
- .byte 197,125,41,226 // vmovapd %ymm12,%ymm2
- .byte 196,65,125,40,248 // vmovapd %ymm8,%ymm15
- .byte 196,129,121,16,68,129,32 // vmovupd 0x20(%r9,%r8,4),%xmm0
- .byte 196,195,125,13,238,12 // vblendpd $0xc,%ymm14,%ymm0,%ymm5
- .byte 197,125,40,234 // vmovapd %ymm2,%ymm13
- .byte 197,125,41,249 // vmovapd %ymm15,%ymm1
- .byte 196,129,121,16,68,129,16 // vmovupd 0x10(%r9,%r8,4),%xmm0
- .byte 196,67,125,13,213,12 // vblendpd $0xc,%ymm13,%ymm0,%ymm10
- .byte 197,253,40,253 // vmovapd %ymm5,%ymm7
- .byte 197,253,40,217 // vmovapd %ymm1,%ymm3
- .byte 196,129,121,16,4,129 // vmovupd (%r9,%r8,4),%xmm0
- .byte 196,227,125,13,235,12 // vblendpd $0xc,%ymm3,%ymm0,%ymm5
- .byte 197,252,16,92,36,224 // vmovups -0x20(%rsp),%ymm3
- .byte 197,252,16,84,36,192 // vmovups -0x40(%rsp),%ymm2
- .byte 197,252,16,76,36,160 // vmovups -0x60(%rsp),%ymm1
- .byte 197,252,16,68,36,128 // vmovups -0x80(%rsp),%ymm0
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 196,193,84,20,242 // vunpcklps %ymm10,%ymm5,%ymm6
- .byte 196,65,84,21,194 // vunpckhps %ymm10,%ymm5,%ymm8
- .byte 197,196,20,236 // vunpcklps %ymm4,%ymm7,%ymm5
- .byte 197,196,21,252 // vunpckhps %ymm4,%ymm7,%ymm7
- .byte 197,205,20,229 // vunpcklpd %ymm5,%ymm6,%ymm4
- .byte 197,205,21,237 // vunpckhpd %ymm5,%ymm6,%ymm5
- .byte 197,189,20,247 // vunpcklpd %ymm7,%ymm8,%ymm6
- .byte 197,189,21,255 // vunpckhpd %ymm7,%ymm8,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
- .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
- .byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp e221 <_sk_load_f32_dst_hsw+0x145>
- .byte 102,144 // xchg %ax,%ax
- .byte 27,255 // sbb %edi,%edi
- .byte 255 // (bad)
- .byte 255,161,255,255,255,140 // jmpq *-0x73000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,119,255 // pushq -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255,70,255 // incl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2900e274 <_sk_srcover_bgra_8888_sse2_lowp+0x28fd2028>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_f32_hsw
-.globl _sk_store_f32_hsw
-FUNCTION(_sk_store_f32_hsw)
-_sk_store_f32_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 197,124,20,193 // vunpcklps %ymm1,%ymm0,%ymm8
- .byte 197,124,21,217 // vunpckhps %ymm1,%ymm0,%ymm11
- .byte 197,108,20,203 // vunpcklps %ymm3,%ymm2,%ymm9
- .byte 197,108,21,227 // vunpckhps %ymm3,%ymm2,%ymm12
- .byte 196,65,61,20,209 // vunpcklpd %ymm9,%ymm8,%ymm10
- .byte 196,65,61,21,201 // vunpckhpd %ymm9,%ymm8,%ymm9
- .byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
- .byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne e2f1 <_sk_store_f32_hsw+0x79>
- .byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
- .byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
- .byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
- .byte 196,67,61,6,195,49 // vperm2f128 $0x31,%ymm11,%ymm8,%ymm8
- .byte 196,1,125,17,36,129 // vmovupd %ymm12,(%r9,%r8,4)
- .byte 196,1,125,17,108,129,32 // vmovupd %ymm13,0x20(%r9,%r8,4)
- .byte 196,1,125,17,76,129,64 // vmovupd %ymm9,0x40(%r9,%r8,4)
- .byte 196,1,125,17,68,129,96 // vmovupd %ymm8,0x60(%r9,%r8,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,1,121,17,20,129 // vmovupd %xmm10,(%r9,%r8,4)
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je e2ed <_sk_store_f32_hsw+0x75>
- .byte 196,1,121,17,76,129,16 // vmovupd %xmm9,0x10(%r9,%r8,4)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb e2ed <_sk_store_f32_hsw+0x75>
- .byte 196,1,121,17,68,129,32 // vmovupd %xmm8,0x20(%r9,%r8,4)
- .byte 116,218 // je e2ed <_sk_store_f32_hsw+0x75>
- .byte 196,1,121,17,92,129,48 // vmovupd %xmm11,0x30(%r9,%r8,4)
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb e2ed <_sk_store_f32_hsw+0x75>
- .byte 196,3,125,25,84,129,64,1 // vextractf128 $0x1,%ymm10,0x40(%r9,%r8,4)
- .byte 116,195 // je e2ed <_sk_store_f32_hsw+0x75>
- .byte 196,3,125,25,76,129,80,1 // vextractf128 $0x1,%ymm9,0x50(%r9,%r8,4)
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb e2ed <_sk_store_f32_hsw+0x75>
- .byte 196,3,125,25,68,129,96,1 // vextractf128 $0x1,%ymm8,0x60(%r9,%r8,4)
- .byte 235,171 // jmp e2ed <_sk_store_f32_hsw+0x75>
-
-HIDDEN _sk_repeat_x_hsw
-.globl _sk_repeat_x_hsw
-FUNCTION(_sk_repeat_x_hsw)
-_sk_repeat_x_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8
- .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8
- .byte 196,67,125,8,192,1 // vroundps $0x1,%ymm8,%ymm8
- .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
- .byte 196,194,61,188,193 // vfnmadd231ps %ymm9,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_repeat_y_hsw
-.globl _sk_repeat_y_hsw
-FUNCTION(_sk_repeat_y_hsw)
-_sk_repeat_y_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8
- .byte 197,60,89,193 // vmulps %ymm1,%ymm8,%ymm8
- .byte 196,67,125,8,192,1 // vroundps $0x1,%ymm8,%ymm8
- .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
- .byte 196,194,61,188,201 // vfnmadd231ps %ymm9,%ymm8,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_x_hsw
-.globl _sk_mirror_x_hsw
-FUNCTION(_sk_mirror_x_hsw)
-_sk_mirror_x_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,72,4 // vmovss 0x4(%rax),%xmm9
- .byte 196,66,125,24,208 // vbroadcastss %xmm8,%ymm10
- .byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
- .byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
- .byte 196,98,125,24,192 // vbroadcastss %xmm0,%ymm8
- .byte 197,178,89,5,79,225,2,0 // vmulss 0x2e14f(%rip),%xmm9,%xmm0 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,226,125,24,192 // vbroadcastss %xmm0,%ymm0
- .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
- .byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
- .byte 196,194,61,172,195 // vfnmadd213ps %ymm11,%ymm8,%ymm0
- .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,192 // vsubps %ymm0,%ymm8,%ymm8
- .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_y_hsw
-.globl _sk_mirror_y_hsw
-FUNCTION(_sk_mirror_y_hsw)
-_sk_mirror_y_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,72,4 // vmovss 0x4(%rax),%xmm9
- .byte 196,66,125,24,208 // vbroadcastss %xmm8,%ymm10
- .byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
- .byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
- .byte 196,98,125,24,193 // vbroadcastss %xmm1,%ymm8
- .byte 197,178,89,13,254,224,2,0 // vmulss 0x2e0fe(%rip),%xmm9,%xmm1 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
- .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
- .byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
- .byte 196,194,61,172,203 // vfnmadd213ps %ymm11,%ymm8,%ymm1
- .byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,193 // vsubps %ymm1,%ymm8,%ymm8
- .byte 197,188,84,201 // vandps %ymm1,%ymm8,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_x_1_hsw
-.globl _sk_clamp_x_1_hsw
-FUNCTION(_sk_clamp_x_1_hsw)
-_sk_clamp_x_1_hsw:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,198,224,2,0 // vbroadcastss 0x2e0c6(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_repeat_x_1_hsw
-.globl _sk_repeat_x_1_hsw
-FUNCTION(_sk_repeat_x_1_hsw)
-_sk_repeat_x_1_hsw:
- .byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
- .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,160,224,2,0 // vbroadcastss 0x2e0a0(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_x_1_hsw
-.globl _sk_mirror_x_1_hsw
-FUNCTION(_sk_mirror_x_1_hsw)
-_sk_mirror_x_1_hsw:
- .byte 196,98,125,24,5,166,224,2,0 // vbroadcastss 0x2e0a6(%rip),%ymm8 # 3c514 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
- .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,124,224,2,0 // vbroadcastss 0x2e07c(%rip),%ymm9 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
- .byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
- .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
- .byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
- .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
- .byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,76,224,2,0 // vbroadcastss 0x2e04c(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_hsw
-.globl _sk_decal_x_hsw
-FUNCTION(_sk_decal_x_hsw)
-_sk_decal_x_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,194,200,2 // vcmpleps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,80,64 // vbroadcastss 0x40(%rax),%ymm10
- .byte 196,65,124,194,210,1 // vcmpltps %ymm10,%ymm0,%ymm10
- .byte 196,65,44,84,201 // vandps %ymm9,%ymm10,%ymm9
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,67,61,74,194,144 // vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- .byte 197,124,17,0 // vmovups %ymm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_y_hsw
-.globl _sk_decal_y_hsw
-FUNCTION(_sk_decal_y_hsw)
-_sk_decal_y_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,194,201,2 // vcmpleps %ymm1,%ymm8,%ymm9
- .byte 196,98,125,24,80,68 // vbroadcastss 0x44(%rax),%ymm10
- .byte 196,65,116,194,210,1 // vcmpltps %ymm10,%ymm1,%ymm10
- .byte 196,65,44,84,201 // vandps %ymm9,%ymm10,%ymm9
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,67,61,74,194,144 // vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- .byte 197,124,17,0 // vmovups %ymm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_and_y_hsw
-.globl _sk_decal_x_and_y_hsw
-FUNCTION(_sk_decal_x_and_y_hsw)
-_sk_decal_x_and_y_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,194,200,2 // vcmpleps %ymm0,%ymm8,%ymm9
- .byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
- .byte 196,65,49,99,202 // vpacksswb %xmm10,%xmm9,%xmm9
- .byte 196,98,125,24,80,64 // vbroadcastss 0x40(%rax),%ymm10
- .byte 196,65,124,194,210,1 // vcmpltps %ymm10,%ymm0,%ymm10
- .byte 196,67,125,25,211,1 // vextractf128 $0x1,%ymm10,%xmm11
- .byte 196,65,41,99,211 // vpacksswb %xmm11,%xmm10,%xmm10
- .byte 197,60,194,217,2 // vcmpleps %ymm1,%ymm8,%ymm11
- .byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12
- .byte 196,65,33,99,220 // vpacksswb %xmm12,%xmm11,%xmm11
- .byte 196,65,33,219,201 // vpand %xmm9,%xmm11,%xmm9
- .byte 196,65,49,219,202 // vpand %xmm10,%xmm9,%xmm9
- .byte 196,98,125,24,80,68 // vbroadcastss 0x44(%rax),%ymm10
- .byte 196,65,116,194,210,1 // vcmpltps %ymm10,%ymm1,%ymm10
- .byte 196,67,125,25,211,1 // vextractf128 $0x1,%ymm10,%xmm11
- .byte 196,65,41,99,211 // vpacksswb %xmm11,%xmm10,%xmm10
- .byte 196,65,49,219,202 // vpand %xmm10,%xmm9,%xmm9
- .byte 196,66,125,51,201 // vpmovzxwd %xmm9,%ymm9
- .byte 196,193,53,114,241,31 // vpslld $0x1f,%ymm9,%ymm9
- .byte 196,193,53,114,225,31 // vpsrad $0x1f,%ymm9,%ymm9
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,67,61,74,194,144 // vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- .byte 197,124,17,0 // vmovups %ymm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_check_decal_mask_hsw
-.globl _sk_check_decal_mask_hsw
-FUNCTION(_sk_check_decal_mask_hsw)
-_sk_check_decal_mask_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,16,0 // vmovups (%rax),%ymm8
- .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
- .byte 197,188,84,201 // vandps %ymm1,%ymm8,%ymm1
- .byte 197,188,84,210 // vandps %ymm2,%ymm8,%ymm2
- .byte 197,188,84,219 // vandps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_luminance_to_alpha_hsw
-.globl _sk_luminance_to_alpha_hsw
-FUNCTION(_sk_luminance_to_alpha_hsw)
-_sk_luminance_to_alpha_hsw:
- .byte 196,226,125,24,29,108,224,2,0 // vbroadcastss 0x2e06c(%rip),%ymm3 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
- .byte 196,98,125,24,5,95,224,2,0 // vbroadcastss 0x2e05f(%rip),%ymm8 # 3c62c <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,226,125,184,203 // vfmadd231ps %ymm3,%ymm0,%ymm1
- .byte 196,226,125,24,29,84,224,2,0 // vbroadcastss 0x2e054(%rip),%ymm3 # 3c634 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
- .byte 196,226,109,168,217 // vfmadd213ps %ymm1,%ymm2,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_translate_hsw
-.globl _sk_matrix_translate_hsw
-FUNCTION(_sk_matrix_translate_hsw)
-_sk_matrix_translate_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8
- .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_scale_translate_hsw
-.globl _sk_matrix_scale_translate_hsw
-FUNCTION(_sk_matrix_scale_translate_hsw)
-_sk_matrix_scale_translate_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 196,98,125,24,72,8 // vbroadcastss 0x8(%rax),%ymm9
- .byte 196,194,61,168,193 // vfmadd213ps %ymm9,%ymm8,%ymm0
- .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 196,194,61,168,201 // vfmadd213ps %ymm9,%ymm8,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_2x3_hsw
-.globl _sk_matrix_2x3_hsw
-FUNCTION(_sk_matrix_2x3_hsw)
-_sk_matrix_2x3_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
- .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10
- .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8
- .byte 196,66,117,184,194 // vfmadd231ps %ymm10,%ymm1,%ymm8
- .byte 196,66,125,184,193 // vfmadd231ps %ymm9,%ymm0,%ymm8
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 196,98,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm11
- .byte 196,98,125,24,72,20 // vbroadcastss 0x14(%rax),%ymm9
- .byte 196,66,117,184,203 // vfmadd231ps %ymm11,%ymm1,%ymm9
- .byte 196,66,125,184,202 // vfmadd231ps %ymm10,%ymm0,%ymm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_3x4_hsw
-.globl _sk_matrix_3x4_hsw
-FUNCTION(_sk_matrix_3x4_hsw)
-_sk_matrix_3x4_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
- .byte 196,98,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm10
- .byte 196,98,125,24,88,24 // vbroadcastss 0x18(%rax),%ymm11
- .byte 196,98,125,24,64,36 // vbroadcastss 0x24(%rax),%ymm8
- .byte 196,66,109,184,195 // vfmadd231ps %ymm11,%ymm2,%ymm8
- .byte 196,66,117,184,194 // vfmadd231ps %ymm10,%ymm1,%ymm8
- .byte 196,66,125,184,193 // vfmadd231ps %ymm9,%ymm0,%ymm8
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 196,98,125,24,88,16 // vbroadcastss 0x10(%rax),%ymm11
- .byte 196,98,125,24,96,28 // vbroadcastss 0x1c(%rax),%ymm12
- .byte 196,98,125,24,72,40 // vbroadcastss 0x28(%rax),%ymm9
- .byte 196,66,109,184,204 // vfmadd231ps %ymm12,%ymm2,%ymm9
- .byte 196,66,117,184,203 // vfmadd231ps %ymm11,%ymm1,%ymm9
- .byte 196,66,125,184,202 // vfmadd231ps %ymm10,%ymm0,%ymm9
- .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11
- .byte 196,98,125,24,96,20 // vbroadcastss 0x14(%rax),%ymm12
- .byte 196,98,125,24,104,32 // vbroadcastss 0x20(%rax),%ymm13
- .byte 196,98,125,24,80,44 // vbroadcastss 0x2c(%rax),%ymm10
- .byte 196,66,109,184,213 // vfmadd231ps %ymm13,%ymm2,%ymm10
- .byte 196,66,117,184,212 // vfmadd231ps %ymm12,%ymm1,%ymm10
- .byte 196,66,125,184,211 // vfmadd231ps %ymm11,%ymm0,%ymm10
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
- .byte 197,124,41,210 // vmovaps %ymm10,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_4x5_hsw
-.globl _sk_matrix_4x5_hsw
-FUNCTION(_sk_matrix_4x5_hsw)
-_sk_matrix_4x5_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
- .byte 196,98,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm10
- .byte 196,98,125,24,88,32 // vbroadcastss 0x20(%rax),%ymm11
- .byte 196,98,125,24,96,48 // vbroadcastss 0x30(%rax),%ymm12
- .byte 196,98,125,24,64,64 // vbroadcastss 0x40(%rax),%ymm8
- .byte 196,66,101,184,196 // vfmadd231ps %ymm12,%ymm3,%ymm8
- .byte 196,66,109,184,195 // vfmadd231ps %ymm11,%ymm2,%ymm8
- .byte 196,66,117,184,194 // vfmadd231ps %ymm10,%ymm1,%ymm8
- .byte 196,66,125,184,193 // vfmadd231ps %ymm9,%ymm0,%ymm8
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
- .byte 196,98,125,24,96,36 // vbroadcastss 0x24(%rax),%ymm12
- .byte 196,98,125,24,104,52 // vbroadcastss 0x34(%rax),%ymm13
- .byte 196,98,125,24,72,68 // vbroadcastss 0x44(%rax),%ymm9
- .byte 196,66,101,184,205 // vfmadd231ps %ymm13,%ymm3,%ymm9
- .byte 196,66,109,184,204 // vfmadd231ps %ymm12,%ymm2,%ymm9
- .byte 196,66,117,184,203 // vfmadd231ps %ymm11,%ymm1,%ymm9
- .byte 196,66,125,184,202 // vfmadd231ps %ymm10,%ymm0,%ymm9
- .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11
- .byte 196,98,125,24,96,24 // vbroadcastss 0x18(%rax),%ymm12
- .byte 196,98,125,24,104,40 // vbroadcastss 0x28(%rax),%ymm13
- .byte 196,98,125,24,112,56 // vbroadcastss 0x38(%rax),%ymm14
- .byte 196,98,125,24,80,72 // vbroadcastss 0x48(%rax),%ymm10
- .byte 196,66,101,184,214 // vfmadd231ps %ymm14,%ymm3,%ymm10
- .byte 196,66,109,184,213 // vfmadd231ps %ymm13,%ymm2,%ymm10
- .byte 196,66,117,184,212 // vfmadd231ps %ymm12,%ymm1,%ymm10
- .byte 196,66,125,184,211 // vfmadd231ps %ymm11,%ymm0,%ymm10
- .byte 196,98,125,24,96,12 // vbroadcastss 0xc(%rax),%ymm12
- .byte 196,98,125,24,104,28 // vbroadcastss 0x1c(%rax),%ymm13
- .byte 196,98,125,24,112,44 // vbroadcastss 0x2c(%rax),%ymm14
- .byte 196,98,125,24,120,60 // vbroadcastss 0x3c(%rax),%ymm15
- .byte 196,98,125,24,88,76 // vbroadcastss 0x4c(%rax),%ymm11
- .byte 196,66,101,184,223 // vfmadd231ps %ymm15,%ymm3,%ymm11
- .byte 196,66,109,184,222 // vfmadd231ps %ymm14,%ymm2,%ymm11
- .byte 196,66,117,184,221 // vfmadd231ps %ymm13,%ymm1,%ymm11
- .byte 196,66,125,184,220 // vfmadd231ps %ymm12,%ymm0,%ymm11
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
- .byte 197,124,41,210 // vmovaps %ymm10,%ymm2
- .byte 197,124,41,219 // vmovaps %ymm11,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_4x3_hsw
-.globl _sk_matrix_4x3_hsw
-FUNCTION(_sk_matrix_4x3_hsw)
-_sk_matrix_4x3_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
- .byte 196,226,125,24,88,16 // vbroadcastss 0x10(%rax),%ymm3
- .byte 196,98,125,24,64,32 // vbroadcastss 0x20(%rax),%ymm8
- .byte 196,98,117,184,195 // vfmadd231ps %ymm3,%ymm1,%ymm8
- .byte 196,98,125,184,194 // vfmadd231ps %ymm2,%ymm0,%ymm8
- .byte 196,226,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm2
- .byte 196,226,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm3
- .byte 196,98,125,24,72,36 // vbroadcastss 0x24(%rax),%ymm9
- .byte 196,98,117,184,203 // vfmadd231ps %ymm3,%ymm1,%ymm9
- .byte 196,98,125,184,202 // vfmadd231ps %ymm2,%ymm0,%ymm9
- .byte 196,226,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm3
- .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10
- .byte 196,226,125,24,80,40 // vbroadcastss 0x28(%rax),%ymm2
- .byte 196,194,117,184,210 // vfmadd231ps %ymm10,%ymm1,%ymm2
- .byte 196,226,125,184,211 // vfmadd231ps %ymm3,%ymm0,%ymm2
- .byte 196,98,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm10
- .byte 196,98,125,24,88,28 // vbroadcastss 0x1c(%rax),%ymm11
- .byte 196,226,125,24,88,44 // vbroadcastss 0x2c(%rax),%ymm3
- .byte 196,194,117,184,219 // vfmadd231ps %ymm11,%ymm1,%ymm3
- .byte 196,194,125,184,218 // vfmadd231ps %ymm10,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_perspective_hsw
-.globl _sk_matrix_perspective_hsw
-FUNCTION(_sk_matrix_perspective_hsw)
-_sk_matrix_perspective_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 196,98,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm9
- .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10
- .byte 196,66,117,184,209 // vfmadd231ps %ymm9,%ymm1,%ymm10
- .byte 196,66,125,184,208 // vfmadd231ps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,64,12 // vbroadcastss 0xc(%rax),%ymm8
- .byte 196,98,125,24,72,16 // vbroadcastss 0x10(%rax),%ymm9
- .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
- .byte 196,66,117,184,217 // vfmadd231ps %ymm9,%ymm1,%ymm11
- .byte 196,66,125,184,216 // vfmadd231ps %ymm8,%ymm0,%ymm11
- .byte 196,98,125,24,64,24 // vbroadcastss 0x18(%rax),%ymm8
- .byte 196,98,125,24,72,28 // vbroadcastss 0x1c(%rax),%ymm9
- .byte 196,98,125,24,96,32 // vbroadcastss 0x20(%rax),%ymm12
- .byte 196,66,117,184,225 // vfmadd231ps %ymm9,%ymm1,%ymm12
- .byte 196,66,125,184,224 // vfmadd231ps %ymm8,%ymm0,%ymm12
- .byte 196,193,124,83,204 // vrcpps %ymm12,%ymm1
- .byte 197,172,89,193 // vmulps %ymm1,%ymm10,%ymm0
- .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_gradient_hsw
-.globl _sk_evenly_spaced_gradient_hsw
-FUNCTION(_sk_evenly_spaced_gradient_hsw)
-_sk_evenly_spaced_gradient_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,8 // mov (%rax),%r9
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 77,137,202 // mov %r9,%r10
- .byte 73,255,202 // dec %r10
- .byte 120,7 // js e8d8 <_sk_evenly_spaced_gradient_hsw+0x18>
- .byte 196,193,242,42,202 // vcvtsi2ss %r10,%xmm1,%xmm1
- .byte 235,22 // jmp e8ee <_sk_evenly_spaced_gradient_hsw+0x2e>
- .byte 77,137,211 // mov %r10,%r11
- .byte 73,209,235 // shr %r11
- .byte 65,131,226,1 // and $0x1,%r10d
- .byte 77,9,218 // or %r11,%r10
- .byte 196,193,242,42,202 // vcvtsi2ss %r10,%xmm1,%xmm1
- .byte 197,242,88,201 // vaddss %xmm1,%xmm1,%xmm1
- .byte 196,226,125,24,201 // vbroadcastss %xmm1,%ymm1
- .byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
- .byte 197,126,91,225 // vcvttps2dq %ymm1,%ymm12
- .byte 73,131,249,8 // cmp $0x8,%r9
- .byte 119,73 // ja e94a <_sk_evenly_spaced_gradient_hsw+0x8a>
- .byte 196,66,29,22,0 // vpermps (%r8),%ymm12,%ymm8
- .byte 76,139,64,40 // mov 0x28(%rax),%r8
- .byte 196,66,29,22,8 // vpermps (%r8),%ymm12,%ymm9
- .byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 196,194,29,22,8 // vpermps (%r8),%ymm12,%ymm1
- .byte 76,139,64,48 // mov 0x30(%rax),%r8
- .byte 196,66,29,22,24 // vpermps (%r8),%ymm12,%ymm11
- .byte 196,194,29,22,17 // vpermps (%r9),%ymm12,%ymm2
- .byte 76,139,64,56 // mov 0x38(%rax),%r8
- .byte 196,66,29,22,40 // vpermps (%r8),%ymm12,%ymm13
- .byte 76,139,64,32 // mov 0x20(%rax),%r8
- .byte 196,194,29,22,24 // vpermps (%r8),%ymm12,%ymm3
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 196,98,29,22,16 // vpermps (%rax),%ymm12,%ymm10
- .byte 233,147,0,0,0 // jmpq e9dd <_sk_evenly_spaced_gradient_hsw+0x11d>
- .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,2,117,146,4,160 // vgatherdps %ymm1,(%r8,%ymm12,4),%ymm8
- .byte 76,139,64,40 // mov 0x28(%rax),%r8
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,2,117,146,12,160 // vgatherdps %ymm1,(%r8,%ymm12,4),%ymm9
- .byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,130,109,146,12,160 // vgatherdps %ymm2,(%r8,%ymm12,4),%ymm1
- .byte 76,139,64,48 // mov 0x30(%rax),%r8
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
- .byte 196,2,109,146,28,160 // vgatherdps %ymm2,(%r8,%ymm12,4),%ymm11
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,130,101,146,20,161 // vgatherdps %ymm3,(%r9,%ymm12,4),%ymm2
- .byte 76,139,64,56 // mov 0x38(%rax),%r8
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
- .byte 196,2,101,146,44,160 // vgatherdps %ymm3,(%r8,%ymm12,4),%ymm13
- .byte 76,139,64,32 // mov 0x20(%rax),%r8
- .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,130,5,146,28,160 // vgatherdps %ymm15,(%r8,%ymm12,4),%ymm3
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 196,34,13,146,20,160 // vgatherdps %ymm14,(%rax,%ymm12,4),%ymm10
- .byte 196,66,125,168,193 // vfmadd213ps %ymm9,%ymm0,%ymm8
- .byte 196,194,125,168,203 // vfmadd213ps %ymm11,%ymm0,%ymm1
- .byte 196,194,125,168,213 // vfmadd213ps %ymm13,%ymm0,%ymm2
- .byte 196,194,125,168,218 // vfmadd213ps %ymm10,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gradient_hsw
-.globl _sk_gradient_hsw
-FUNCTION(_sk_gradient_hsw)
-_sk_gradient_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 73,131,248,1 // cmp $0x1,%r8
- .byte 15,134,220,0,0,0 // jbe eae4 <_sk_gradient_hsw+0xeb>
- .byte 76,139,72,72 // mov 0x48(%rax),%r9
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 196,226,125,24,21,225,218,2,0 // vbroadcastss 0x2dae1(%rip),%ymm2 # 3c500 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
- .byte 196,65,53,239,201 // vpxor %ymm9,%ymm9,%ymm9
- .byte 196,130,125,24,28,145 // vbroadcastss (%r9,%r10,4),%ymm3
- .byte 197,228,194,216,2 // vcmpleps %ymm0,%ymm3,%ymm3
- .byte 196,227,117,74,218,48 // vblendvps %ymm3,%ymm2,%ymm1,%ymm3
- .byte 197,53,254,203 // vpaddd %ymm3,%ymm9,%ymm9
- .byte 73,255,194 // inc %r10
- .byte 77,57,208 // cmp %r10,%r8
- .byte 117,227 // jne ea24 <_sk_gradient_hsw+0x2b>
- .byte 76,139,72,8 // mov 0x8(%rax),%r9
- .byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,134,158,0,0,0 // jbe eaed <_sk_gradient_hsw+0xf4>
- .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
- .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,2,117,146,4,137 // vgatherdps %ymm1,(%r9,%ymm9,4),%ymm8
- .byte 76,139,64,40 // mov 0x28(%rax),%r8
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,2,117,146,20,136 // vgatherdps %ymm1,(%r8,%ymm9,4),%ymm10
- .byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,130,109,146,12,136 // vgatherdps %ymm2,(%r8,%ymm9,4),%ymm1
- .byte 76,139,64,48 // mov 0x30(%rax),%r8
- .byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,2,109,146,36,136 // vgatherdps %ymm2,(%r8,%ymm9,4),%ymm12
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,130,101,146,20,137 // vgatherdps %ymm3,(%r9,%ymm9,4),%ymm2
- .byte 76,139,64,56 // mov 0x38(%rax),%r8
- .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,2,101,146,44,136 // vgatherdps %ymm3,(%r8,%ymm9,4),%ymm13
- .byte 76,139,64,32 // mov 0x20(%rax),%r8
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
- .byte 196,130,5,146,28,136 // vgatherdps %ymm15,(%r8,%ymm9,4),%ymm3
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 196,34,13,146,28,136 // vgatherdps %ymm14,(%rax,%ymm9,4),%ymm11
- .byte 235,77 // jmp eb31 <_sk_gradient_hsw+0x138>
- .byte 76,139,72,8 // mov 0x8(%rax),%r9
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,66,53,22,1 // vpermps (%r9),%ymm9,%ymm8
- .byte 76,139,64,40 // mov 0x28(%rax),%r8
- .byte 196,66,53,22,16 // vpermps (%r8),%ymm9,%ymm10
- .byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 196,194,53,22,8 // vpermps (%r8),%ymm9,%ymm1
- .byte 76,139,64,48 // mov 0x30(%rax),%r8
- .byte 196,66,53,22,32 // vpermps (%r8),%ymm9,%ymm12
- .byte 196,194,53,22,17 // vpermps (%r9),%ymm9,%ymm2
- .byte 76,139,64,56 // mov 0x38(%rax),%r8
- .byte 196,66,53,22,40 // vpermps (%r8),%ymm9,%ymm13
- .byte 76,139,64,32 // mov 0x20(%rax),%r8
- .byte 196,194,53,22,24 // vpermps (%r8),%ymm9,%ymm3
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 196,98,53,22,24 // vpermps (%rax),%ymm9,%ymm11
- .byte 196,66,125,168,194 // vfmadd213ps %ymm10,%ymm0,%ymm8
- .byte 196,194,125,168,204 // vfmadd213ps %ymm12,%ymm0,%ymm1
- .byte 196,194,125,168,213 // vfmadd213ps %ymm13,%ymm0,%ymm2
- .byte 196,194,125,168,219 // vfmadd213ps %ymm11,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_2_stop_gradient_hsw
-.globl _sk_evenly_spaced_2_stop_gradient_hsw
-FUNCTION(_sk_evenly_spaced_2_stop_gradient_hsw)
-_sk_evenly_spaced_2_stop_gradient_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
- .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8
- .byte 196,98,125,184,193 // vfmadd231ps %ymm1,%ymm0,%ymm8
- .byte 196,226,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm2
- .byte 196,226,125,24,72,20 // vbroadcastss 0x14(%rax),%ymm1
- .byte 196,226,125,184,202 // vfmadd231ps %ymm2,%ymm0,%ymm1
- .byte 196,226,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm3
- .byte 196,226,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm2
- .byte 196,226,125,184,211 // vfmadd231ps %ymm3,%ymm0,%ymm2
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 196,226,125,24,88,28 // vbroadcastss 0x1c(%rax),%ymm3
- .byte 196,194,125,184,217 // vfmadd231ps %ymm9,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_unit_angle_hsw
-.globl _sk_xy_to_unit_angle_hsw
-FUNCTION(_sk_xy_to_unit_angle_hsw)
-_sk_xy_to_unit_angle_hsw:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
- .byte 197,52,84,200 // vandps %ymm0,%ymm9,%ymm9
- .byte 197,60,92,209 // vsubps %ymm1,%ymm8,%ymm10
- .byte 197,44,84,209 // vandps %ymm1,%ymm10,%ymm10
- .byte 196,65,52,93,218 // vminps %ymm10,%ymm9,%ymm11
- .byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
- .byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
- .byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,108,218,2,0 // vbroadcastss 0x2da6c(%rip),%ymm13 # 3c638 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
- .byte 196,98,125,24,53,103,218,2,0 // vbroadcastss 0x2da67(%rip),%ymm14 # 3c63c <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
- .byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
- .byte 196,98,125,24,45,93,218,2,0 // vbroadcastss 0x2da5d(%rip),%ymm13 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
- .byte 196,66,29,184,238 // vfmadd231ps %ymm14,%ymm12,%ymm13
- .byte 196,98,125,24,53,83,218,2,0 // vbroadcastss 0x2da53(%rip),%ymm14 # 3c644 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
- .byte 196,66,29,184,245 // vfmadd231ps %ymm13,%ymm12,%ymm14
- .byte 196,65,36,89,222 // vmulps %ymm14,%ymm11,%ymm11
- .byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,62,218,2,0 // vbroadcastss 0x2da3e(%rip),%ymm10 # 3c648 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
- .byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
- .byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,212,216,2,0 // vbroadcastss 0x2d8d4(%rip),%ymm10 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
- .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- .byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,190,216,2,0 // vbroadcastss 0x2d8be(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
- .byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
- .byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
- .byte 196,195,125,74,192,144 // vblendvps %ymm9,%ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_radius_hsw
-.globl _sk_xy_to_radius_hsw
-FUNCTION(_sk_xy_to_radius_hsw)
-_sk_xy_to_radius_hsw:
- .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
- .byte 196,98,125,184,192 // vfmadd231ps %ymm0,%ymm0,%ymm8
- .byte 196,193,124,81,192 // vsqrtps %ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_negate_x_hsw
-.globl _sk_negate_x_hsw
-FUNCTION(_sk_negate_x_hsw)
-_sk_negate_x_hsw:
- .byte 196,98,125,24,5,217,217,2,0 // vbroadcastss 0x2d9d9(%rip),%ymm8 # 3c64c <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_strip_hsw
-.globl _sk_xy_to_2pt_conical_strip_hsw
-FUNCTION(_sk_xy_to_2pt_conical_strip_hsw)
-_sk_xy_to_2pt_conical_strip_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,64 // vbroadcastss 0x40(%rax),%ymm8
- .byte 196,98,117,188,193 // vfnmadd231ps %ymm1,%ymm1,%ymm8
- .byte 196,65,124,81,192 // vsqrtps %ymm8,%ymm8
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_focal_on_circle_hsw
-.globl _sk_xy_to_2pt_conical_focal_on_circle_hsw
-FUNCTION(_sk_xy_to_2pt_conical_focal_on_circle_hsw)
-_sk_xy_to_2pt_conical_focal_on_circle_hsw:
- .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
- .byte 197,60,94,192 // vdivps %ymm0,%ymm8,%ymm8
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_well_behaved_hsw
-.globl _sk_xy_to_2pt_conical_well_behaved_hsw
-FUNCTION(_sk_xy_to_2pt_conical_well_behaved_hsw)
-_sk_xy_to_2pt_conical_well_behaved_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
- .byte 196,98,125,184,192 // vfmadd231ps %ymm0,%ymm0,%ymm8
- .byte 196,65,124,81,192 // vsqrtps %ymm8,%ymm8
- .byte 196,98,125,24,72,64 // vbroadcastss 0x40(%rax),%ymm9
- .byte 196,194,53,172,192 // vfnmadd213ps %ymm8,%ymm9,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_greater_hsw
-.globl _sk_xy_to_2pt_conical_greater_hsw
-FUNCTION(_sk_xy_to_2pt_conical_greater_hsw)
-_sk_xy_to_2pt_conical_greater_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
- .byte 196,98,125,186,192 // vfmsub231ps %ymm0,%ymm0,%ymm8
- .byte 196,65,124,81,192 // vsqrtps %ymm8,%ymm8
- .byte 196,98,125,24,72,64 // vbroadcastss 0x40(%rax),%ymm9
- .byte 196,194,53,172,192 // vfnmadd213ps %ymm8,%ymm9,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_smaller_hsw
-.globl _sk_xy_to_2pt_conical_smaller_hsw
-FUNCTION(_sk_xy_to_2pt_conical_smaller_hsw)
-_sk_xy_to_2pt_conical_smaller_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
- .byte 196,98,125,186,192 // vfmsub231ps %ymm0,%ymm0,%ymm8
- .byte 196,65,124,81,192 // vsqrtps %ymm8,%ymm8
- .byte 196,98,125,24,72,64 // vbroadcastss 0x40(%rax),%ymm9
- .byte 196,194,53,174,192 // vfnmsub213ps %ymm8,%ymm9,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_alter_2pt_conical_compensate_focal_hsw
-.globl _sk_alter_2pt_conical_compensate_focal_hsw
-FUNCTION(_sk_alter_2pt_conical_compensate_focal_hsw)
-_sk_alter_2pt_conical_compensate_focal_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_alter_2pt_conical_unswap_hsw
-.globl _sk_alter_2pt_conical_unswap_hsw
-FUNCTION(_sk_alter_2pt_conical_unswap_hsw)
-_sk_alter_2pt_conical_unswap_hsw:
- .byte 196,98,125,24,5,224,215,2,0 // vbroadcastss 0x2d7e0(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mask_2pt_conical_nan_hsw
-.globl _sk_mask_2pt_conical_nan_hsw
-FUNCTION(_sk_mask_2pt_conical_nan_hsw)
-_sk_mask_2pt_conical_nan_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,65,124,194,193,3 // vcmpunordps %ymm9,%ymm0,%ymm8
- .byte 196,67,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm8
- .byte 196,193,124,194,193,7 // vcmpordps %ymm9,%ymm0,%ymm0
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- .byte 197,252,17,0 // vmovups %ymm0,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mask_2pt_conical_degenerates_hsw
-.globl _sk_mask_2pt_conical_degenerates_hsw
-FUNCTION(_sk_mask_2pt_conical_degenerates_hsw)
-_sk_mask_2pt_conical_degenerates_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,52,194,192,5 // vcmpnltps %ymm0,%ymm9,%ymm8
- .byte 196,67,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm8
- .byte 197,180,194,192,1 // vcmpltps %ymm0,%ymm9,%ymm0
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- .byte 197,252,17,0 // vmovups %ymm0,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_apply_vector_mask_hsw
-.globl _sk_apply_vector_mask_hsw
-FUNCTION(_sk_apply_vector_mask_hsw)
-_sk_apply_vector_mask_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,16,0 // vmovups (%rax),%ymm8
- .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
- .byte 197,188,84,201 // vandps %ymm1,%ymm8,%ymm1
- .byte 197,188,84,210 // vandps %ymm2,%ymm8,%ymm2
- .byte 197,188,84,219 // vandps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_save_xy_hsw
-.globl _sk_save_xy_hsw
-FUNCTION(_sk_save_xy_hsw)
-_sk_save_xy_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,81,215,2,0 // vbroadcastss 0x2d751(%rip),%ymm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
- .byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
- .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,65,116,88,192 // vaddps %ymm8,%ymm1,%ymm8
- .byte 196,67,125,8,208,1 // vroundps $0x1,%ymm8,%ymm10
- .byte 196,65,60,92,194 // vsubps %ymm10,%ymm8,%ymm8
- .byte 197,252,17,0 // vmovups %ymm0,(%rax)
- .byte 197,252,17,72,64 // vmovups %ymm1,0x40(%rax)
- .byte 197,124,17,136,128,0,0,0 // vmovups %ymm9,0x80(%rax)
- .byte 197,124,17,128,192,0,0,0 // vmovups %ymm8,0xc0(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_accumulate_hsw
-.globl _sk_accumulate_hsw
-FUNCTION(_sk_accumulate_hsw)
-_sk_accumulate_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,16,128,0,1,0,0 // vmovups 0x100(%rax),%ymm8
- .byte 197,60,89,128,64,1,0,0 // vmulps 0x140(%rax),%ymm8,%ymm8
- .byte 196,226,61,184,224 // vfmadd231ps %ymm0,%ymm8,%ymm4
- .byte 196,226,61,184,233 // vfmadd231ps %ymm1,%ymm8,%ymm5
- .byte 196,226,61,184,242 // vfmadd231ps %ymm2,%ymm8,%ymm6
- .byte 196,98,101,168,199 // vfmadd213ps %ymm7,%ymm3,%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,199 // vmovaps %ymm8,%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_nx_hsw
-.globl _sk_bilinear_nx_hsw
-FUNCTION(_sk_bilinear_nx_hsw)
-_sk_bilinear_nx_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,51,216,2,0 // vbroadcastss 0x2d833(%rip),%ymm0 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,210,214,2,0 // vbroadcastss 0x2d6d2(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_px_hsw
-.globl _sk_bilinear_px_hsw
-FUNCTION(_sk_bilinear_px_hsw)
-_sk_bilinear_px_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,175,214,2,0 // vbroadcastss 0x2d6af(%rip),%ymm0 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_ny_hsw
-.globl _sk_bilinear_ny_hsw
-FUNCTION(_sk_bilinear_ny_hsw)
-_sk_bilinear_ny_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,228,215,2,0 // vbroadcastss 0x2d7e4(%rip),%ymm1 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,130,214,2,0 // vbroadcastss 0x2d682(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_py_hsw
-.globl _sk_bilinear_py_hsw
-FUNCTION(_sk_bilinear_py_hsw)
-_sk_bilinear_py_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,95,214,2,0 // vbroadcastss 0x2d65f(%rip),%ymm1 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n3x_hsw
-.globl _sk_bicubic_n3x_hsw
-FUNCTION(_sk_bicubic_n3x_hsw)
-_sk_bicubic_n3x_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,151,215,2,0 // vbroadcastss 0x2d797(%rip),%ymm0 # 3c654 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,50,214,2,0 // vbroadcastss 0x2d632(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,144,214,2,0 // vbroadcastss 0x2d690(%rip),%ymm10 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,111,215,2,0 // vbroadcastss 0x2d76f(%rip),%ymm11 # 3c658 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
- .byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n1x_hsw
-.globl _sk_bicubic_n1x_hsw
-FUNCTION(_sk_bicubic_n1x_hsw)
-_sk_bicubic_n1x_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,70,215,2,0 // vbroadcastss 0x2d746(%rip),%ymm0 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,229,213,2,0 // vbroadcastss 0x2d5e5(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,56,215,2,0 // vbroadcastss 0x2d738(%rip),%ymm9 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 196,98,125,24,21,43,215,2,0 // vbroadcastss 0x2d72b(%rip),%ymm10 # 3c65c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- .byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,185,213,2,0 // vbroadcastss 0x2d5b9(%rip),%ymm9 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,23,215,2,0 // vbroadcastss 0x2d717(%rip),%ymm10 # 3c664 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- .byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
- .byte 197,124,17,144,0,1,0,0 // vmovups %ymm10,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p1x_hsw
-.globl _sk_bicubic_p1x_hsw
-FUNCTION(_sk_bicubic_p1x_hsw)
-_sk_bicubic_p1x_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,143,213,2,0 // vbroadcastss 0x2d58f(%rip),%ymm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
- .byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,226,214,2,0 // vbroadcastss 0x2d6e2(%rip),%ymm10 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 196,98,125,24,29,213,214,2,0 // vbroadcastss 0x2d6d5(%rip),%ymm11 # 3c65c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- .byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
- .byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,202,214,2,0 // vbroadcastss 0x2d6ca(%rip),%ymm8 # 3c664 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- .byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p3x_hsw
-.globl _sk_bicubic_p3x_hsw
-FUNCTION(_sk_bicubic_p3x_hsw)
-_sk_bicubic_p3x_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,170,214,2,0 // vbroadcastss 0x2d6aa(%rip),%ymm0 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,160,213,2,0 // vbroadcastss 0x2d5a0(%rip),%ymm10 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,127,214,2,0 // vbroadcastss 0x2d67f(%rip),%ymm11 # 3c658 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
- .byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n3y_hsw
-.globl _sk_bicubic_n3y_hsw
-FUNCTION(_sk_bicubic_n3y_hsw)
-_sk_bicubic_n3y_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,90,214,2,0 // vbroadcastss 0x2d65a(%rip),%ymm1 # 3c654 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,244,212,2,0 // vbroadcastss 0x2d4f4(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,82,213,2,0 // vbroadcastss 0x2d552(%rip),%ymm10 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,49,214,2,0 // vbroadcastss 0x2d631(%rip),%ymm11 # 3c658 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
- .byte 196,65,36,89,193 // vmulps %ymm9,%ymm11,%ymm8
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n1y_hsw
-.globl _sk_bicubic_n1y_hsw
-FUNCTION(_sk_bicubic_n1y_hsw)
-_sk_bicubic_n1y_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,8,214,2,0 // vbroadcastss 0x2d608(%rip),%ymm1 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,166,212,2,0 // vbroadcastss 0x2d4a6(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,249,213,2,0 // vbroadcastss 0x2d5f9(%rip),%ymm9 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 196,98,125,24,21,236,213,2,0 // vbroadcastss 0x2d5ec(%rip),%ymm10 # 3c65c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- .byte 196,66,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,13,122,212,2,0 // vbroadcastss 0x2d47a(%rip),%ymm9 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,66,61,184,202 // vfmadd231ps %ymm10,%ymm8,%ymm9
- .byte 196,98,125,24,21,216,213,2,0 // vbroadcastss 0x2d5d8(%rip),%ymm10 # 3c664 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- .byte 196,66,61,184,209 // vfmadd231ps %ymm9,%ymm8,%ymm10
- .byte 197,124,17,144,64,1,0,0 // vmovups %ymm10,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p1y_hsw
-.globl _sk_bicubic_p1y_hsw
-FUNCTION(_sk_bicubic_p1y_hsw)
-_sk_bicubic_p1y_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,80,212,2,0 // vbroadcastss 0x2d450(%rip),%ymm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
- .byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,162,213,2,0 // vbroadcastss 0x2d5a2(%rip),%ymm10 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 196,98,125,24,29,149,213,2,0 // vbroadcastss 0x2d595(%rip),%ymm11 # 3c65c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- .byte 196,66,53,168,218 // vfmadd213ps %ymm10,%ymm9,%ymm11
- .byte 196,66,53,168,216 // vfmadd213ps %ymm8,%ymm9,%ymm11
- .byte 196,98,125,24,5,138,213,2,0 // vbroadcastss 0x2d58a(%rip),%ymm8 # 3c664 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- .byte 196,66,53,184,195 // vfmadd231ps %ymm11,%ymm9,%ymm8
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p3y_hsw
-.globl _sk_bicubic_p3y_hsw
-FUNCTION(_sk_bicubic_p3y_hsw)
-_sk_bicubic_p3y_hsw:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,106,213,2,0 // vbroadcastss 0x2d56a(%rip),%ymm1 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,95,212,2,0 // vbroadcastss 0x2d45f(%rip),%ymm10 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,98,125,24,29,62,213,2,0 // vbroadcastss 0x2d53e(%rip),%ymm11 # 3c658 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,66,61,168,218 // vfmadd213ps %ymm10,%ymm8,%ymm11
- .byte 196,65,52,89,195 // vmulps %ymm11,%ymm9,%ymm8
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_callback_hsw
-.globl _sk_callback_hsw
-FUNCTION(_sk_callback_hsw)
-_sk_callback_hsw:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,228,224 // and $0xffffffffffffffe0,%rsp
- .byte 72,129,236,160,0,0,0 // sub $0xa0,%rsp
- .byte 197,252,41,124,36,96 // vmovaps %ymm7,0x60(%rsp)
- .byte 197,252,41,116,36,64 // vmovaps %ymm6,0x40(%rsp)
- .byte 197,252,41,108,36,32 // vmovaps %ymm5,0x20(%rsp)
- .byte 197,252,41,36,36 // vmovaps %ymm4,(%rsp)
- .byte 73,137,206 // mov %rcx,%r14
- .byte 73,137,215 // mov %rdx,%r15
- .byte 73,137,253 // mov %rdi,%r13
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,137,195 // mov %rax,%rbx
- .byte 73,137,244 // mov %rsi,%r12
- .byte 197,252,20,225 // vunpcklps %ymm1,%ymm0,%ymm4
- .byte 197,252,21,193 // vunpckhps %ymm1,%ymm0,%ymm0
- .byte 197,236,20,203 // vunpcklps %ymm3,%ymm2,%ymm1
- .byte 197,236,21,211 // vunpckhps %ymm3,%ymm2,%ymm2
- .byte 197,221,20,217 // vunpcklpd %ymm1,%ymm4,%ymm3
- .byte 197,221,21,201 // vunpckhpd %ymm1,%ymm4,%ymm1
- .byte 197,253,20,226 // vunpcklpd %ymm2,%ymm0,%ymm4
- .byte 197,253,21,194 // vunpckhpd %ymm2,%ymm0,%ymm0
- .byte 196,227,101,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm2
- .byte 196,227,93,24,232,1 // vinsertf128 $0x1,%xmm0,%ymm4,%ymm5
- .byte 196,227,101,6,201,49 // vperm2f128 $0x31,%ymm1,%ymm3,%ymm1
- .byte 196,227,93,6,192,49 // vperm2f128 $0x31,%ymm0,%ymm4,%ymm0
- .byte 197,253,17,83,8 // vmovupd %ymm2,0x8(%rbx)
- .byte 197,253,17,107,40 // vmovupd %ymm5,0x28(%rbx)
- .byte 197,253,17,75,72 // vmovupd %ymm1,0x48(%rbx)
- .byte 197,253,17,67,104 // vmovupd %ymm0,0x68(%rbx)
- .byte 77,133,237 // test %r13,%r13
- .byte 190,8,0,0,0 // mov $0x8,%esi
- .byte 65,15,69,245 // cmovne %r13d,%esi
- .byte 72,137,223 // mov %rbx,%rdi
- .byte 197,248,119 // vzeroupper
- .byte 255,19 // callq *(%rbx)
- .byte 72,139,131,8,1,0,0 // mov 0x108(%rbx),%rax
- .byte 197,248,16,0 // vmovups (%rax),%xmm0
- .byte 197,248,16,72,16 // vmovups 0x10(%rax),%xmm1
- .byte 197,248,16,80,32 // vmovups 0x20(%rax),%xmm2
- .byte 197,248,16,88,48 // vmovups 0x30(%rax),%xmm3
- .byte 196,227,101,24,88,112,1 // vinsertf128 $0x1,0x70(%rax),%ymm3,%ymm3
- .byte 196,227,109,24,80,96,1 // vinsertf128 $0x1,0x60(%rax),%ymm2,%ymm2
- .byte 196,227,117,24,72,80,1 // vinsertf128 $0x1,0x50(%rax),%ymm1,%ymm1
- .byte 196,227,125,24,64,64,1 // vinsertf128 $0x1,0x40(%rax),%ymm0,%ymm0
- .byte 197,252,20,225 // vunpcklps %ymm1,%ymm0,%ymm4
- .byte 197,252,21,233 // vunpckhps %ymm1,%ymm0,%ymm5
- .byte 197,236,20,203 // vunpcklps %ymm3,%ymm2,%ymm1
- .byte 197,236,21,219 // vunpckhps %ymm3,%ymm2,%ymm3
- .byte 197,221,20,193 // vunpcklpd %ymm1,%ymm4,%ymm0
- .byte 197,221,21,201 // vunpckhpd %ymm1,%ymm4,%ymm1
- .byte 197,213,20,211 // vunpcklpd %ymm3,%ymm5,%ymm2
- .byte 197,213,21,219 // vunpckhpd %ymm3,%ymm5,%ymm3
- .byte 76,137,230 // mov %r12,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,137,239 // mov %r13,%rdi
- .byte 76,137,250 // mov %r15,%rdx
- .byte 76,137,241 // mov %r14,%rcx
- .byte 197,252,40,36,36 // vmovaps (%rsp),%ymm4
- .byte 197,252,40,108,36,32 // vmovaps 0x20(%rsp),%ymm5
- .byte 197,252,40,116,36,64 // vmovaps 0x40(%rsp),%ymm6
- .byte 197,252,40,124,36,96 // vmovaps 0x60(%rsp),%ymm7
- .byte 72,141,101,216 // lea -0x28(%rbp),%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clut_3D_hsw
-.globl _sk_clut_3D_hsw
-FUNCTION(_sk_clut_3D_hsw)
-_sk_clut_3D_hsw:
- .byte 72,129,236,56,3,0,0 // sub $0x338,%rsp
- .byte 197,252,17,188,36,0,3,0,0 // vmovups %ymm7,0x300(%rsp)
- .byte 197,252,17,180,36,224,2,0,0 // vmovups %ymm6,0x2e0(%rsp)
- .byte 197,252,17,172,36,192,2,0,0 // vmovups %ymm5,0x2c0(%rsp)
- .byte 197,252,17,164,36,160,2,0,0 // vmovups %ymm4,0x2a0(%rsp)
- .byte 197,252,17,156,36,128,2,0,0 // vmovups %ymm3,0x280(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,16 // mov 0x10(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 196,193,121,110,217 // vmovd %r9d,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
- .byte 197,254,91,234 // vcvttps2dq %ymm2,%ymm5
- .byte 197,252,40,242 // vmovaps %ymm2,%ymm6
- .byte 197,252,17,180,36,192,0,0,0 // vmovups %ymm6,0xc0(%rsp)
- .byte 196,193,121,110,208 // vmovd %r8d,%xmm2
- .byte 196,193,121,110,216 // vmovd %r8d,%xmm3
- .byte 196,226,125,88,219 // vpbroadcastd %xmm3,%ymm3
- .byte 68,139,64,12 // mov 0xc(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 196,193,121,110,225 // vmovd %r9d,%xmm4
- .byte 196,226,125,88,228 // vpbroadcastd %xmm4,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 197,220,89,201 // vmulps %ymm1,%ymm4,%ymm1
- .byte 197,254,91,225 // vcvttps2dq %ymm1,%ymm4
- .byte 197,254,127,164,36,96,2,0,0 // vmovdqu %ymm4,0x260(%rsp)
- .byte 197,124,40,201 // vmovaps %ymm1,%ymm9
- .byte 197,124,17,140,36,224,1,0,0 // vmovups %ymm9,0x1e0(%rsp)
- .byte 196,98,101,64,228 // vpmulld %ymm4,%ymm3,%ymm12
- .byte 197,157,254,205 // vpaddd %ymm5,%ymm12,%ymm1
- .byte 197,125,111,197 // vmovdqa %ymm5,%ymm8
- .byte 197,126,127,132,36,128,1,0,0 // vmovdqu %ymm8,0x180(%rsp)
- .byte 196,193,121,110,224 // vmovd %r8d,%xmm4
- .byte 196,226,93,64,210 // vpmulld %ymm2,%ymm4,%ymm2
- .byte 196,226,125,88,226 // vpbroadcastd %xmm2,%ymm4
- .byte 68,139,64,8 // mov 0x8(%rax),%r8d
- .byte 65,255,200 // dec %r8d
- .byte 196,193,121,110,208 // vmovd %r8d,%xmm2
- .byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,236,89,192 // vmulps %ymm0,%ymm2,%ymm0
- .byte 197,254,91,208 // vcvttps2dq %ymm0,%ymm2
- .byte 197,254,127,148,36,64,2,0,0 // vmovdqu %ymm2,0x240(%rsp)
- .byte 197,124,40,208 // vmovaps %ymm0,%ymm10
- .byte 197,124,17,148,36,192,1,0,0 // vmovups %ymm10,0x1c0(%rsp)
- .byte 196,98,93,64,218 // vpmulld %ymm2,%ymm4,%ymm11
- .byte 72,139,0 // mov (%rax),%rax
- .byte 197,165,254,193 // vpaddd %ymm1,%ymm11,%ymm0
- .byte 196,98,125,88,61,0,211,2,0 // vpbroadcastd 0x2d300(%rip),%ymm15 # 3c66c <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 196,194,125,64,199 // vpmulld %ymm15,%ymm0,%ymm0
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 196,226,109,146,44,128 // vgatherdps %ymm2,(%rax,%ymm0,4),%ymm5
- .byte 197,252,17,172,36,32,2,0,0 // vmovups %ymm5,0x220(%rsp)
- .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
- .byte 196,193,125,250,213 // vpsubd %ymm13,%ymm0,%ymm2
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
- .byte 196,226,85,146,60,144 // vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7
- .byte 197,252,17,188,36,0,2,0,0 // vmovups %ymm7,0x200(%rsp)
- .byte 196,226,125,88,61,86,209,2,0 // vpbroadcastd 0x2d156(%rip),%ymm7 # 3c508 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- .byte 197,253,254,199 // vpaddd %ymm7,%ymm0,%ymm0
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
- .byte 196,226,85,146,20,128 // vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2
- .byte 197,252,17,148,36,32,1,0,0 // vmovups %ymm2,0x120(%rsp)
- .byte 196,226,125,24,5,146,210,2,0 // vbroadcastss 0x2d292(%rip),%ymm0 # 3c668 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- .byte 197,172,88,232 // vaddps %ymm0,%ymm10,%ymm5
- .byte 197,254,91,237 // vcvttps2dq %ymm5,%ymm5
- .byte 196,226,93,64,213 // vpmulld %ymm5,%ymm4,%ymm2
- .byte 197,237,254,201 // vpaddd %ymm1,%ymm2,%ymm1
- .byte 196,194,117,64,207 // vpmulld %ymm15,%ymm1,%ymm1
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,226,93,146,44,136 // vgatherdps %ymm4,(%rax,%ymm1,4),%ymm5
- .byte 197,252,17,172,36,160,1,0,0 // vmovups %ymm5,0x1a0(%rsp)
- .byte 196,193,117,250,229 // vpsubd %ymm13,%ymm1,%ymm4
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
- .byte 196,98,85,146,20,160 // vgatherdps %ymm5,(%rax,%ymm4,4),%ymm10
- .byte 197,124,17,148,36,96,1,0,0 // vmovups %ymm10,0x160(%rsp)
- .byte 197,245,254,207 // vpaddd %ymm7,%ymm1,%ymm1
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,226,93,146,44,136 // vgatherdps %ymm4,(%rax,%ymm1,4),%ymm5
- .byte 197,252,17,172,36,64,1,0,0 // vmovups %ymm5,0x140(%rsp)
- .byte 197,180,88,200 // vaddps %ymm0,%ymm9,%ymm1
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,98,101,64,201 // vpmulld %ymm1,%ymm3,%ymm9
- .byte 196,193,53,254,200 // vpaddd %ymm8,%ymm9,%ymm1
- .byte 196,193,117,254,219 // vpaddd %ymm11,%ymm1,%ymm3
- .byte 196,194,101,64,223 // vpmulld %ymm15,%ymm3,%ymm3
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,226,93,146,44,152 // vgatherdps %ymm4,(%rax,%ymm3,4),%ymm5
- .byte 197,252,17,172,36,0,1,0,0 // vmovups %ymm5,0x100(%rsp)
- .byte 196,193,101,250,229 // vpsubd %ymm13,%ymm3,%ymm4
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
- .byte 196,98,85,146,4,160 // vgatherdps %ymm5,(%rax,%ymm4,4),%ymm8
- .byte 197,124,17,132,36,224,0,0,0 // vmovups %ymm8,0xe0(%rsp)
- .byte 197,229,254,223 // vpaddd %ymm7,%ymm3,%ymm3
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,226,93,146,44,152 // vgatherdps %ymm4,(%rax,%ymm3,4),%ymm5
- .byte 197,252,17,172,36,160,0,0,0 // vmovups %ymm5,0xa0(%rsp)
- .byte 197,237,254,201 // vpaddd %ymm1,%ymm2,%ymm1
- .byte 196,194,117,64,207 // vpmulld %ymm15,%ymm1,%ymm1
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,226,101,146,36,136 // vgatherdps %ymm3,(%rax,%ymm1,4),%ymm4
- .byte 197,252,17,164,36,128,0,0,0 // vmovups %ymm4,0x80(%rsp)
- .byte 196,193,117,250,221 // vpsubd %ymm13,%ymm1,%ymm3
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,226,93,146,44,152 // vgatherdps %ymm4,(%rax,%ymm3,4),%ymm5
- .byte 197,252,17,108,36,96 // vmovups %ymm5,0x60(%rsp)
- .byte 197,245,254,207 // vpaddd %ymm7,%ymm1,%ymm1
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,226,101,146,36,136 // vgatherdps %ymm3,(%rax,%ymm1,4),%ymm4
- .byte 197,252,17,100,36,64 // vmovups %ymm4,0x40(%rsp)
- .byte 197,204,88,192 // vaddps %ymm0,%ymm6,%ymm0
- .byte 197,126,91,208 // vcvttps2dq %ymm0,%ymm10
- .byte 196,193,29,254,218 // vpaddd %ymm10,%ymm12,%ymm3
- .byte 197,165,254,195 // vpaddd %ymm3,%ymm11,%ymm0
- .byte 196,194,125,64,199 // vpmulld %ymm15,%ymm0,%ymm0
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,226,117,146,36,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm4
- .byte 197,252,17,100,36,32 // vmovups %ymm4,0x20(%rsp)
- .byte 196,193,125,250,237 // vpsubd %ymm13,%ymm0,%ymm5
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6
- .byte 196,226,77,146,12,168 // vgatherdps %ymm6,(%rax,%ymm5,4),%ymm1
- .byte 197,252,17,12,36 // vmovups %ymm1,(%rsp)
- .byte 197,253,254,239 // vpaddd %ymm7,%ymm0,%ymm5
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6
- .byte 196,226,77,146,4,168 // vgatherdps %ymm6,(%rax,%ymm5,4),%ymm0
- .byte 197,252,17,68,36,224 // vmovups %ymm0,-0x20(%rsp)
- .byte 197,237,254,219 // vpaddd %ymm3,%ymm2,%ymm3
- .byte 196,194,101,64,223 // vpmulld %ymm15,%ymm3,%ymm3
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
- .byte 196,226,85,146,4,152 // vgatherdps %ymm5,(%rax,%ymm3,4),%ymm0
- .byte 197,252,17,68,36,192 // vmovups %ymm0,-0x40(%rsp)
- .byte 196,193,101,250,197 // vpsubd %ymm13,%ymm3,%ymm0
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
- .byte 196,226,13,146,36,128 // vgatherdps %ymm14,(%rax,%ymm0,4),%ymm4
- .byte 197,229,254,199 // vpaddd %ymm7,%ymm3,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
- .byte 196,226,13,146,12,128 // vgatherdps %ymm14,(%rax,%ymm0,4),%ymm1
- .byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
- .byte 196,193,53,254,202 // vpaddd %ymm10,%ymm9,%ymm1
- .byte 196,65,117,254,211 // vpaddd %ymm11,%ymm1,%ymm10
- .byte 196,66,45,64,247 // vpmulld %ymm15,%ymm10,%ymm14
- .byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
- .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
- .byte 196,34,29,146,20,176 // vgatherdps %ymm12,(%rax,%ymm14,4),%ymm10
- .byte 196,65,13,250,229 // vpsubd %ymm13,%ymm14,%ymm12
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 196,65,37,118,219 // vpcmpeqd %ymm11,%ymm11,%ymm11
- .byte 196,162,37,146,4,160 // vgatherdps %ymm11,(%rax,%ymm12,4),%ymm0
- .byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
- .byte 197,13,254,223 // vpaddd %ymm7,%ymm14,%ymm11
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
- .byte 196,34,13,146,4,152 // vgatherdps %ymm14,(%rax,%ymm11,4),%ymm8
- .byte 197,237,254,201 // vpaddd %ymm1,%ymm2,%ymm1
- .byte 196,194,117,64,207 // vpmulld %ymm15,%ymm1,%ymm1
- .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
- .byte 196,65,13,118,246 // vpcmpeqd %ymm14,%ymm14,%ymm14
- .byte 196,98,13,146,28,136 // vgatherdps %ymm14,(%rax,%ymm1,4),%ymm11
- .byte 196,65,117,250,245 // vpsubd %ymm13,%ymm1,%ymm14
- .byte 196,65,5,239,255 // vpxor %ymm15,%ymm15,%ymm15
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,34,53,146,60,176 // vgatherdps %ymm9,(%rax,%ymm14,4),%ymm15
- .byte 197,245,254,207 // vpaddd %ymm7,%ymm1,%ymm1
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 196,226,21,146,60,136 // vgatherdps %ymm13,(%rax,%ymm1,4),%ymm7
- .byte 197,252,91,140,36,64,2,0,0 // vcvtdq2ps 0x240(%rsp),%ymm1
- .byte 197,252,16,132,36,192,1,0,0 // vmovups 0x1c0(%rsp),%ymm0
- .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 197,252,16,132,36,32,2,0,0 // vmovups 0x220(%rsp),%ymm0
- .byte 197,252,16,156,36,160,1,0,0 // vmovups 0x1a0(%rsp),%ymm3
- .byte 197,100,92,200 // vsubps %ymm0,%ymm3,%ymm9
- .byte 196,98,117,168,200 // vfmadd213ps %ymm0,%ymm1,%ymm9
- .byte 197,252,16,132,36,0,2,0,0 // vmovups 0x200(%rsp),%ymm0
- .byte 197,252,16,156,36,96,1,0,0 // vmovups 0x160(%rsp),%ymm3
- .byte 197,100,92,232 // vsubps %ymm0,%ymm3,%ymm13
- .byte 196,98,117,168,232 // vfmadd213ps %ymm0,%ymm1,%ymm13
- .byte 197,252,16,148,36,32,1,0,0 // vmovups 0x120(%rsp),%ymm2
- .byte 197,252,16,132,36,64,1,0,0 // vmovups 0x140(%rsp),%ymm0
- .byte 197,124,92,242 // vsubps %ymm2,%ymm0,%ymm14
- .byte 196,98,117,168,242 // vfmadd213ps %ymm2,%ymm1,%ymm14
- .byte 197,252,16,132,36,0,1,0,0 // vmovups 0x100(%rsp),%ymm0
- .byte 197,252,16,148,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm2
- .byte 197,108,92,224 // vsubps %ymm0,%ymm2,%ymm12
- .byte 196,98,117,168,224 // vfmadd213ps %ymm0,%ymm1,%ymm12
- .byte 197,252,16,132,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm0
- .byte 197,252,16,84,36,96 // vmovups 0x60(%rsp),%ymm2
- .byte 197,236,92,232 // vsubps %ymm0,%ymm2,%ymm5
- .byte 196,226,117,168,232 // vfmadd213ps %ymm0,%ymm1,%ymm5
- .byte 197,252,16,132,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm0
- .byte 197,252,16,84,36,64 // vmovups 0x40(%rsp),%ymm2
- .byte 197,236,92,240 // vsubps %ymm0,%ymm2,%ymm6
- .byte 196,226,117,168,240 // vfmadd213ps %ymm0,%ymm1,%ymm6
- .byte 197,252,16,84,36,32 // vmovups 0x20(%rsp),%ymm2
- .byte 197,252,16,68,36,192 // vmovups -0x40(%rsp),%ymm0
- .byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 196,226,117,168,194 // vfmadd213ps %ymm2,%ymm1,%ymm0
- .byte 197,252,16,28,36 // vmovups (%rsp),%ymm3
- .byte 197,220,92,211 // vsubps %ymm3,%ymm4,%ymm2
- .byte 196,226,117,168,211 // vfmadd213ps %ymm3,%ymm1,%ymm2
- .byte 197,252,16,100,36,224 // vmovups -0x20(%rsp),%ymm4
- .byte 197,252,16,92,36,160 // vmovups -0x60(%rsp),%ymm3
- .byte 197,228,92,220 // vsubps %ymm4,%ymm3,%ymm3
- .byte 196,226,117,168,220 // vfmadd213ps %ymm4,%ymm1,%ymm3
- .byte 196,65,36,92,218 // vsubps %ymm10,%ymm11,%ymm11
- .byte 196,66,117,168,218 // vfmadd213ps %ymm10,%ymm1,%ymm11
- .byte 197,252,16,100,36,128 // vmovups -0x80(%rsp),%ymm4
- .byte 197,4,92,212 // vsubps %ymm4,%ymm15,%ymm10
- .byte 196,98,117,168,212 // vfmadd213ps %ymm4,%ymm1,%ymm10
- .byte 196,193,68,92,248 // vsubps %ymm8,%ymm7,%ymm7
- .byte 196,194,117,168,248 // vfmadd213ps %ymm8,%ymm1,%ymm7
- .byte 197,252,91,140,36,96,2,0,0 // vcvtdq2ps 0x260(%rsp),%ymm1
- .byte 197,124,16,132,36,224,1,0,0 // vmovups 0x1e0(%rsp),%ymm8
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 196,193,28,92,225 // vsubps %ymm9,%ymm12,%ymm4
- .byte 196,194,117,168,225 // vfmadd213ps %ymm9,%ymm1,%ymm4
- .byte 196,193,84,92,237 // vsubps %ymm13,%ymm5,%ymm5
- .byte 196,194,117,168,237 // vfmadd213ps %ymm13,%ymm1,%ymm5
- .byte 196,193,76,92,246 // vsubps %ymm14,%ymm6,%ymm6
- .byte 196,194,117,168,246 // vfmadd213ps %ymm14,%ymm1,%ymm6
- .byte 197,36,92,192 // vsubps %ymm0,%ymm11,%ymm8
- .byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 197,44,92,202 // vsubps %ymm2,%ymm10,%ymm9
- .byte 196,98,117,168,202 // vfmadd213ps %ymm2,%ymm1,%ymm9
- .byte 197,196,92,211 // vsubps %ymm3,%ymm7,%ymm2
- .byte 196,226,117,168,211 // vfmadd213ps %ymm3,%ymm1,%ymm2
- .byte 197,252,91,132,36,128,1,0,0 // vcvtdq2ps 0x180(%rsp),%ymm0
- .byte 197,252,16,140,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm1
- .byte 197,244,92,216 // vsubps %ymm0,%ymm1,%ymm3
- .byte 197,188,92,196 // vsubps %ymm4,%ymm8,%ymm0
- .byte 196,226,101,168,196 // vfmadd213ps %ymm4,%ymm3,%ymm0
- .byte 197,180,92,205 // vsubps %ymm5,%ymm9,%ymm1
- .byte 196,226,101,168,205 // vfmadd213ps %ymm5,%ymm3,%ymm1
- .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
- .byte 196,226,101,168,214 // vfmadd213ps %ymm6,%ymm3,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,156,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm3
- .byte 197,252,16,164,36,160,2,0,0 // vmovups 0x2a0(%rsp),%ymm4
- .byte 197,252,16,172,36,192,2,0,0 // vmovups 0x2c0(%rsp),%ymm5
- .byte 197,252,16,180,36,224,2,0,0 // vmovups 0x2e0(%rsp),%ymm6
- .byte 197,252,16,188,36,0,3,0,0 // vmovups 0x300(%rsp),%ymm7
- .byte 72,129,196,56,3,0,0 // add $0x338,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clut_4D_hsw
-.globl _sk_clut_4D_hsw
-FUNCTION(_sk_clut_4D_hsw)
-_sk_clut_4D_hsw:
- .byte 72,129,236,248,6,0,0 // sub $0x6f8,%rsp
- .byte 197,252,17,188,36,192,6,0,0 // vmovups %ymm7,0x6c0(%rsp)
- .byte 197,252,17,180,36,160,6,0,0 // vmovups %ymm6,0x6a0(%rsp)
- .byte 197,252,17,172,36,128,6,0,0 // vmovups %ymm5,0x680(%rsp)
- .byte 197,252,17,164,36,96,6,0,0 // vmovups %ymm4,0x660(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,20 // mov 0x14(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 196,193,121,110,225 // vmovd %r9d,%xmm4
- .byte 196,226,125,88,228 // vpbroadcastd %xmm4,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 197,220,89,219 // vmulps %ymm3,%ymm4,%ymm3
- .byte 197,252,17,156,36,32,1,0,0 // vmovups %ymm3,0x120(%rsp)
- .byte 197,254,91,243 // vcvttps2dq %ymm3,%ymm6
- .byte 196,193,121,110,216 // vmovd %r8d,%xmm3
- .byte 196,193,121,110,224 // vmovd %r8d,%xmm4
- .byte 196,98,125,88,252 // vpbroadcastd %xmm4,%ymm15
- .byte 68,139,64,16 // mov 0x10(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 196,193,121,110,233 // vmovd %r9d,%xmm5
- .byte 196,226,125,88,237 // vpbroadcastd %xmm5,%ymm5
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 197,212,89,210 // vmulps %ymm2,%ymm5,%ymm2
- .byte 197,254,91,234 // vcvttps2dq %ymm2,%ymm5
- .byte 197,254,127,172,36,64,6,0,0 // vmovdqu %ymm5,0x640(%rsp)
- .byte 197,124,40,242 // vmovaps %ymm2,%ymm14
- .byte 197,124,17,180,36,224,5,0,0 // vmovups %ymm14,0x5e0(%rsp)
- .byte 196,226,5,64,213 // vpmulld %ymm5,%ymm15,%ymm2
- .byte 197,254,127,84,36,160 // vmovdqu %ymm2,-0x60(%rsp)
- .byte 197,237,254,230 // vpaddd %ymm6,%ymm2,%ymm4
- .byte 197,125,111,230 // vmovdqa %ymm6,%ymm12
- .byte 197,126,127,164,36,192,5,0,0 // vmovdqu %ymm12,0x5c0(%rsp)
- .byte 196,193,121,110,232 // vmovd %r8d,%xmm5
- .byte 196,226,85,64,235 // vpmulld %ymm3,%ymm5,%ymm5
- .byte 196,226,125,88,221 // vpbroadcastd %xmm5,%ymm3
- .byte 68,139,64,12 // mov 0xc(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 196,193,121,110,241 // vmovd %r9d,%xmm6
- .byte 196,226,125,88,246 // vpbroadcastd %xmm6,%ymm6
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 197,204,89,241 // vmulps %ymm1,%ymm6,%ymm6
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,226,117,64,205 // vpmulld %ymm5,%ymm1,%ymm1
- .byte 68,139,64,8 // mov 0x8(%rax),%r8d
- .byte 65,255,200 // dec %r8d
- .byte 196,193,121,110,232 // vmovd %r8d,%xmm5
- .byte 196,226,125,88,237 // vpbroadcastd %xmm5,%ymm5
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 197,212,89,232 // vmulps %ymm0,%ymm5,%ymm5
- .byte 197,254,91,198 // vcvttps2dq %ymm6,%ymm0
- .byte 197,254,127,132,36,32,6,0,0 // vmovdqu %ymm0,0x620(%rsp)
- .byte 197,252,17,180,36,0,6,0,0 // vmovups %ymm6,0x600(%rsp)
- .byte 196,226,125,88,209 // vpbroadcastd %xmm1,%ymm2
- .byte 72,139,0 // mov (%rax),%rax
- .byte 196,226,101,64,192 // vpmulld %ymm0,%ymm3,%ymm0
- .byte 197,254,127,68,36,128 // vmovdqu %ymm0,-0x80(%rsp)
- .byte 197,253,254,252 // vpaddd %ymm4,%ymm0,%ymm7
- .byte 197,254,91,197 // vcvttps2dq %ymm5,%ymm0
- .byte 197,252,40,205 // vmovaps %ymm5,%ymm1
- .byte 197,252,17,140,36,160,0,0,0 // vmovups %ymm1,0xa0(%rsp)
- .byte 197,254,127,132,36,0,1,0,0 // vmovdqu %ymm0,0x100(%rsp)
- .byte 196,98,109,64,200 // vpmulld %ymm0,%ymm2,%ymm9
- .byte 197,181,254,199 // vpaddd %ymm7,%ymm9,%ymm0
- .byte 196,98,125,88,21,43,205,2,0 // vpbroadcastd 0x2cd2b(%rip),%ymm10 # 3c66c <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
- .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,85,146,4,128 // vgatherdps %ymm5,(%rax,%ymm0,4),%ymm8
- .byte 197,124,17,132,36,224,0,0,0 // vmovups %ymm8,0xe0(%rsp)
- .byte 196,65,21,118,237 // vpcmpeqd %ymm13,%ymm13,%ymm13
- .byte 196,193,125,250,237 // vpsubd %ymm13,%ymm0,%ymm5
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
- .byte 196,98,61,146,28,168 // vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11
- .byte 197,124,17,156,36,192,0,0,0 // vmovups %ymm11,0xc0(%rsp)
- .byte 196,98,125,88,29,126,203,2,0 // vpbroadcastd 0x2cb7e(%rip),%ymm11 # 3c508 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- .byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,226,61,146,44,128 // vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5
- .byte 197,252,17,108,36,32 // vmovups %ymm5,0x20(%rsp)
- .byte 196,226,125,24,5,187,204,2,0 // vbroadcastss 0x2ccbb(%rip),%ymm0 # 3c668 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- .byte 197,116,88,192 // vaddps %ymm0,%ymm1,%ymm8
- .byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
- .byte 196,194,109,64,232 // vpmulld %ymm8,%ymm2,%ymm5
- .byte 197,213,254,207 // vpaddd %ymm7,%ymm5,%ymm1
- .byte 196,194,117,64,202 // vpmulld %ymm10,%ymm1,%ymm1
- .byte 197,197,118,255 // vpcmpeqd %ymm7,%ymm7,%ymm7
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 196,226,69,146,20,136 // vgatherdps %ymm7,(%rax,%ymm1,4),%ymm2
- .byte 197,252,17,148,36,128,0,0,0 // vmovups %ymm2,0x80(%rsp)
- .byte 196,193,117,250,253 // vpsubd %ymm13,%ymm1,%ymm7
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,226,61,146,20,184 // vgatherdps %ymm8,(%rax,%ymm7,4),%ymm2
- .byte 197,252,17,84,36,96 // vmovups %ymm2,0x60(%rsp)
- .byte 196,193,117,254,203 // vpaddd %ymm11,%ymm1,%ymm1
- .byte 197,197,118,255 // vpcmpeqd %ymm7,%ymm7,%ymm7
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,226,69,146,20,136 // vgatherdps %ymm7,(%rax,%ymm1,4),%ymm2
- .byte 197,252,17,84,36,64 // vmovups %ymm2,0x40(%rsp)
- .byte 197,204,88,200 // vaddps %ymm0,%ymm6,%ymm1
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,226,101,64,241 // vpmulld %ymm1,%ymm3,%ymm6
- .byte 197,205,254,204 // vpaddd %ymm4,%ymm6,%ymm1
- .byte 196,193,117,254,209 // vpaddd %ymm9,%ymm1,%ymm2
- .byte 196,194,109,64,210 // vpmulld %ymm10,%ymm2,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- .byte 197,252,17,164,36,96,5,0,0 // vmovups %ymm4,0x560(%rsp)
- .byte 196,193,109,250,221 // vpsubd %ymm13,%ymm2,%ymm3
- .byte 197,197,118,255 // vpcmpeqd %ymm7,%ymm7,%ymm7
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,226,69,146,36,152 // vgatherdps %ymm7,(%rax,%ymm3,4),%ymm4
- .byte 197,252,17,36,36 // vmovups %ymm4,(%rsp)
- .byte 196,193,109,254,211 // vpaddd %ymm11,%ymm2,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- .byte 197,252,17,100,36,224 // vmovups %ymm4,-0x20(%rsp)
- .byte 197,213,254,201 // vpaddd %ymm1,%ymm5,%ymm1
- .byte 196,194,117,64,202 // vpmulld %ymm10,%ymm1,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,92,36,192 // vmovups %ymm3,-0x40(%rsp)
- .byte 196,193,117,250,213 // vpsubd %ymm13,%ymm1,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- .byte 197,252,17,164,36,160,5,0,0 // vmovups %ymm4,0x5a0(%rsp)
- .byte 196,193,117,254,203 // vpaddd %ymm11,%ymm1,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,156,36,128,5,0,0 // vmovups %ymm3,0x580(%rsp)
- .byte 197,140,88,200 // vaddps %ymm0,%ymm14,%ymm1
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,98,5,64,249 // vpmulld %ymm1,%ymm15,%ymm15
- .byte 196,193,5,254,204 // vpaddd %ymm12,%ymm15,%ymm1
- .byte 197,126,111,68,36,128 // vmovdqu -0x80(%rsp),%ymm8
- .byte 196,193,117,254,208 // vpaddd %ymm8,%ymm1,%ymm2
- .byte 196,193,109,254,217 // vpaddd %ymm9,%ymm2,%ymm3
- .byte 196,194,101,64,218 // vpmulld %ymm10,%ymm3,%ymm3
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 196,226,93,146,60,152 // vgatherdps %ymm4,(%rax,%ymm3,4),%ymm7
- .byte 197,252,17,188,36,96,3,0,0 // vmovups %ymm7,0x360(%rsp)
- .byte 196,193,101,250,229 // vpsubd %ymm13,%ymm3,%ymm4
- .byte 197,197,118,255 // vpcmpeqd %ymm7,%ymm7,%ymm7
- .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
- .byte 196,98,69,146,52,160 // vgatherdps %ymm7,(%rax,%ymm4,4),%ymm14
- .byte 197,124,17,180,36,64,5,0,0 // vmovups %ymm14,0x540(%rsp)
- .byte 196,193,101,254,219 // vpaddd %ymm11,%ymm3,%ymm3
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 196,226,93,146,60,152 // vgatherdps %ymm4,(%rax,%ymm3,4),%ymm7
- .byte 197,252,17,188,36,192,4,0,0 // vmovups %ymm7,0x4c0(%rsp)
- .byte 197,213,254,210 // vpaddd %ymm2,%ymm5,%ymm2
- .byte 196,194,109,64,210 // vpmulld %ymm10,%ymm2,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- .byte 197,252,17,164,36,32,5,0,0 // vmovups %ymm4,0x520(%rsp)
- .byte 196,193,109,250,221 // vpsubd %ymm13,%ymm2,%ymm3
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
- .byte 196,98,93,146,52,152 // vgatherdps %ymm4,(%rax,%ymm3,4),%ymm14
- .byte 197,124,17,180,36,0,5,0,0 // vmovups %ymm14,0x500(%rsp)
- .byte 196,193,109,254,211 // vpaddd %ymm11,%ymm2,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- .byte 197,252,17,164,36,224,4,0,0 // vmovups %ymm4,0x4e0(%rsp)
- .byte 197,205,254,201 // vpaddd %ymm1,%ymm6,%ymm1
- .byte 196,193,117,254,209 // vpaddd %ymm9,%ymm1,%ymm2
- .byte 196,194,109,64,210 // vpmulld %ymm10,%ymm2,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- .byte 197,252,17,164,36,160,4,0,0 // vmovups %ymm4,0x4a0(%rsp)
- .byte 196,193,109,250,221 // vpsubd %ymm13,%ymm2,%ymm3
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 196,226,93,146,60,152 // vgatherdps %ymm4,(%rax,%ymm3,4),%ymm7
- .byte 197,252,17,188,36,128,4,0,0 // vmovups %ymm7,0x480(%rsp)
- .byte 196,193,109,254,211 // vpaddd %ymm11,%ymm2,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- .byte 197,252,17,164,36,0,3,0,0 // vmovups %ymm4,0x300(%rsp)
- .byte 197,213,254,201 // vpaddd %ymm1,%ymm5,%ymm1
- .byte 196,194,117,64,202 // vpmulld %ymm10,%ymm1,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,156,36,96,4,0,0 // vmovups %ymm3,0x460(%rsp)
- .byte 196,193,117,250,213 // vpsubd %ymm13,%ymm1,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- .byte 197,252,17,164,36,64,4,0,0 // vmovups %ymm4,0x440(%rsp)
- .byte 196,193,117,254,203 // vpaddd %ymm11,%ymm1,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,156,36,32,4,0,0 // vmovups %ymm3,0x420(%rsp)
- .byte 197,252,88,132,36,32,1,0,0 // vaddps 0x120(%rsp),%ymm0,%ymm0
- .byte 197,254,91,248 // vcvttps2dq %ymm0,%ymm7
- .byte 197,197,254,68,36,160 // vpaddd -0x60(%rsp),%ymm7,%ymm0
- .byte 197,189,254,200 // vpaddd %ymm0,%ymm8,%ymm1
- .byte 197,181,254,209 // vpaddd %ymm1,%ymm9,%ymm2
- .byte 196,194,109,64,210 // vpmulld %ymm10,%ymm2,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- .byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
- .byte 196,193,109,250,221 // vpsubd %ymm13,%ymm2,%ymm3
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
- .byte 196,98,93,146,52,152 // vgatherdps %ymm4,(%rax,%ymm3,4),%ymm14
- .byte 197,124,17,180,36,0,4,0,0 // vmovups %ymm14,0x400(%rsp)
- .byte 196,193,109,254,211 // vpaddd %ymm11,%ymm2,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- .byte 197,252,17,164,36,224,3,0,0 // vmovups %ymm4,0x3e0(%rsp)
- .byte 197,213,254,201 // vpaddd %ymm1,%ymm5,%ymm1
- .byte 196,194,117,64,202 // vpmulld %ymm10,%ymm1,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,156,36,192,3,0,0 // vmovups %ymm3,0x3c0(%rsp)
- .byte 196,193,117,250,213 // vpsubd %ymm13,%ymm1,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- .byte 197,252,17,164,36,160,3,0,0 // vmovups %ymm4,0x3a0(%rsp)
- .byte 196,193,117,254,203 // vpaddd %ymm11,%ymm1,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,156,36,128,3,0,0 // vmovups %ymm3,0x380(%rsp)
- .byte 197,205,254,192 // vpaddd %ymm0,%ymm6,%ymm0
- .byte 196,193,125,254,201 // vpaddd %ymm9,%ymm0,%ymm1
- .byte 196,194,117,64,202 // vpmulld %ymm10,%ymm1,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,156,36,32,3,0,0 // vmovups %ymm3,0x320(%rsp)
- .byte 196,193,117,250,213 // vpsubd %ymm13,%ymm1,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- .byte 197,252,17,164,36,64,3,0,0 // vmovups %ymm4,0x340(%rsp)
- .byte 196,193,117,254,203 // vpaddd %ymm11,%ymm1,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,156,36,128,2,0,0 // vmovups %ymm3,0x280(%rsp)
- .byte 197,213,254,192 // vpaddd %ymm0,%ymm5,%ymm0
- .byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,226,117,146,20,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm2
- .byte 197,252,17,148,36,224,2,0,0 // vmovups %ymm2,0x2e0(%rsp)
- .byte 196,193,125,250,205 // vpsubd %ymm13,%ymm0,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,156,36,192,2,0,0 // vmovups %ymm3,0x2c0(%rsp)
- .byte 196,193,125,254,195 // vpaddd %ymm11,%ymm0,%ymm0
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,226,117,146,20,128 // vgatherdps %ymm1,(%rax,%ymm0,4),%ymm2
- .byte 197,252,17,148,36,160,2,0,0 // vmovups %ymm2,0x2a0(%rsp)
- .byte 197,133,254,199 // vpaddd %ymm7,%ymm15,%ymm0
- .byte 196,193,125,254,200 // vpaddd %ymm8,%ymm0,%ymm1
- .byte 196,193,117,254,209 // vpaddd %ymm9,%ymm1,%ymm2
- .byte 196,194,109,64,210 // vpmulld %ymm10,%ymm2,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,226,101,146,36,144 // vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- .byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp)
- .byte 196,193,109,250,221 // vpsubd %ymm13,%ymm2,%ymm3
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,226,61,146,36,152 // vgatherdps %ymm8,(%rax,%ymm3,4),%ymm4
- .byte 197,252,17,164,36,96,2,0,0 // vmovups %ymm4,0x260(%rsp)
- .byte 196,193,109,254,211 // vpaddd %ymm11,%ymm2,%ymm2
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,226,61,146,28,144 // vgatherdps %ymm8,(%rax,%ymm2,4),%ymm3
- .byte 197,252,17,156,36,224,1,0,0 // vmovups %ymm3,0x1e0(%rsp)
- .byte 197,213,254,201 // vpaddd %ymm1,%ymm5,%ymm1
- .byte 196,194,117,64,202 // vpmulld %ymm10,%ymm1,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,156,36,64,2,0,0 // vmovups %ymm3,0x240(%rsp)
- .byte 196,193,117,250,213 // vpsubd %ymm13,%ymm1,%ymm2
- .byte 196,65,61,118,192 // vpcmpeqd %ymm8,%ymm8,%ymm8
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,226,61,146,28,144 // vgatherdps %ymm8,(%rax,%ymm2,4),%ymm3
- .byte 197,252,17,156,36,32,2,0,0 // vmovups %ymm3,0x220(%rsp)
- .byte 196,193,117,254,203 // vpaddd %ymm11,%ymm1,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,226,109,146,28,136 // vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- .byte 197,252,17,156,36,0,2,0,0 // vmovups %ymm3,0x200(%rsp)
- .byte 197,205,254,216 // vpaddd %ymm0,%ymm6,%ymm3
- .byte 196,193,101,254,193 // vpaddd %ymm9,%ymm3,%ymm0
- .byte 196,194,125,64,194 // vpmulld %ymm10,%ymm0,%ymm0
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,226,109,146,12,128 // vgatherdps %ymm2,(%rax,%ymm0,4),%ymm1
- .byte 197,252,17,140,36,192,1,0,0 // vmovups %ymm1,0x1c0(%rsp)
- .byte 196,193,125,250,229 // vpsubd %ymm13,%ymm0,%ymm4
- .byte 197,245,118,201 // vpcmpeqd %ymm1,%ymm1,%ymm1
- .byte 196,65,29,239,228 // vpxor %ymm12,%ymm12,%ymm12
- .byte 196,98,117,146,36,160 // vgatherdps %ymm1,(%rax,%ymm4,4),%ymm12
- .byte 196,193,125,254,203 // vpaddd %ymm11,%ymm0,%ymm1
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 196,226,93,146,4,136 // vgatherdps %ymm4,(%rax,%ymm1,4),%ymm0
- .byte 197,252,17,132,36,160,1,0,0 // vmovups %ymm0,0x1a0(%rsp)
- .byte 197,213,254,203 // vpaddd %ymm3,%ymm5,%ymm1
- .byte 196,194,117,64,202 // vpmulld %ymm10,%ymm1,%ymm1
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 196,226,101,146,4,136 // vgatherdps %ymm3,(%rax,%ymm1,4),%ymm0
- .byte 197,252,17,132,36,128,1,0,0 // vmovups %ymm0,0x180(%rsp)
- .byte 196,193,117,250,221 // vpsubd %ymm13,%ymm1,%ymm3
- .byte 196,65,45,118,210 // vpcmpeqd %ymm10,%ymm10,%ymm10
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 196,226,45,146,4,152 // vgatherdps %ymm10,(%rax,%ymm3,4),%ymm0
- .byte 197,252,17,132,36,96,1,0,0 // vmovups %ymm0,0x160(%rsp)
- .byte 196,193,117,254,203 // vpaddd %ymm11,%ymm1,%ymm1
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 196,226,21,146,4,136 // vgatherdps %ymm13,(%rax,%ymm1,4),%ymm0
- .byte 197,252,17,132,36,64,1,0,0 // vmovups %ymm0,0x140(%rsp)
- .byte 197,252,91,140,36,0,1,0,0 // vcvtdq2ps 0x100(%rsp),%ymm1
- .byte 197,252,16,132,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm0
- .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 197,252,16,132,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm0
- .byte 197,252,16,148,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm2
- .byte 197,108,92,248 // vsubps %ymm0,%ymm2,%ymm15
- .byte 196,98,117,168,248 // vfmadd213ps %ymm0,%ymm1,%ymm15
- .byte 197,252,16,132,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm0
- .byte 197,252,16,84,36,96 // vmovups 0x60(%rsp),%ymm2
- .byte 197,108,92,240 // vsubps %ymm0,%ymm2,%ymm14
- .byte 196,98,117,168,240 // vfmadd213ps %ymm0,%ymm1,%ymm14
- .byte 197,252,16,108,36,32 // vmovups 0x20(%rsp),%ymm5
- .byte 197,252,16,68,36,64 // vmovups 0x40(%rsp),%ymm0
- .byte 197,252,92,197 // vsubps %ymm5,%ymm0,%ymm0
- .byte 196,226,117,168,197 // vfmadd213ps %ymm5,%ymm1,%ymm0
- .byte 197,252,17,132,36,0,1,0,0 // vmovups %ymm0,0x100(%rsp)
- .byte 197,252,16,68,36,192 // vmovups -0x40(%rsp),%ymm0
- .byte 197,252,16,148,36,96,5,0,0 // vmovups 0x560(%rsp),%ymm2
- .byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 196,226,117,168,194 // vfmadd213ps %ymm2,%ymm1,%ymm0
- .byte 197,252,17,132,36,224,0,0,0 // vmovups %ymm0,0xe0(%rsp)
- .byte 197,252,16,4,36 // vmovups (%rsp),%ymm0
- .byte 197,252,16,148,36,160,5,0,0 // vmovups 0x5a0(%rsp),%ymm2
- .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,226,117,168,208 // vfmadd213ps %ymm0,%ymm1,%ymm2
- .byte 197,252,17,148,36,192,0,0,0 // vmovups %ymm2,0xc0(%rsp)
- .byte 197,252,16,68,36,224 // vmovups -0x20(%rsp),%ymm0
- .byte 197,252,16,148,36,128,5,0,0 // vmovups 0x580(%rsp),%ymm2
- .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,226,117,168,208 // vfmadd213ps %ymm0,%ymm1,%ymm2
- .byte 197,252,17,148,36,160,0,0,0 // vmovups %ymm2,0xa0(%rsp)
- .byte 197,252,16,132,36,32,5,0,0 // vmovups 0x520(%rsp),%ymm0
- .byte 197,252,16,148,36,96,3,0,0 // vmovups 0x360(%rsp),%ymm2
- .byte 197,124,92,210 // vsubps %ymm2,%ymm0,%ymm10
- .byte 196,98,117,168,210 // vfmadd213ps %ymm2,%ymm1,%ymm10
- .byte 197,252,16,132,36,64,5,0,0 // vmovups 0x540(%rsp),%ymm0
- .byte 197,252,16,148,36,0,5,0,0 // vmovups 0x500(%rsp),%ymm2
- .byte 197,108,92,216 // vsubps %ymm0,%ymm2,%ymm11
- .byte 196,98,117,168,216 // vfmadd213ps %ymm0,%ymm1,%ymm11
- .byte 197,252,16,132,36,224,4,0,0 // vmovups 0x4e0(%rsp),%ymm0
- .byte 197,252,16,148,36,192,4,0,0 // vmovups 0x4c0(%rsp),%ymm2
- .byte 197,124,92,202 // vsubps %ymm2,%ymm0,%ymm9
- .byte 196,98,117,168,202 // vfmadd213ps %ymm2,%ymm1,%ymm9
- .byte 197,252,16,132,36,160,4,0,0 // vmovups 0x4a0(%rsp),%ymm0
- .byte 197,252,16,148,36,96,4,0,0 // vmovups 0x460(%rsp),%ymm2
- .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,226,117,168,208 // vfmadd213ps %ymm0,%ymm1,%ymm2
- .byte 197,252,17,148,36,128,0,0,0 // vmovups %ymm2,0x80(%rsp)
- .byte 197,252,16,132,36,128,4,0,0 // vmovups 0x480(%rsp),%ymm0
- .byte 197,252,16,148,36,64,4,0,0 // vmovups 0x440(%rsp),%ymm2
- .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,226,117,168,208 // vfmadd213ps %ymm0,%ymm1,%ymm2
- .byte 197,252,17,84,36,96 // vmovups %ymm2,0x60(%rsp)
- .byte 197,252,16,132,36,32,4,0,0 // vmovups 0x420(%rsp),%ymm0
- .byte 197,252,16,148,36,0,3,0,0 // vmovups 0x300(%rsp),%ymm2
- .byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 196,226,117,168,194 // vfmadd213ps %ymm2,%ymm1,%ymm0
- .byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp)
- .byte 197,252,16,68,36,160 // vmovups -0x60(%rsp),%ymm0
- .byte 197,252,16,148,36,192,3,0,0 // vmovups 0x3c0(%rsp),%ymm2
- .byte 197,236,92,248 // vsubps %ymm0,%ymm2,%ymm7
- .byte 196,226,117,168,248 // vfmadd213ps %ymm0,%ymm1,%ymm7
- .byte 197,252,16,132,36,0,4,0,0 // vmovups 0x400(%rsp),%ymm0
- .byte 197,252,16,148,36,160,3,0,0 // vmovups 0x3a0(%rsp),%ymm2
- .byte 197,108,92,192 // vsubps %ymm0,%ymm2,%ymm8
- .byte 196,98,117,168,192 // vfmadd213ps %ymm0,%ymm1,%ymm8
- .byte 197,252,16,132,36,224,3,0,0 // vmovups 0x3e0(%rsp),%ymm0
- .byte 197,252,16,148,36,128,3,0,0 // vmovups 0x380(%rsp),%ymm2
- .byte 197,236,92,240 // vsubps %ymm0,%ymm2,%ymm6
- .byte 196,226,117,168,240 // vfmadd213ps %ymm0,%ymm1,%ymm6
- .byte 197,252,16,132,36,32,3,0,0 // vmovups 0x320(%rsp),%ymm0
- .byte 197,252,16,148,36,224,2,0,0 // vmovups 0x2e0(%rsp),%ymm2
- .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,226,117,168,208 // vfmadd213ps %ymm0,%ymm1,%ymm2
- .byte 197,252,17,84,36,32 // vmovups %ymm2,0x20(%rsp)
- .byte 197,252,16,132,36,64,3,0,0 // vmovups 0x340(%rsp),%ymm0
- .byte 197,252,16,148,36,192,2,0,0 // vmovups 0x2c0(%rsp),%ymm2
- .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,226,117,168,208 // vfmadd213ps %ymm0,%ymm1,%ymm2
- .byte 197,252,17,20,36 // vmovups %ymm2,(%rsp)
- .byte 197,252,16,132,36,160,2,0,0 // vmovups 0x2a0(%rsp),%ymm0
- .byte 197,252,16,148,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm2
- .byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 196,226,117,168,194 // vfmadd213ps %ymm2,%ymm1,%ymm0
- .byte 197,252,17,68,36,224 // vmovups %ymm0,-0x20(%rsp)
- .byte 197,252,16,68,36,128 // vmovups -0x80(%rsp),%ymm0
- .byte 197,252,16,148,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm2
- .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,226,117,168,208 // vfmadd213ps %ymm0,%ymm1,%ymm2
- .byte 197,252,16,132,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm0
- .byte 197,252,16,156,36,32,2,0,0 // vmovups 0x220(%rsp),%ymm3
- .byte 197,228,92,216 // vsubps %ymm0,%ymm3,%ymm3
- .byte 196,226,117,168,216 // vfmadd213ps %ymm0,%ymm1,%ymm3
- .byte 197,252,16,132,36,0,2,0,0 // vmovups 0x200(%rsp),%ymm0
- .byte 197,252,16,172,36,224,1,0,0 // vmovups 0x1e0(%rsp),%ymm5
- .byte 197,252,92,229 // vsubps %ymm5,%ymm0,%ymm4
- .byte 196,226,117,168,229 // vfmadd213ps %ymm5,%ymm1,%ymm4
- .byte 197,252,16,132,36,192,1,0,0 // vmovups 0x1c0(%rsp),%ymm0
- .byte 197,252,16,172,36,128,1,0,0 // vmovups 0x180(%rsp),%ymm5
- .byte 197,84,92,232 // vsubps %ymm0,%ymm5,%ymm13
- .byte 196,98,117,168,232 // vfmadd213ps %ymm0,%ymm1,%ymm13
- .byte 197,252,16,132,36,96,1,0,0 // vmovups 0x160(%rsp),%ymm0
- .byte 196,193,124,92,196 // vsubps %ymm12,%ymm0,%ymm0
- .byte 196,194,117,168,196 // vfmadd213ps %ymm12,%ymm1,%ymm0
- .byte 197,252,17,68,36,192 // vmovups %ymm0,-0x40(%rsp)
- .byte 197,252,16,132,36,160,1,0,0 // vmovups 0x1a0(%rsp),%ymm0
- .byte 197,252,16,172,36,64,1,0,0 // vmovups 0x140(%rsp),%ymm5
- .byte 197,84,92,224 // vsubps %ymm0,%ymm5,%ymm12
- .byte 196,98,117,168,224 // vfmadd213ps %ymm0,%ymm1,%ymm12
- .byte 197,252,91,140,36,32,6,0,0 // vcvtdq2ps 0x620(%rsp),%ymm1
- .byte 197,252,16,132,36,0,6,0,0 // vmovups 0x600(%rsp),%ymm0
- .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 197,252,16,132,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm0
- .byte 196,193,124,92,199 // vsubps %ymm15,%ymm0,%ymm0
- .byte 196,194,117,168,199 // vfmadd213ps %ymm15,%ymm1,%ymm0
- .byte 197,252,16,172,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm5
- .byte 196,65,84,92,254 // vsubps %ymm14,%ymm5,%ymm15
- .byte 196,66,117,168,254 // vfmadd213ps %ymm14,%ymm1,%ymm15
- .byte 197,252,16,172,36,0,1,0,0 // vmovups 0x100(%rsp),%ymm5
- .byte 197,124,16,180,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm14
- .byte 197,12,92,245 // vsubps %ymm5,%ymm14,%ymm14
- .byte 196,98,117,168,245 // vfmadd213ps %ymm5,%ymm1,%ymm14
- .byte 197,252,16,172,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm5
- .byte 196,193,84,92,234 // vsubps %ymm10,%ymm5,%ymm5
- .byte 196,194,117,168,234 // vfmadd213ps %ymm10,%ymm1,%ymm5
- .byte 197,124,16,84,36,96 // vmovups 0x60(%rsp),%ymm10
- .byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
- .byte 196,66,117,168,211 // vfmadd213ps %ymm11,%ymm1,%ymm10
- .byte 197,124,16,92,36,64 // vmovups 0x40(%rsp),%ymm11
- .byte 196,65,36,92,217 // vsubps %ymm9,%ymm11,%ymm11
- .byte 196,66,117,168,217 // vfmadd213ps %ymm9,%ymm1,%ymm11
- .byte 197,124,16,76,36,32 // vmovups 0x20(%rsp),%ymm9
- .byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
- .byte 196,98,117,168,207 // vfmadd213ps %ymm7,%ymm1,%ymm9
- .byte 197,252,16,60,36 // vmovups (%rsp),%ymm7
- .byte 196,193,68,92,248 // vsubps %ymm8,%ymm7,%ymm7
- .byte 196,194,117,168,248 // vfmadd213ps %ymm8,%ymm1,%ymm7
- .byte 197,124,16,68,36,224 // vmovups -0x20(%rsp),%ymm8
- .byte 197,60,92,198 // vsubps %ymm6,%ymm8,%ymm8
- .byte 196,98,117,168,198 // vfmadd213ps %ymm6,%ymm1,%ymm8
- .byte 197,148,92,242 // vsubps %ymm2,%ymm13,%ymm6
- .byte 196,226,117,168,242 // vfmadd213ps %ymm2,%ymm1,%ymm6
- .byte 197,252,16,84,36,192 // vmovups -0x40(%rsp),%ymm2
- .byte 197,236,92,211 // vsubps %ymm3,%ymm2,%ymm2
- .byte 196,226,117,168,211 // vfmadd213ps %ymm3,%ymm1,%ymm2
- .byte 197,156,92,220 // vsubps %ymm4,%ymm12,%ymm3
- .byte 196,226,117,168,220 // vfmadd213ps %ymm4,%ymm1,%ymm3
- .byte 197,252,91,140,36,64,6,0,0 // vcvtdq2ps 0x640(%rsp),%ymm1
- .byte 197,252,16,164,36,224,5,0,0 // vmovups 0x5e0(%rsp),%ymm4
- .byte 197,220,92,201 // vsubps %ymm1,%ymm4,%ymm1
- .byte 197,212,92,224 // vsubps %ymm0,%ymm5,%ymm4
- .byte 196,226,117,168,224 // vfmadd213ps %ymm0,%ymm1,%ymm4
- .byte 196,193,44,92,239 // vsubps %ymm15,%ymm10,%ymm5
- .byte 196,194,117,168,239 // vfmadd213ps %ymm15,%ymm1,%ymm5
- .byte 196,65,36,92,214 // vsubps %ymm14,%ymm11,%ymm10
- .byte 196,66,117,168,214 // vfmadd213ps %ymm14,%ymm1,%ymm10
- .byte 196,193,76,92,193 // vsubps %ymm9,%ymm6,%ymm0
- .byte 196,194,117,168,193 // vfmadd213ps %ymm9,%ymm1,%ymm0
- .byte 197,236,92,215 // vsubps %ymm7,%ymm2,%ymm2
- .byte 196,226,117,168,215 // vfmadd213ps %ymm7,%ymm1,%ymm2
- .byte 196,193,100,92,216 // vsubps %ymm8,%ymm3,%ymm3
- .byte 196,194,117,168,216 // vfmadd213ps %ymm8,%ymm1,%ymm3
- .byte 197,252,91,140,36,192,5,0,0 // vcvtdq2ps 0x5c0(%rsp),%ymm1
- .byte 197,252,16,180,36,32,1,0,0 // vmovups 0x120(%rsp),%ymm6
- .byte 197,204,92,241 // vsubps %ymm1,%ymm6,%ymm6
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 196,226,77,168,196 // vfmadd213ps %ymm4,%ymm6,%ymm0
- .byte 197,236,92,205 // vsubps %ymm5,%ymm2,%ymm1
- .byte 196,226,77,168,205 // vfmadd213ps %ymm5,%ymm6,%ymm1
- .byte 196,193,100,92,210 // vsubps %ymm10,%ymm3,%ymm2
- .byte 196,194,77,168,210 // vfmadd213ps %ymm10,%ymm6,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,161,193,2,0 // vbroadcastss 0x2c1a1(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,16,164,36,96,6,0,0 // vmovups 0x660(%rsp),%ymm4
- .byte 197,252,16,172,36,128,6,0,0 // vmovups 0x680(%rsp),%ymm5
- .byte 197,252,16,180,36,160,6,0,0 // vmovups 0x6a0(%rsp),%ymm6
- .byte 197,252,16,188,36,192,6,0,0 // vmovups 0x6c0(%rsp),%ymm7
- .byte 72,129,196,248,6,0,0 // add $0x6f8,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gauss_a_to_rgba_hsw
-.globl _sk_gauss_a_to_rgba_hsw
-FUNCTION(_sk_gauss_a_to_rgba_hsw)
-_sk_gauss_a_to_rgba_hsw:
- .byte 196,226,125,24,5,227,194,2,0 // vbroadcastss 0x2c2e3(%rip),%ymm0 # 3c674 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
- .byte 196,226,125,24,13,214,194,2,0 // vbroadcastss 0x2c2d6(%rip),%ymm1 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
- .byte 196,226,101,168,200 // vfmadd213ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,208,194,2,0 // vbroadcastss 0x2c2d0(%rip),%ymm0 # 3c678 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
- .byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
- .byte 196,226,125,24,13,198,194,2,0 // vbroadcastss 0x2c2c6(%rip),%ymm1 # 3c67c <_sk_srcover_bgra_8888_sse2_lowp+0x430>
- .byte 196,226,101,184,200 // vfmadd231ps %ymm0,%ymm3,%ymm1
- .byte 196,226,125,24,5,188,194,2,0 // vbroadcastss 0x2c2bc(%rip),%ymm0 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
- .byte 196,226,101,184,193 // vfmadd231ps %ymm1,%ymm3,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilerp_clamp_8888_hsw
-.globl _sk_bilerp_clamp_8888_hsw
-FUNCTION(_sk_bilerp_clamp_8888_hsw)
-_sk_bilerp_clamp_8888_hsw:
- .byte 72,129,236,248,0,0,0 // sub $0xf8,%rsp
- .byte 197,252,17,60,36 // vmovups %ymm7,(%rsp)
- .byte 197,252,17,116,36,224 // vmovups %ymm6,-0x20(%rsp)
- .byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
- .byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,37,246,192,2,0 // vbroadcastss 0x2c0f6(%rip),%ymm4 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,252,88,212 // vaddps %ymm4,%ymm0,%ymm2
- .byte 196,227,125,8,218,1 // vroundps $0x1,%ymm2,%ymm3
- .byte 197,108,92,235 // vsubps %ymm3,%ymm2,%ymm13
- .byte 197,252,17,140,36,160,0,0,0 // vmovups %ymm1,0xa0(%rsp)
- .byte 197,244,88,204 // vaddps %ymm4,%ymm1,%ymm1
- .byte 196,227,125,8,209,1 // vroundps $0x1,%ymm1,%ymm2
- .byte 197,244,92,210 // vsubps %ymm2,%ymm1,%ymm2
- .byte 196,226,125,24,13,204,192,2,0 // vbroadcastss 0x2c0cc(%rip),%ymm1 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,116,92,221 // vsubps %ymm13,%ymm1,%ymm3
- .byte 197,252,17,156,36,192,0,0,0 // vmovups %ymm3,0xc0(%rsp)
- .byte 197,252,17,148,36,128,0,0,0 // vmovups %ymm2,0x80(%rsp)
- .byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
- .byte 197,252,17,76,36,32 // vmovups %ymm1,0x20(%rsp)
- .byte 196,226,125,88,72,12 // vpbroadcastd 0xc(%rax),%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,117,254,242 // vpaddd %ymm2,%ymm1,%ymm14
- .byte 196,226,125,88,72,16 // vpbroadcastd 0x10(%rax),%ymm1
- .byte 197,245,254,202 // vpaddd %ymm2,%ymm1,%ymm1
- .byte 197,254,127,76,36,96 // vmovdqu %ymm1,0x60(%rsp)
- .byte 76,139,0 // mov (%rax),%r8
- .byte 196,226,125,24,72,8 // vbroadcastss 0x8(%rax),%ymm1
- .byte 197,252,17,76,36,64 // vmovups %ymm1,0x40(%rsp)
- .byte 197,250,16,13,202,193,2,0 // vmovss 0x2c1ca(%rip),%xmm1 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 196,226,125,24,61,229,192,2,0 // vbroadcastss 0x2c0e5(%rip),%ymm7 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,248,40,233 // vmovaps %xmm1,%xmm5
- .byte 196,226,125,24,205 // vbroadcastss %xmm5,%ymm1
- .byte 197,244,88,140,36,160,0,0,0 // vaddps 0xa0(%rsp),%ymm1,%ymm1
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,220,95,201 // vmaxps %ymm1,%ymm4,%ymm1
- .byte 197,248,41,108,36,144 // vmovaps %xmm5,-0x70(%rsp)
- .byte 197,248,46,45,195,193,2,0 // vucomiss 0x2c1c3(%rip),%xmm5 # 3c68c <_sk_srcover_bgra_8888_sse2_lowp+0x440>
- .byte 197,124,16,164,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm12
- .byte 119,6 // ja 104da <_sk_bilerp_clamp_8888_hsw+0x101>
- .byte 197,124,16,100,36,32 // vmovups 0x20(%rsp),%ymm12
- .byte 197,244,93,76,36,96 // vminps 0x60(%rsp),%ymm1,%ymm1
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,226,117,64,100,36,64 // vpmulld 0x40(%rsp),%ymm1,%ymm4
- .byte 197,250,16,53,93,193,2,0 // vmovss 0x2c15d(%rip),%xmm6 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 196,226,125,24,206 // vbroadcastss %xmm6,%ymm1
- .byte 197,244,88,200 // vaddps %ymm0,%ymm1,%ymm1
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,212,95,201 // vmaxps %ymm1,%ymm5,%ymm1
- .byte 196,193,116,93,206 // vminps %ymm14,%ymm1,%ymm1
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 197,221,254,201 // vpaddd %ymm1,%ymm4,%ymm1
- .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
- .byte 196,65,45,239,210 // vpxor %ymm10,%ymm10,%ymm10
- .byte 196,66,85,144,20,136 // vpgatherdd %ymm5,(%r8,%ymm1,4),%ymm10
- .byte 197,173,219,13,56,197,2,0 // vpand 0x2c538(%rip),%ymm10,%ymm1 # 3ca60 <_sk_srcover_bgra_8888_sse2_lowp+0x814>
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,116,89,223 // vmulps %ymm7,%ymm1,%ymm11
- .byte 196,226,45,0,13,71,197,2,0 // vpshufb 0x2c547(%rip),%ymm10,%ymm1 # 3ca80 <_sk_srcover_bgra_8888_sse2_lowp+0x834>
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,244,89,239 // vmulps %ymm7,%ymm1,%ymm5
- .byte 196,226,45,0,13,86,197,2,0 // vpshufb 0x2c556(%rip),%ymm10,%ymm1 # 3caa0 <_sk_srcover_bgra_8888_sse2_lowp+0x854>
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 196,193,45,114,210,24 // vpsrld $0x18,%ymm10,%ymm10
- .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 197,44,89,255 // vmulps %ymm7,%ymm10,%ymm15
- .byte 197,248,46,53,35,193,2,0 // vucomiss 0x2c123(%rip),%xmm6 # 3c68c <_sk_srcover_bgra_8888_sse2_lowp+0x440>
- .byte 196,65,124,40,213 // vmovaps %ymm13,%ymm10
- .byte 119,9 // ja 10579 <_sk_bilerp_clamp_8888_hsw+0x1a0>
- .byte 197,124,16,148,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm10
- .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
- .byte 196,66,45,184,203 // vfmadd231ps %ymm11,%ymm10,%ymm9
- .byte 196,98,45,184,197 // vfmadd231ps %ymm5,%ymm10,%ymm8
- .byte 196,226,45,184,209 // vfmadd231ps %ymm1,%ymm10,%ymm2
- .byte 196,194,45,184,223 // vfmadd231ps %ymm15,%ymm10,%ymm3
- .byte 197,202,88,53,98,191,2,0 // vaddss 0x2bf62(%rip),%xmm6,%xmm6 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,250,16,13,86,191,2,0 // vmovss 0x2bf56(%rip),%xmm1 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,248,46,206 // vucomiss %xmm6,%xmm1
- .byte 15,131,71,255,255,255 // jae 104f3 <_sk_bilerp_clamp_8888_hsw+0x11a>
- .byte 197,248,40,108,36,144 // vmovaps -0x70(%rsp),%xmm5
- .byte 197,210,88,45,66,191,2,0 // vaddss 0x2bf42(%rip),%xmm5,%xmm5 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,250,16,13,54,191,2,0 // vmovss 0x2bf36(%rip),%xmm1 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,248,46,205 // vucomiss %xmm5,%xmm1
- .byte 15,131,217,254,255,255 // jae 104a5 <_sk_bilerp_clamp_8888_hsw+0xcc>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,200 // vmovaps %ymm9,%ymm0
- .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
- .byte 197,252,16,100,36,160 // vmovups -0x60(%rsp),%ymm4
- .byte 197,252,16,108,36,192 // vmovups -0x40(%rsp),%ymm5
- .byte 197,252,16,116,36,224 // vmovups -0x20(%rsp),%ymm6
- .byte 197,252,16,60,36 // vmovups (%rsp),%ymm7
- .byte 72,129,196,248,0,0,0 // add $0xf8,%rsp
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 144 // nop
-
-HIDDEN _sk_start_pipeline_avx
-.globl _sk_start_pipeline_avx
-FUNCTION(_sk_start_pipeline_avx)
-_sk_start_pipeline_avx:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 73,137,215 // mov %rdx,%r15
- .byte 72,137,243 // mov %rsi,%rbx
- .byte 72,137,125,208 // mov %rdi,-0x30(%rbp)
- .byte 76,137,198 // mov %r8,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 73,137,197 // mov %rax,%r13
- .byte 73,137,246 // mov %rsi,%r14
- .byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
- .byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 106c2 <_sk_start_pipeline_avx+0xca>
- .byte 72,139,69,208 // mov -0x30(%rbp),%rax
- .byte 72,141,64,8 // lea 0x8(%rax),%rax
- .byte 72,137,69,200 // mov %rax,-0x38(%rbp)
- .byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 10684 <_sk_start_pipeline_avx+0x8c>
- .byte 76,139,101,208 // mov -0x30(%rbp),%r12
- .byte 49,255 // xor %edi,%edi
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 76,137,226 // mov %r12,%rdx
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 73,141,84,36,8 // lea 0x8(%r12),%rdx
- .byte 73,131,196,16 // add $0x10,%r12
- .byte 77,57,252 // cmp %r15,%r12
- .byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 10645 <_sk_start_pipeline_avx+0x4d>
- .byte 76,137,255 // mov %r15,%rdi
- .byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 106b5 <_sk_start_pipeline_avx+0xbd>
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 72,255,195 // inc %rbx
- .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 10637 <_sk_start_pipeline_avx+0x3f>
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 197,248,119 // vzeroupper
- .byte 195 // retq
-
-HIDDEN _sk_just_return_avx
-.globl _sk_just_return_avx
-FUNCTION(_sk_just_return_avx)
-_sk_just_return_avx:
- .byte 195 // retq
-
-HIDDEN _sk_seed_shader_avx
-.globl _sk_seed_shader_avx
-FUNCTION(_sk_seed_shader_avx)
-_sk_seed_shader_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,249,110,194 // vmovd %edx,%xmm0
- .byte 197,249,112,192,0 // vpshufd $0x0,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 197,249,110,201 // vmovd %ecx,%xmm1
- .byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,238,189,2,0 // vbroadcastss 0x2bdee(%rip),%ymm2 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,21,227,189,2,0 // vbroadcastss 0x2bde3(%rip),%ymm2 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dither_avx
-.globl _sk_dither_avx
-FUNCTION(_sk_dither_avx)
-_sk_dither_avx:
- .byte 197,121,110,194 // vmovd %edx,%xmm8
- .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 197,57,254,13,159,199,2,0 // vpaddd 0x2c79f(%rip),%xmm8,%xmm9 # 3cee0 <_sk_srcover_bgra_8888_sse2_lowp+0xc94>
- .byte 197,57,254,5,167,199,2,0 // vpaddd 0x2c7a7(%rip),%xmm8,%xmm8 # 3cef0 <_sk_srcover_bgra_8888_sse2_lowp+0xca4>
- .byte 196,67,53,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm10
- .byte 197,121,110,217 // vmovd %ecx,%xmm11
- .byte 196,65,121,112,219,0 // vpshufd $0x0,%xmm11,%xmm11
- .byte 196,67,37,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
- .byte 196,65,36,87,218 // vxorps %ymm10,%ymm11,%ymm11
- .byte 196,98,125,24,21,147,189,2,0 // vbroadcastss 0x2bd93(%rip),%ymm10 # 3c500 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
- .byte 196,65,36,84,210 // vandps %ymm10,%ymm11,%ymm10
- .byte 196,193,25,114,242,5 // vpslld $0x5,%xmm10,%xmm12
- .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
- .byte 196,193,41,114,242,5 // vpslld $0x5,%xmm10,%xmm10
- .byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- .byte 197,123,18,37,190,207,2,0 // vmovddup 0x2cfbe(%rip),%xmm12 # 3d750 <_sk_srcover_bgra_8888_sse2_lowp+0x1504>
- .byte 196,65,49,219,236 // vpand %xmm12,%xmm9,%xmm13
- .byte 196,193,17,114,245,4 // vpslld $0x4,%xmm13,%xmm13
- .byte 196,65,57,219,228 // vpand %xmm12,%xmm8,%xmm12
- .byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12
- .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,81,189,2,0 // vbroadcastss 0x2bd51(%rip),%ymm13 # 3c508 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- .byte 196,65,36,84,237 // vandps %ymm13,%ymm11,%ymm13
- .byte 196,193,9,114,245,2 // vpslld $0x2,%xmm13,%xmm14
- .byte 196,67,125,25,237,1 // vextractf128 $0x1,%ymm13,%xmm13
- .byte 196,193,17,114,245,2 // vpslld $0x2,%xmm13,%xmm13
- .byte 196,67,13,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
- .byte 197,123,18,53,124,207,2,0 // vmovddup 0x2cf7c(%rip),%xmm14 # 3d758 <_sk_srcover_bgra_8888_sse2_lowp+0x150c>
- .byte 196,65,49,219,254 // vpand %xmm14,%xmm9,%xmm15
- .byte 196,65,1,254,255 // vpaddd %xmm15,%xmm15,%xmm15
- .byte 196,65,57,219,246 // vpand %xmm14,%xmm8,%xmm14
- .byte 196,65,9,254,246 // vpaddd %xmm14,%xmm14,%xmm14
- .byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
- .byte 196,65,12,86,228 // vorps %ymm12,%ymm14,%ymm12
- .byte 196,98,125,24,53,0,189,2,0 // vbroadcastss 0x2bd00(%rip),%ymm14 # 3c504 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- .byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,193,9,114,211,1 // vpsrld $0x1,%xmm11,%xmm14
- .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
- .byte 196,193,33,114,211,1 // vpsrld $0x1,%xmm11,%xmm11
- .byte 196,67,13,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm14,%ymm11
- .byte 196,65,20,86,219 // vorps %ymm11,%ymm13,%ymm11
- .byte 197,123,18,45,50,207,2,0 // vmovddup 0x2cf32(%rip),%xmm13 # 3d760 <_sk_srcover_bgra_8888_sse2_lowp+0x1514>
- .byte 196,65,49,219,205 // vpand %xmm13,%xmm9,%xmm9
- .byte 196,65,57,219,197 // vpand %xmm13,%xmm8,%xmm8
- .byte 196,193,49,114,209,2 // vpsrld $0x2,%xmm9,%xmm9
- .byte 196,193,57,114,208,2 // vpsrld $0x2,%xmm8,%xmm8
- .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,65,28,86,192 // vorps %ymm8,%ymm12,%ymm8
- .byte 196,65,60,86,194 // vorps %ymm10,%ymm8,%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,86,195 // vorps %ymm11,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,163,188,2,0 // vbroadcastss 0x2bca3(%rip),%ymm9 # 3c50c <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,153,188,2,0 // vbroadcastss 0x2bc99(%rip),%ymm9 # 3c510 <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
- .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1
- .byte 197,188,88,210 // vaddps %ymm2,%ymm8,%ymm2
- .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
- .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_uniform_color_avx
-.globl _sk_uniform_color_avx
-FUNCTION(_sk_uniform_color_avx)
-_sk_uniform_color_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
- .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1
- .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2
- .byte 196,226,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_black_color_avx
-.globl _sk_black_color_avx
-FUNCTION(_sk_black_color_avx)
-_sk_black_color_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,33,188,2,0 // vbroadcastss 0x2bc21(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_white_color_avx
-.globl _sk_white_color_avx
-FUNCTION(_sk_white_color_avx)
-_sk_white_color_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,8,188,2,0 // vbroadcastss 0x2bc08(%rip),%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_rgba_avx
-.globl _sk_load_rgba_avx
-FUNCTION(_sk_load_rgba_avx)
-_sk_load_rgba_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,0 // vmovups (%rax),%ymm0
- .byte 197,252,16,72,32 // vmovups 0x20(%rax),%ymm1
- .byte 197,252,16,80,64 // vmovups 0x40(%rax),%ymm2
- .byte 197,252,16,88,96 // vmovups 0x60(%rax),%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_rgba_avx
-.globl _sk_store_rgba_avx
-FUNCTION(_sk_store_rgba_avx)
-_sk_store_rgba_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,17,0 // vmovups %ymm0,(%rax)
- .byte 197,252,17,72,32 // vmovups %ymm1,0x20(%rax)
- .byte 197,252,17,80,64 // vmovups %ymm2,0x40(%rax)
- .byte 197,252,17,88,96 // vmovups %ymm3,0x60(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clear_avx
-.globl _sk_clear_avx
-FUNCTION(_sk_clear_avx)
-_sk_clear_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcatop_avx
-.globl _sk_srcatop_avx
-FUNCTION(_sk_srcatop_avx)
-_sk_srcatop_avx:
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,98,125,24,5,167,187,2,0 // vbroadcastss 0x2bba7(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
- .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 197,60,89,205 // vmulps %ymm5,%ymm8,%ymm9
- .byte 197,180,88,201 // vaddps %ymm1,%ymm9,%ymm1
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 197,60,89,206 // vmulps %ymm6,%ymm8,%ymm9
- .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 196,193,100,88,216 // vaddps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstatop_avx
-.globl _sk_dstatop_avx
-FUNCTION(_sk_dstatop_avx)
-_sk_dstatop_avx:
- .byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 196,98,125,24,13,101,187,2,0 // vbroadcastss 0x2bb65(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,52,92,207 // vsubps %ymm7,%ymm9,%ymm9
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 197,100,89,197 // vmulps %ymm5,%ymm3,%ymm8
- .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
- .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1
- .byte 197,100,89,198 // vmulps %ymm6,%ymm3,%ymm8
- .byte 197,180,89,210 // vmulps %ymm2,%ymm9,%ymm2
- .byte 197,188,88,210 // vaddps %ymm2,%ymm8,%ymm2
- .byte 197,100,89,199 // vmulps %ymm7,%ymm3,%ymm8
- .byte 197,180,89,219 // vmulps %ymm3,%ymm9,%ymm3
- .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcin_avx
-.globl _sk_srcin_avx
-FUNCTION(_sk_srcin_avx)
-_sk_srcin_avx:
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstin_avx
-.globl _sk_dstin_avx
-FUNCTION(_sk_dstin_avx)
-_sk_dstin_avx:
- .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
- .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
- .byte 197,228,89,214 // vmulps %ymm6,%ymm3,%ymm2
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcout_avx
-.globl _sk_srcout_avx
-FUNCTION(_sk_srcout_avx)
-_sk_srcout_avx:
- .byte 196,98,125,24,5,0,187,2,0 // vbroadcastss 0x2bb00(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstout_avx
-.globl _sk_dstout_avx
-FUNCTION(_sk_dstout_avx)
-_sk_dstout_avx:
- .byte 196,226,125,24,5,223,186,2,0 // vbroadcastss 0x2badf(%rip),%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,92,219 // vsubps %ymm3,%ymm0,%ymm3
- .byte 197,228,89,196 // vmulps %ymm4,%ymm3,%ymm0
- .byte 197,228,89,205 // vmulps %ymm5,%ymm3,%ymm1
- .byte 197,228,89,214 // vmulps %ymm6,%ymm3,%ymm2
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_avx
-.globl _sk_srcover_avx
-FUNCTION(_sk_srcover_avx)
-_sk_srcover_avx:
- .byte 196,98,125,24,5,190,186,2,0 // vbroadcastss 0x2babe(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,204 // vmulps %ymm4,%ymm8,%ymm9
- .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
- .byte 197,60,89,205 // vmulps %ymm5,%ymm8,%ymm9
- .byte 197,180,88,201 // vaddps %ymm1,%ymm9,%ymm1
- .byte 197,60,89,206 // vmulps %ymm6,%ymm8,%ymm9
- .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstover_avx
-.globl _sk_dstover_avx
-FUNCTION(_sk_dstover_avx)
-_sk_dstover_avx:
- .byte 196,98,125,24,5,141,186,2,0 // vbroadcastss 0x2ba8d(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,199 // vsubps %ymm7,%ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_modulate_avx
-.globl _sk_modulate_avx
-FUNCTION(_sk_modulate_avx)
-_sk_modulate_avx:
- .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
- .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1
- .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_multiply_avx
-.globl _sk_multiply_avx
-FUNCTION(_sk_multiply_avx)
-_sk_multiply_avx:
- .byte 196,98,125,24,5,72,186,2,0 // vbroadcastss 0x2ba48(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
- .byte 197,52,89,208 // vmulps %ymm0,%ymm9,%ymm10
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11
- .byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10
- .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
- .byte 196,193,124,88,194 // vaddps %ymm10,%ymm0,%ymm0
- .byte 197,52,89,209 // vmulps %ymm1,%ymm9,%ymm10
- .byte 197,60,89,221 // vmulps %ymm5,%ymm8,%ymm11
- .byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10
- .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1
- .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 197,52,89,210 // vmulps %ymm2,%ymm9,%ymm10
- .byte 197,60,89,222 // vmulps %ymm6,%ymm8,%ymm11
- .byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10
- .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
- .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 197,52,89,203 // vmulps %ymm3,%ymm9,%ymm9
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,88,216 // vaddps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_plus__avx
-.globl _sk_plus__avx
-FUNCTION(_sk_plus__avx)
-_sk_plus__avx:
- .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,98,125,24,5,215,185,2,0 // vbroadcastss 0x2b9d7(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2
- .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_screen_avx
-.globl _sk_screen_avx
-FUNCTION(_sk_screen_avx)
-_sk_screen_avx:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 197,100,88,199 // vaddps %ymm7,%ymm3,%ymm8
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 197,188,92,219 // vsubps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xor__avx
-.globl _sk_xor__avx
-FUNCTION(_sk_xor__avx)
-_sk_xor__avx:
- .byte 196,98,125,24,5,118,185,2,0 // vbroadcastss 0x2b976(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,212 // vmulps %ymm4,%ymm8,%ymm10
- .byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0
- .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
- .byte 197,60,89,213 // vmulps %ymm5,%ymm8,%ymm10
- .byte 197,172,88,201 // vaddps %ymm1,%ymm10,%ymm1
- .byte 197,180,89,210 // vmulps %ymm2,%ymm9,%ymm2
- .byte 197,60,89,214 // vmulps %ymm6,%ymm8,%ymm10
- .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
- .byte 197,180,89,219 // vmulps %ymm3,%ymm9,%ymm3
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_darken_avx
-.globl _sk_darken_avx
-FUNCTION(_sk_darken_avx)
-_sk_darken_avx:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
- .byte 196,193,124,95,193 // vmaxps %ymm9,%ymm0,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,193,116,95,201 // vmaxps %ymm9,%ymm1,%ymm1
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
- .byte 196,193,108,95,209 // vmaxps %ymm9,%ymm2,%ymm2
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,242,184,2,0 // vbroadcastss 0x2b8f2(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lighten_avx
-.globl _sk_lighten_avx
-FUNCTION(_sk_lighten_avx)
-_sk_lighten_avx:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
- .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
- .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,154,184,2,0 // vbroadcastss 0x2b89a(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_difference_avx
-.globl _sk_difference_avx
-FUNCTION(_sk_difference_avx)
-_sk_difference_avx:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
- .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0
- .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 197,244,89,207 // vmulps %ymm7,%ymm1,%ymm1
- .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1
- .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 197,236,89,215 // vmulps %ymm7,%ymm2,%ymm2
- .byte 197,100,89,206 // vmulps %ymm6,%ymm3,%ymm9
- .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
- .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,54,184,2,0 // vbroadcastss 0x2b836(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_exclusion_avx
-.globl _sk_exclusion_avx
-FUNCTION(_sk_exclusion_avx)
-_sk_exclusion_avx:
- .byte 197,124,88,196 // vaddps %ymm4,%ymm0,%ymm8
- .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
- .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,116,88,197 // vaddps %ymm5,%ymm1,%ymm8
- .byte 197,244,89,205 // vmulps %ymm5,%ymm1,%ymm1
- .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,108,88,198 // vaddps %ymm6,%ymm2,%ymm8
- .byte 197,236,89,214 // vmulps %ymm6,%ymm2,%ymm2
- .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,237,183,2,0 // vbroadcastss 0x2b7ed(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_colorburn_avx
-.globl _sk_colorburn_avx
-FUNCTION(_sk_colorburn_avx)
-_sk_colorburn_avx:
- .byte 196,98,125,24,5,212,183,2,0 // vbroadcastss 0x2b7d4(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
- .byte 197,52,89,216 // vmulps %ymm0,%ymm9,%ymm11
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,65,124,194,226,0 // vcmpeqps %ymm10,%ymm0,%ymm12
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,68,92,236 // vsubps %ymm4,%ymm7,%ymm13
- .byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13
- .byte 197,252,83,192 // vrcpps %ymm0,%ymm0
- .byte 197,148,89,192 // vmulps %ymm0,%ymm13,%ymm0
- .byte 197,60,89,236 // vmulps %ymm4,%ymm8,%ymm13
- .byte 197,196,93,192 // vminps %ymm0,%ymm7,%ymm0
- .byte 197,196,92,192 // vsubps %ymm0,%ymm7,%ymm0
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 197,148,88,192 // vaddps %ymm0,%ymm13,%ymm0
- .byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- .byte 197,92,194,231,0 // vcmpeqps %ymm7,%ymm4,%ymm12
- .byte 197,36,88,220 // vaddps %ymm4,%ymm11,%ymm11
- .byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0
- .byte 197,52,89,217 // vmulps %ymm1,%ymm9,%ymm11
- .byte 196,65,116,194,226,0 // vcmpeqps %ymm10,%ymm1,%ymm12
- .byte 197,68,92,237 // vsubps %ymm5,%ymm7,%ymm13
- .byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13
- .byte 197,252,83,201 // vrcpps %ymm1,%ymm1
- .byte 197,148,89,201 // vmulps %ymm1,%ymm13,%ymm1
- .byte 197,60,89,237 // vmulps %ymm5,%ymm8,%ymm13
- .byte 197,196,93,201 // vminps %ymm1,%ymm7,%ymm1
- .byte 197,196,92,201 // vsubps %ymm1,%ymm7,%ymm1
- .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 197,148,88,201 // vaddps %ymm1,%ymm13,%ymm1
- .byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- .byte 197,84,194,231,0 // vcmpeqps %ymm7,%ymm5,%ymm12
- .byte 197,36,88,221 // vaddps %ymm5,%ymm11,%ymm11
- .byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
- .byte 197,52,89,202 // vmulps %ymm2,%ymm9,%ymm9
- .byte 196,65,108,194,210,0 // vcmpeqps %ymm10,%ymm2,%ymm10
- .byte 197,68,92,222 // vsubps %ymm6,%ymm7,%ymm11
- .byte 197,36,89,219 // vmulps %ymm3,%ymm11,%ymm11
- .byte 197,252,83,210 // vrcpps %ymm2,%ymm2
- .byte 197,164,89,210 // vmulps %ymm2,%ymm11,%ymm2
- .byte 197,60,89,222 // vmulps %ymm6,%ymm8,%ymm11
- .byte 197,196,93,210 // vminps %ymm2,%ymm7,%ymm2
- .byte 197,196,92,210 // vsubps %ymm2,%ymm7,%ymm2
- .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2
- .byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 196,195,109,74,211,160 // vblendvps %ymm10,%ymm11,%ymm2,%ymm2
- .byte 197,76,194,215,0 // vcmpeqps %ymm7,%ymm6,%ymm10
- .byte 197,52,88,206 // vaddps %ymm6,%ymm9,%ymm9
- .byte 196,195,109,74,209,160 // vblendvps %ymm10,%ymm9,%ymm2,%ymm2
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_colordodge_avx
-.globl _sk_colordodge_avx
-FUNCTION(_sk_colordodge_avx)
-_sk_colordodge_avx:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,98,125,24,13,216,182,2,0 // vbroadcastss 0x2b6d8(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,52,92,215 // vsubps %ymm7,%ymm9,%ymm10
- .byte 197,44,89,216 // vmulps %ymm0,%ymm10,%ymm11
- .byte 197,52,92,203 // vsubps %ymm3,%ymm9,%ymm9
- .byte 197,100,89,228 // vmulps %ymm4,%ymm3,%ymm12
- .byte 197,100,92,232 // vsubps %ymm0,%ymm3,%ymm13
- .byte 196,65,124,83,237 // vrcpps %ymm13,%ymm13
- .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 197,52,89,236 // vmulps %ymm4,%ymm9,%ymm13
- .byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12
- .byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12
- .byte 196,65,36,88,228 // vaddps %ymm12,%ymm11,%ymm12
- .byte 196,65,20,88,228 // vaddps %ymm12,%ymm13,%ymm12
- .byte 197,20,88,232 // vaddps %ymm0,%ymm13,%ymm13
- .byte 197,252,194,195,0 // vcmpeqps %ymm3,%ymm0,%ymm0
- .byte 196,195,29,74,197,0 // vblendvps %ymm0,%ymm13,%ymm12,%ymm0
- .byte 196,65,92,194,224,0 // vcmpeqps %ymm8,%ymm4,%ymm12
- .byte 196,195,125,74,195,192 // vblendvps %ymm12,%ymm11,%ymm0,%ymm0
- .byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11
- .byte 197,100,89,229 // vmulps %ymm5,%ymm3,%ymm12
- .byte 197,100,92,233 // vsubps %ymm1,%ymm3,%ymm13
- .byte 196,65,124,83,237 // vrcpps %ymm13,%ymm13
- .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 197,52,89,237 // vmulps %ymm5,%ymm9,%ymm13
- .byte 196,65,68,93,228 // vminps %ymm12,%ymm7,%ymm12
- .byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12
- .byte 196,65,36,88,228 // vaddps %ymm12,%ymm11,%ymm12
- .byte 196,65,20,88,228 // vaddps %ymm12,%ymm13,%ymm12
- .byte 197,20,88,233 // vaddps %ymm1,%ymm13,%ymm13
- .byte 197,244,194,203,0 // vcmpeqps %ymm3,%ymm1,%ymm1
- .byte 196,195,29,74,205,16 // vblendvps %ymm1,%ymm13,%ymm12,%ymm1
- .byte 196,65,84,194,224,0 // vcmpeqps %ymm8,%ymm5,%ymm12
- .byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
- .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
- .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 197,100,92,226 // vsubps %ymm2,%ymm3,%ymm12
- .byte 196,65,124,83,228 // vrcpps %ymm12,%ymm12
- .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 197,52,89,230 // vmulps %ymm6,%ymm9,%ymm12
- .byte 196,65,68,93,219 // vminps %ymm11,%ymm7,%ymm11
- .byte 197,36,89,219 // vmulps %ymm3,%ymm11,%ymm11
- .byte 196,65,44,88,219 // vaddps %ymm11,%ymm10,%ymm11
- .byte 196,65,28,88,219 // vaddps %ymm11,%ymm12,%ymm11
- .byte 197,28,88,226 // vaddps %ymm2,%ymm12,%ymm12
- .byte 197,236,194,211,0 // vcmpeqps %ymm3,%ymm2,%ymm2
- .byte 196,195,37,74,212,32 // vblendvps %ymm2,%ymm12,%ymm11,%ymm2
- .byte 196,65,76,194,192,0 // vcmpeqps %ymm8,%ymm6,%ymm8
- .byte 196,195,109,74,210,128 // vblendvps %ymm8,%ymm10,%ymm2,%ymm2
- .byte 197,52,89,199 // vmulps %ymm7,%ymm9,%ymm8
- .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hardlight_avx
-.globl _sk_hardlight_avx
-FUNCTION(_sk_hardlight_avx)
-_sk_hardlight_avx:
- .byte 196,98,125,24,5,227,181,2,0 // vbroadcastss 0x2b5e3(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
- .byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11
- .byte 196,65,36,88,217 // vaddps %ymm9,%ymm11,%ymm11
- .byte 197,124,88,200 // vaddps %ymm0,%ymm0,%ymm9
- .byte 197,52,194,227,2 // vcmpleps %ymm3,%ymm9,%ymm12
- .byte 197,124,89,204 // vmulps %ymm4,%ymm0,%ymm9
- .byte 196,65,52,88,233 // vaddps %ymm9,%ymm9,%ymm13
- .byte 197,100,89,207 // vmulps %ymm7,%ymm3,%ymm9
- .byte 197,68,92,244 // vsubps %ymm4,%ymm7,%ymm14
- .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0
- .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
- .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
- .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
- .byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11
- .byte 197,60,89,229 // vmulps %ymm5,%ymm8,%ymm12
- .byte 196,65,28,88,219 // vaddps %ymm11,%ymm12,%ymm11
- .byte 197,116,88,225 // vaddps %ymm1,%ymm1,%ymm12
- .byte 197,28,194,227,2 // vcmpleps %ymm3,%ymm12,%ymm12
- .byte 197,116,89,237 // vmulps %ymm5,%ymm1,%ymm13
- .byte 196,65,20,88,237 // vaddps %ymm13,%ymm13,%ymm13
- .byte 197,68,92,245 // vsubps %ymm5,%ymm7,%ymm14
- .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1
- .byte 196,193,116,89,206 // vmulps %ymm14,%ymm1,%ymm1
- .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
- .byte 197,180,92,201 // vsubps %ymm1,%ymm9,%ymm1
- .byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
- .byte 197,60,89,222 // vmulps %ymm6,%ymm8,%ymm11
- .byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10
- .byte 197,108,88,218 // vaddps %ymm2,%ymm2,%ymm11
- .byte 197,36,194,219,2 // vcmpleps %ymm3,%ymm11,%ymm11
- .byte 197,108,89,230 // vmulps %ymm6,%ymm2,%ymm12
- .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
- .byte 197,68,92,238 // vsubps %ymm6,%ymm7,%ymm13
- .byte 197,228,92,210 // vsubps %ymm2,%ymm3,%ymm2
- .byte 196,193,108,89,213 // vmulps %ymm13,%ymm2,%ymm2
- .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
- .byte 197,180,92,210 // vsubps %ymm2,%ymm9,%ymm2
- .byte 196,195,109,74,212,176 // vblendvps %ymm11,%ymm12,%ymm2,%ymm2
- .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_overlay_avx
-.globl _sk_overlay_avx
-FUNCTION(_sk_overlay_avx)
-_sk_overlay_avx:
- .byte 196,98,125,24,5,8,181,2,0 // vbroadcastss 0x2b508(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
- .byte 197,44,89,200 // vmulps %ymm0,%ymm10,%ymm9
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11
- .byte 196,65,36,88,217 // vaddps %ymm9,%ymm11,%ymm11
- .byte 197,92,88,204 // vaddps %ymm4,%ymm4,%ymm9
- .byte 197,52,194,231,2 // vcmpleps %ymm7,%ymm9,%ymm12
- .byte 197,124,89,204 // vmulps %ymm4,%ymm0,%ymm9
- .byte 196,65,52,88,233 // vaddps %ymm9,%ymm9,%ymm13
- .byte 197,100,89,207 // vmulps %ymm7,%ymm3,%ymm9
- .byte 197,68,92,244 // vsubps %ymm4,%ymm7,%ymm14
- .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0
- .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
- .byte 197,252,88,192 // vaddps %ymm0,%ymm0,%ymm0
- .byte 197,180,92,192 // vsubps %ymm0,%ymm9,%ymm0
- .byte 196,195,125,74,197,192 // vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 197,44,89,217 // vmulps %ymm1,%ymm10,%ymm11
- .byte 197,60,89,229 // vmulps %ymm5,%ymm8,%ymm12
- .byte 196,65,28,88,219 // vaddps %ymm11,%ymm12,%ymm11
- .byte 197,84,88,229 // vaddps %ymm5,%ymm5,%ymm12
- .byte 197,28,194,231,2 // vcmpleps %ymm7,%ymm12,%ymm12
- .byte 197,116,89,237 // vmulps %ymm5,%ymm1,%ymm13
- .byte 196,65,20,88,237 // vaddps %ymm13,%ymm13,%ymm13
- .byte 197,68,92,245 // vsubps %ymm5,%ymm7,%ymm14
- .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1
- .byte 196,193,116,89,206 // vmulps %ymm14,%ymm1,%ymm1
- .byte 197,244,88,201 // vaddps %ymm1,%ymm1,%ymm1
- .byte 197,180,92,201 // vsubps %ymm1,%ymm9,%ymm1
- .byte 196,195,117,74,205,192 // vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
- .byte 197,60,89,222 // vmulps %ymm6,%ymm8,%ymm11
- .byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10
- .byte 197,76,88,222 // vaddps %ymm6,%ymm6,%ymm11
- .byte 197,36,194,223,2 // vcmpleps %ymm7,%ymm11,%ymm11
- .byte 197,108,89,230 // vmulps %ymm6,%ymm2,%ymm12
- .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
- .byte 197,68,92,238 // vsubps %ymm6,%ymm7,%ymm13
- .byte 197,228,92,210 // vsubps %ymm2,%ymm3,%ymm2
- .byte 196,193,108,89,213 // vmulps %ymm13,%ymm2,%ymm2
- .byte 197,236,88,210 // vaddps %ymm2,%ymm2,%ymm2
- .byte 197,180,92,210 // vsubps %ymm2,%ymm9,%ymm2
- .byte 196,195,109,74,212,176 // vblendvps %ymm11,%ymm12,%ymm2,%ymm2
- .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_softlight_avx
-.globl _sk_softlight_avx
-FUNCTION(_sk_softlight_avx)
-_sk_softlight_avx:
- .byte 197,252,17,84,36,200 // vmovups %ymm2,-0x38(%rsp)
- .byte 197,252,40,209 // vmovaps %ymm1,%ymm2
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,52,194,215,1 // vcmpltps %ymm7,%ymm9,%ymm10
- .byte 197,92,94,199 // vdivps %ymm7,%ymm4,%ymm8
- .byte 196,67,53,74,224,160 // vblendvps %ymm10,%ymm8,%ymm9,%ymm12
- .byte 196,65,28,88,196 // vaddps %ymm12,%ymm12,%ymm8
- .byte 196,65,60,88,192 // vaddps %ymm8,%ymm8,%ymm8
- .byte 196,65,60,89,216 // vmulps %ymm8,%ymm8,%ymm11
- .byte 196,65,60,88,195 // vaddps %ymm11,%ymm8,%ymm8
- .byte 196,98,125,24,29,15,180,2,0 // vbroadcastss 0x2b40f(%rip),%ymm11 # 3c514 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
- .byte 196,65,28,88,235 // vaddps %ymm11,%ymm12,%ymm13
- .byte 196,65,20,89,192 // vmulps %ymm8,%ymm13,%ymm8
- .byte 196,98,125,24,45,0,180,2,0 // vbroadcastss 0x2b400(%rip),%ymm13 # 3c518 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
- .byte 196,65,28,89,245 // vmulps %ymm13,%ymm12,%ymm14
- .byte 196,65,12,88,192 // vaddps %ymm8,%ymm14,%ymm8
- .byte 196,65,124,82,244 // vrsqrtps %ymm12,%ymm14
- .byte 196,65,124,83,246 // vrcpps %ymm14,%ymm14
- .byte 196,65,12,92,244 // vsubps %ymm12,%ymm14,%ymm14
- .byte 197,92,88,252 // vaddps %ymm4,%ymm4,%ymm15
- .byte 196,65,4,88,255 // vaddps %ymm15,%ymm15,%ymm15
- .byte 197,4,194,255,2 // vcmpleps %ymm7,%ymm15,%ymm15
- .byte 196,67,13,74,240,240 // vblendvps %ymm15,%ymm8,%ymm14,%ymm14
- .byte 197,116,88,249 // vaddps %ymm1,%ymm1,%ymm15
- .byte 196,98,125,24,5,170,179,2,0 // vbroadcastss 0x2b3aa(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,60,92,228 // vsubps %ymm12,%ymm8,%ymm12
- .byte 197,132,92,195 // vsubps %ymm3,%ymm15,%ymm0
- .byte 196,65,124,89,228 // vmulps %ymm12,%ymm0,%ymm12
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,193,124,89,198 // vmulps %ymm14,%ymm0,%ymm0
- .byte 197,100,89,244 // vmulps %ymm4,%ymm3,%ymm14
- .byte 197,140,88,192 // vaddps %ymm0,%ymm14,%ymm0
- .byte 197,28,88,227 // vaddps %ymm3,%ymm12,%ymm12
- .byte 197,28,89,228 // vmulps %ymm4,%ymm12,%ymm12
- .byte 197,4,194,243,2 // vcmpleps %ymm3,%ymm15,%ymm14
- .byte 196,195,125,74,196,224 // vblendvps %ymm14,%ymm12,%ymm0,%ymm0
- .byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
- .byte 197,212,94,199 // vdivps %ymm7,%ymm5,%ymm0
- .byte 196,227,53,74,192,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm0
- .byte 197,124,88,240 // vaddps %ymm0,%ymm0,%ymm14
- .byte 196,65,12,88,246 // vaddps %ymm14,%ymm14,%ymm14
- .byte 196,65,12,89,254 // vmulps %ymm14,%ymm14,%ymm15
- .byte 196,65,12,88,247 // vaddps %ymm15,%ymm14,%ymm14
- .byte 196,65,124,88,251 // vaddps %ymm11,%ymm0,%ymm15
- .byte 196,65,4,89,246 // vmulps %ymm14,%ymm15,%ymm14
- .byte 196,65,124,89,253 // vmulps %ymm13,%ymm0,%ymm15
- .byte 196,65,4,88,246 // vaddps %ymm14,%ymm15,%ymm14
- .byte 197,124,82,248 // vrsqrtps %ymm0,%ymm15
- .byte 196,65,124,83,255 // vrcpps %ymm15,%ymm15
- .byte 197,4,92,248 // vsubps %ymm0,%ymm15,%ymm15
- .byte 197,84,88,229 // vaddps %ymm5,%ymm5,%ymm12
- .byte 196,65,28,88,228 // vaddps %ymm12,%ymm12,%ymm12
- .byte 197,28,194,231,2 // vcmpleps %ymm7,%ymm12,%ymm12
- .byte 196,67,5,74,230,192 // vblendvps %ymm12,%ymm14,%ymm15,%ymm12
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,108,88,242 // vaddps %ymm2,%ymm2,%ymm14
- .byte 197,12,92,251 // vsubps %ymm3,%ymm14,%ymm15
- .byte 197,132,89,192 // vmulps %ymm0,%ymm15,%ymm0
- .byte 197,4,89,255 // vmulps %ymm7,%ymm15,%ymm15
- .byte 196,65,4,89,228 // vmulps %ymm12,%ymm15,%ymm12
- .byte 197,100,89,253 // vmulps %ymm5,%ymm3,%ymm15
- .byte 196,65,4,88,228 // vaddps %ymm12,%ymm15,%ymm12
- .byte 197,252,88,195 // vaddps %ymm3,%ymm0,%ymm0
- .byte 197,252,89,197 // vmulps %ymm5,%ymm0,%ymm0
- .byte 197,12,194,243,2 // vcmpleps %ymm3,%ymm14,%ymm14
- .byte 196,99,29,74,240,224 // vblendvps %ymm14,%ymm0,%ymm12,%ymm14
- .byte 197,204,94,199 // vdivps %ymm7,%ymm6,%ymm0
- .byte 196,227,53,74,192,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm0
- .byte 197,124,88,200 // vaddps %ymm0,%ymm0,%ymm9
- .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
- .byte 196,65,52,89,209 // vmulps %ymm9,%ymm9,%ymm10
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 196,65,124,88,211 // vaddps %ymm11,%ymm0,%ymm10
- .byte 196,65,44,89,201 // vmulps %ymm9,%ymm10,%ymm9
- .byte 196,65,124,89,213 // vmulps %ymm13,%ymm0,%ymm10
- .byte 196,65,44,88,201 // vaddps %ymm9,%ymm10,%ymm9
- .byte 197,124,82,208 // vrsqrtps %ymm0,%ymm10
- .byte 196,65,124,83,210 // vrcpps %ymm10,%ymm10
- .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
- .byte 197,76,88,222 // vaddps %ymm6,%ymm6,%ymm11
- .byte 196,65,36,88,219 // vaddps %ymm11,%ymm11,%ymm11
- .byte 197,36,194,223,2 // vcmpleps %ymm7,%ymm11,%ymm11
- .byte 196,67,45,74,201,176 // vblendvps %ymm11,%ymm9,%ymm10,%ymm9
- .byte 197,124,16,100,36,200 // vmovups -0x38(%rsp),%ymm12
- .byte 196,65,28,88,212 // vaddps %ymm12,%ymm12,%ymm10
- .byte 197,44,92,219 // vsubps %ymm3,%ymm10,%ymm11
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
- .byte 197,36,89,223 // vmulps %ymm7,%ymm11,%ymm11
- .byte 196,65,36,89,201 // vmulps %ymm9,%ymm11,%ymm9
- .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 196,65,36,88,201 // vaddps %ymm9,%ymm11,%ymm9
- .byte 197,252,88,195 // vaddps %ymm3,%ymm0,%ymm0
- .byte 197,252,89,198 // vmulps %ymm6,%ymm0,%ymm0
- .byte 197,44,194,211,2 // vcmpleps %ymm3,%ymm10,%ymm10
- .byte 196,99,53,74,200,160 // vblendvps %ymm10,%ymm0,%ymm9,%ymm9
- .byte 197,60,92,215 // vsubps %ymm7,%ymm8,%ymm10
- .byte 197,172,89,193 // vmulps %ymm1,%ymm10,%ymm0
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,188,89,204 // vmulps %ymm4,%ymm8,%ymm1
- .byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
- .byte 197,252,88,68,36,168 // vaddps -0x58(%rsp),%ymm0,%ymm0
- .byte 197,172,89,202 // vmulps %ymm2,%ymm10,%ymm1
- .byte 197,188,89,213 // vmulps %ymm5,%ymm8,%ymm2
- .byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1
- .byte 196,193,116,88,206 // vaddps %ymm14,%ymm1,%ymm1
- .byte 196,193,44,89,212 // vmulps %ymm12,%ymm10,%ymm2
- .byte 197,60,89,214 // vmulps %ymm6,%ymm8,%ymm10
- .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
- .byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 197,60,89,199 // vmulps %ymm7,%ymm8,%ymm8
- .byte 197,188,88,219 // vaddps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hue_avx
-.globl _sk_hue_avx
-FUNCTION(_sk_hue_avx)
-_sk_hue_avx:
- .byte 197,252,17,84,36,200 // vmovups %ymm2,-0x38(%rsp)
- .byte 197,124,40,193 // vmovaps %ymm1,%ymm8
- .byte 197,124,17,68,36,168 // vmovups %ymm8,-0x58(%rsp)
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 197,116,89,203 // vmulps %ymm3,%ymm1,%ymm9
- .byte 197,60,89,211 // vmulps %ymm3,%ymm8,%ymm10
- .byte 197,108,89,219 // vmulps %ymm3,%ymm2,%ymm11
- .byte 197,84,95,198 // vmaxps %ymm6,%ymm5,%ymm8
- .byte 196,65,92,95,192 // vmaxps %ymm8,%ymm4,%ymm8
- .byte 197,84,93,230 // vminps %ymm6,%ymm5,%ymm12
- .byte 196,65,92,93,228 // vminps %ymm12,%ymm4,%ymm12
- .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8
- .byte 197,60,89,227 // vmulps %ymm3,%ymm8,%ymm12
- .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8
- .byte 196,65,52,93,232 // vminps %ymm8,%ymm9,%ymm13
- .byte 196,65,44,95,195 // vmaxps %ymm11,%ymm10,%ymm8
- .byte 196,65,52,95,192 // vmaxps %ymm8,%ymm9,%ymm8
- .byte 196,65,60,92,245 // vsubps %ymm13,%ymm8,%ymm14
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,12,194,248,0 // vcmpeqps %ymm8,%ymm14,%ymm15
- .byte 196,65,52,92,205 // vsubps %ymm13,%ymm9,%ymm9
- .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9
- .byte 196,65,52,94,206 // vdivps %ymm14,%ymm9,%ymm9
- .byte 196,67,53,74,200,240 // vblendvps %ymm15,%ymm8,%ymm9,%ymm9
- .byte 196,65,44,92,213 // vsubps %ymm13,%ymm10,%ymm10
- .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
- .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
- .byte 196,67,45,74,208,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm10
- .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
- .byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,141,177,2,0 // vbroadcastss 0x2b18d(%rip),%ymm14 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,131,177,2,0 // vbroadcastss 0x2b183(%rip),%ymm15 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- .byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
- .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,116,177,2,0 // vbroadcastss 0x2b174(%rip),%ymm0 # 3c524 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- .byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
- .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
- .byte 196,193,44,89,215 // vmulps %ymm15,%ymm10,%ymm2
- .byte 197,148,88,210 // vaddps %ymm2,%ymm13,%ymm2
- .byte 197,28,89,232 // vmulps %ymm0,%ymm12,%ymm13
- .byte 196,193,108,88,213 // vaddps %ymm13,%ymm2,%ymm2
- .byte 197,36,89,219 // vmulps %ymm3,%ymm11,%ymm11
- .byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2
- .byte 197,52,88,202 // vaddps %ymm2,%ymm9,%ymm9
- .byte 197,44,88,218 // vaddps %ymm2,%ymm10,%ymm11
- .byte 197,28,88,226 // vaddps %ymm2,%ymm12,%ymm12
- .byte 196,193,36,93,212 // vminps %ymm12,%ymm11,%ymm2
- .byte 197,52,93,234 // vminps %ymm2,%ymm9,%ymm13
- .byte 196,193,52,89,214 // vmulps %ymm14,%ymm9,%ymm2
- .byte 196,65,36,89,215 // vmulps %ymm15,%ymm11,%ymm10
- .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
- .byte 197,124,88,210 // vaddps %ymm2,%ymm0,%ymm10
- .byte 196,193,52,92,194 // vsubps %ymm10,%ymm9,%ymm0
- .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
- .byte 196,193,44,92,213 // vsubps %ymm13,%ymm10,%ymm2
- .byte 197,252,94,194 // vdivps %ymm2,%ymm0,%ymm0
- .byte 196,65,36,92,242 // vsubps %ymm10,%ymm11,%ymm14
- .byte 196,65,44,89,246 // vmulps %ymm14,%ymm10,%ymm14
- .byte 197,12,94,242 // vdivps %ymm2,%ymm14,%ymm14
- .byte 196,65,28,92,250 // vsubps %ymm10,%ymm12,%ymm15
- .byte 196,65,44,89,255 // vmulps %ymm15,%ymm10,%ymm15
- .byte 197,132,94,210 // vdivps %ymm2,%ymm15,%ymm2
- .byte 196,65,60,194,237,2 // vcmpleps %ymm13,%ymm8,%ymm13
- .byte 196,65,44,88,246 // vaddps %ymm14,%ymm10,%ymm14
- .byte 196,67,13,74,243,208 // vblendvps %ymm13,%ymm11,%ymm14,%ymm14
- .byte 196,65,36,95,220 // vmaxps %ymm12,%ymm11,%ymm11
- .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
- .byte 196,195,109,74,212,208 // vblendvps %ymm13,%ymm12,%ymm2,%ymm2
- .byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0
- .byte 196,195,125,74,193,208 // vblendvps %ymm13,%ymm9,%ymm0,%ymm0
- .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12
- .byte 196,65,52,95,203 // vmaxps %ymm11,%ymm9,%ymm9
- .byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
- .byte 196,65,28,92,234 // vsubps %ymm10,%ymm12,%ymm13
- .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
- .byte 196,65,28,194,249,1 // vcmpltps %ymm9,%ymm12,%ymm15
- .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,65,36,94,217 // vdivps %ymm9,%ymm11,%ymm11
- .byte 196,65,44,88,219 // vaddps %ymm11,%ymm10,%ymm11
- .byte 196,195,125,74,195,240 // vblendvps %ymm15,%ymm11,%ymm0,%ymm0
- .byte 196,65,12,92,218 // vsubps %ymm10,%ymm14,%ymm11
- .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
- .byte 196,65,36,94,217 // vdivps %ymm9,%ymm11,%ymm11
- .byte 196,65,44,88,219 // vaddps %ymm11,%ymm10,%ymm11
- .byte 196,67,13,74,219,240 // vblendvps %ymm15,%ymm11,%ymm14,%ymm11
- .byte 196,65,108,92,242 // vsubps %ymm10,%ymm2,%ymm14
- .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,65,20,94,201 // vdivps %ymm9,%ymm13,%ymm9
- .byte 196,65,44,88,201 // vaddps %ymm9,%ymm10,%ymm9
- .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
- .byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
- .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,33,176,2,0 // vbroadcastss 0x2b021(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
- .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11
- .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
- .byte 197,180,89,76,36,168 // vmulps -0x58(%rsp),%ymm9,%ymm1
- .byte 197,60,89,221 // vmulps %ymm5,%ymm8,%ymm11
- .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 197,52,89,76,36,200 // vmulps -0x38(%rsp),%ymm9,%ymm9
- .byte 197,60,89,198 // vmulps %ymm6,%ymm8,%ymm8
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 197,188,88,210 // vaddps %ymm2,%ymm8,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_saturation_avx
-.globl _sk_saturation_avx
-FUNCTION(_sk_saturation_avx)
-_sk_saturation_avx:
- .byte 197,124,40,193 // vmovaps %ymm1,%ymm8
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 197,100,89,204 // vmulps %ymm4,%ymm3,%ymm9
- .byte 197,100,89,213 // vmulps %ymm5,%ymm3,%ymm10
- .byte 197,100,89,222 // vmulps %ymm6,%ymm3,%ymm11
- .byte 197,252,17,84,36,200 // vmovups %ymm2,-0x38(%rsp)
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
- .byte 197,124,95,194 // vmaxps %ymm2,%ymm0,%ymm8
- .byte 196,65,116,95,192 // vmaxps %ymm8,%ymm1,%ymm8
- .byte 197,124,93,226 // vminps %ymm2,%ymm0,%ymm12
- .byte 196,65,116,93,228 // vminps %ymm12,%ymm1,%ymm12
- .byte 196,65,60,92,196 // vsubps %ymm12,%ymm8,%ymm8
- .byte 197,60,89,231 // vmulps %ymm7,%ymm8,%ymm12
- .byte 196,65,44,93,195 // vminps %ymm11,%ymm10,%ymm8
- .byte 196,65,52,93,232 // vminps %ymm8,%ymm9,%ymm13
- .byte 196,65,44,95,195 // vmaxps %ymm11,%ymm10,%ymm8
- .byte 196,65,52,95,192 // vmaxps %ymm8,%ymm9,%ymm8
- .byte 196,65,60,92,245 // vsubps %ymm13,%ymm8,%ymm14
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,12,194,248,0 // vcmpeqps %ymm8,%ymm14,%ymm15
- .byte 196,65,52,92,205 // vsubps %ymm13,%ymm9,%ymm9
- .byte 196,65,28,89,201 // vmulps %ymm9,%ymm12,%ymm9
- .byte 196,65,52,94,206 // vdivps %ymm14,%ymm9,%ymm9
- .byte 196,67,53,74,200,240 // vblendvps %ymm15,%ymm8,%ymm9,%ymm9
- .byte 196,65,44,92,213 // vsubps %ymm13,%ymm10,%ymm10
- .byte 196,65,28,89,210 // vmulps %ymm10,%ymm12,%ymm10
- .byte 196,65,44,94,214 // vdivps %ymm14,%ymm10,%ymm10
- .byte 196,67,45,74,208,240 // vblendvps %ymm15,%ymm8,%ymm10,%ymm10
- .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,65,36,94,222 // vdivps %ymm14,%ymm11,%ymm11
- .byte 196,67,37,74,224,240 // vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- .byte 196,98,125,24,53,75,175,2,0 // vbroadcastss 0x2af4b(%rip),%ymm14 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,65,92,89,222 // vmulps %ymm14,%ymm4,%ymm11
- .byte 196,98,125,24,61,65,175,2,0 // vbroadcastss 0x2af41(%rip),%ymm15 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- .byte 196,65,84,89,239 // vmulps %ymm15,%ymm5,%ymm13
- .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,226,125,24,5,50,175,2,0 // vbroadcastss 0x2af32(%rip),%ymm0 # 3c524 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- .byte 197,76,89,232 // vmulps %ymm0,%ymm6,%ymm13
- .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,65,52,89,238 // vmulps %ymm14,%ymm9,%ymm13
- .byte 196,193,44,89,215 // vmulps %ymm15,%ymm10,%ymm2
- .byte 197,148,88,210 // vaddps %ymm2,%ymm13,%ymm2
- .byte 197,28,89,232 // vmulps %ymm0,%ymm12,%ymm13
- .byte 196,193,108,88,213 // vaddps %ymm13,%ymm2,%ymm2
- .byte 197,36,89,219 // vmulps %ymm3,%ymm11,%ymm11
- .byte 197,164,92,210 // vsubps %ymm2,%ymm11,%ymm2
- .byte 197,52,88,202 // vaddps %ymm2,%ymm9,%ymm9
- .byte 197,44,88,218 // vaddps %ymm2,%ymm10,%ymm11
- .byte 197,28,88,226 // vaddps %ymm2,%ymm12,%ymm12
- .byte 196,193,36,93,212 // vminps %ymm12,%ymm11,%ymm2
- .byte 197,52,93,234 // vminps %ymm2,%ymm9,%ymm13
- .byte 196,193,52,89,214 // vmulps %ymm14,%ymm9,%ymm2
- .byte 196,65,36,89,215 // vmulps %ymm15,%ymm11,%ymm10
- .byte 196,193,108,88,210 // vaddps %ymm10,%ymm2,%ymm2
- .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
- .byte 197,124,88,210 // vaddps %ymm2,%ymm0,%ymm10
- .byte 196,193,52,92,194 // vsubps %ymm10,%ymm9,%ymm0
- .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
- .byte 196,193,44,92,213 // vsubps %ymm13,%ymm10,%ymm2
- .byte 197,252,94,194 // vdivps %ymm2,%ymm0,%ymm0
- .byte 196,65,36,92,242 // vsubps %ymm10,%ymm11,%ymm14
- .byte 196,65,44,89,246 // vmulps %ymm14,%ymm10,%ymm14
- .byte 197,12,94,242 // vdivps %ymm2,%ymm14,%ymm14
- .byte 196,65,28,92,250 // vsubps %ymm10,%ymm12,%ymm15
- .byte 196,65,44,89,255 // vmulps %ymm15,%ymm10,%ymm15
- .byte 197,132,94,210 // vdivps %ymm2,%ymm15,%ymm2
- .byte 196,65,60,194,237,2 // vcmpleps %ymm13,%ymm8,%ymm13
- .byte 196,65,44,88,246 // vaddps %ymm14,%ymm10,%ymm14
- .byte 196,67,13,74,243,208 // vblendvps %ymm13,%ymm11,%ymm14,%ymm14
- .byte 196,65,36,95,220 // vmaxps %ymm12,%ymm11,%ymm11
- .byte 197,172,88,210 // vaddps %ymm2,%ymm10,%ymm2
- .byte 196,195,109,74,212,208 // vblendvps %ymm13,%ymm12,%ymm2,%ymm2
- .byte 197,172,88,192 // vaddps %ymm0,%ymm10,%ymm0
- .byte 196,195,125,74,193,208 // vblendvps %ymm13,%ymm9,%ymm0,%ymm0
- .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12
- .byte 196,65,52,95,203 // vmaxps %ymm11,%ymm9,%ymm9
- .byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
- .byte 196,65,28,92,234 // vsubps %ymm10,%ymm12,%ymm13
- .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
- .byte 196,65,28,194,249,1 // vcmpltps %ymm9,%ymm12,%ymm15
- .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,65,36,94,217 // vdivps %ymm9,%ymm11,%ymm11
- .byte 196,65,44,88,219 // vaddps %ymm11,%ymm10,%ymm11
- .byte 196,195,125,74,195,240 // vblendvps %ymm15,%ymm11,%ymm0,%ymm0
- .byte 196,65,12,92,218 // vsubps %ymm10,%ymm14,%ymm11
- .byte 196,65,20,89,219 // vmulps %ymm11,%ymm13,%ymm11
- .byte 196,65,36,94,217 // vdivps %ymm9,%ymm11,%ymm11
- .byte 196,65,44,88,219 // vaddps %ymm11,%ymm10,%ymm11
- .byte 196,67,13,74,219,240 // vblendvps %ymm15,%ymm11,%ymm14,%ymm11
- .byte 196,65,108,92,242 // vsubps %ymm10,%ymm2,%ymm14
- .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,65,20,94,201 // vdivps %ymm9,%ymm13,%ymm9
- .byte 196,65,44,88,201 // vaddps %ymm9,%ymm10,%ymm9
- .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,65,36,95,208 // vmaxps %ymm8,%ymm11,%ymm10
- .byte 196,195,109,74,209,240 // vblendvps %ymm15,%ymm9,%ymm2,%ymm2
- .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,223,173,2,0 // vbroadcastss 0x2addf(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,207 // vsubps %ymm7,%ymm8,%ymm9
- .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
- .byte 197,60,92,195 // vsubps %ymm3,%ymm8,%ymm8
- .byte 197,60,89,220 // vmulps %ymm4,%ymm8,%ymm11
- .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
- .byte 197,180,89,76,36,168 // vmulps -0x58(%rsp),%ymm9,%ymm1
- .byte 197,60,89,221 // vmulps %ymm5,%ymm8,%ymm11
- .byte 197,164,88,201 // vaddps %ymm1,%ymm11,%ymm1
- .byte 196,193,116,88,202 // vaddps %ymm10,%ymm1,%ymm1
- .byte 197,52,89,76,36,200 // vmulps -0x38(%rsp),%ymm9,%ymm9
- .byte 197,60,89,198 // vmulps %ymm6,%ymm8,%ymm8
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 197,188,88,210 // vaddps %ymm2,%ymm8,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_color_avx
-.globl _sk_color_avx
-FUNCTION(_sk_color_avx)
-_sk_color_avx:
- .byte 197,252,17,84,36,136 // vmovups %ymm2,-0x78(%rsp)
- .byte 197,252,17,76,36,200 // vmovups %ymm1,-0x38(%rsp)
- .byte 197,252,17,68,36,168 // vmovups %ymm0,-0x58(%rsp)
- .byte 197,124,89,199 // vmulps %ymm7,%ymm0,%ymm8
- .byte 197,116,89,207 // vmulps %ymm7,%ymm1,%ymm9
- .byte 196,98,125,24,45,145,173,2,0 // vbroadcastss 0x2ad91(%rip),%ymm13 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,65,92,89,213 // vmulps %ymm13,%ymm4,%ymm10
- .byte 196,98,125,24,53,135,173,2,0 // vbroadcastss 0x2ad87(%rip),%ymm14 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- .byte 196,65,84,89,222 // vmulps %ymm14,%ymm5,%ymm11
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,120,173,2,0 // vbroadcastss 0x2ad78(%rip),%ymm15 # 3c524 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- .byte 196,65,76,89,223 // vmulps %ymm15,%ymm6,%ymm11
- .byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
- .byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
- .byte 196,65,52,89,230 // vmulps %ymm14,%ymm9,%ymm12
- .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 197,108,89,231 // vmulps %ymm7,%ymm2,%ymm12
- .byte 196,65,28,89,215 // vmulps %ymm15,%ymm12,%ymm10
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 197,60,88,192 // vaddps %ymm0,%ymm8,%ymm8
- .byte 197,52,88,208 // vaddps %ymm0,%ymm9,%ymm10
- .byte 197,28,88,216 // vaddps %ymm0,%ymm12,%ymm11
- .byte 196,193,44,93,195 // vminps %ymm11,%ymm10,%ymm0
- .byte 197,60,93,224 // vminps %ymm0,%ymm8,%ymm12
- .byte 196,193,60,89,197 // vmulps %ymm13,%ymm8,%ymm0
- .byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
- .byte 196,193,124,88,193 // vaddps %ymm9,%ymm0,%ymm0
- .byte 196,65,36,89,207 // vmulps %ymm15,%ymm11,%ymm9
- .byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,193,60,92,193 // vsubps %ymm9,%ymm8,%ymm0
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,65,52,92,236 // vsubps %ymm12,%ymm9,%ymm13
- .byte 196,193,124,94,197 // vdivps %ymm13,%ymm0,%ymm0
- .byte 196,65,44,92,241 // vsubps %ymm9,%ymm10,%ymm14
- .byte 196,65,52,89,246 // vmulps %ymm14,%ymm9,%ymm14
- .byte 196,65,12,94,245 // vdivps %ymm13,%ymm14,%ymm14
- .byte 196,65,36,92,249 // vsubps %ymm9,%ymm11,%ymm15
- .byte 196,65,52,89,255 // vmulps %ymm15,%ymm9,%ymm15
- .byte 196,65,4,94,237 // vdivps %ymm13,%ymm15,%ymm13
- .byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
- .byte 196,65,4,194,228,2 // vcmpleps %ymm12,%ymm15,%ymm12
- .byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,67,13,74,242,192 // vblendvps %ymm12,%ymm10,%ymm14,%ymm14
- .byte 196,65,44,95,211 // vmaxps %ymm11,%ymm10,%ymm10
- .byte 196,65,52,88,237 // vaddps %ymm13,%ymm9,%ymm13
- .byte 196,67,21,74,219,192 // vblendvps %ymm12,%ymm11,%ymm13,%ymm11
- .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
- .byte 196,195,125,74,200,192 // vblendvps %ymm12,%ymm8,%ymm0,%ymm1
- .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12
- .byte 196,65,60,95,194 // vmaxps %ymm10,%ymm8,%ymm8
- .byte 196,65,116,92,209 // vsubps %ymm9,%ymm1,%ymm10
- .byte 196,65,28,92,233 // vsubps %ymm9,%ymm12,%ymm13
- .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10
- .byte 196,193,28,194,192,1 // vcmpltps %ymm8,%ymm12,%ymm0
- .byte 196,65,60,92,193 // vsubps %ymm9,%ymm8,%ymm8
- .byte 196,65,44,94,208 // vdivps %ymm8,%ymm10,%ymm10
- .byte 196,65,52,88,210 // vaddps %ymm10,%ymm9,%ymm10
- .byte 196,195,117,74,202,0 // vblendvps %ymm0,%ymm10,%ymm1,%ymm1
- .byte 196,65,12,92,209 // vsubps %ymm9,%ymm14,%ymm10
- .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10
- .byte 196,65,44,94,208 // vdivps %ymm8,%ymm10,%ymm10
- .byte 196,65,52,88,210 // vaddps %ymm10,%ymm9,%ymm10
- .byte 196,67,13,74,210,0 // vblendvps %ymm0,%ymm10,%ymm14,%ymm10
- .byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14
- .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,65,20,94,192 // vdivps %ymm8,%ymm13,%ymm8
- .byte 196,65,52,88,192 // vaddps %ymm8,%ymm9,%ymm8
- .byte 196,193,116,95,207 // vmaxps %ymm15,%ymm1,%ymm1
- .byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
- .byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
- .byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,19,172,2,0 // vbroadcastss 0x2ac13(%rip),%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
- .byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
- .byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
- .byte 197,164,89,196 // vmulps %ymm4,%ymm11,%ymm0
- .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
- .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 197,172,89,76,36,200 // vmulps -0x38(%rsp),%ymm10,%ymm1
- .byte 197,164,89,213 // vmulps %ymm5,%ymm11,%ymm2
- .byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1
- .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
- .byte 197,172,89,84,36,136 // vmulps -0x78(%rsp),%ymm10,%ymm2
- .byte 197,36,89,206 // vmulps %ymm6,%ymm11,%ymm9
- .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2
- .byte 196,193,108,88,208 // vaddps %ymm8,%ymm2,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_luminosity_avx
-.globl _sk_luminosity_avx
-FUNCTION(_sk_luminosity_avx)
-_sk_luminosity_avx:
- .byte 197,124,40,226 // vmovaps %ymm2,%ymm12
- .byte 197,124,17,100,36,168 // vmovups %ymm12,-0x58(%rsp)
- .byte 197,252,17,76,36,200 // vmovups %ymm1,-0x38(%rsp)
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 197,100,89,196 // vmulps %ymm4,%ymm3,%ymm8
- .byte 197,100,89,205 // vmulps %ymm5,%ymm3,%ymm9
- .byte 196,98,125,24,45,193,171,2,0 // vbroadcastss 0x2abc1(%rip),%ymm13 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,65,108,89,213 // vmulps %ymm13,%ymm2,%ymm10
- .byte 196,98,125,24,53,183,171,2,0 // vbroadcastss 0x2abb7(%rip),%ymm14 # 3c520 <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- .byte 196,65,116,89,222 // vmulps %ymm14,%ymm1,%ymm11
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,61,168,171,2,0 // vbroadcastss 0x2aba8(%rip),%ymm15 # 3c524 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- .byte 196,65,28,89,223 // vmulps %ymm15,%ymm12,%ymm11
- .byte 196,193,44,88,195 // vaddps %ymm11,%ymm10,%ymm0
- .byte 196,65,60,89,221 // vmulps %ymm13,%ymm8,%ymm11
- .byte 196,65,52,89,230 // vmulps %ymm14,%ymm9,%ymm12
- .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 197,100,89,230 // vmulps %ymm6,%ymm3,%ymm12
- .byte 196,65,28,89,215 // vmulps %ymm15,%ymm12,%ymm10
- .byte 196,65,36,88,210 // vaddps %ymm10,%ymm11,%ymm10
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 197,60,88,192 // vaddps %ymm0,%ymm8,%ymm8
- .byte 197,52,88,208 // vaddps %ymm0,%ymm9,%ymm10
- .byte 197,28,88,216 // vaddps %ymm0,%ymm12,%ymm11
- .byte 196,193,44,93,195 // vminps %ymm11,%ymm10,%ymm0
- .byte 197,60,93,224 // vminps %ymm0,%ymm8,%ymm12
- .byte 196,193,60,89,197 // vmulps %ymm13,%ymm8,%ymm0
- .byte 196,65,44,89,206 // vmulps %ymm14,%ymm10,%ymm9
- .byte 196,193,124,88,193 // vaddps %ymm9,%ymm0,%ymm0
- .byte 196,65,36,89,207 // vmulps %ymm15,%ymm11,%ymm9
- .byte 197,52,88,200 // vaddps %ymm0,%ymm9,%ymm9
- .byte 196,193,60,92,193 // vsubps %ymm9,%ymm8,%ymm0
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 196,65,52,92,236 // vsubps %ymm12,%ymm9,%ymm13
- .byte 196,193,124,94,197 // vdivps %ymm13,%ymm0,%ymm0
- .byte 196,65,44,92,241 // vsubps %ymm9,%ymm10,%ymm14
- .byte 196,65,52,89,246 // vmulps %ymm14,%ymm9,%ymm14
- .byte 196,65,12,94,245 // vdivps %ymm13,%ymm14,%ymm14
- .byte 196,65,36,92,249 // vsubps %ymm9,%ymm11,%ymm15
- .byte 196,65,52,89,255 // vmulps %ymm15,%ymm9,%ymm15
- .byte 196,65,4,94,237 // vdivps %ymm13,%ymm15,%ymm13
- .byte 196,65,4,87,255 // vxorps %ymm15,%ymm15,%ymm15
- .byte 196,65,4,194,228,2 // vcmpleps %ymm12,%ymm15,%ymm12
- .byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,67,13,74,242,192 // vblendvps %ymm12,%ymm10,%ymm14,%ymm14
- .byte 196,65,44,95,211 // vmaxps %ymm11,%ymm10,%ymm10
- .byte 196,65,52,88,237 // vaddps %ymm13,%ymm9,%ymm13
- .byte 196,67,21,74,219,192 // vblendvps %ymm12,%ymm11,%ymm13,%ymm11
- .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
- .byte 196,195,125,74,200,192 // vblendvps %ymm12,%ymm8,%ymm0,%ymm1
- .byte 197,100,89,231 // vmulps %ymm7,%ymm3,%ymm12
- .byte 196,65,60,95,194 // vmaxps %ymm10,%ymm8,%ymm8
- .byte 196,65,116,92,209 // vsubps %ymm9,%ymm1,%ymm10
- .byte 196,65,28,92,233 // vsubps %ymm9,%ymm12,%ymm13
- .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10
- .byte 196,193,28,194,192,1 // vcmpltps %ymm8,%ymm12,%ymm0
- .byte 196,65,60,92,193 // vsubps %ymm9,%ymm8,%ymm8
- .byte 196,65,44,94,208 // vdivps %ymm8,%ymm10,%ymm10
- .byte 196,65,52,88,210 // vaddps %ymm10,%ymm9,%ymm10
- .byte 196,195,117,74,202,0 // vblendvps %ymm0,%ymm10,%ymm1,%ymm1
- .byte 196,65,12,92,209 // vsubps %ymm9,%ymm14,%ymm10
- .byte 196,65,20,89,210 // vmulps %ymm10,%ymm13,%ymm10
- .byte 196,65,44,94,208 // vdivps %ymm8,%ymm10,%ymm10
- .byte 196,65,52,88,210 // vaddps %ymm10,%ymm9,%ymm10
- .byte 196,67,13,74,210,0 // vblendvps %ymm0,%ymm10,%ymm14,%ymm10
- .byte 196,65,36,92,241 // vsubps %ymm9,%ymm11,%ymm14
- .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,65,20,94,192 // vdivps %ymm8,%ymm13,%ymm8
- .byte 196,65,52,88,192 // vaddps %ymm8,%ymm9,%ymm8
- .byte 196,193,116,95,207 // vmaxps %ymm15,%ymm1,%ymm1
- .byte 196,65,44,95,207 // vmaxps %ymm15,%ymm10,%ymm9
- .byte 196,195,37,74,192,0 // vblendvps %ymm0,%ymm8,%ymm11,%ymm0
- .byte 196,65,124,95,199 // vmaxps %ymm15,%ymm0,%ymm8
- .byte 196,226,125,24,5,67,170,2,0 // vbroadcastss 0x2aa43(%rip),%ymm0 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,124,92,215 // vsubps %ymm7,%ymm0,%ymm10
- .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
- .byte 197,124,92,219 // vsubps %ymm3,%ymm0,%ymm11
- .byte 197,164,89,196 // vmulps %ymm4,%ymm11,%ymm0
- .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
- .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 197,172,89,76,36,200 // vmulps -0x38(%rsp),%ymm10,%ymm1
- .byte 197,164,89,213 // vmulps %ymm5,%ymm11,%ymm2
- .byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1
- .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
- .byte 197,172,89,84,36,168 // vmulps -0x58(%rsp),%ymm10,%ymm2
- .byte 197,36,89,206 // vmulps %ymm6,%ymm11,%ymm9
- .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2
- .byte 196,193,108,88,208 // vaddps %ymm8,%ymm2,%ymm2
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,92,220 // vsubps %ymm12,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_rgba_8888_avx
-.globl _sk_srcover_rgba_8888_avx
-FUNCTION(_sk_srcover_rgba_8888_avx)
-_sk_srcover_rgba_8888_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,87,1,0,0 // jne 11c75 <_sk_srcover_rgba_8888_avx+0x171>
- .byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
- .byte 197,125,40,5,180,175,2,0 // vmovapd 0x2afb4(%rip),%ymm8 # 3cae0 <_sk_srcover_bgra_8888_sse2_lowp+0x894>
- .byte 196,193,53,84,224 // vandpd %ymm8,%ymm9,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
- .byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
- .byte 197,201,114,215,8 // vpsrld $0x8,%xmm7,%xmm6
- .byte 196,227,85,24,238,1 // vinsertf128 $0x1,%xmm6,%ymm5,%ymm5
- .byte 196,193,85,84,232 // vandpd %ymm8,%ymm5,%ymm5
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,193,41,114,209,16 // vpsrld $0x10,%xmm9,%xmm10
- .byte 197,201,114,215,16 // vpsrld $0x10,%xmm7,%xmm6
- .byte 196,227,45,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm10,%ymm6
- .byte 196,193,77,84,240 // vandpd %ymm8,%ymm6,%ymm6
- .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,193,49,114,209,24 // vpsrld $0x18,%xmm9,%xmm9
- .byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
- .byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,106,169,2,0 // vbroadcastss 0x2a96a(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,52,92,211 // vsubps %ymm3,%ymm9,%ymm10
- .byte 196,98,125,24,13,137,169,2,0 // vbroadcastss 0x2a989(%rip),%ymm9 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,44,89,220 // vmulps %ymm4,%ymm10,%ymm11
- .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 197,44,89,221 // vmulps %ymm5,%ymm10,%ymm11
- .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 197,44,89,222 // vmulps %ymm6,%ymm10,%ymm11
- .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
- .byte 197,44,89,215 // vmulps %ymm7,%ymm10,%ymm10
- .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 197,60,95,208 // vmaxps %ymm0,%ymm8,%ymm10
- .byte 196,65,44,93,209 // vminps %ymm9,%ymm10,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11
- .byte 196,65,36,93,217 // vminps %ymm9,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,25,114,243,8 // vpslld $0x8,%xmm11,%xmm12
- .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
- .byte 196,193,33,114,243,8 // vpslld $0x8,%xmm11,%xmm11
- .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
- .byte 196,65,37,86,210 // vorpd %ymm10,%ymm11,%ymm10
- .byte 197,60,95,218 // vmaxps %ymm2,%ymm8,%ymm11
- .byte 196,65,36,93,217 // vminps %ymm9,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,25,114,243,16 // vpslld $0x10,%xmm11,%xmm12
- .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
- .byte 196,193,33,114,243,16 // vpslld $0x10,%xmm11,%xmm11
- .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,49,114,240,24 // vpslld $0x18,%xmm8,%xmm9
- .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8
- .byte 196,193,57,114,240,24 // vpslld $0x18,%xmm8,%xmm8
- .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,65,37,86,192 // vorpd %ymm8,%ymm11,%ymm8
- .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,59 // jne 11ca6 <_sk_srcover_rgba_8888_avx+0x1a2>
- .byte 196,65,124,17,4,144 // vmovups %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,156,254,255,255 // ja 11b24 <_sk_srcover_rgba_8888_avx+0x20>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,254,0,0,0 // lea 0xfe(%rip),%r9 # 11d90 <_sk_srcover_rgba_8888_avx+0x28c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
- .byte 233,126,254,255,255 // jmpq 11b24 <_sk_srcover_rgba_8888_avx+0x20>
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,193 // ja 11c71 <_sk_srcover_rgba_8888_avx+0x16d>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 11dac <_sk_srcover_rgba_8888_avx+0x2a8>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,166 // jmp 11c71 <_sk_srcover_rgba_8888_avx+0x16d>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
- .byte 196,193,123,16,36,144 // vmovsd (%r8,%rdx,4),%xmm4
- .byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,50,254,255,255 // jmpq 11b24 <_sk_srcover_rgba_8888_avx+0x20>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
- .byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,99,85,12,204,64 // vblendps $0x40,%ymm4,%ymm5,%ymm9
- .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- .byte 196,193,121,16,36,144 // vmovupd (%r8,%rdx,4),%xmm4
- .byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,221,253,255,255 // jmpq 11b24 <_sk_srcover_rgba_8888_avx+0x20>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,23,255,255,255 // jmpq 11c71 <_sk_srcover_rgba_8888_avx+0x16d>
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,121,17,4,144 // vmovupd %xmm8,(%r8,%rdx,4)
- .byte 233,227,254,255,255 // jmpq 11c71 <_sk_srcover_rgba_8888_avx+0x16d>
- .byte 102,144 // xchg %ax,%ax
- .byte 11,255 // or %edi,%edi
- .byte 255 // (bad)
- .byte 255,81,255 // callq *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 59,255 // cmp %edi,%edi
- .byte 255 // (bad)
- .byte 255,166,255,255,255,146 // jmpq *-0x6d000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 126,255 // jle 11da5 <_sk_srcover_rgba_8888_avx+0x2a1>
- .byte 255 // (bad)
- .byte 255,98,255 // jmpq *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,23 // callq *(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,163,255,255,255,155 // jmpq *-0x64000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,215 // callq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,202 // dec %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 188,255,255,255,174 // mov $0xaeffffff,%esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_srcover_bgra_8888_avx
-.globl _sk_srcover_bgra_8888_avx
-FUNCTION(_sk_srcover_bgra_8888_avx)
-_sk_srcover_bgra_8888_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,87,1,0,0 // jne 11f39 <_sk_srcover_bgra_8888_avx+0x171>
- .byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
- .byte 197,125,40,5,16,173,2,0 // vmovapd 0x2ad10(%rip),%ymm8 # 3cb00 <_sk_srcover_bgra_8888_sse2_lowp+0x8b4>
- .byte 196,193,53,84,232 // vandpd %ymm8,%ymm9,%ymm5
- .byte 197,252,91,245 // vcvtdq2ps %ymm5,%ymm6
- .byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
- .byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
- .byte 197,217,114,215,8 // vpsrld $0x8,%xmm7,%xmm4
- .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 196,193,93,84,224 // vandpd %ymm8,%ymm4,%ymm4
- .byte 197,252,91,236 // vcvtdq2ps %ymm4,%ymm5
- .byte 196,193,41,114,209,16 // vpsrld $0x10,%xmm9,%xmm10
- .byte 197,217,114,215,16 // vpsrld $0x10,%xmm7,%xmm4
- .byte 196,227,45,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm10,%ymm4
- .byte 196,193,93,84,224 // vandpd %ymm8,%ymm4,%ymm4
- .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,193,49,114,209,24 // vpsrld $0x18,%xmm9,%xmm9
- .byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
- .byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,13,166,166,2,0 // vbroadcastss 0x2a6a6(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,52,92,211 // vsubps %ymm3,%ymm9,%ymm10
- .byte 196,98,125,24,13,197,166,2,0 // vbroadcastss 0x2a6c5(%rip),%ymm9 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,44,89,220 // vmulps %ymm4,%ymm10,%ymm11
- .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 197,44,89,221 // vmulps %ymm5,%ymm10,%ymm11
- .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 197,44,89,222 // vmulps %ymm6,%ymm10,%ymm11
- .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
- .byte 197,44,89,215 // vmulps %ymm7,%ymm10,%ymm10
- .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 197,60,95,210 // vmaxps %ymm2,%ymm8,%ymm10
- .byte 196,65,44,93,209 // vminps %ymm9,%ymm10,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 197,60,95,217 // vmaxps %ymm1,%ymm8,%ymm11
- .byte 196,65,36,93,217 // vminps %ymm9,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,25,114,243,8 // vpslld $0x8,%xmm11,%xmm12
- .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
- .byte 196,193,33,114,243,8 // vpslld $0x8,%xmm11,%xmm11
- .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
- .byte 196,65,37,86,210 // vorpd %ymm10,%ymm11,%ymm10
- .byte 197,60,95,216 // vmaxps %ymm0,%ymm8,%ymm11
- .byte 196,65,36,93,217 // vminps %ymm9,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,25,114,243,16 // vpslld $0x10,%xmm11,%xmm12
- .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
- .byte 196,193,33,114,243,16 // vpslld $0x10,%xmm11,%xmm11
- .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,49,114,240,24 // vpslld $0x18,%xmm8,%xmm9
- .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8
- .byte 196,193,57,114,240,24 // vpslld $0x18,%xmm8,%xmm8
- .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,65,37,86,192 // vorpd %ymm8,%ymm11,%ymm8
- .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,59 // jne 11f6a <_sk_srcover_bgra_8888_avx+0x1a2>
- .byte 196,65,124,17,4,144 // vmovups %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,156,254,255,255 // ja 11de8 <_sk_srcover_bgra_8888_avx+0x20>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,254,0,0,0 // lea 0xfe(%rip),%r9 # 12054 <_sk_srcover_bgra_8888_avx+0x28c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
- .byte 233,126,254,255,255 // jmpq 11de8 <_sk_srcover_bgra_8888_avx+0x20>
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,193 // ja 11f35 <_sk_srcover_bgra_8888_avx+0x16d>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 12070 <_sk_srcover_bgra_8888_avx+0x2a8>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,166 // jmp 11f35 <_sk_srcover_bgra_8888_avx+0x16d>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
- .byte 196,193,123,16,36,144 // vmovsd (%r8,%rdx,4),%xmm4
- .byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,50,254,255,255 // jmpq 11de8 <_sk_srcover_bgra_8888_avx+0x20>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
- .byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,99,85,12,204,64 // vblendps $0x40,%ymm4,%ymm5,%ymm9
- .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- .byte 196,193,121,16,36,144 // vmovupd (%r8,%rdx,4),%xmm4
- .byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,221,253,255,255 // jmpq 11de8 <_sk_srcover_bgra_8888_avx+0x20>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,23,255,255,255 // jmpq 11f35 <_sk_srcover_bgra_8888_avx+0x16d>
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,121,17,4,144 // vmovupd %xmm8,(%r8,%rdx,4)
- .byte 233,227,254,255,255 // jmpq 11f35 <_sk_srcover_bgra_8888_avx+0x16d>
- .byte 102,144 // xchg %ax,%ax
- .byte 11,255 // or %edi,%edi
- .byte 255 // (bad)
- .byte 255,81,255 // callq *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 59,255 // cmp %edi,%edi
- .byte 255 // (bad)
- .byte 255,166,255,255,255,146 // jmpq *-0x6d000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 126,255 // jle 12069 <_sk_srcover_bgra_8888_avx+0x2a1>
- .byte 255 // (bad)
- .byte 255,98,255 // jmpq *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,23 // callq *(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,163,255,255,255,155 // jmpq *-0x64000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,215 // callq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,202 // dec %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 188,255,255,255,174 // mov $0xaeffffff,%esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_clamp_0_avx
-.globl _sk_clamp_0_avx
-FUNCTION(_sk_clamp_0_avx)
-_sk_clamp_0_avx:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,193,108,95,208 // vmaxps %ymm8,%ymm2,%ymm2
- .byte 196,193,100,95,216 // vmaxps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_1_avx
-.globl _sk_clamp_1_avx
-FUNCTION(_sk_clamp_1_avx)
-_sk_clamp_1_avx:
- .byte 196,98,125,24,5,74,164,2,0 // vbroadcastss 0x2a44a(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
- .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_avx
-.globl _sk_clamp_a_avx
-FUNCTION(_sk_clamp_a_avx)
-_sk_clamp_a_avx:
- .byte 196,98,125,24,5,41,164,2,0 // vbroadcastss 0x2a429(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
- .byte 197,252,93,195 // vminps %ymm3,%ymm0,%ymm0
- .byte 197,244,93,203 // vminps %ymm3,%ymm1,%ymm1
- .byte 197,236,93,211 // vminps %ymm3,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_dst_avx
-.globl _sk_clamp_a_dst_avx
-FUNCTION(_sk_clamp_a_dst_avx)
-_sk_clamp_a_dst_avx:
- .byte 196,98,125,24,5,11,164,2,0 // vbroadcastss 0x2a40b(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,68,93,248 // vminps %ymm8,%ymm7,%ymm7
- .byte 197,220,93,231 // vminps %ymm7,%ymm4,%ymm4
- .byte 197,212,93,239 // vminps %ymm7,%ymm5,%ymm5
- .byte 197,204,93,247 // vminps %ymm7,%ymm6,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_set_rgb_avx
-.globl _sk_set_rgb_avx
-FUNCTION(_sk_set_rgb_avx)
-_sk_set_rgb_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,0 // vbroadcastss (%rax),%ymm0
- .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1
- .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_swap_rb_avx
-.globl _sk_swap_rb_avx
-FUNCTION(_sk_swap_rb_avx)
-_sk_swap_rb_avx:
- .byte 197,124,40,192 // vmovaps %ymm0,%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,194 // vmovaps %ymm2,%ymm0
- .byte 197,124,41,194 // vmovaps %ymm8,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_invert_avx
-.globl _sk_invert_avx
-FUNCTION(_sk_invert_avx)
-_sk_invert_avx:
- .byte 196,98,125,24,5,198,163,2,0 // vbroadcastss 0x2a3c6(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 197,188,92,201 // vsubps %ymm1,%ymm8,%ymm1
- .byte 197,188,92,210 // vsubps %ymm2,%ymm8,%ymm2
- .byte 197,188,92,219 // vsubps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_src_dst_avx
-.globl _sk_move_src_dst_avx
-FUNCTION(_sk_move_src_dst_avx)
-_sk_move_src_dst_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 197,252,40,233 // vmovaps %ymm1,%ymm5
- .byte 197,252,40,242 // vmovaps %ymm2,%ymm6
- .byte 197,252,40,251 // vmovaps %ymm3,%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_dst_src_avx
-.globl _sk_move_dst_src_avx
-FUNCTION(_sk_move_dst_src_avx)
-_sk_move_dst_src_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,196 // vmovaps %ymm4,%ymm0
- .byte 197,252,40,205 // vmovaps %ymm5,%ymm1
- .byte 197,252,40,214 // vmovaps %ymm6,%ymm2
- .byte 197,252,40,223 // vmovaps %ymm7,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_avx
-.globl _sk_premul_avx
-FUNCTION(_sk_premul_avx)
-_sk_premul_avx:
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_dst_avx
-.globl _sk_premul_dst_avx
-FUNCTION(_sk_premul_dst_avx)
-_sk_premul_dst_avx:
- .byte 197,220,89,231 // vmulps %ymm7,%ymm4,%ymm4
- .byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_unpremul_avx
-.globl _sk_unpremul_avx
-FUNCTION(_sk_unpremul_avx)
-_sk_unpremul_avx:
- .byte 196,98,125,24,5,97,163,2,0 // vbroadcastss 0x2a361(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,94,195 // vdivps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,132,163,2,0 // vbroadcastss 0x2a384(%rip),%ymm9 # 3c52c <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
- .byte 196,65,60,194,201,1 // vcmpltps %ymm9,%ymm8,%ymm9
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,67,45,74,192,144 // vblendvps %ymm9,%ymm8,%ymm10,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_avx
-.globl _sk_force_opaque_avx
-FUNCTION(_sk_force_opaque_avx)
-_sk_force_opaque_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,40,163,2,0 // vbroadcastss 0x2a328(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_dst_avx
-.globl _sk_force_opaque_dst_avx
-FUNCTION(_sk_force_opaque_dst_avx)
-_sk_force_opaque_dst_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,27,163,2,0 // vbroadcastss 0x2a31b(%rip),%ymm7 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_from_srgb_avx
-.globl _sk_from_srgb_avx
-FUNCTION(_sk_from_srgb_avx)
-_sk_from_srgb_avx:
- .byte 196,98,125,24,5,68,163,2,0 // vbroadcastss 0x2a344(%rip),%ymm8 # 3c530 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
- .byte 196,65,124,89,200 // vmulps %ymm8,%ymm0,%ymm9
- .byte 197,124,89,208 // vmulps %ymm0,%ymm0,%ymm10
- .byte 196,98,125,24,29,30,163,2,0 // vbroadcastss 0x2a31e(%rip),%ymm11 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,65,124,89,227 // vmulps %ymm11,%ymm0,%ymm12
- .byte 196,98,125,24,45,40,163,2,0 // vbroadcastss 0x2a328(%rip),%ymm13 # 3c534 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
- .byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,25,163,2,0 // vbroadcastss 0x2a319(%rip),%ymm12 # 3c538 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
- .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,15,163,2,0 // vbroadcastss 0x2a30f(%rip),%ymm14 # 3c53c <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
- .byte 196,193,124,194,198,1 // vcmpltps %ymm14,%ymm0,%ymm0
- .byte 196,195,45,74,193,0 // vblendvps %ymm0,%ymm9,%ymm10,%ymm0
- .byte 196,65,116,89,200 // vmulps %ymm8,%ymm1,%ymm9
- .byte 197,116,89,209 // vmulps %ymm1,%ymm1,%ymm10
- .byte 196,65,116,89,251 // vmulps %ymm11,%ymm1,%ymm15
- .byte 196,65,4,88,253 // vaddps %ymm13,%ymm15,%ymm15
- .byte 196,65,44,89,215 // vmulps %ymm15,%ymm10,%ymm10
- .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,193,116,194,206,1 // vcmpltps %ymm14,%ymm1,%ymm1
- .byte 196,195,45,74,201,16 // vblendvps %ymm1,%ymm9,%ymm10,%ymm1
- .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
- .byte 197,108,89,202 // vmulps %ymm2,%ymm2,%ymm9
- .byte 196,65,108,89,211 // vmulps %ymm11,%ymm2,%ymm10
- .byte 196,65,44,88,213 // vaddps %ymm13,%ymm10,%ymm10
- .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,65,52,88,204 // vaddps %ymm12,%ymm9,%ymm9
- .byte 196,193,108,194,214,1 // vcmpltps %ymm14,%ymm2,%ymm2
- .byte 196,195,53,74,208,32 // vblendvps %ymm2,%ymm8,%ymm9,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_from_srgb_dst_avx
-.globl _sk_from_srgb_dst_avx
-FUNCTION(_sk_from_srgb_dst_avx)
-_sk_from_srgb_dst_avx:
- .byte 196,98,125,24,5,152,162,2,0 // vbroadcastss 0x2a298(%rip),%ymm8 # 3c530 <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
- .byte 196,65,92,89,200 // vmulps %ymm8,%ymm4,%ymm9
- .byte 197,92,89,212 // vmulps %ymm4,%ymm4,%ymm10
- .byte 196,98,125,24,29,114,162,2,0 // vbroadcastss 0x2a272(%rip),%ymm11 # 3c51c <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- .byte 196,65,92,89,227 // vmulps %ymm11,%ymm4,%ymm12
- .byte 196,98,125,24,45,124,162,2,0 // vbroadcastss 0x2a27c(%rip),%ymm13 # 3c534 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
- .byte 196,65,44,89,212 // vmulps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,37,109,162,2,0 // vbroadcastss 0x2a26d(%rip),%ymm12 # 3c538 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
- .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,98,125,24,53,99,162,2,0 // vbroadcastss 0x2a263(%rip),%ymm14 # 3c53c <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
- .byte 196,193,92,194,230,1 // vcmpltps %ymm14,%ymm4,%ymm4
- .byte 196,195,45,74,225,64 // vblendvps %ymm4,%ymm9,%ymm10,%ymm4
- .byte 196,65,84,89,200 // vmulps %ymm8,%ymm5,%ymm9
- .byte 197,84,89,213 // vmulps %ymm5,%ymm5,%ymm10
- .byte 196,65,84,89,251 // vmulps %ymm11,%ymm5,%ymm15
- .byte 196,65,4,88,253 // vaddps %ymm13,%ymm15,%ymm15
- .byte 196,65,44,89,215 // vmulps %ymm15,%ymm10,%ymm10
- .byte 196,65,44,88,212 // vaddps %ymm12,%ymm10,%ymm10
- .byte 196,193,84,194,238,1 // vcmpltps %ymm14,%ymm5,%ymm5
- .byte 196,195,45,74,233,80 // vblendvps %ymm5,%ymm9,%ymm10,%ymm5
- .byte 196,65,76,89,192 // vmulps %ymm8,%ymm6,%ymm8
- .byte 197,76,89,206 // vmulps %ymm6,%ymm6,%ymm9
- .byte 196,65,76,89,211 // vmulps %ymm11,%ymm6,%ymm10
- .byte 196,65,44,88,213 // vaddps %ymm13,%ymm10,%ymm10
- .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,65,52,88,204 // vaddps %ymm12,%ymm9,%ymm9
- .byte 196,193,76,194,246,1 // vcmpltps %ymm14,%ymm6,%ymm6
- .byte 196,195,53,74,240,96 // vblendvps %ymm6,%ymm8,%ymm9,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_to_srgb_avx
-.globl _sk_to_srgb_avx
-FUNCTION(_sk_to_srgb_avx)
-_sk_to_srgb_avx:
- .byte 197,124,82,200 // vrsqrtps %ymm0,%ymm9
- .byte 196,98,125,24,5,248,161,2,0 // vbroadcastss 0x2a1f8(%rip),%ymm8 # 3c540 <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
- .byte 196,65,124,89,208 // vmulps %ymm8,%ymm0,%ymm10
- .byte 196,98,125,24,29,242,161,2,0 // vbroadcastss 0x2a1f2(%rip),%ymm11 # 3c548 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
- .byte 196,65,52,89,227 // vmulps %ymm11,%ymm9,%ymm12
- .byte 196,98,125,24,45,224,161,2,0 // vbroadcastss 0x2a1e0(%rip),%ymm13 # 3c544 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
- .byte 196,65,52,89,228 // vmulps %ymm12,%ymm9,%ymm12
- .byte 196,98,125,24,53,13,163,2,0 // vbroadcastss 0x2a30d(%rip),%ymm14 # 3c684 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- .byte 196,65,28,88,230 // vaddps %ymm14,%ymm12,%ymm12
- .byte 196,98,125,24,61,3,163,2,0 // vbroadcastss 0x2a303(%rip),%ymm15 # 3c688 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
- .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
- .byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
- .byte 196,65,52,89,204 // vmulps %ymm12,%ymm9,%ymm9
- .byte 196,98,125,24,37,183,161,2,0 // vbroadcastss 0x2a1b7(%rip),%ymm12 # 3c554 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
- .byte 196,193,124,194,196,1 // vcmpltps %ymm12,%ymm0,%ymm0
- .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- .byte 197,124,82,201 // vrsqrtps %ymm1,%ymm9
- .byte 196,65,52,89,211 // vmulps %ymm11,%ymm9,%ymm10
- .byte 196,65,44,88,213 // vaddps %ymm13,%ymm10,%ymm10
- .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,65,44,88,214 // vaddps %ymm14,%ymm10,%ymm10
- .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
- .byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
- .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,65,116,89,208 // vmulps %ymm8,%ymm1,%ymm10
- .byte 196,193,116,194,204,1 // vcmpltps %ymm12,%ymm1,%ymm1
- .byte 196,195,53,74,202,16 // vblendvps %ymm1,%ymm10,%ymm9,%ymm1
- .byte 197,124,82,202 // vrsqrtps %ymm2,%ymm9
- .byte 196,65,52,89,211 // vmulps %ymm11,%ymm9,%ymm10
- .byte 196,65,44,88,213 // vaddps %ymm13,%ymm10,%ymm10
- .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,65,44,88,214 // vaddps %ymm14,%ymm10,%ymm10
- .byte 196,65,52,88,207 // vaddps %ymm15,%ymm9,%ymm9
- .byte 196,65,124,83,201 // vrcpps %ymm9,%ymm9
- .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,65,108,89,192 // vmulps %ymm8,%ymm2,%ymm8
- .byte 196,193,108,194,212,1 // vcmpltps %ymm12,%ymm2,%ymm2
- .byte 196,195,53,74,208,32 // vblendvps %ymm2,%ymm8,%ymm9,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_rgb_to_hsl_avx
-.globl _sk_rgb_to_hsl_avx
-FUNCTION(_sk_rgb_to_hsl_avx)
-_sk_rgb_to_hsl_avx:
- .byte 197,116,95,194 // vmaxps %ymm2,%ymm1,%ymm8
- .byte 196,65,124,95,192 // vmaxps %ymm8,%ymm0,%ymm8
- .byte 197,116,93,202 // vminps %ymm2,%ymm1,%ymm9
- .byte 196,65,124,93,201 // vminps %ymm9,%ymm0,%ymm9
- .byte 196,65,60,92,209 // vsubps %ymm9,%ymm8,%ymm10
- .byte 196,98,125,24,29,191,160,2,0 // vbroadcastss 0x2a0bf(%rip),%ymm11 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,36,94,218 // vdivps %ymm10,%ymm11,%ymm11
- .byte 197,116,92,226 // vsubps %ymm2,%ymm1,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 197,116,194,234,1 // vcmpltps %ymm2,%ymm1,%ymm13
- .byte 197,60,194,241,0 // vcmpeqps %ymm1,%ymm8,%ymm14
- .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 196,193,108,89,211 // vmulps %ymm11,%ymm2,%ymm2
- .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,193,116,89,203 // vmulps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,240,160,2,0 // vbroadcastss 0x2a0f0(%rip),%ymm11 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
- .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,29,222,160,2,0 // vbroadcastss 0x2a0de(%rip),%ymm11 # 3c55c <_sk_srcover_bgra_8888_sse2_lowp+0x310>
- .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,227,117,74,202,224 // vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,198,160,2,0 // vbroadcastss 0x2a0c6(%rip),%ymm2 # 3c558 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
- .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
- .byte 196,227,13,74,210,208 // vblendvps %ymm13,%ymm2,%ymm14,%ymm2
- .byte 197,188,194,192,0 // vcmpeqps %ymm0,%ymm8,%ymm0
- .byte 196,193,108,88,212 // vaddps %ymm12,%ymm2,%ymm2
- .byte 196,227,117,74,194,0 // vblendvps %ymm0,%ymm2,%ymm1,%ymm0
- .byte 196,193,60,88,201 // vaddps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,37,61,160,2,0 // vbroadcastss 0x2a03d(%rip),%ymm12 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
- .byte 197,28,194,226,1 // vcmpltps %ymm2,%ymm12,%ymm12
- .byte 196,65,36,92,216 // vsubps %ymm8,%ymm11,%ymm11
- .byte 196,65,36,92,217 // vsubps %ymm9,%ymm11,%ymm11
- .byte 196,195,117,74,203,192 // vblendvps %ymm12,%ymm11,%ymm1,%ymm1
- .byte 196,65,60,194,193,0 // vcmpeqps %ymm9,%ymm8,%ymm8
- .byte 197,172,94,201 // vdivps %ymm1,%ymm10,%ymm1
- .byte 196,195,125,74,198,128 // vblendvps %ymm8,%ymm14,%ymm0,%ymm0
- .byte 196,195,117,74,206,128 // vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- .byte 196,98,125,24,5,112,160,2,0 // vbroadcastss 0x2a070(%rip),%ymm8 # 3c564 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hsl_to_rgb_avx
-.globl _sk_hsl_to_rgb_avx
-FUNCTION(_sk_hsl_to_rgb_avx)
-_sk_hsl_to_rgb_avx:
- .byte 72,131,236,56 // sub $0x38,%rsp
- .byte 197,252,17,60,36 // vmovups %ymm7,(%rsp)
- .byte 197,252,17,116,36,224 // vmovups %ymm6,-0x20(%rsp)
- .byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
- .byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
- .byte 197,252,17,92,36,128 // vmovups %ymm3,-0x80(%rsp)
- .byte 197,252,40,225 // vmovaps %ymm1,%ymm4
- .byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 196,98,125,24,5,201,159,2,0 // vbroadcastss 0x29fc9(%rip),%ymm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,60,194,202,2 // vcmpleps %ymm2,%ymm8,%ymm9
- .byte 197,92,89,210 // vmulps %ymm2,%ymm4,%ymm10
- .byte 196,65,92,92,218 // vsubps %ymm10,%ymm4,%ymm11
- .byte 196,67,45,74,203,144 // vblendvps %ymm9,%ymm11,%ymm10,%ymm9
- .byte 197,52,88,210 // vaddps %ymm2,%ymm9,%ymm10
- .byte 197,108,88,202 // vaddps %ymm2,%ymm2,%ymm9
- .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,15,160,2,0 // vbroadcastss 0x2a00f(%rip),%ymm11 # 3c568 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- .byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11
- .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
- .byte 196,65,36,92,252 // vsubps %ymm12,%ymm11,%ymm15
- .byte 196,65,44,92,217 // vsubps %ymm9,%ymm10,%ymm11
- .byte 196,98,125,24,37,225,159,2,0 // vbroadcastss 0x29fe1(%rip),%ymm12 # 3c558 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
- .byte 196,193,4,89,196 // vmulps %ymm12,%ymm15,%ymm0
- .byte 196,98,125,24,45,219,159,2,0 // vbroadcastss 0x29fdb(%rip),%ymm13 # 3c560 <_sk_srcover_bgra_8888_sse2_lowp+0x314>
- .byte 197,20,92,240 // vsubps %ymm0,%ymm13,%ymm14
- .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
- .byte 196,65,52,88,246 // vaddps %ymm14,%ymm9,%ymm14
- .byte 196,226,125,24,13,208,159,2,0 // vbroadcastss 0x29fd0(%rip),%ymm1 # 3c56c <_sk_srcover_bgra_8888_sse2_lowp+0x320>
- .byte 196,193,116,194,255,2 // vcmpleps %ymm15,%ymm1,%ymm7
- .byte 196,195,13,74,249,112 // vblendvps %ymm7,%ymm9,%ymm14,%ymm7
- .byte 196,65,60,194,247,2 // vcmpleps %ymm15,%ymm8,%ymm14
- .byte 196,227,45,74,255,224 // vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- .byte 196,98,125,24,53,167,159,2,0 // vbroadcastss 0x29fa7(%rip),%ymm14 # 3c564 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
- .byte 196,65,12,194,255,2 // vcmpleps %ymm15,%ymm14,%ymm15
- .byte 196,193,124,89,195 // vmulps %ymm11,%ymm0,%ymm0
- .byte 197,180,88,192 // vaddps %ymm0,%ymm9,%ymm0
- .byte 196,99,125,74,255,240 // vblendvps %ymm15,%ymm7,%ymm0,%ymm15
- .byte 196,227,125,8,195,1 // vroundps $0x1,%ymm3,%ymm0
- .byte 197,228,92,192 // vsubps %ymm0,%ymm3,%ymm0
- .byte 196,193,124,89,252 // vmulps %ymm12,%ymm0,%ymm7
- .byte 197,148,92,247 // vsubps %ymm7,%ymm13,%ymm6
- .byte 197,164,89,246 // vmulps %ymm6,%ymm11,%ymm6
- .byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
- .byte 197,244,194,232,2 // vcmpleps %ymm0,%ymm1,%ymm5
- .byte 196,195,77,74,233,80 // vblendvps %ymm5,%ymm9,%ymm6,%ymm5
- .byte 197,188,194,240,2 // vcmpleps %ymm0,%ymm8,%ymm6
- .byte 196,227,45,74,237,96 // vblendvps %ymm6,%ymm5,%ymm10,%ymm5
- .byte 197,140,194,192,2 // vcmpleps %ymm0,%ymm14,%ymm0
- .byte 197,164,89,247 // vmulps %ymm7,%ymm11,%ymm6
- .byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
- .byte 196,227,77,74,237,0 // vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- .byte 196,226,125,24,5,81,159,2,0 // vbroadcastss 0x29f51(%rip),%ymm0 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 197,228,88,192 // vaddps %ymm0,%ymm3,%ymm0
- .byte 196,227,125,8,216,1 // vroundps $0x1,%ymm0,%ymm3
- .byte 197,252,92,195 // vsubps %ymm3,%ymm0,%ymm0
- .byte 197,244,194,200,2 // vcmpleps %ymm0,%ymm1,%ymm1
- .byte 196,193,124,89,220 // vmulps %ymm12,%ymm0,%ymm3
- .byte 197,148,92,243 // vsubps %ymm3,%ymm13,%ymm6
- .byte 197,164,89,246 // vmulps %ymm6,%ymm11,%ymm6
- .byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
- .byte 196,195,77,74,201,16 // vblendvps %ymm1,%ymm9,%ymm6,%ymm1
- .byte 197,188,194,240,2 // vcmpleps %ymm0,%ymm8,%ymm6
- .byte 196,227,45,74,201,96 // vblendvps %ymm6,%ymm1,%ymm10,%ymm1
- .byte 197,140,194,192,2 // vcmpleps %ymm0,%ymm14,%ymm0
- .byte 197,164,89,219 // vmulps %ymm3,%ymm11,%ymm3
- .byte 197,180,88,219 // vaddps %ymm3,%ymm9,%ymm3
- .byte 196,227,101,74,217,0 // vblendvps %ymm0,%ymm1,%ymm3,%ymm3
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,220,194,224,0 // vcmpeqps %ymm0,%ymm4,%ymm4
- .byte 196,227,5,74,194,64 // vblendvps %ymm4,%ymm2,%ymm15,%ymm0
- .byte 196,227,85,74,202,64 // vblendvps %ymm4,%ymm2,%ymm5,%ymm1
- .byte 196,227,101,74,210,64 // vblendvps %ymm4,%ymm2,%ymm3,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,92,36,128 // vmovups -0x80(%rsp),%ymm3
- .byte 197,252,16,100,36,160 // vmovups -0x60(%rsp),%ymm4
- .byte 197,252,16,108,36,192 // vmovups -0x40(%rsp),%ymm5
- .byte 197,252,16,116,36,224 // vmovups -0x20(%rsp),%ymm6
- .byte 197,252,16,60,36 // vmovups (%rsp),%ymm7
- .byte 72,131,196,56 // add $0x38,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_1_float_avx
-.globl _sk_scale_1_float_avx
-FUNCTION(_sk_scale_1_float_avx)
-_sk_scale_1_float_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_u8_avx
-.globl _sk_scale_u8_avx
-FUNCTION(_sk_scale_u8_avx)
-_sk_scale_u8_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,75 // jne 1271f <_sk_scale_u8_avx+0x5d>
- .byte 196,66,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm8
- .byte 197,57,219,5,206,167,2,0 // vpand 0x2a7ce(%rip),%xmm8,%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
- .byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
- .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
- .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,110,158,2,0 // vbroadcastss 0x29e6e(%rip),%ymm9 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,188,89,219 // vmulps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,172 // ja 126da <_sk_scale_u8_avx+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,124,0,0,0 // lea 0x7c(%rip),%r9 # 127b4 <_sk_scale_u8_avx+0xf2>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 235,142 // jmp 126da <_sk_scale_u8_avx+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
- .byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,101,255,255,255 // jmpq 126da <_sk_scale_u8_avx+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,57,196,192,5 // vpinsrw $0x5,%eax,%xmm8,%xmm8
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,57,196,192,4 // vpinsrw $0x4,%eax,%xmm8,%xmm8
- .byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
- .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
- .byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,41,255,255,255 // jmpq 126da <_sk_scale_u8_avx+0x18>
- .byte 15,31,0 // nopl (%rax)
- .byte 141 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,152 // ljmp *-0x67000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,193 // inc %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_scale_565_avx
-.globl _sk_scale_565_avx
-FUNCTION(_sk_scale_565_avx)
-_sk_scale_565_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,178,0,0,0 // jne 1289b <_sk_scale_565_avx+0xcb>
- .byte 196,65,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm8
- .byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
- .byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
- .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
- .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,106,157,2,0 // vbroadcastss 0x29d6a(%rip),%ymm9 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
- .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,91,157,2,0 // vbroadcastss 0x29d5b(%rip),%ymm10 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,81,157,2,0 // vbroadcastss 0x29d51(%rip),%ymm10 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
- .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,66,157,2,0 // vbroadcastss 0x29d42(%rip),%ymm11 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,56,157,2,0 // vbroadcastss 0x29d38(%rip),%ymm11 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,41,157,2,0 // vbroadcastss 0x29d29(%rip),%ymm11 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
- .byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
- .byte 196,65,52,93,228 // vminps %ymm12,%ymm9,%ymm12
- .byte 196,65,44,95,232 // vmaxps %ymm8,%ymm10,%ymm13
- .byte 196,65,52,95,237 // vmaxps %ymm13,%ymm9,%ymm13
- .byte 196,67,21,74,220,176 // vblendvps %ymm11,%ymm12,%ymm13,%ymm11
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
- .byte 197,188,89,210 // vmulps %ymm2,%ymm8,%ymm2
- .byte 197,164,89,219 // vmulps %ymm3,%ymm11,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,65,255,255,255 // ja 127ef <_sk_scale_565_avx+0x1f>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,100,0,0,0 // lea 0x64(%rip),%r9 # 1291c <_sk_scale_565_avx+0x14c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,32,255,255,255 // jmpq 127ef <_sk_scale_565_avx+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
- .byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,2,255,255,255 // jmpq 127ef <_sk_scale_565_avx+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,57,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,57,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
- .byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,212,254,255,255 // jmpq 127ef <_sk_scale_565_avx+0x1f>
- .byte 144 // nop
- .byte 165 // movsl %ds:(%rsi),%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,192 // inc %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,179,255,255,255,238 // pushq -0x11000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_1_float_avx
-.globl _sk_lerp_1_float_avx
-FUNCTION(_sk_lerp_1_float_avx)
-_sk_lerp_1_float_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
- .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2
- .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lerp_u8_avx
-.globl _sk_lerp_u8_avx
-FUNCTION(_sk_lerp_u8_avx)
-_sk_lerp_u8_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,111 // jne 129f8 <_sk_lerp_u8_avx+0x81>
- .byte 196,66,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm8
- .byte 197,57,219,5,25,165,2,0 // vpand 0x2a519(%rip),%xmm8,%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
- .byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
- .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
- .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,13,185,155,2,0 // vbroadcastss 0x29bb9(%rip),%ymm9 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
- .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2
- .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,136 // ja 1298f <_sk_lerp_u8_avx+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,127,0,0,0 // lea 0x7f(%rip),%r9 # 12a90 <_sk_lerp_u8_avx+0x119>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,103,255,255,255 // jmpq 1298f <_sk_lerp_u8_avx+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 197,57,196,192,2 // vpinsrw $0x2,%eax,%xmm8,%xmm8
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
- .byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,62,255,255,255 // jmpq 1298f <_sk_lerp_u8_avx+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 197,57,196,192,6 // vpinsrw $0x6,%eax,%xmm8,%xmm8
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,57,196,192,5 // vpinsrw $0x5,%eax,%xmm8,%xmm8
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,57,196,192,4 // vpinsrw $0x4,%eax,%xmm8,%xmm8
- .byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
- .byte 196,66,121,48,201 // vpmovzxbw %xmm9,%xmm9
- .byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,2,255,255,255 // jmpq 1298f <_sk_lerp_u8_avx+0x18>
- .byte 15,31,0 // nopl (%rax)
- .byte 138,255 // mov %bh,%bh
- .byte 255 // (bad)
- .byte 255,168,255,255,255,152 // ljmp *-0x67000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,193 // inc %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_565_avx
-.globl _sk_lerp_565_avx
-FUNCTION(_sk_lerp_565_avx)
-_sk_lerp_565_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,214,0,0,0 // jne 12b9b <_sk_lerp_565_avx+0xef>
- .byte 196,65,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm8
- .byte 196,66,121,51,200 // vpmovzxwd %xmm8,%xmm9
- .byte 196,65,121,112,192,78 // vpshufd $0x4e,%xmm8,%xmm8
- .byte 196,66,121,51,192 // vpmovzxwd %xmm8,%xmm8
- .byte 196,67,53,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,142,154,2,0 // vbroadcastss 0x29a8e(%rip),%ymm9 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 196,65,60,84,201 // vandps %ymm9,%ymm8,%ymm9
- .byte 196,65,124,91,201 // vcvtdq2ps %ymm9,%ymm9
- .byte 196,98,125,24,21,127,154,2,0 // vbroadcastss 0x29a7f(%rip),%ymm10 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 196,65,52,89,202 // vmulps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,117,154,2,0 // vbroadcastss 0x29a75(%rip),%ymm10 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 196,65,60,84,210 // vandps %ymm10,%ymm8,%ymm10
- .byte 196,65,124,91,210 // vcvtdq2ps %ymm10,%ymm10
- .byte 196,98,125,24,29,102,154,2,0 // vbroadcastss 0x29a66(%rip),%ymm11 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,29,92,154,2,0 // vbroadcastss 0x29a5c(%rip),%ymm11 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 196,65,60,84,195 // vandps %ymm11,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,98,125,24,29,77,154,2,0 // vbroadcastss 0x29a4d(%rip),%ymm11 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 197,100,194,223,1 // vcmpltps %ymm7,%ymm3,%ymm11
- .byte 196,65,44,93,224 // vminps %ymm8,%ymm10,%ymm12
- .byte 196,65,52,93,228 // vminps %ymm12,%ymm9,%ymm12
- .byte 196,65,44,95,232 // vmaxps %ymm8,%ymm10,%ymm13
- .byte 196,65,52,95,237 // vmaxps %ymm13,%ymm9,%ymm13
- .byte 196,67,21,74,220,176 // vblendvps %ymm11,%ymm12,%ymm13,%ymm11
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 197,244,92,205 // vsubps %ymm5,%ymm1,%ymm1
- .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
- .byte 197,244,88,205 // vaddps %ymm5,%ymm1,%ymm1
- .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 197,236,88,214 // vaddps %ymm6,%ymm2,%ymm2
- .byte 197,228,92,223 // vsubps %ymm7,%ymm3,%ymm3
- .byte 196,193,100,89,219 // vmulps %ymm11,%ymm3,%ymm3
- .byte 197,228,88,223 // vaddps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,29,255,255,255 // ja 12acb <_sk_lerp_565_avx+0x1f>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,100,0,0,0 // lea 0x64(%rip),%r9 # 12c1c <_sk_lerp_565_avx+0x170>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,252,254,255,255 // jmpq 12acb <_sk_lerp_565_avx+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
- .byte 196,67,57,14,193,3 // vpblendw $0x3,%xmm9,%xmm8,%xmm8
- .byte 233,222,254,255,255 // jmpq 12acb <_sk_lerp_565_avx+0x1f>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,57,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,57,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm8
- .byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
- .byte 196,67,49,14,192,240 // vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- .byte 233,176,254,255,255 // jmpq 12acb <_sk_lerp_565_avx+0x1f>
- .byte 144 // nop
- .byte 165 // movsl %ds:(%rsi),%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,192 // inc %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,179,255,255,255,238 // pushq -0x11000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_tables_avx
-.globl _sk_load_tables_avx
-FUNCTION(_sk_load_tables_avx)
-_sk_load_tables_avx:
- .byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,2,0,0 // jne 12e50 <_sk_load_tables_avx+0x218>
- .byte 196,65,125,16,20,144 // vmovupd (%r8,%rdx,4),%ymm10
- .byte 197,125,40,13,198,158,2,0 // vmovapd 0x29ec6(%rip),%ymm9 # 3cb20 <_sk_srcover_bgra_8888_sse2_lowp+0x8d4>
- .byte 196,193,45,84,201 // vandpd %ymm9,%ymm10,%ymm1
- .byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 76,139,80,8 // mov 0x8(%rax),%r10
- .byte 196,129,122,16,20,138 // vmovss (%r10,%r9,4),%xmm2
- .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,131,105,33,4,130,16 // vinsertps $0x10,(%r10,%r8,4),%xmm2,%xmm0
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 196,131,121,33,4,130,32 // vinsertps $0x20,(%r10,%r8,4),%xmm0,%xmm0
- .byte 196,193,249,126,200 // vmovq %xmm1,%r8
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,3,121,33,4,138,48 // vinsertps $0x30,(%r10,%r9,4),%xmm0,%xmm8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 196,129,122,16,20,138 // vmovss (%r10,%r9,4),%xmm2
- .byte 196,195,249,22,201,1 // vpextrq $0x1,%xmm1,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,131,105,33,12,130,16 // vinsertps $0x10,(%r10,%r8,4),%xmm2,%xmm1
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,131,113,33,12,130,32 // vinsertps $0x20,(%r10,%r8,4),%xmm1,%xmm1
- .byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 196,3,113,33,36,138,48 // vinsertps $0x30,(%r10,%r9,4),%xmm1,%xmm12
- .byte 196,193,105,114,210,8 // vpsrld $0x8,%xmm10,%xmm2
- .byte 196,67,125,25,213,1 // vextractf128 $0x1,%ymm10,%xmm13
- .byte 196,193,121,114,213,8 // vpsrld $0x8,%xmm13,%xmm0
- .byte 196,227,109,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm0
- .byte 196,193,125,84,209 // vandpd %ymm9,%ymm0,%ymm2
- .byte 196,227,125,25,208,1 // vextractf128 $0x1,%ymm2,%xmm0
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 196,129,122,16,12,144 // vmovss (%r8,%r10,4),%xmm1
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,3,113,33,52,136,16 // vinsertps $0x10,(%r8,%r9,4),%xmm1,%xmm14
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 196,129,122,16,28,136 // vmovss (%r8,%r9,4),%xmm3
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,129,122,16,12,144 // vmovss (%r8,%r10,4),%xmm1
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 196,129,122,16,4,144 // vmovss (%r8,%r10,4),%xmm0
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,3,121,33,28,136,16 // vinsertps $0x10,(%r8,%r9,4),%xmm0,%xmm11
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 196,1,122,16,60,136 // vmovss (%r8,%r9,4),%xmm15
- .byte 196,195,29,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm12,%ymm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,9,33,219,32 // vinsertps $0x20,%xmm3,%xmm14,%xmm3
- .byte 196,227,97,33,249,48 // vinsertps $0x30,%xmm1,%xmm3,%xmm7
- .byte 196,1,122,16,52,144 // vmovss (%r8,%r10,4),%xmm14
- .byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 196,193,97,114,210,16 // vpsrld $0x10,%xmm10,%xmm3
- .byte 196,193,105,114,213,16 // vpsrld $0x10,%xmm13,%xmm2
- .byte 196,227,101,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm2
- .byte 196,65,109,84,201 // vandpd %ymm9,%ymm2,%ymm9
- .byte 196,99,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm2
- .byte 196,193,249,126,208 // vmovq %xmm2,%r8
- .byte 68,137,192 // mov %r8d,%eax
- .byte 196,193,122,16,28,129 // vmovss (%r9,%rax,4),%xmm3
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,3,97,33,36,129,16 // vinsertps $0x10,(%r9,%r8,4),%xmm3,%xmm12
- .byte 68,137,208 // mov %r10d,%eax
- .byte 196,193,122,16,28,129 // vmovss (%r9,%rax,4),%xmm3
- .byte 196,65,249,126,200 // vmovq %xmm9,%r8
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,129,122,16,20,145 // vmovss (%r9,%r10,4),%xmm2
- .byte 68,137,192 // mov %r8d,%eax
- .byte 196,193,122,16,12,129 // vmovss (%r9,%rax,4),%xmm1
- .byte 196,67,249,22,202,1 // vpextrq $0x1,%xmm9,%r10
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,3,113,33,12,129,16 // vinsertps $0x10,(%r9,%r8,4),%xmm1,%xmm9
- .byte 68,137,208 // mov %r10d,%eax
- .byte 196,65,122,16,4,129 // vmovss (%r9,%rax,4),%xmm8
- .byte 196,195,33,33,207,32 // vinsertps $0x20,%xmm15,%xmm11,%xmm1
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,1,122,16,28,145 // vmovss (%r9,%r10,4),%xmm11
- .byte 196,195,113,33,206,48 // vinsertps $0x30,%xmm14,%xmm1,%xmm1
- .byte 196,227,117,24,207,1 // vinsertf128 $0x1,%xmm7,%ymm1,%ymm1
- .byte 196,227,25,33,219,32 // vinsertps $0x20,%xmm3,%xmm12,%xmm3
- .byte 196,227,97,33,210,48 // vinsertps $0x30,%xmm2,%xmm3,%xmm2
- .byte 196,195,49,33,216,32 // vinsertps $0x20,%xmm8,%xmm9,%xmm3
- .byte 196,195,97,33,219,48 // vinsertps $0x30,%xmm11,%xmm3,%xmm3
- .byte 196,227,101,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm2
- .byte 196,193,97,114,210,24 // vpsrld $0x18,%xmm10,%xmm3
- .byte 196,193,65,114,213,24 // vpsrld $0x18,%xmm13,%xmm7
- .byte 196,227,101,24,223,1 // vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,61,50,151,2,0 // vbroadcastss 0x29732(%rip),%ymm7 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,228,89,223 // vmulps %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,7 // and $0x7,%r9b
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 65,254,201 // dec %r9b
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 15,135,233,253,255,255 // ja 12c52 <_sk_load_tables_avx+0x1a>
- .byte 69,15,182,201 // movzbl %r9b,%r9d
- .byte 76,141,21,148,0,0,0 // lea 0x94(%rip),%r10 # 12f08 <_sk_load_tables_avx+0x2d0>
- .byte 79,99,12,138 // movslq (%r10,%r9,4),%r9
- .byte 77,1,209 // add %r10,%r9
- .byte 65,255,225 // jmpq *%r9
- .byte 196,65,122,16,20,144 // vmovss (%r8,%rdx,4),%xmm10
- .byte 233,201,253,255,255 // jmpq 12c52 <_sk_load_tables_avx+0x1a>
- .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
- .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,99,117,12,208,4 // vblendps $0x4,%ymm0,%ymm1,%ymm10
- .byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
- .byte 196,99,45,13,208,1 // vblendpd $0x1,%ymm0,%ymm10,%ymm10
- .byte 233,162,253,255,255 // jmpq 12c52 <_sk_load_tables_avx+0x1a>
- .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
- .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,99,117,12,208,64 // vblendps $0x40,%ymm0,%ymm1,%ymm10
- .byte 196,99,125,25,208,1 // vextractf128 $0x1,%ymm10,%xmm0
- .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,99,45,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm10,%ymm10
- .byte 196,99,125,25,208,1 // vextractf128 $0x1,%ymm10,%xmm0
- .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,99,45,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm10,%ymm10
- .byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
- .byte 196,67,125,13,210,12 // vblendpd $0xc,%ymm10,%ymm0,%ymm10
- .byte 233,77,253,255,255 // jmpq 12c52 <_sk_load_tables_avx+0x1a>
- .byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 12f09 <_sk_load_tables_avx+0x2d1>
- .byte 255 // (bad)
- .byte 255,151,255,255,255,129 // callq *-0x7e000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 236 // in (%dx),%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
- .byte 255 // (bad)
- .byte 255,196 // inc %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 168,255 // test $0xff,%al
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_tables_u16_be_avx
-.globl _sk_load_tables_u16_be_avx
-FUNCTION(_sk_load_tables_u16_be_avx)
-_sk_load_tables_u16_be_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
- .byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,75,2,0,0 // jne 13191 <_sk_load_tables_u16_be_avx+0x26d>
- .byte 196,1,121,16,4,72 // vmovupd (%r8,%r9,2),%xmm8
- .byte 196,129,121,16,84,72,16 // vmovupd 0x10(%r8,%r9,2),%xmm2
- .byte 196,129,121,16,92,72,32 // vmovupd 0x20(%r8,%r9,2),%xmm3
- .byte 196,1,122,111,76,72,48 // vmovdqu 0x30(%r8,%r9,2),%xmm9
- .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0
- .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2
- .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1
- .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3
- .byte 197,121,97,202 // vpunpcklwd %xmm2,%xmm0,%xmm9
- .byte 197,121,105,194 // vpunpckhwd %xmm2,%xmm0,%xmm8
- .byte 197,241,97,195 // vpunpcklwd %xmm3,%xmm1,%xmm0
- .byte 197,113,105,227 // vpunpckhwd %xmm3,%xmm1,%xmm12
- .byte 197,177,108,208 // vpunpcklqdq %xmm0,%xmm9,%xmm2
- .byte 197,49,109,232 // vpunpckhqdq %xmm0,%xmm9,%xmm13
- .byte 196,65,57,108,212 // vpunpcklqdq %xmm12,%xmm8,%xmm10
- .byte 197,121,111,29,24,159,2,0 // vmovdqa 0x29f18(%rip),%xmm11 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,193,105,219,195 // vpand %xmm11,%xmm2,%xmm0
- .byte 197,249,112,208,78 // vpshufd $0x4e,%xmm0,%xmm2
- .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
- .byte 196,193,249,126,208 // vmovq %xmm2,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 76,139,80,8 // mov 0x8(%rax),%r10
- .byte 196,129,122,16,28,138 // vmovss (%r10,%r9,4),%xmm3
- .byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 196,3,97,33,12,2,16 // vinsertps $0x10,(%r10,%r8,1),%xmm3,%xmm9
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 196,129,122,16,28,130 // vmovss (%r10,%r8,4),%xmm3
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 196,129,122,16,12,10 // vmovss (%r10,%r9,1),%xmm1
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 196,129,122,16,20,138 // vmovss (%r10,%r9,4),%xmm2
- .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 196,131,105,33,4,2,16 // vinsertps $0x10,(%r10,%r8,1),%xmm2,%xmm0
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 196,131,121,33,20,130,32 // vinsertps $0x20,(%r10,%r8,4),%xmm0,%xmm2
- .byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 196,227,49,33,195,32 // vinsertps $0x20,%xmm3,%xmm9,%xmm0
- .byte 196,99,121,33,241,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm14
- .byte 196,3,105,33,12,10,48 // vinsertps $0x30,(%r10,%r9,1),%xmm2,%xmm9
- .byte 196,193,17,219,203 // vpand %xmm11,%xmm13,%xmm1
- .byte 197,249,112,209,78 // vpshufd $0x4e,%xmm1,%xmm2
- .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 196,129,122,16,28,144 // vmovss (%r8,%r10,4),%xmm3
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 196,226,121,51,193 // vpmovzxwd %xmm1,%xmm0
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 196,3,97,33,60,8,16 // vinsertps $0x10,(%r8,%r9,1),%xmm3,%xmm15
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 196,129,122,16,20,136 // vmovss (%r8,%r9,4),%xmm2
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 73,193,234,30 // shr $0x1e,%r10
- .byte 196,129,122,16,28,16 // vmovss (%r8,%r10,1),%xmm3
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 196,129,122,16,12,144 // vmovss (%r8,%r10,4),%xmm1
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 196,131,113,33,4,8,16 // vinsertps $0x10,(%r8,%r9,1),%xmm1,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 73,193,234,30 // shr $0x1e,%r10
- .byte 196,131,121,33,4,136,32 // vinsertps $0x20,(%r8,%r9,4),%xmm0,%xmm0
- .byte 196,3,121,33,44,16,48 // vinsertps $0x30,(%r8,%r10,1),%xmm0,%xmm13
- .byte 76,139,80,24 // mov 0x18(%rax),%r10
- .byte 196,193,41,219,195 // vpand %xmm11,%xmm10,%xmm0
- .byte 197,249,112,200,78 // vpshufd $0x4e,%xmm0,%xmm1
- .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1
- .byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 68,137,200 // mov %r9d,%eax
- .byte 196,193,122,16,12,130 // vmovss (%r10,%rax,4),%xmm1
- .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 196,3,113,33,20,10,16 // vinsertps $0x10,(%r10,%r9,1),%xmm1,%xmm10
- .byte 68,137,192 // mov %r8d,%eax
- .byte 196,65,122,16,28,130 // vmovss (%r10,%rax,4),%xmm11
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 196,129,122,16,60,2 // vmovss (%r10,%r8,1),%xmm7
- .byte 68,137,200 // mov %r9d,%eax
- .byte 196,193,122,16,4,130 // vmovss (%r10,%rax,4),%xmm0
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 196,131,121,33,4,10,16 // vinsertps $0x10,(%r10,%r9,1),%xmm0,%xmm0
- .byte 68,137,216 // mov %r11d,%eax
- .byte 196,195,121,33,4,130,32 // vinsertps $0x20,(%r10,%rax,4),%xmm0,%xmm0
- .byte 73,193,235,30 // shr $0x1e,%r11
- .byte 196,131,121,33,52,26,48 // vinsertps $0x30,(%r10,%r11,1),%xmm0,%xmm6
- .byte 196,195,53,24,198,1 // vinsertf128 $0x1,%xmm14,%ymm9,%ymm0
- .byte 196,227,1,33,202,32 // vinsertps $0x20,%xmm2,%xmm15,%xmm1
- .byte 196,227,113,33,203,48 // vinsertps $0x30,%xmm3,%xmm1,%xmm1
- .byte 196,227,21,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm13,%ymm1
- .byte 196,195,41,33,211,32 // vinsertps $0x20,%xmm11,%xmm10,%xmm2
- .byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
- .byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- .byte 196,193,57,109,220 // vpunpckhqdq %xmm12,%xmm8,%xmm3
- .byte 197,201,113,243,8 // vpsllw $0x8,%xmm3,%xmm6
- .byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3
- .byte 197,201,235,219 // vpor %xmm3,%xmm6,%xmm3
- .byte 196,226,121,51,243 // vpmovzxwd %xmm3,%xmm6
- .byte 197,249,112,219,78 // vpshufd $0x4e,%xmm3,%xmm3
- .byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
- .byte 196,227,77,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,226,125,24,53,19,148,2,0 // vbroadcastss 0x29413(%rip),%ymm6 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- .byte 197,228,89,222 // vmulps %ymm6,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
- .byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
- .byte 255,224 // jmpq *%rax
- .byte 196,1,123,16,4,72 // vmovsd (%r8,%r9,2),%xmm8
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 131f7 <_sk_load_tables_u16_be_avx+0x2d3>
- .byte 196,1,57,22,68,72,8 // vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 131f7 <_sk_load_tables_u16_be_avx+0x2d3>
- .byte 196,129,123,16,84,72,16 // vmovsd 0x10(%r8,%r9,2),%xmm2
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 13204 <_sk_load_tables_u16_be_avx+0x2e0>
- .byte 196,129,105,22,84,72,24 // vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 13204 <_sk_load_tables_u16_be_avx+0x2e0>
- .byte 196,129,123,16,92,72,32 // vmovsd 0x20(%r8,%r9,2),%xmm3
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,135,253,255,255 // je 12f61 <_sk_load_tables_u16_be_avx+0x3d>
- .byte 196,129,97,22,92,72,40 // vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,118,253,255,255 // jb 12f61 <_sk_load_tables_u16_be_avx+0x3d>
- .byte 196,1,122,126,76,72,48 // vmovq 0x30(%r8,%r9,2),%xmm9
- .byte 233,106,253,255,255 // jmpq 12f61 <_sk_load_tables_u16_be_avx+0x3d>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,93,253,255,255 // jmpq 12f61 <_sk_load_tables_u16_be_avx+0x3d>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,84,253,255,255 // jmpq 12f61 <_sk_load_tables_u16_be_avx+0x3d>
-
-HIDDEN _sk_load_tables_rgb_u16_be_avx
-.globl _sk_load_tables_rgb_u16_be_avx
-FUNCTION(_sk_load_tables_rgb_u16_be_avx)
-_sk_load_tables_rgb_u16_be_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
- .byte 197,252,17,116,36,168 // vmovups %ymm6,-0x58(%rsp)
- .byte 15,133,54,2,0,0 // jne 13461 <_sk_load_tables_rgb_u16_be_avx+0x254>
- .byte 196,1,122,111,28,72 // vmovdqu (%r8,%r9,2),%xmm11
- .byte 196,129,122,111,92,72,12 // vmovdqu 0xc(%r8,%r9,2),%xmm3
- .byte 196,129,122,111,84,72,24 // vmovdqu 0x18(%r8,%r9,2),%xmm2
- .byte 196,129,122,111,68,72,32 // vmovdqu 0x20(%r8,%r9,2),%xmm0
- .byte 197,249,115,216,4 // vpsrldq $0x4,%xmm0,%xmm0
- .byte 196,193,57,115,219,6 // vpsrldq $0x6,%xmm11,%xmm8
- .byte 197,169,115,219,6 // vpsrldq $0x6,%xmm3,%xmm10
- .byte 197,241,115,218,6 // vpsrldq $0x6,%xmm2,%xmm1
- .byte 197,177,115,216,6 // vpsrldq $0x6,%xmm0,%xmm9
- .byte 196,65,113,97,201 // vpunpcklwd %xmm9,%xmm1,%xmm9
- .byte 197,233,97,192 // vpunpcklwd %xmm0,%xmm2,%xmm0
- .byte 196,193,57,97,210 // vpunpcklwd %xmm10,%xmm8,%xmm2
- .byte 197,161,97,219 // vpunpcklwd %xmm3,%xmm11,%xmm3
- .byte 197,225,97,202 // vpunpcklwd %xmm2,%xmm3,%xmm1
- .byte 197,225,105,210 // vpunpckhwd %xmm2,%xmm3,%xmm2
- .byte 196,193,121,97,217 // vpunpcklwd %xmm9,%xmm0,%xmm3
- .byte 196,193,121,105,193 // vpunpckhwd %xmm9,%xmm0,%xmm0
- .byte 197,105,108,216 // vpunpcklqdq %xmm0,%xmm2,%xmm11
- .byte 197,241,108,211 // vpunpcklqdq %xmm3,%xmm1,%xmm2
- .byte 197,241,109,203 // vpunpckhqdq %xmm3,%xmm1,%xmm1
- .byte 197,121,111,53,24,156,2,0 // vmovdqa 0x29c18(%rip),%xmm14 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,193,105,219,214 // vpand %xmm14,%xmm2,%xmm2
- .byte 197,249,112,218,78 // vpshufd $0x4e,%xmm2,%xmm3
- .byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
- .byte 196,193,249,126,216 // vmovq %xmm3,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 76,139,80,8 // mov 0x8(%rax),%r10
- .byte 196,129,122,16,4,138 // vmovss (%r10,%r9,4),%xmm0
- .byte 196,195,249,22,217,1 // vpextrq $0x1,%xmm3,%r9
- .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 196,3,121,33,4,2,16 // vinsertps $0x10,(%r10,%r8,1),%xmm0,%xmm8
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 196,1,122,16,20,130 // vmovss (%r10,%r8,4),%xmm10
- .byte 196,193,249,126,208 // vmovq %xmm2,%r8
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 196,1,122,16,36,10 // vmovss (%r10,%r9,1),%xmm12
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 196,129,122,16,4,138 // vmovss (%r10,%r9,4),%xmm0
- .byte 196,195,249,22,209,1 // vpextrq $0x1,%xmm2,%r9
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 196,131,121,33,4,2,16 // vinsertps $0x10,(%r10,%r8,1),%xmm0,%xmm0
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 196,131,121,33,4,130,32 // vinsertps $0x20,(%r10,%r8,4),%xmm0,%xmm0
- .byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 196,3,121,33,12,10,48 // vinsertps $0x30,(%r10,%r9,1),%xmm0,%xmm9
- .byte 196,193,113,219,198 // vpand %xmm14,%xmm1,%xmm0
- .byte 197,249,112,200,78 // vpshufd $0x4e,%xmm0,%xmm1
- .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 196,129,122,16,20,144 // vmovss (%r8,%r10,4),%xmm2
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 196,3,105,33,60,8,16 // vinsertps $0x10,(%r8,%r9,1),%xmm2,%xmm15
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 196,129,122,16,20,136 // vmovss (%r8,%r9,4),%xmm2
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 73,193,234,30 // shr $0x1e,%r10
- .byte 196,129,122,16,28,16 // vmovss (%r8,%r10,1),%xmm3
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 196,129,122,16,12,144 // vmovss (%r8,%r10,4),%xmm1
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 196,131,113,33,4,8,16 // vinsertps $0x10,(%r8,%r9,1),%xmm1,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 73,193,234,30 // shr $0x1e,%r10
- .byte 196,131,121,33,4,136,32 // vinsertps $0x20,(%r8,%r9,4),%xmm0,%xmm0
- .byte 196,3,121,33,44,16,48 // vinsertps $0x30,(%r8,%r10,1),%xmm0,%xmm13
- .byte 76,139,80,24 // mov 0x18(%rax),%r10
- .byte 196,193,33,219,198 // vpand %xmm14,%xmm11,%xmm0
- .byte 197,249,112,200,78 // vpshufd $0x4e,%xmm0,%xmm1
- .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1
- .byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 68,137,200 // mov %r9d,%eax
- .byte 196,193,122,16,12,130 // vmovss (%r10,%rax,4),%xmm1
- .byte 196,195,249,22,195,1 // vpextrq $0x1,%xmm0,%r11
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 196,3,113,33,28,10,16 // vinsertps $0x10,(%r10,%r9,1),%xmm1,%xmm11
- .byte 68,137,192 // mov %r8d,%eax
- .byte 196,65,122,16,52,130 // vmovss (%r10,%rax,4),%xmm14
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 196,129,122,16,60,2 // vmovss (%r10,%r8,1),%xmm7
- .byte 68,137,200 // mov %r9d,%eax
- .byte 196,193,122,16,4,130 // vmovss (%r10,%rax,4),%xmm0
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 196,131,121,33,4,10,16 // vinsertps $0x10,(%r10,%r9,1),%xmm0,%xmm0
- .byte 68,137,216 // mov %r11d,%eax
- .byte 196,195,121,33,4,130,32 // vinsertps $0x20,(%r10,%rax,4),%xmm0,%xmm0
- .byte 73,193,235,30 // shr $0x1e,%r11
- .byte 196,131,121,33,52,26,48 // vinsertps $0x30,(%r10,%r11,1),%xmm0,%xmm6
- .byte 196,195,57,33,194,32 // vinsertps $0x20,%xmm10,%xmm8,%xmm0
- .byte 196,195,121,33,196,48 // vinsertps $0x30,%xmm12,%xmm0,%xmm0
- .byte 196,227,53,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm0
- .byte 196,227,1,33,202,32 // vinsertps $0x20,%xmm2,%xmm15,%xmm1
- .byte 196,227,113,33,203,48 // vinsertps $0x30,%xmm3,%xmm1,%xmm1
- .byte 196,227,21,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm13,%ymm1
- .byte 196,195,33,33,214,32 // vinsertps $0x20,%xmm14,%xmm11,%xmm2
- .byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
- .byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,169,144,2,0 // vbroadcastss 0x290a9(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,16,116,36,168 // vmovups -0x58(%rsp),%ymm6
- .byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,110,4,72 // vmovd (%r8,%r9,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,92,72,4,2 // vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 13499 <_sk_load_tables_rgb_u16_be_avx+0x28c>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,199,253,255,255 // jmpq 13260 <_sk_load_tables_rgb_u16_be_avx+0x53>
- .byte 196,129,121,110,68,72,6 // vmovd 0x6(%r8,%r9,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,68,72,10,2 // vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 134e3 <_sk_load_tables_rgb_u16_be_avx+0x2d6>
- .byte 196,129,121,110,68,72,12 // vmovd 0xc(%r8,%r9,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,92,72,16,2 // vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 134fd <_sk_load_tables_rgb_u16_be_avx+0x2f0>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,125,253,255,255 // jmpq 13260 <_sk_load_tables_rgb_u16_be_avx+0x53>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,99,253,255,255 // jmpq 13260 <_sk_load_tables_rgb_u16_be_avx+0x53>
- .byte 196,129,121,110,68,72,18 // vmovd 0x12(%r8,%r9,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,84,72,22,2 // vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 1353e <_sk_load_tables_rgb_u16_be_avx+0x331>
- .byte 196,129,121,110,68,72,24 // vmovd 0x18(%r8,%r9,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,84,72,28,2 // vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 1354f <_sk_load_tables_rgb_u16_be_avx+0x342>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,34,253,255,255 // jmpq 13260 <_sk_load_tables_rgb_u16_be_avx+0x53>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,17,253,255,255 // jmpq 13260 <_sk_load_tables_rgb_u16_be_avx+0x53>
- .byte 196,129,121,110,68,72,30 // vmovd 0x1e(%r8,%r9,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,76,72,34,2 // vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 13582 <_sk_load_tables_rgb_u16_be_avx+0x375>
- .byte 196,129,121,110,68,72,36 // vmovd 0x24(%r8,%r9,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,68,72,40,2 // vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- .byte 233,222,252,255,255 // jmpq 13260 <_sk_load_tables_rgb_u16_be_avx+0x53>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,213,252,255,255 // jmpq 13260 <_sk_load_tables_rgb_u16_be_avx+0x53>
-
-HIDDEN _sk_byte_tables_avx
-.globl _sk_byte_tables_avx
-FUNCTION(_sk_byte_tables_avx)
-_sk_byte_tables_avx:
- .byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
- .byte 197,252,40,254 // vmovaps %ymm6,%ymm7
- .byte 197,252,40,245 // vmovaps %ymm5,%ymm6
- .byte 197,252,40,236 // vmovaps %ymm4,%ymm5
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,5,75,143,2,0 // vbroadcastss 0x28f4b(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,105,143,2,0 // vbroadcastss 0x28f69(%rip),%ymm10 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
- .byte 197,125,91,216 // vcvtps2dq %ymm0,%ymm11
- .byte 196,65,249,126,216 // vmovq %xmm11,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 76,139,16 // mov (%rax),%r10
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,193,121,110,193 // vmovd %r9d,%xmm0
- .byte 196,67,249,22,217,1 // vpextrq $0x1,%xmm11,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,99,125,25,216,1 // vextractf128 $0x1,%ymm11,%xmm0
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,25,32,216,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm11
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,33,32,217,3 // vpinsrb $0x3,%r9d,%xmm11,%xmm11
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,65,121,110,225 // vmovd %r9d,%xmm12
- .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,25,32,192,1 // vpinsrb $0x1,%r8d,%xmm12,%xmm0
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,121,32,192,2 // vpinsrb $0x2,%r8d,%xmm0,%xmm0
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,121,32,233,3 // vpinsrb $0x3,%r9d,%xmm0,%xmm13
- .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 196,193,116,89,202 // vmulps %ymm10,%ymm1,%ymm1
- .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,67,121,32,226,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm12
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
- .byte 196,67,121,32,240,3 // vpinsrb $0x3,%r8d,%xmm0,%xmm14
- .byte 76,139,64,16 // mov 0x10(%rax),%r8
- .byte 197,180,95,194 // vmaxps %ymm2,%ymm9,%ymm0
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
- .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,25,209,1 // vextractf128 $0x1,%ymm2,%xmm1
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,67,121,32,250,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm15
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 197,180,95,203 // vmaxps %ymm3,%ymm9,%ymm1
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
- .byte 196,195,121,32,224,3 // vpinsrb $0x3,%r8d,%xmm0,%xmm4
- .byte 76,139,72,24 // mov 0x18(%rax),%r9
- .byte 196,193,116,93,192 // vminps %ymm8,%ymm1,%ymm0
- .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 68,137,192 // mov %r8d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,113,32,200,1 // vpinsrb $0x1,%eax,%xmm1,%xmm1
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,113,32,200,2 // vpinsrb $0x2,%eax,%xmm1,%xmm1
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,99,113,32,192,3 // vpinsrb $0x3,%eax,%xmm1,%xmm8
- .byte 68,137,192 // mov %r8d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,113,32,192,1 // vpinsrb $0x1,%eax,%xmm1,%xmm0
- .byte 68,137,208 // mov %r10d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,121,32,216,2 // vpinsrb $0x2,%eax,%xmm0,%xmm3
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,194,121,49,195 // vpmovzxbd %xmm11,%xmm0
- .byte 196,194,121,49,205 // vpmovzxbd %xmm13,%xmm1
- .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,26,141,2,0 // vbroadcastss 0x28d1a(%rip),%ymm9 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
- .byte 196,194,121,49,214 // vpmovzxbd %xmm14,%xmm2
- .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 196,194,121,49,215 // vpmovzxbd %xmm15,%xmm2
- .byte 196,226,121,49,228 // vpmovzxbd %xmm4,%xmm4
- .byte 196,227,109,24,212,1 // vinsertf128 $0x1,%xmm4,%ymm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 196,194,121,49,224 // vpmovzxbd %xmm8,%xmm4
- .byte 196,227,97,32,216,3 // vpinsrb $0x3,%eax,%xmm3,%xmm3
- .byte 196,226,121,49,219 // vpmovzxbd %xmm3,%xmm3
- .byte 196,227,93,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm4,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,229 // vmovaps %ymm5,%ymm4
- .byte 197,252,40,238 // vmovaps %ymm6,%ymm5
- .byte 197,252,40,247 // vmovaps %ymm7,%ymm6
- .byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_byte_tables_rgb_avx
-.globl _sk_byte_tables_rgb_avx
-FUNCTION(_sk_byte_tables_rgb_avx)
-_sk_byte_tables_rgb_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,24 // mov 0x18(%rax),%r8d
- .byte 65,255,200 // dec %r8d
- .byte 196,65,121,110,192 // vmovd %r8d,%xmm8
- .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,21,5,140,2,0 // vbroadcastss 0x28c05(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,125,91,216 // vcvtps2dq %ymm0,%ymm11
- .byte 196,65,249,126,216 // vmovq %xmm11,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 76,139,16 // mov (%rax),%r10
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,193,121,110,193 // vmovd %r9d,%xmm0
- .byte 196,67,249,22,217,1 // vpextrq $0x1,%xmm11,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,121,32,224,1 // vpinsrb $0x1,%r8d,%xmm0,%xmm12
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 196,99,125,25,216,1 // vextractf128 $0x1,%ymm11,%xmm0
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,67,25,32,216,2 // vpinsrb $0x2,%r8d,%xmm12,%xmm11
- .byte 196,193,249,126,192 // vmovq %xmm0,%r8
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,33,32,217,3 // vpinsrb $0x3,%r9d,%xmm11,%xmm11
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,65,121,110,225 // vmovd %r9d,%xmm12
- .byte 196,195,249,22,193,1 // vpextrq $0x1,%xmm0,%r9
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,25,32,192,1 // vpinsrb $0x1,%r8d,%xmm12,%xmm0
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,4,2 // movzbl (%r10,%r8,1),%r8d
- .byte 196,195,121,32,192,2 // vpinsrb $0x2,%r8d,%xmm0,%xmm0
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 71,15,182,12,10 // movzbl (%r10,%r9,1),%r9d
- .byte 196,67,121,32,233,3 // vpinsrb $0x3,%r9d,%xmm0,%xmm13
- .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
- .byte 196,193,116,93,202 // vminps %ymm10,%ymm1,%ymm1
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,67,121,32,226,3 // vpinsrb $0x3,%r10d,%xmm0,%xmm12
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 196,193,121,110,194 // vmovd %r10d,%xmm0
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,1 // vpinsrb $0x1,%r9d,%xmm0,%xmm0
- .byte 69,137,209 // mov %r10d,%r9d
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 196,195,121,32,193,2 // vpinsrb $0x2,%r9d,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,182,4,16 // movzbl (%r8,%r10,1),%r8d
- .byte 196,67,121,32,240,3 // vpinsrb $0x3,%r8d,%xmm0,%xmm14
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 197,180,95,194 // vmaxps %ymm2,%ymm9,%ymm0
- .byte 196,193,124,93,194 // vminps %ymm10,%ymm0,%ymm0
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 197,253,91,208 // vcvtps2dq %ymm0,%ymm2
- .byte 196,193,249,126,208 // vmovq %xmm2,%r8
- .byte 68,137,192 // mov %r8d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,121,32,192,1 // vpinsrb $0x1,%eax,%xmm0,%xmm0
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,25,210,1 // vextractf128 $0x1,%ymm2,%xmm2
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,227,121,32,192,2 // vpinsrb $0x2,%eax,%xmm0,%xmm0
- .byte 196,193,249,126,208 // vmovq %xmm2,%r8
- .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,99,121,32,192,3 // vpinsrb $0x3,%eax,%xmm0,%xmm8
- .byte 68,137,192 // mov %r8d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 67,15,182,4,1 // movzbl (%r9,%r8,1),%eax
- .byte 196,227,121,32,192,1 // vpinsrb $0x1,%eax,%xmm0,%xmm0
- .byte 68,137,208 // mov %r10d,%eax
- .byte 65,15,182,4,1 // movzbl (%r9,%rax,1),%eax
- .byte 196,99,121,32,208,2 // vpinsrb $0x2,%eax,%xmm0,%xmm10
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 67,15,182,4,17 // movzbl (%r9,%r10,1),%eax
- .byte 196,194,121,49,195 // vpmovzxbd %xmm11,%xmm0
- .byte 196,194,121,49,205 // vpmovzxbd %xmm13,%xmm1
- .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,131,138,2,0 // vbroadcastss 0x28a83(%rip),%ymm9 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 196,194,121,49,204 // vpmovzxbd %xmm12,%xmm1
- .byte 196,194,121,49,214 // vpmovzxbd %xmm14,%xmm2
- .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 196,66,121,49,192 // vpmovzxbd %xmm8,%xmm8
- .byte 196,227,41,32,208,3 // vpinsrb $0x3,%eax,%xmm10,%xmm2
- .byte 196,226,121,49,210 // vpmovzxbd %xmm2,%xmm2
- .byte 196,227,61,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm8,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_r_avx
-.globl _sk_table_r_avx
-FUNCTION(_sk_table_r_avx)
-_sk_table_r_avx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 196,98,125,24,13,146,137,2,0 // vbroadcastss 0x28992(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,193 // vminps %ymm9,%ymm0,%ymm0
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,227,249,22,192,1 // vpextrq $0x1,%xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,194 // vmovq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,199 // vmovq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 196,129,122,16,4,160 // vmovss (%r8,%r12,4),%xmm0
- .byte 196,3,121,33,4,184,16 // vinsertps $0x10,(%r8,%r15,4),%xmm0,%xmm8
- .byte 196,129,122,16,4,176 // vmovss (%r8,%r14,4),%xmm0
- .byte 196,99,57,33,192,32 // vinsertps $0x20,%xmm0,%xmm8,%xmm8
- .byte 196,193,122,16,4,152 // vmovss (%r8,%rbx,4),%xmm0
- .byte 196,99,57,33,192,48 // vinsertps $0x30,%xmm0,%xmm8,%xmm8
- .byte 196,129,122,16,4,152 // vmovss (%r8,%r11,4),%xmm0
- .byte 196,3,121,33,12,144,16 // vinsertps $0x10,(%r8,%r10,4),%xmm0,%xmm9
- .byte 196,129,122,16,4,136 // vmovss (%r8,%r9,4),%xmm0
- .byte 196,99,49,33,200,32 // vinsertps $0x20,%xmm0,%xmm9,%xmm9
- .byte 196,193,122,16,4,128 // vmovss (%r8,%rax,4),%xmm0
- .byte 196,227,49,33,192,48 // vinsertps $0x30,%xmm0,%xmm9,%xmm0
- .byte 196,195,125,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_g_avx
-.globl _sk_table_g_avx
-FUNCTION(_sk_table_g_avx)
-_sk_table_g_avx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
- .byte 196,98,125,24,13,185,136,2,0 // vbroadcastss 0x288b9(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,116,93,201 // vminps %ymm9,%ymm1,%ymm1
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 197,253,91,201 // vcvtps2dq %ymm1,%ymm1
- .byte 196,227,249,22,200,1 // vpextrq $0x1,%xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,202 // vmovq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 196,227,249,22,203,1 // vpextrq $0x1,%xmm1,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,207 // vmovq %xmm1,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 196,129,122,16,12,160 // vmovss (%r8,%r12,4),%xmm1
- .byte 196,3,113,33,4,184,16 // vinsertps $0x10,(%r8,%r15,4),%xmm1,%xmm8
- .byte 196,129,122,16,12,176 // vmovss (%r8,%r14,4),%xmm1
- .byte 196,99,57,33,193,32 // vinsertps $0x20,%xmm1,%xmm8,%xmm8
- .byte 196,193,122,16,12,152 // vmovss (%r8,%rbx,4),%xmm1
- .byte 196,99,57,33,193,48 // vinsertps $0x30,%xmm1,%xmm8,%xmm8
- .byte 196,129,122,16,12,152 // vmovss (%r8,%r11,4),%xmm1
- .byte 196,3,113,33,12,144,16 // vinsertps $0x10,(%r8,%r10,4),%xmm1,%xmm9
- .byte 196,129,122,16,12,136 // vmovss (%r8,%r9,4),%xmm1
- .byte 196,99,49,33,201,32 // vinsertps $0x20,%xmm1,%xmm9,%xmm9
- .byte 196,193,122,16,12,128 // vmovss (%r8,%rax,4),%xmm1
- .byte 196,227,49,33,201,48 // vinsertps $0x30,%xmm1,%xmm9,%xmm1
- .byte 196,195,117,24,200,1 // vinsertf128 $0x1,%xmm8,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_b_avx
-.globl _sk_table_b_avx
-FUNCTION(_sk_table_b_avx)
-_sk_table_b_avx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,180,95,210 // vmaxps %ymm2,%ymm9,%ymm2
- .byte 196,98,125,24,13,224,135,2,0 // vbroadcastss 0x287e0(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,108,93,209 // vminps %ymm9,%ymm2,%ymm2
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 197,253,91,210 // vcvtps2dq %ymm2,%ymm2
- .byte 196,227,249,22,208,1 // vpextrq $0x1,%xmm2,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,210 // vmovq %xmm2,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,25,210,1 // vextractf128 $0x1,%ymm2,%xmm2
- .byte 196,227,249,22,211,1 // vpextrq $0x1,%xmm2,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,215 // vmovq %xmm2,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 196,129,122,16,20,160 // vmovss (%r8,%r12,4),%xmm2
- .byte 196,3,105,33,4,184,16 // vinsertps $0x10,(%r8,%r15,4),%xmm2,%xmm8
- .byte 196,129,122,16,20,176 // vmovss (%r8,%r14,4),%xmm2
- .byte 196,99,57,33,194,32 // vinsertps $0x20,%xmm2,%xmm8,%xmm8
- .byte 196,193,122,16,20,152 // vmovss (%r8,%rbx,4),%xmm2
- .byte 196,99,57,33,194,48 // vinsertps $0x30,%xmm2,%xmm8,%xmm8
- .byte 196,129,122,16,20,152 // vmovss (%r8,%r11,4),%xmm2
- .byte 196,3,105,33,12,144,16 // vinsertps $0x10,(%r8,%r10,4),%xmm2,%xmm9
- .byte 196,129,122,16,20,136 // vmovss (%r8,%r9,4),%xmm2
- .byte 196,99,49,33,202,32 // vinsertps $0x20,%xmm2,%xmm9,%xmm9
- .byte 196,193,122,16,20,128 // vmovss (%r8,%rax,4),%xmm2
- .byte 196,227,49,33,210,48 // vinsertps $0x30,%xmm2,%xmm9,%xmm2
- .byte 196,195,109,24,208,1 // vinsertf128 $0x1,%xmm8,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_a_avx
-.globl _sk_table_a_avx
-FUNCTION(_sk_table_a_avx)
-_sk_table_a_avx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,65,121,112,192,0 // vpshufd $0x0,%xmm8,%xmm8
- .byte 196,67,61,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- .byte 196,65,124,91,192 // vcvtdq2ps %ymm8,%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,180,95,219 // vmaxps %ymm3,%ymm9,%ymm3
- .byte 196,98,125,24,13,7,135,2,0 // vbroadcastss 0x28707(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,100,93,217 // vminps %ymm9,%ymm3,%ymm3
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 197,253,91,219 // vcvtps2dq %ymm3,%ymm3
- .byte 196,227,249,22,216,1 // vpextrq $0x1,%xmm3,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,218 // vmovq %xmm3,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,25,219,1 // vextractf128 $0x1,%ymm3,%xmm3
- .byte 196,227,249,22,219,1 // vpextrq $0x1,%xmm3,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,223 // vmovq %xmm3,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 196,129,122,16,28,160 // vmovss (%r8,%r12,4),%xmm3
- .byte 196,3,97,33,4,184,16 // vinsertps $0x10,(%r8,%r15,4),%xmm3,%xmm8
- .byte 196,129,122,16,28,176 // vmovss (%r8,%r14,4),%xmm3
- .byte 196,99,57,33,195,32 // vinsertps $0x20,%xmm3,%xmm8,%xmm8
- .byte 196,193,122,16,28,152 // vmovss (%r8,%rbx,4),%xmm3
- .byte 196,99,57,33,195,48 // vinsertps $0x30,%xmm3,%xmm8,%xmm8
- .byte 196,129,122,16,28,152 // vmovss (%r8,%r11,4),%xmm3
- .byte 196,3,97,33,12,144,16 // vinsertps $0x10,(%r8,%r10,4),%xmm3,%xmm9
- .byte 196,129,122,16,28,136 // vmovss (%r8,%r9,4),%xmm3
- .byte 196,99,49,33,203,32 // vinsertps $0x20,%xmm3,%xmm9,%xmm9
- .byte 196,193,122,16,28,128 // vmovss (%r8,%rax,4),%xmm3
- .byte 196,227,49,33,219,48 // vinsertps $0x30,%xmm3,%xmm9,%xmm3
- .byte 196,195,101,24,216,1 // vinsertf128 $0x1,%xmm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_r_avx
-.globl _sk_parametric_r_avx
-FUNCTION(_sk_parametric_r_avx)
-_sk_parametric_r_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8
- .byte 196,65,124,194,192,2 // vcmpleps %ymm8,%ymm0,%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10
- .byte 197,52,89,200 // vmulps %ymm0,%ymm9,%ymm9
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11
- .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
- .byte 196,65,124,88,219 // vaddps %ymm11,%ymm0,%ymm11
- .byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,36,194,208,0 // vcmpeqps %ymm0,%ymm11,%ymm10
- .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,170,134,2,0 // vbroadcastss 0x286aa(%rip),%ymm14 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,160,134,2,0 // vbroadcastss 0x286a0(%rip),%ymm14 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,242,133,2,0 // vbroadcastss 0x285f2(%rip),%ymm14 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,136,134,2,0 // vbroadcastss 0x28688(%rip),%ymm14 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,126,134,2,0 // vbroadcastss 0x2867e(%rip),%ymm14 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
- .byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,111,134,2,0 // vbroadcastss 0x2866f(%rip),%ymm14 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,101,134,2,0 // vbroadcastss 0x28665(%rip),%ymm14 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
- .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
- .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,70,134,2,0 // vbroadcastss 0x28646(%rip),%ymm13 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,60,134,2,0 // vbroadcastss 0x2863c(%rip),%ymm13 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,45,134,2,0 // vbroadcastss 0x2862d(%rip),%ymm13 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,35,134,2,0 // vbroadcastss 0x28623(%rip),%ymm13 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
- .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,20,134,2,0 // vbroadcastss 0x28614(%rip),%ymm12 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,99,37,74,208,160 // vblendvps %ymm10,%ymm0,%ymm11,%ymm10
- .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,38,133,2,0 // vbroadcastss 0x28526(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_g_avx
-.globl _sk_parametric_g_avx
-FUNCTION(_sk_parametric_g_avx)
-_sk_parametric_g_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8
- .byte 196,65,116,194,192,2 // vcmpleps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10
- .byte 197,52,89,201 // vmulps %ymm1,%ymm9,%ymm9
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11
- .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
- .byte 196,65,116,88,219 // vaddps %ymm11,%ymm1,%ymm11
- .byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,36,194,209,0 // vcmpeqps %ymm1,%ymm11,%ymm10
- .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,97,133,2,0 // vbroadcastss 0x28561(%rip),%ymm14 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,87,133,2,0 // vbroadcastss 0x28557(%rip),%ymm14 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,169,132,2,0 // vbroadcastss 0x284a9(%rip),%ymm14 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,63,133,2,0 // vbroadcastss 0x2853f(%rip),%ymm14 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,53,133,2,0 // vbroadcastss 0x28535(%rip),%ymm14 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
- .byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,38,133,2,0 // vbroadcastss 0x28526(%rip),%ymm14 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,28,133,2,0 // vbroadcastss 0x2851c(%rip),%ymm14 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
- .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
- .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,253,132,2,0 // vbroadcastss 0x284fd(%rip),%ymm13 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,243,132,2,0 // vbroadcastss 0x284f3(%rip),%ymm13 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,228,132,2,0 // vbroadcastss 0x284e4(%rip),%ymm13 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,218,132,2,0 // vbroadcastss 0x284da(%rip),%ymm13 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
- .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,203,132,2,0 // vbroadcastss 0x284cb(%rip),%ymm12 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,99,37,74,209,160 // vblendvps %ymm10,%ymm1,%ymm11,%ymm10
- .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- .byte 197,188,95,201 // vmaxps %ymm1,%ymm8,%ymm1
- .byte 196,98,125,24,5,221,131,2,0 // vbroadcastss 0x283dd(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_b_avx
-.globl _sk_parametric_b_avx
-FUNCTION(_sk_parametric_b_avx)
-_sk_parametric_b_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8
- .byte 196,65,108,194,192,2 // vcmpleps %ymm8,%ymm2,%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10
- .byte 197,52,89,202 // vmulps %ymm2,%ymm9,%ymm9
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11
- .byte 197,172,89,210 // vmulps %ymm2,%ymm10,%ymm2
- .byte 196,65,108,88,219 // vaddps %ymm11,%ymm2,%ymm11
- .byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,36,194,210,0 // vcmpeqps %ymm2,%ymm11,%ymm10
- .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,24,132,2,0 // vbroadcastss 0x28418(%rip),%ymm14 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,14,132,2,0 // vbroadcastss 0x2840e(%rip),%ymm14 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,96,131,2,0 // vbroadcastss 0x28360(%rip),%ymm14 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,246,131,2,0 // vbroadcastss 0x283f6(%rip),%ymm14 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,236,131,2,0 // vbroadcastss 0x283ec(%rip),%ymm14 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
- .byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,221,131,2,0 // vbroadcastss 0x283dd(%rip),%ymm14 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,211,131,2,0 // vbroadcastss 0x283d3(%rip),%ymm14 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
- .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
- .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,180,131,2,0 // vbroadcastss 0x283b4(%rip),%ymm13 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,170,131,2,0 // vbroadcastss 0x283aa(%rip),%ymm13 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,155,131,2,0 // vbroadcastss 0x2839b(%rip),%ymm13 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,145,131,2,0 // vbroadcastss 0x28391(%rip),%ymm13 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
- .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,130,131,2,0 // vbroadcastss 0x28382(%rip),%ymm12 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,99,37,74,210,160 // vblendvps %ymm10,%ymm2,%ymm11,%ymm10
- .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- .byte 197,188,95,210 // vmaxps %ymm2,%ymm8,%ymm2
- .byte 196,98,125,24,5,148,130,2,0 // vbroadcastss 0x28294(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_a_avx
-.globl _sk_parametric_a_avx
-FUNCTION(_sk_parametric_a_avx)
-_sk_parametric_a_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm8
- .byte 196,65,100,194,192,2 // vcmpleps %ymm8,%ymm3,%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10
- .byte 197,52,89,203 // vmulps %ymm3,%ymm9,%ymm9
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 196,98,125,24,88,8 // vbroadcastss 0x8(%rax),%ymm11
- .byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3
- .byte 196,65,100,88,219 // vaddps %ymm11,%ymm3,%ymm11
- .byte 196,98,125,24,32 // vbroadcastss (%rax),%ymm12
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,36,194,211,0 // vcmpeqps %ymm3,%ymm11,%ymm10
- .byte 196,65,124,91,235 // vcvtdq2ps %ymm11,%ymm13
- .byte 196,98,125,24,53,207,130,2,0 // vbroadcastss 0x282cf(%rip),%ymm14 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 196,65,20,89,238 // vmulps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,197,130,2,0 // vbroadcastss 0x282c5(%rip),%ymm14 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 196,65,36,84,222 // vandps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,23,130,2,0 // vbroadcastss 0x28217(%rip),%ymm14 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,36,86,222 // vorps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,173,130,2,0 // vbroadcastss 0x282ad(%rip),%ymm14 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,163,130,2,0 // vbroadcastss 0x282a3(%rip),%ymm14 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 196,65,36,89,246 // vmulps %ymm14,%ymm11,%ymm14
- .byte 196,65,20,92,238 // vsubps %ymm14,%ymm13,%ymm13
- .byte 196,98,125,24,53,148,130,2,0 // vbroadcastss 0x28294(%rip),%ymm14 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,65,36,88,222 // vaddps %ymm14,%ymm11,%ymm11
- .byte 196,98,125,24,53,138,130,2,0 // vbroadcastss 0x2828a(%rip),%ymm14 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 196,65,12,94,219 // vdivps %ymm11,%ymm14,%ymm11
- .byte 196,65,20,92,219 // vsubps %ymm11,%ymm13,%ymm11
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,67,125,8,227,1 // vroundps $0x1,%ymm11,%ymm12
- .byte 196,65,36,92,228 // vsubps %ymm12,%ymm11,%ymm12
- .byte 196,98,125,24,45,107,130,2,0 // vbroadcastss 0x2826b(%rip),%ymm13 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 196,65,36,88,221 // vaddps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,97,130,2,0 // vbroadcastss 0x28261(%rip),%ymm13 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,65,36,92,221 // vsubps %ymm13,%ymm11,%ymm11
- .byte 196,98,125,24,45,82,130,2,0 // vbroadcastss 0x28252(%rip),%ymm13 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 196,65,20,92,228 // vsubps %ymm12,%ymm13,%ymm12
- .byte 196,98,125,24,45,72,130,2,0 // vbroadcastss 0x28248(%rip),%ymm13 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 196,65,20,94,228 // vdivps %ymm12,%ymm13,%ymm12
- .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 196,98,125,24,37,57,130,2,0 // vbroadcastss 0x28239(%rip),%ymm12 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,99,37,74,211,160 // vblendvps %ymm10,%ymm3,%ymm11,%ymm10
- .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,67,45,74,193,128 // vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- .byte 197,188,95,219 // vmaxps %ymm3,%ymm8,%ymm3
- .byte 196,98,125,24,5,75,129,2,0 // vbroadcastss 0x2814b(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gamma_avx
-.globl _sk_gamma_avx
-FUNCTION(_sk_gamma_avx)
-_sk_gamma_avx:
- .byte 72,129,236,184,0,0,0 // sub $0xb8,%rsp
- .byte 197,252,17,188,36,128,0,0,0 // vmovups %ymm7,0x80(%rsp)
- .byte 197,252,17,116,36,96 // vmovups %ymm6,0x60(%rsp)
- .byte 197,252,17,108,36,64 // vmovups %ymm5,0x40(%rsp)
- .byte 197,252,17,100,36,32 // vmovups %ymm4,0x20(%rsp)
- .byte 197,252,17,28,36 // vmovups %ymm3,(%rsp)
- .byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp)
- .byte 197,252,17,76,36,128 // vmovups %ymm1,-0x80(%rsp)
- .byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 197,252,91,204 // vcvtdq2ps %ymm4,%ymm1
- .byte 196,226,125,24,5,150,129,2,0 // vbroadcastss 0x28196(%rip),%ymm0 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
- .byte 197,124,40,192 // vmovaps %ymm0,%ymm8
- .byte 197,124,17,68,36,160 // vmovups %ymm8,-0x60(%rsp)
- .byte 196,98,125,24,13,131,129,2,0 // vbroadcastss 0x28183(%rip),%ymm9 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 196,193,92,84,209 // vandps %ymm9,%ymm4,%ymm2
- .byte 196,98,125,24,21,213,128,2,0 // vbroadcastss 0x280d5(%rip),%ymm10 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,193,108,86,210 // vorps %ymm10,%ymm2,%ymm2
- .byte 196,98,125,24,29,107,129,2,0 // vbroadcastss 0x2816b(%rip),%ymm11 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,97,129,2,0 // vbroadcastss 0x28161(%rip),%ymm12 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 196,193,108,89,220 // vmulps %ymm12,%ymm2,%ymm3
- .byte 197,244,92,203 // vsubps %ymm3,%ymm1,%ymm1
- .byte 196,98,125,24,45,83,129,2,0 // vbroadcastss 0x28153(%rip),%ymm13 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,193,108,88,213 // vaddps %ymm13,%ymm2,%ymm2
- .byte 196,98,125,24,53,73,129,2,0 // vbroadcastss 0x28149(%rip),%ymm14 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 197,140,94,210 // vdivps %ymm2,%ymm14,%ymm2
- .byte 197,244,92,202 // vsubps %ymm2,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,48 // vbroadcastss (%rax),%ymm6
- .byte 197,244,89,206 // vmulps %ymm6,%ymm1,%ymm1
- .byte 196,227,125,8,209,1 // vroundps $0x1,%ymm1,%ymm2
- .byte 197,244,92,234 // vsubps %ymm2,%ymm1,%ymm5
- .byte 196,98,125,24,61,39,129,2,0 // vbroadcastss 0x28127(%rip),%ymm15 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 196,193,116,88,207 // vaddps %ymm15,%ymm1,%ymm1
- .byte 196,226,125,24,61,29,129,2,0 // vbroadcastss 0x2811d(%rip),%ymm7 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 197,212,89,215 // vmulps %ymm7,%ymm5,%ymm2
- .byte 197,244,92,194 // vsubps %ymm2,%ymm1,%ymm0
- .byte 196,226,125,24,29,16,129,2,0 // vbroadcastss 0x28110(%rip),%ymm3 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 197,228,92,237 // vsubps %ymm5,%ymm3,%ymm5
- .byte 196,226,125,24,21,7,129,2,0 // vbroadcastss 0x28107(%rip),%ymm2 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 197,236,94,237 // vdivps %ymm5,%ymm2,%ymm5
- .byte 197,252,88,197 // vaddps %ymm5,%ymm0,%ymm0
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,220,194,205,0 // vcmpeqps %ymm5,%ymm4,%ymm1
- .byte 196,226,125,24,37,241,128,2,0 // vbroadcastss 0x280f1(%rip),%ymm4 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,227,125,74,197,16 // vblendvps %ymm1,%ymm5,%ymm0,%ymm0
- .byte 197,252,17,68,36,192 // vmovups %ymm0,-0x40(%rsp)
- .byte 197,252,16,108,36,128 // vmovups -0x80(%rsp),%ymm5
- .byte 197,252,91,197 // vcvtdq2ps %ymm5,%ymm0
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,193,84,84,201 // vandps %ymm9,%ymm5,%ymm1
- .byte 197,124,40,197 // vmovaps %ymm5,%ymm8
- .byte 196,193,116,86,202 // vorps %ymm10,%ymm1,%ymm1
- .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,193,116,89,236 // vmulps %ymm12,%ymm1,%ymm5
- .byte 197,252,92,197 // vsubps %ymm5,%ymm0,%ymm0
- .byte 196,193,116,88,205 // vaddps %ymm13,%ymm1,%ymm1
- .byte 197,140,94,201 // vdivps %ymm1,%ymm14,%ymm1
- .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
- .byte 197,252,89,198 // vmulps %ymm6,%ymm0,%ymm0
- .byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
- .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 197,244,89,239 // vmulps %ymm7,%ymm1,%ymm5
- .byte 197,252,92,197 // vsubps %ymm5,%ymm0,%ymm0
- .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1
- .byte 197,236,94,201 // vdivps %ymm1,%ymm2,%ymm1
- .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,188,194,205,0 // vcmpeqps %ymm5,%ymm8,%ymm1
- .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,227,125,74,197,16 // vblendvps %ymm1,%ymm5,%ymm0,%ymm0
- .byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
- .byte 197,252,16,108,36,224 // vmovups -0x20(%rsp),%ymm5
- .byte 197,252,91,197 // vcvtdq2ps %ymm5,%ymm0
- .byte 197,252,89,68,36,160 // vmulps -0x60(%rsp),%ymm0,%ymm0
- .byte 196,193,84,84,201 // vandps %ymm9,%ymm5,%ymm1
- .byte 197,124,40,197 // vmovaps %ymm5,%ymm8
- .byte 196,193,116,86,202 // vorps %ymm10,%ymm1,%ymm1
- .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,193,116,89,236 // vmulps %ymm12,%ymm1,%ymm5
- .byte 197,252,92,197 // vsubps %ymm5,%ymm0,%ymm0
- .byte 196,193,116,88,205 // vaddps %ymm13,%ymm1,%ymm1
- .byte 197,140,94,201 // vdivps %ymm1,%ymm14,%ymm1
- .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
- .byte 197,252,89,198 // vmulps %ymm6,%ymm0,%ymm0
- .byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
- .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 197,244,89,239 // vmulps %ymm7,%ymm1,%ymm5
- .byte 197,252,92,197 // vsubps %ymm5,%ymm0,%ymm0
- .byte 197,228,92,201 // vsubps %ymm1,%ymm3,%ymm1
- .byte 197,236,94,201 // vdivps %ymm1,%ymm2,%ymm1
- .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 197,252,89,196 // vmulps %ymm4,%ymm0,%ymm0
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,188,194,202,0 // vcmpeqps %ymm2,%ymm8,%ymm1
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,227,125,74,210,16 // vblendvps %ymm1,%ymm2,%ymm0,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,68,36,192 // vmovups -0x40(%rsp),%ymm0
- .byte 197,252,16,76,36,128 // vmovups -0x80(%rsp),%ymm1
- .byte 197,252,16,28,36 // vmovups (%rsp),%ymm3
- .byte 197,252,16,100,36,32 // vmovups 0x20(%rsp),%ymm4
- .byte 197,252,16,108,36,64 // vmovups 0x40(%rsp),%ymm5
- .byte 197,252,16,116,36,96 // vmovups 0x60(%rsp),%ymm6
- .byte 197,252,16,188,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm7
- .byte 72,129,196,184,0,0,0 // add $0xb8,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gamma_dst_avx
-.globl _sk_gamma_dst_avx
-FUNCTION(_sk_gamma_dst_avx)
-_sk_gamma_dst_avx:
- .byte 72,129,236,248,0,0,0 // sub $0xf8,%rsp
- .byte 197,252,17,188,36,192,0,0,0 // vmovups %ymm7,0xc0(%rsp)
- .byte 197,252,17,116,36,160 // vmovups %ymm6,-0x60(%rsp)
- .byte 197,124,40,197 // vmovaps %ymm5,%ymm8
- .byte 197,252,17,156,36,160,0,0,0 // vmovups %ymm3,0xa0(%rsp)
- .byte 197,252,17,148,36,128,0,0,0 // vmovups %ymm2,0x80(%rsp)
- .byte 197,252,17,76,36,96 // vmovups %ymm1,0x60(%rsp)
- .byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp)
- .byte 197,252,91,196 // vcvtdq2ps %ymm4,%ymm0
- .byte 196,226,125,24,29,70,127,2,0 // vbroadcastss 0x27f46(%rip),%ymm3 # 3c594 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,61,127,2,0 // vbroadcastss 0x27f3d(%rip),%ymm1 # 3c598 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- .byte 197,252,17,12,36 // vmovups %ymm1,(%rsp)
- .byte 197,220,84,201 // vandps %ymm1,%ymm4,%ymm1
- .byte 196,226,125,24,21,139,126,2,0 // vbroadcastss 0x27e8b(%rip),%ymm2 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp)
- .byte 197,244,86,202 // vorps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,28,127,2,0 // vbroadcastss 0x27f1c(%rip),%ymm2 # 3c59c <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- .byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
- .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,37,13,127,2,0 // vbroadcastss 0x27f0d(%rip),%ymm12 # 3c5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- .byte 196,193,116,89,212 // vmulps %ymm12,%ymm1,%ymm2
- .byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,45,255,126,2,0 // vbroadcastss 0x27eff(%rip),%ymm13 # 3c5a4 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- .byte 196,193,116,88,205 // vaddps %ymm13,%ymm1,%ymm1
- .byte 196,98,125,24,53,245,126,2,0 // vbroadcastss 0x27ef5(%rip),%ymm14 # 3c5a8 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- .byte 197,140,94,201 // vdivps %ymm1,%ymm14,%ymm1
- .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,40 // vbroadcastss (%rax),%ymm5
- .byte 197,252,89,197 // vmulps %ymm5,%ymm0,%ymm0
- .byte 196,227,125,8,200,1 // vroundps $0x1,%ymm0,%ymm1
- .byte 197,252,92,201 // vsubps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,61,211,126,2,0 // vbroadcastss 0x27ed3(%rip),%ymm15 # 3c5ac <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- .byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,98,125,24,29,201,126,2,0 // vbroadcastss 0x27ec9(%rip),%ymm11 # 3c5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- .byte 196,193,116,89,211 // vmulps %ymm11,%ymm1,%ymm2
- .byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 196,98,125,24,21,187,126,2,0 // vbroadcastss 0x27ebb(%rip),%ymm10 # 3c5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- .byte 197,172,92,241 // vsubps %ymm1,%ymm10,%ymm6
- .byte 196,98,125,24,13,178,126,2,0 // vbroadcastss 0x27eb2(%rip),%ymm9 # 3c5b8 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- .byte 197,180,94,246 // vdivps %ymm6,%ymm9,%ymm6
- .byte 197,252,88,198 // vaddps %ymm6,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,220,194,225,0 // vcmpeqps %ymm1,%ymm4,%ymm4
- .byte 196,226,125,24,61,156,126,2,0 // vbroadcastss 0x27e9c(%rip),%ymm7 # 3c5bc <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,227,125,74,193,64 // vblendvps %ymm4,%ymm1,%ymm0,%ymm0
- .byte 197,252,17,68,36,32 // vmovups %ymm0,0x20(%rsp)
- .byte 197,124,17,68,36,128 // vmovups %ymm8,-0x80(%rsp)
- .byte 196,193,124,91,192 // vcvtdq2ps %ymm8,%ymm0
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 197,252,16,20,36 // vmovups (%rsp),%ymm2
- .byte 197,188,84,242 // vandps %ymm2,%ymm8,%ymm6
- .byte 197,252,16,76,36,224 // vmovups -0x20(%rsp),%ymm1
- .byte 197,204,86,241 // vorps %ymm1,%ymm6,%ymm6
- .byte 197,252,16,100,36,192 // vmovups -0x40(%rsp),%ymm4
- .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,65,76,89,196 // vmulps %ymm12,%ymm6,%ymm8
- .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
- .byte 196,193,76,88,245 // vaddps %ymm13,%ymm6,%ymm6
- .byte 197,140,94,246 // vdivps %ymm6,%ymm14,%ymm6
- .byte 197,252,92,198 // vsubps %ymm6,%ymm0,%ymm0
- .byte 197,252,89,197 // vmulps %ymm5,%ymm0,%ymm0
- .byte 196,227,125,8,240,1 // vroundps $0x1,%ymm0,%ymm6
- .byte 197,252,92,246 // vsubps %ymm6,%ymm0,%ymm6
- .byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,65,76,89,195 // vmulps %ymm11,%ymm6,%ymm8
- .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
- .byte 197,172,92,246 // vsubps %ymm6,%ymm10,%ymm6
- .byte 197,180,94,246 // vdivps %ymm6,%ymm9,%ymm6
- .byte 197,252,88,198 // vaddps %ymm6,%ymm0,%ymm0
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,194,116,36,128,0 // vcmpeqps -0x80(%rsp),%ymm8,%ymm6
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,195,125,74,192,96 // vblendvps %ymm6,%ymm8,%ymm0,%ymm0
- .byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
- .byte 197,252,16,116,36,160 // vmovups -0x60(%rsp),%ymm6
- .byte 197,252,91,198 // vcvtdq2ps %ymm6,%ymm0
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 197,204,84,242 // vandps %ymm2,%ymm6,%ymm6
- .byte 197,204,86,241 // vorps %ymm1,%ymm6,%ymm6
- .byte 197,252,88,196 // vaddps %ymm4,%ymm0,%ymm0
- .byte 196,65,76,89,196 // vmulps %ymm12,%ymm6,%ymm8
- .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
- .byte 196,193,76,88,245 // vaddps %ymm13,%ymm6,%ymm6
- .byte 197,140,94,246 // vdivps %ymm6,%ymm14,%ymm6
- .byte 197,252,92,198 // vsubps %ymm6,%ymm0,%ymm0
- .byte 197,252,89,197 // vmulps %ymm5,%ymm0,%ymm0
- .byte 196,227,125,8,232,1 // vroundps $0x1,%ymm0,%ymm5
- .byte 197,252,92,237 // vsubps %ymm5,%ymm0,%ymm5
- .byte 196,193,124,88,199 // vaddps %ymm15,%ymm0,%ymm0
- .byte 196,193,84,89,243 // vmulps %ymm11,%ymm5,%ymm6
- .byte 197,252,92,198 // vsubps %ymm6,%ymm0,%ymm0
- .byte 197,172,92,221 // vsubps %ymm5,%ymm10,%ymm3
- .byte 197,180,94,211 // vdivps %ymm3,%ymm9,%ymm2
- .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
- .byte 197,252,89,199 // vmulps %ymm7,%ymm0,%ymm0
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,236,194,76,36,160,0 // vcmpeqps -0x60(%rsp),%ymm2,%ymm1
- .byte 197,253,91,192 // vcvtps2dq %ymm0,%ymm0
- .byte 196,227,125,74,242,16 // vblendvps %ymm1,%ymm2,%ymm0,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,68,36,64 // vmovups 0x40(%rsp),%ymm0
- .byte 197,252,16,76,36,96 // vmovups 0x60(%rsp),%ymm1
- .byte 197,252,16,148,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm2
- .byte 197,252,16,156,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm3
- .byte 197,252,16,100,36,32 // vmovups 0x20(%rsp),%ymm4
- .byte 197,252,16,108,36,128 // vmovups -0x80(%rsp),%ymm5
- .byte 197,252,16,188,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm7
- .byte 72,129,196,248,0,0,0 // add $0xf8,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lab_to_xyz_avx
-.globl _sk_lab_to_xyz_avx
-FUNCTION(_sk_lab_to_xyz_avx)
-_sk_lab_to_xyz_avx:
- .byte 196,98,125,24,5,71,125,2,0 // vbroadcastss 0x27d47(%rip),%ymm8 # 3c5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,161,124,2,0 // vbroadcastss 0x27ca1(%rip),%ymm8 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,47,125,2,0 // vbroadcastss 0x27d2f(%rip),%ymm9 # 3c5c4 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
- .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,193,108,88,209 // vaddps %ymm9,%ymm2,%ymm2
- .byte 196,98,125,24,5,27,125,2,0 // vbroadcastss 0x27d1b(%rip),%ymm8 # 3c5c8 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
- .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,17,125,2,0 // vbroadcastss 0x27d11(%rip),%ymm8 # 3c5cc <_sk_srcover_bgra_8888_sse2_lowp+0x380>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,7,125,2,0 // vbroadcastss 0x27d07(%rip),%ymm8 # 3c5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x384>
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
- .byte 196,98,125,24,5,249,124,2,0 // vbroadcastss 0x27cf9(%rip),%ymm8 # 3c5d4 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 197,252,92,210 // vsubps %ymm2,%ymm0,%ymm2
- .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
- .byte 196,65,116,89,192 // vmulps %ymm8,%ymm1,%ymm8
- .byte 196,98,125,24,13,226,124,2,0 // vbroadcastss 0x27ce2(%rip),%ymm9 # 3c5d8 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
- .byte 196,65,52,194,208,1 // vcmpltps %ymm8,%ymm9,%ymm10
- .byte 196,98,125,24,29,215,124,2,0 // vbroadcastss 0x27cd7(%rip),%ymm11 # 3c5dc <_sk_srcover_bgra_8888_sse2_lowp+0x390>
- .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 196,98,125,24,37,205,124,2,0 // vbroadcastss 0x27ccd(%rip),%ymm12 # 3c5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x394>
- .byte 196,193,116,89,204 // vmulps %ymm12,%ymm1,%ymm1
- .byte 196,67,117,74,192,160 // vblendvps %ymm10,%ymm8,%ymm1,%ymm8
- .byte 197,252,89,200 // vmulps %ymm0,%ymm0,%ymm1
- .byte 197,252,89,201 // vmulps %ymm1,%ymm0,%ymm1
- .byte 197,52,194,209,1 // vcmpltps %ymm1,%ymm9,%ymm10
- .byte 196,193,124,88,195 // vaddps %ymm11,%ymm0,%ymm0
- .byte 196,193,124,89,196 // vmulps %ymm12,%ymm0,%ymm0
- .byte 196,227,125,74,201,160 // vblendvps %ymm10,%ymm1,%ymm0,%ymm1
- .byte 197,236,89,194 // vmulps %ymm2,%ymm2,%ymm0
- .byte 197,236,89,192 // vmulps %ymm0,%ymm2,%ymm0
- .byte 197,52,194,200,1 // vcmpltps %ymm0,%ymm9,%ymm9
- .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 196,193,108,89,212 // vmulps %ymm12,%ymm2,%ymm2
- .byte 196,227,109,74,208,144 // vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- .byte 196,226,125,24,5,131,124,2,0 // vbroadcastss 0x27c83(%rip),%ymm0 # 3c5e4 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,122,124,2,0 // vbroadcastss 0x27c7a(%rip),%ymm8 # 3c5e8 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_a8_avx
-.globl _sk_load_a8_avx
-FUNCTION(_sk_load_a8_avx)
-_sk_load_a8_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 149cd <_sk_load_a8_avx+0x56>
- .byte 196,194,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm0
- .byte 197,249,219,5,25,133,2,0 // vpand 0x28519(%rip),%xmm0,%xmm0 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
- .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,187,123,2,0 // vbroadcastss 0x27bbb(%rip),%ymm1 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,180 // ja 1498f <_sk_load_a8_avx+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,119,0,0,0 // lea 0x77(%rip),%r9 # 14a5c <_sk_load_a8_avx+0xe5>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,150 // jmp 1498f <_sk_load_a8_avx+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
- .byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,110,255,255,255 // jmpq 1498f <_sk_load_a8_avx+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0
- .byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
- .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
- .byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,51,255,255,255 // jmpq 1498f <_sk_load_a8_avx+0x18>
- .byte 146 // xchg %eax,%edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,172,255,255,255,157,255 // ljmp *-0x620001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_dst_avx
-.globl _sk_load_a8_dst_avx
-FUNCTION(_sk_load_a8_dst_avx)
-_sk_load_a8_dst_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 14ace <_sk_load_a8_dst_avx+0x56>
- .byte 196,194,121,48,36,16 // vpmovzxbw (%r8,%rdx,1),%xmm4
- .byte 197,217,219,37,24,132,2,0 // vpand 0x28418(%rip),%xmm4,%xmm4 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
- .byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
- .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,186,122,2,0 // vbroadcastss 0x27aba(%rip),%ymm5 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,220,89,253 // vmulps %ymm5,%ymm4,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,180 // ja 14a90 <_sk_load_a8_dst_avx+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,122,0,0,0 // lea 0x7a(%rip),%r9 # 14b60 <_sk_load_a8_dst_avx+0xe8>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,150 // jmp 14a90 <_sk_load_a8_dst_avx+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,249,110,232 // vmovd %eax,%xmm5
- .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
- .byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,110,255,255,255 // jmpq 14a90 <_sk_load_a8_dst_avx+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,217,196,224,5 // vpinsrw $0x5,%eax,%xmm4,%xmm4
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,217,196,224,4 // vpinsrw $0x4,%eax,%xmm4,%xmm4
- .byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
- .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
- .byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,51,255,255,255 // jmpq 14a90 <_sk_load_a8_dst_avx+0x18>
- .byte 15,31,0 // nopl (%rax)
- .byte 143 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,169,255,255,255,154 // ljmp *-0x65000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_a8_avx
-.globl _sk_gather_a8_avx
-FUNCTION(_sk_gather_a8_avx)
-_sk_gather_a8_avx:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 196,65,57,118,192 // vpcmpeqd %xmm8,%xmm8,%xmm8
- .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
- .byte 196,193,105,254,208 // vpaddd %xmm8,%xmm2,%xmm2
- .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 197,252,93,210 // vminps %ymm2,%ymm0,%ymm2
- .byte 196,226,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm0
- .byte 196,227,125,25,195,1 // vextractf128 $0x1,%ymm0,%xmm3
- .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
- .byte 196,193,121,254,192 // vpaddd %xmm8,%xmm0,%xmm0
- .byte 196,227,125,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
- .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
- .byte 197,244,93,192 // vminps %ymm0,%ymm1,%ymm0
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,200 // vcvttps2dq %ymm0,%ymm1
- .byte 197,249,110,64,8 // vmovd 0x8(%rax),%xmm0
- .byte 197,249,112,216,0 // vpshufd $0x0,%xmm0,%xmm3
- .byte 196,226,97,64,193 // vpmulld %xmm1,%xmm3,%xmm0
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 196,226,97,64,201 // vpmulld %xmm1,%xmm3,%xmm1
- .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
- .byte 196,227,249,22,200,1 // vpextrq $0x1,%xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,202 // vmovq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 197,249,254,194 // vpaddd %xmm2,%xmm0,%xmm0
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,199 // vmovq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,182,60,56 // movzbl (%r8,%r15,1),%r15d
- .byte 67,15,182,44,32 // movzbl (%r8,%r12,1),%ebp
- .byte 197,249,110,197 // vmovd %ebp,%xmm0
- .byte 196,195,121,32,199,1 // vpinsrb $0x1,%r15d,%xmm0,%xmm0
- .byte 67,15,182,44,48 // movzbl (%r8,%r14,1),%ebp
- .byte 196,227,121,32,197,2 // vpinsrb $0x2,%ebp,%xmm0,%xmm0
- .byte 65,15,182,28,24 // movzbl (%r8,%rbx,1),%ebx
- .byte 196,227,121,32,195,3 // vpinsrb $0x3,%ebx,%xmm0,%xmm0
- .byte 196,226,121,49,192 // vpmovzxbd %xmm0,%xmm0
- .byte 67,15,182,44,16 // movzbl (%r8,%r10,1),%ebp
- .byte 67,15,182,28,24 // movzbl (%r8,%r11,1),%ebx
- .byte 197,249,110,203 // vmovd %ebx,%xmm1
- .byte 196,227,113,32,205,1 // vpinsrb $0x1,%ebp,%xmm1,%xmm1
- .byte 67,15,182,44,8 // movzbl (%r8,%r9,1),%ebp
- .byte 196,227,113,32,205,2 // vpinsrb $0x2,%ebp,%xmm1,%xmm1
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,113,32,200,3 // vpinsrb $0x3,%eax,%xmm1,%xmm1
- .byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
- .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,198,120,2,0 // vbroadcastss 0x278c6(%rip),%ymm1 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,252,89,217 // vmulps %ymm1,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_a8_avx
-.globl _sk_store_a8_avx
-FUNCTION(_sk_store_a8_avx)
-_sk_store_a8_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,98,125,24,13,19,120,2,0 // vbroadcastss 0x27813(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,49,120,2,0 // vbroadcastss 0x27831(%rip),%ymm9 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
- .byte 197,57,103,192 // vpackuswb %xmm0,%xmm8,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 14d1f <_sk_store_a8_avx+0x55>
- .byte 196,65,121,214,4,16 // vmovq %xmm8,(%r8,%rdx,1)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 14d1b <_sk_store_a8_avx+0x51>
- .byte 196,66,121,48,192 // vpmovzxbw %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,88,0,0,0 // lea 0x58(%rip),%r9 # 14d90 <_sk_store_a8_avx+0xc6>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,209 // jmp 14d1b <_sk_store_a8_avx+0x51>
- .byte 196,67,121,20,68,16,2,4 // vpextrb $0x4,%xmm8,0x2(%r8,%rdx,1)
- .byte 196,98,57,0,5,101,129,2,0 // vpshufb 0x28165(%rip),%xmm8,%xmm8 # 3cec0 <_sk_srcover_bgra_8888_sse2_lowp+0xc74>
- .byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,183 // jmp 14d1b <_sk_store_a8_avx+0x51>
- .byte 196,67,121,20,68,16,6,12 // vpextrb $0xc,%xmm8,0x6(%r8,%rdx,1)
- .byte 196,67,121,20,68,16,5,10 // vpextrb $0xa,%xmm8,0x5(%r8,%rdx,1)
- .byte 196,67,121,20,68,16,4,8 // vpextrb $0x8,%xmm8,0x4(%r8,%rdx,1)
- .byte 196,98,57,0,5,75,129,2,0 // vpshufb 0x2814b(%rip),%xmm8,%xmm8 # 3ced0 <_sk_srcover_bgra_8888_sse2_lowp+0xc84>
- .byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,142 // jmp 14d1b <_sk_store_a8_avx+0x51>
- .byte 15,31,0 // nopl (%rax)
- .byte 177,255 // mov $0xff,%cl
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 186,255,255,255,236 // mov $0xecffffff,%edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,228 // jmpq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_avx
-.globl _sk_load_g8_avx
-FUNCTION(_sk_load_g8_avx)
-_sk_load_g8_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 14e07 <_sk_load_g8_avx+0x5b>
- .byte 196,194,121,48,4,16 // vpmovzxbw (%r8,%rdx,1),%xmm0
- .byte 197,249,219,5,228,128,2,0 // vpand 0x280e4(%rip),%xmm0,%xmm0 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
- .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,134,119,2,0 // vbroadcastss 0x27786(%rip),%ymm1 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,255,118,2,0 // vbroadcastss 0x276ff(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,175 // ja 14dc4 <_sk_load_g8_avx+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # 14e98 <_sk_load_g8_avx+0xec>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 235,145 // jmp 14dc4 <_sk_load_g8_avx+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,249,196,192,2 // vpinsrw $0x2,%eax,%xmm0,%xmm0
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
- .byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,105,255,255,255 // jmpq 14dc4 <_sk_load_g8_avx+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,249,196,192,5 // vpinsrw $0x5,%eax,%xmm0,%xmm0
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,249,196,192,4 // vpinsrw $0x4,%eax,%xmm0,%xmm0
- .byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
- .byte 196,226,121,48,201 // vpmovzxbw %xmm1,%xmm1
- .byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,46,255,255,255 // jmpq 14dc4 <_sk_load_g8_avx+0x18>
- .byte 102,144 // xchg %ax,%ax
- .byte 144 // nop
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,170,255,255,255,155 // ljmp *-0x64000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde014ea8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd8c5c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,195 // inc %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_dst_avx
-.globl _sk_load_g8_dst_avx
-FUNCTION(_sk_load_g8_dst_avx)
-_sk_load_g8_dst_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,73 // jne 14f0f <_sk_load_g8_dst_avx+0x5b>
- .byte 196,194,121,48,36,16 // vpmovzxbw (%r8,%rdx,1),%xmm4
- .byte 197,217,219,37,220,127,2,0 // vpand 0x27fdc(%rip),%xmm4,%xmm4 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
- .byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
- .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,126,118,2,0 // vbroadcastss 0x2767e(%rip),%ymm5 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,247,117,2,0 // vbroadcastss 0x275f7(%rip),%ymm7 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,40,236 // vmovaps %ymm4,%ymm5
- .byte 197,252,40,244 // vmovaps %ymm4,%ymm6
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,175 // ja 14ecc <_sk_load_g8_dst_avx+0x18>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,121,0,0,0 // lea 0x79(%rip),%r9 # 14fa0 <_sk_load_g8_dst_avx+0xec>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 235,145 // jmp 14ecc <_sk_load_g8_dst_avx+0x18>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 197,217,196,224,2 // vpinsrw $0x2,%eax,%xmm4,%xmm4
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,249,110,232 // vmovd %eax,%xmm5
- .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
- .byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,105,255,255,255 // jmpq 14ecc <_sk_load_g8_dst_avx+0x18>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 197,217,196,224,6 // vpinsrw $0x6,%eax,%xmm4,%xmm4
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 197,217,196,224,5 // vpinsrw $0x5,%eax,%xmm4,%xmm4
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 197,217,196,224,4 // vpinsrw $0x4,%eax,%xmm4,%xmm4
- .byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
- .byte 196,226,121,48,237 // vpmovzxbw %xmm5,%xmm5
- .byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,46,255,255,255 // jmpq 14ecc <_sk_load_g8_dst_avx+0x18>
- .byte 102,144 // xchg %ax,%ax
- .byte 144 // nop
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,170,255,255,255,155 // ljmp *-0x64000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,255,255,255,221 // callq ffffffffde014fb0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd8d64>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,195 // inc %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_g8_avx
-.globl _sk_gather_g8_avx
-FUNCTION(_sk_gather_g8_avx)
-_sk_gather_g8_avx:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 196,65,57,118,192 // vpcmpeqd %xmm8,%xmm8,%xmm8
- .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
- .byte 196,193,105,254,208 // vpaddd %xmm8,%xmm2,%xmm2
- .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 197,252,93,210 // vminps %ymm2,%ymm0,%ymm2
- .byte 196,226,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm0
- .byte 196,227,125,25,195,1 // vextractf128 $0x1,%ymm0,%xmm3
- .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
- .byte 196,193,121,254,192 // vpaddd %xmm8,%xmm0,%xmm0
- .byte 196,227,125,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
- .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
- .byte 197,244,93,192 // vminps %ymm0,%ymm1,%ymm0
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,200 // vcvttps2dq %ymm0,%ymm1
- .byte 197,249,110,64,8 // vmovd 0x8(%rax),%xmm0
- .byte 197,249,112,216,0 // vpshufd $0x0,%xmm0,%xmm3
- .byte 196,226,97,64,193 // vpmulld %xmm1,%xmm3,%xmm0
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 196,226,97,64,201 // vpmulld %xmm1,%xmm3,%xmm1
- .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
- .byte 196,227,249,22,200,1 // vpextrq $0x1,%xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,202 // vmovq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 197,249,254,194 // vpaddd %xmm2,%xmm0,%xmm0
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,199 // vmovq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,182,60,56 // movzbl (%r8,%r15,1),%r15d
- .byte 67,15,182,44,32 // movzbl (%r8,%r12,1),%ebp
- .byte 197,249,110,197 // vmovd %ebp,%xmm0
- .byte 196,195,121,32,199,1 // vpinsrb $0x1,%r15d,%xmm0,%xmm0
- .byte 67,15,182,44,48 // movzbl (%r8,%r14,1),%ebp
- .byte 196,227,121,32,197,2 // vpinsrb $0x2,%ebp,%xmm0,%xmm0
- .byte 65,15,182,28,24 // movzbl (%r8,%rbx,1),%ebx
- .byte 196,227,121,32,195,3 // vpinsrb $0x3,%ebx,%xmm0,%xmm0
- .byte 196,226,121,49,192 // vpmovzxbd %xmm0,%xmm0
- .byte 67,15,182,44,16 // movzbl (%r8,%r10,1),%ebp
- .byte 67,15,182,28,24 // movzbl (%r8,%r11,1),%ebx
- .byte 197,249,110,203 // vmovd %ebx,%xmm1
- .byte 196,227,113,32,205,1 // vpinsrb $0x1,%ebp,%xmm1,%xmm1
- .byte 67,15,182,44,8 // movzbl (%r8,%r9,1),%ebp
- .byte 196,227,113,32,205,2 // vpinsrb $0x2,%ebp,%xmm1,%xmm1
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,113,32,200,3 // vpinsrb $0x3,%eax,%xmm1,%xmm1
- .byte 196,226,121,49,201 // vpmovzxbd %xmm1,%xmm1
- .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,134,116,2,0 // vbroadcastss 0x27486(%rip),%ymm1 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,255,115,2,0 // vbroadcastss 0x273ff(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_565_avx
-.globl _sk_load_565_avx
-FUNCTION(_sk_load_565_avx)
-_sk_load_565_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 151aa <_sk_load_565_avx+0x9b>
- .byte 196,193,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm0
- .byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
- .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,44,116,2,0 // vbroadcastss 0x2742c(%rip),%ymm0 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,31,116,2,0 // vbroadcastss 0x2741f(%rip),%ymm1 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,22,116,2,0 // vbroadcastss 0x27416(%rip),%ymm1 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,9,116,2,0 // vbroadcastss 0x27409(%rip),%ymm3 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,0,116,2,0 // vbroadcastss 0x27400(%rip),%ymm3 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,243,115,2,0 // vbroadcastss 0x273f3(%rip),%ymm3 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,84,115,2,0 // vbroadcastss 0x27354(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,114,255,255,255 // ja 1512e <_sk_load_565_avx+0x1f>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 15228 <_sk_load_565_avx+0x119>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,81,255,255,255 // jmpq 1512e <_sk_load_565_avx+0x1f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
- .byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,52,255,255,255 // jmpq 1512e <_sk_load_565_avx+0x1f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
- .byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,7,255,255,255 // jmpq 1512e <_sk_load_565_avx+0x1f>
- .byte 144 // nop
- .byte 167 // cmpsl %es:(%rdi),%ds:(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,193 // inc %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,181,255,255,255,238 // pushq -0x11000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_565_dst_avx
-.globl _sk_load_565_dst_avx
-FUNCTION(_sk_load_565_dst_avx)
-_sk_load_565_dst_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,130,0,0,0 // jne 152df <_sk_load_565_dst_avx+0x9b>
- .byte 196,193,122,111,36,80 // vmovdqu (%r8,%rdx,2),%xmm4
- .byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
- .byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
- .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 196,227,85,24,244,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,226,125,24,37,247,114,2,0 // vbroadcastss 0x272f7(%rip),%ymm4 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 197,204,84,228 // vandps %ymm4,%ymm6,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,234,114,2,0 // vbroadcastss 0x272ea(%rip),%ymm5 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,225,114,2,0 // vbroadcastss 0x272e1(%rip),%ymm5 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 197,204,84,237 // vandps %ymm5,%ymm6,%ymm5
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,61,212,114,2,0 // vbroadcastss 0x272d4(%rip),%ymm7 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 197,212,89,239 // vmulps %ymm7,%ymm5,%ymm5
- .byte 196,226,125,24,61,203,114,2,0 // vbroadcastss 0x272cb(%rip),%ymm7 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 197,204,84,247 // vandps %ymm7,%ymm6,%ymm6
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,226,125,24,61,190,114,2,0 // vbroadcastss 0x272be(%rip),%ymm7 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 197,204,89,247 // vmulps %ymm7,%ymm6,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,61,31,114,2,0 // vbroadcastss 0x2721f(%rip),%ymm7 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,114,255,255,255 // ja 15263 <_sk_load_565_dst_avx+0x1f>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # 1535c <_sk_load_565_dst_avx+0x118>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,81,255,255,255 // jmpq 15263 <_sk_load_565_dst_avx+0x1f>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,100,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
- .byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,52,255,255,255 // jmpq 15263 <_sk_load_565_dst_avx+0x1f>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,100,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,89,196,100,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,89,196,100,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
- .byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,7,255,255,255 // jmpq 15263 <_sk_load_565_dst_avx+0x1f>
- .byte 168,255 // test $0xff,%al
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,182,255,255,255,239 // pushq -0x10000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_565_avx
-.globl _sk_gather_565_avx
-FUNCTION(_sk_gather_565_avx)
-_sk_gather_565_avx:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 196,65,57,118,192 // vpcmpeqd %xmm8,%xmm8,%xmm8
- .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
- .byte 196,193,105,254,208 // vpaddd %xmm8,%xmm2,%xmm2
- .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 197,252,93,210 // vminps %ymm2,%ymm0,%ymm2
- .byte 196,226,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm0
- .byte 196,227,125,25,195,1 // vextractf128 $0x1,%ymm0,%xmm3
- .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
- .byte 196,193,121,254,192 // vpaddd %xmm8,%xmm0,%xmm0
- .byte 196,227,125,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
- .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
- .byte 197,244,93,192 // vminps %ymm0,%ymm1,%ymm0
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,200 // vcvttps2dq %ymm0,%ymm1
- .byte 197,249,110,64,8 // vmovd 0x8(%rax),%xmm0
- .byte 197,249,112,216,0 // vpshufd $0x0,%xmm0,%xmm3
- .byte 196,226,97,64,193 // vpmulld %xmm1,%xmm3,%xmm0
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 196,226,97,64,201 // vpmulld %xmm1,%xmm3,%xmm1
- .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
- .byte 196,227,249,22,200,1 // vpextrq $0x1,%xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,202 // vmovq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 197,249,254,194 // vpaddd %xmm2,%xmm0,%xmm0
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,199 // vmovq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,183,60,120 // movzwl (%r8,%r15,2),%r15d
- .byte 67,15,183,44,96 // movzwl (%r8,%r12,2),%ebp
- .byte 197,249,110,197 // vmovd %ebp,%xmm0
- .byte 196,193,121,196,199,1 // vpinsrw $0x1,%r15d,%xmm0,%xmm0
- .byte 67,15,183,44,112 // movzwl (%r8,%r14,2),%ebp
- .byte 197,249,196,197,2 // vpinsrw $0x2,%ebp,%xmm0,%xmm0
- .byte 65,15,183,28,88 // movzwl (%r8,%rbx,2),%ebx
- .byte 197,249,196,195,3 // vpinsrw $0x3,%ebx,%xmm0,%xmm0
- .byte 67,15,183,44,88 // movzwl (%r8,%r11,2),%ebp
- .byte 197,249,196,197,4 // vpinsrw $0x4,%ebp,%xmm0,%xmm0
- .byte 67,15,183,44,80 // movzwl (%r8,%r10,2),%ebp
- .byte 197,249,196,197,5 // vpinsrw $0x5,%ebp,%xmm0,%xmm0
- .byte 67,15,183,44,72 // movzwl (%r8,%r9,2),%ebp
- .byte 197,249,196,197,6 // vpinsrw $0x6,%ebp,%xmm0,%xmm0
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
- .byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
- .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 196,227,117,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,226,125,24,5,209,112,2,0 // vbroadcastss 0x270d1(%rip),%ymm0 # 3c578 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- .byte 197,236,84,192 // vandps %ymm0,%ymm2,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,196,112,2,0 // vbroadcastss 0x270c4(%rip),%ymm1 # 3c57c <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,187,112,2,0 // vbroadcastss 0x270bb(%rip),%ymm1 # 3c580 <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- .byte 197,236,84,201 // vandps %ymm1,%ymm2,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,29,174,112,2,0 // vbroadcastss 0x270ae(%rip),%ymm3 # 3c584 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 196,226,125,24,29,165,112,2,0 // vbroadcastss 0x270a5(%rip),%ymm3 # 3c588 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- .byte 197,236,84,211 // vandps %ymm3,%ymm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,152,112,2,0 // vbroadcastss 0x27098(%rip),%ymm3 # 3c58c <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- .byte 197,236,89,211 // vmulps %ymm3,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,249,111,2,0 // vbroadcastss 0x26ff9(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_565_avx
-.globl _sk_store_565_avx
-FUNCTION(_sk_store_565_avx)
-_sk_store_565_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,205,111,2,0 // vbroadcastss 0x26fcd(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,175,112,2,0 // vbroadcastss 0x270af(%rip),%ymm11 # 3c5ec <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,193,25,114,241,11 // vpslld $0xb,%xmm9,%xmm12
- .byte 196,67,125,25,201,1 // vextractf128 $0x1,%ymm9,%xmm9
- .byte 196,193,49,114,241,11 // vpslld $0xb,%xmm9,%xmm9
- .byte 196,67,29,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm12,%ymm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,98,125,24,45,127,112,2,0 // vbroadcastss 0x2707f(%rip),%ymm13 # 3c5f0 <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
- .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,17,114,244,5 // vpslld $0x5,%xmm12,%xmm13
- .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
- .byte 196,193,25,114,244,5 // vpslld $0x5,%xmm12,%xmm12
- .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,65,29,86,201 // vorpd %ymm9,%ymm12,%ymm9
- .byte 197,60,95,194 // vmaxps %ymm2,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 155ca <_sk_store_565_avx+0xbd>
- .byte 196,65,122,127,4,80 // vmovdqu %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 155c6 <_sk_store_565_avx+0xb9>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,66,0,0,0 // lea 0x42(%rip),%r9 # 15620 <_sk_store_565_avx+0x113>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,214 // jmp 155c6 <_sk_store_565_avx+0xb9>
- .byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- .byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 235,198 // jmp 155c6 <_sk_store_565_avx+0xb9>
- .byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- .byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,166 // jmp 155c6 <_sk_store_565_avx+0xb9>
- .byte 199 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
- .byte 255 // (bad)
- .byte 255,208 // callq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 248 // clc
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,240 // push %rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,255,255,255,224 // callq ffffffffe1015638 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fd93ec>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_4444_avx
-.globl _sk_load_4444_avx
-FUNCTION(_sk_load_4444_avx)
-_sk_load_4444_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 156ef <_sk_load_4444_avx+0xb3>
- .byte 196,193,122,111,4,80 // vmovdqu (%r8,%rdx,2),%xmm0
- .byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
- .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,123,111,2,0 // vbroadcastss 0x26f7b(%rip),%ymm0 # 3c5f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- .byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,110,111,2,0 // vbroadcastss 0x26f6e(%rip),%ymm1 # 3c5f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,101,111,2,0 // vbroadcastss 0x26f65(%rip),%ymm1 # 3c5fc <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- .byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,88,111,2,0 // vbroadcastss 0x26f58(%rip),%ymm2 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,79,111,2,0 // vbroadcastss 0x26f4f(%rip),%ymm2 # 3c604 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- .byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,66,111,2,0 // vbroadcastss 0x26f42(%rip),%ymm8 # 3c608 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,56,111,2,0 // vbroadcastss 0x26f38(%rip),%ymm8 # 3c60c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- .byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,42,111,2,0 // vbroadcastss 0x26f2a(%rip),%ymm8 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,90,255,255,255 // ja 1565b <_sk_load_4444_avx+0x1f>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # 1576c <_sk_load_4444_avx+0x130>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,57,255,255,255 // jmpq 1565b <_sk_load_4444_avx+0x1f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,68,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
- .byte 196,227,121,14,193,3 // vpblendw $0x3,%xmm1,%xmm0,%xmm0
- .byte 233,28,255,255,255 // jmpq 1565b <_sk_load_4444_avx+0x1f>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,68,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,121,196,68,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm0
- .byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
- .byte 196,227,113,14,192,240 // vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- .byte 233,239,254,255,255 // jmpq 1565b <_sk_load_4444_avx+0x1f>
- .byte 168,255 // test $0xff,%al
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,182,255,255,255,239 // pushq -0x10000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_4444_dst_avx
-.globl _sk_load_4444_dst_avx
-FUNCTION(_sk_load_4444_dst_avx)
-_sk_load_4444_dst_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,154,0,0,0 // jne 1583b <_sk_load_4444_dst_avx+0xb3>
- .byte 196,193,122,111,36,80 // vmovdqu (%r8,%rdx,2),%xmm4
- .byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
- .byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
- .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 196,227,85,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,226,125,24,37,47,110,2,0 // vbroadcastss 0x26e2f(%rip),%ymm4 # 3c5f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- .byte 197,196,84,228 // vandps %ymm4,%ymm7,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,226,125,24,45,34,110,2,0 // vbroadcastss 0x26e22(%rip),%ymm5 # 3c5f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 197,220,89,229 // vmulps %ymm5,%ymm4,%ymm4
- .byte 196,226,125,24,45,25,110,2,0 // vbroadcastss 0x26e19(%rip),%ymm5 # 3c5fc <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- .byte 197,196,84,237 // vandps %ymm5,%ymm7,%ymm5
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,226,125,24,53,12,110,2,0 // vbroadcastss 0x26e0c(%rip),%ymm6 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 197,212,89,238 // vmulps %ymm6,%ymm5,%ymm5
- .byte 196,226,125,24,53,3,110,2,0 // vbroadcastss 0x26e03(%rip),%ymm6 # 3c604 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- .byte 197,196,84,246 // vandps %ymm6,%ymm7,%ymm6
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,98,125,24,5,246,109,2,0 // vbroadcastss 0x26df6(%rip),%ymm8 # 3c608 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,98,125,24,5,236,109,2,0 // vbroadcastss 0x26dec(%rip),%ymm8 # 3c60c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- .byte 196,193,68,84,248 // vandps %ymm8,%ymm7,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,222,109,2,0 // vbroadcastss 0x26dde(%rip),%ymm8 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,90,255,255,255 // ja 157a7 <_sk_load_4444_dst_avx+0x1f>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,97,0,0,0 // lea 0x61(%rip),%r9 # 158b8 <_sk_load_4444_dst_avx+0x130>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,57,255,255,255 // jmpq 157a7 <_sk_load_4444_dst_avx+0x1f>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,100,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
- .byte 196,227,89,14,229,3 // vpblendw $0x3,%xmm5,%xmm4,%xmm4
- .byte 233,28,255,255,255 // jmpq 157a7 <_sk_load_4444_dst_avx+0x1f>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,100,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,89,196,100,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,89,196,100,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm4
- .byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
- .byte 196,227,81,14,228,240 // vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- .byte 233,239,254,255,255 // jmpq 157a7 <_sk_load_4444_dst_avx+0x1f>
- .byte 168,255 // test $0xff,%al
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,182,255,255,255,239 // pushq -0x10000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_4444_avx
-.globl _sk_gather_4444_avx
-FUNCTION(_sk_gather_4444_avx)
-_sk_gather_4444_avx:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 196,65,57,118,192 // vpcmpeqd %xmm8,%xmm8,%xmm8
- .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
- .byte 196,193,105,254,208 // vpaddd %xmm8,%xmm2,%xmm2
- .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 197,252,93,210 // vminps %ymm2,%ymm0,%ymm2
- .byte 196,226,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm0
- .byte 196,227,125,25,195,1 // vextractf128 $0x1,%ymm0,%xmm3
- .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
- .byte 196,193,121,254,192 // vpaddd %xmm8,%xmm0,%xmm0
- .byte 196,227,125,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
- .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
- .byte 197,244,93,192 // vminps %ymm0,%ymm1,%ymm0
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,200 // vcvttps2dq %ymm0,%ymm1
- .byte 197,249,110,64,8 // vmovd 0x8(%rax),%xmm0
- .byte 197,249,112,216,0 // vpshufd $0x0,%xmm0,%xmm3
- .byte 196,226,97,64,193 // vpmulld %xmm1,%xmm3,%xmm0
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 196,226,97,64,201 // vpmulld %xmm1,%xmm3,%xmm1
- .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
- .byte 196,227,249,22,200,1 // vpextrq $0x1,%xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,202 // vmovq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 197,249,254,194 // vpaddd %xmm2,%xmm0,%xmm0
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,199 // vmovq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,183,60,120 // movzwl (%r8,%r15,2),%r15d
- .byte 67,15,183,44,96 // movzwl (%r8,%r12,2),%ebp
- .byte 197,249,110,197 // vmovd %ebp,%xmm0
- .byte 196,193,121,196,199,1 // vpinsrw $0x1,%r15d,%xmm0,%xmm0
- .byte 67,15,183,44,112 // movzwl (%r8,%r14,2),%ebp
- .byte 197,249,196,197,2 // vpinsrw $0x2,%ebp,%xmm0,%xmm0
- .byte 65,15,183,28,88 // movzwl (%r8,%rbx,2),%ebx
- .byte 197,249,196,195,3 // vpinsrw $0x3,%ebx,%xmm0,%xmm0
- .byte 67,15,183,44,88 // movzwl (%r8,%r11,2),%ebp
- .byte 197,249,196,197,4 // vpinsrw $0x4,%ebp,%xmm0,%xmm0
- .byte 67,15,183,44,80 // movzwl (%r8,%r10,2),%ebp
- .byte 197,249,196,197,5 // vpinsrw $0x5,%ebp,%xmm0,%xmm0
- .byte 67,15,183,44,72 // movzwl (%r8,%r9,2),%ebp
- .byte 197,249,196,197,6 // vpinsrw $0x6,%ebp,%xmm0,%xmm0
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
- .byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
- .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 196,227,117,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,226,125,24,5,241,107,2,0 // vbroadcastss 0x26bf1(%rip),%ymm0 # 3c5f4 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- .byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,226,125,24,13,228,107,2,0 // vbroadcastss 0x26be4(%rip),%ymm1 # 3c5f8 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,219,107,2,0 // vbroadcastss 0x26bdb(%rip),%ymm1 # 3c5fc <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- .byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,226,125,24,21,206,107,2,0 // vbroadcastss 0x26bce(%rip),%ymm2 # 3c600 <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- .byte 197,244,89,202 // vmulps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,21,197,107,2,0 // vbroadcastss 0x26bc5(%rip),%ymm2 # 3c604 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- .byte 197,228,84,210 // vandps %ymm2,%ymm3,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,98,125,24,5,184,107,2,0 // vbroadcastss 0x26bb8(%rip),%ymm8 # 3c608 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,98,125,24,5,174,107,2,0 // vbroadcastss 0x26bae(%rip),%ymm8 # 3c60c <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- .byte 196,193,100,84,216 // vandps %ymm8,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,160,107,2,0 // vbroadcastss 0x26ba0(%rip),%ymm8 # 3c610 <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_4444_avx
-.globl _sk_store_4444_avx
-FUNCTION(_sk_store_4444_avx)
-_sk_store_4444_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,208 // vmaxps %ymm0,%ymm8,%ymm10
- .byte 196,98,125,24,13,89,106,2,0 // vbroadcastss 0x26a59(%rip),%ymm9 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,44,93,209 // vminps %ymm9,%ymm10,%ymm10
- .byte 196,98,125,24,29,99,107,2,0 // vbroadcastss 0x26b63(%rip),%ymm11 # 3c614 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
- .byte 196,65,44,89,211 // vmulps %ymm11,%ymm10,%ymm10
- .byte 196,65,125,91,210 // vcvtps2dq %ymm10,%ymm10
- .byte 196,193,25,114,242,12 // vpslld $0xc,%xmm10,%xmm12
- .byte 196,67,125,25,210,1 // vextractf128 $0x1,%ymm10,%xmm10
- .byte 196,193,41,114,242,12 // vpslld $0xc,%xmm10,%xmm10
- .byte 196,67,29,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,225 // vminps %ymm9,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,17,114,244,8 // vpslld $0x8,%xmm12,%xmm13
- .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
- .byte 196,193,25,114,244,8 // vpslld $0x8,%xmm12,%xmm12
- .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,65,29,86,210 // vorpd %ymm10,%ymm12,%ymm10
- .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
- .byte 196,65,28,93,225 // vminps %ymm9,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,17,114,244,4 // vpslld $0x4,%xmm12,%xmm13
- .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
- .byte 196,193,25,114,244,4 // vpslld $0x4,%xmm12,%xmm12
- .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,193 // vminps %ymm9,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8
- .byte 196,65,45,86,192 // vorpd %ymm8,%ymm10,%ymm8
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,66,57,43,193 // vpackusdw %xmm9,%xmm8,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 15b65 <_sk_store_4444_avx+0xe4>
- .byte 196,65,122,127,4,80 // vmovdqu %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 15b61 <_sk_store_4444_avx+0xe0>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,67,0,0,0 // lea 0x43(%rip),%r9 # 15bbc <_sk_store_4444_avx+0x13b>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,214 // jmp 15b61 <_sk_store_4444_avx+0xe0>
- .byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- .byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 235,198 // jmp 15b61 <_sk_store_4444_avx+0xe0>
- .byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- .byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,166 // jmp 15b61 <_sk_store_4444_avx+0xe0>
- .byte 144 // nop
- .byte 198 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,215 // callq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,207 // dec %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,247 // push %rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 223,255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_8888_avx
-.globl _sk_load_8888_avx
-FUNCTION(_sk_load_8888_avx)
-_sk_load_8888_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 15c79 <_sk_load_8888_avx+0xa1>
- .byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
- .byte 197,125,40,21,64,111,2,0 // vmovapd 0x26f40(%rip),%ymm10 # 3cb40 <_sk_srcover_bgra_8888_sse2_lowp+0x8f4>
- .byte 196,193,53,84,194 // vandpd %ymm10,%ymm9,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,98,105,2,0 // vbroadcastss 0x26962(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
- .byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
- .byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
- .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,193,117,84,202 // vandpd %ymm10,%ymm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,193,33,114,209,16 // vpsrld $0x10,%xmm9,%xmm11
- .byte 197,233,114,211,16 // vpsrld $0x10,%xmm3,%xmm2
- .byte 196,227,37,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm11,%ymm2
- .byte 196,193,109,84,210 // vandpd %ymm10,%ymm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,193,49,114,209,24 // vpsrld $0x18,%xmm9,%xmm9
- .byte 197,225,114,211,24 // vpsrld $0x18,%xmm3,%xmm3
- .byte 196,227,53,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm9,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,108,255,255,255 // ja 15bf8 <_sk_load_8888_avx+0x20>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 15d28 <_sk_load_8888_avx+0x150>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
- .byte 233,78,255,255,255 // jmpq 15bf8 <_sk_load_8888_avx+0x20>
- .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
- .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
- .byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
- .byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,39,255,255,255 // jmpq 15bf8 <_sk_load_8888_avx+0x20>
- .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
- .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,99,117,12,200,64 // vblendps $0x40,%ymm0,%ymm1,%ymm9
- .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0
- .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
- .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0
- .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
- .byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
- .byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,210,254,255,255 // jmpq 15bf8 <_sk_load_8888_avx+0x20>
- .byte 102,144 // xchg %ax,%ax
- .byte 119,255 // ja 15d29 <_sk_load_8888_avx+0x151>
- .byte 255 // (bad)
- .byte 255,152,255,255,255,130 // lcall *-0x7d000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 237 // in (%dx),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 169 // .byte 0xa9
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_8888_dst_avx
-.globl _sk_load_8888_dst_avx
-FUNCTION(_sk_load_8888_dst_avx)
-_sk_load_8888_dst_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 15de5 <_sk_load_8888_dst_avx+0xa1>
- .byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
- .byte 197,125,40,21,244,109,2,0 // vmovapd 0x26df4(%rip),%ymm10 # 3cb60 <_sk_srcover_bgra_8888_sse2_lowp+0x914>
- .byte 196,193,53,84,226 // vandpd %ymm10,%ymm9,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,246,103,2,0 // vbroadcastss 0x267f6(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
- .byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
- .byte 197,201,114,215,8 // vpsrld $0x8,%xmm7,%xmm6
- .byte 196,227,85,24,238,1 // vinsertf128 $0x1,%xmm6,%ymm5,%ymm5
- .byte 196,193,85,84,234 // vandpd %ymm10,%ymm5,%ymm5
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,193,33,114,209,16 // vpsrld $0x10,%xmm9,%xmm11
- .byte 197,201,114,215,16 // vpsrld $0x10,%xmm7,%xmm6
- .byte 196,227,37,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm11,%ymm6
- .byte 196,193,77,84,242 // vandpd %ymm10,%ymm6,%ymm6
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,193,49,114,209,24 // vpsrld $0x18,%xmm9,%xmm9
- .byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
- .byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,108,255,255,255 // ja 15d64 <_sk_load_8888_dst_avx+0x20>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 15e94 <_sk_load_8888_dst_avx+0x150>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
- .byte 233,78,255,255,255 // jmpq 15d64 <_sk_load_8888_dst_avx+0x20>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
- .byte 196,193,123,16,36,144 // vmovsd (%r8,%rdx,4),%xmm4
- .byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,39,255,255,255 // jmpq 15d64 <_sk_load_8888_dst_avx+0x20>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
- .byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,99,85,12,204,64 // vblendps $0x40,%ymm4,%ymm5,%ymm9
- .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- .byte 196,193,121,16,36,144 // vmovupd (%r8,%rdx,4),%xmm4
- .byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,210,254,255,255 // jmpq 15d64 <_sk_load_8888_dst_avx+0x20>
- .byte 102,144 // xchg %ax,%ax
- .byte 119,255 // ja 15e95 <_sk_load_8888_dst_avx+0x151>
- .byte 255 // (bad)
- .byte 255,152,255,255,255,130 // lcall *-0x7d000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 237 // in (%dx),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 169 // .byte 0xa9
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_8888_avx
-.globl _sk_gather_8888_avx
-FUNCTION(_sk_gather_8888_avx)
-_sk_gather_8888_avx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 196,65,57,118,192 // vpcmpeqd %xmm8,%xmm8,%xmm8
- .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
- .byte 196,193,105,254,208 // vpaddd %xmm8,%xmm2,%xmm2
- .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
- .byte 196,193,105,254,208 // vpaddd %xmm8,%xmm2,%xmm2
- .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 197,249,110,80,8 // vmovd 0x8(%rax),%xmm2
- .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2
- .byte 196,226,105,64,217 // vpmulld %xmm1,%xmm2,%xmm3
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 196,226,105,64,201 // vpmulld %xmm1,%xmm2,%xmm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 196,227,125,25,194,1 // vextractf128 $0x1,%ymm0,%xmm2
- .byte 197,241,254,202 // vpaddd %xmm2,%xmm1,%xmm1
- .byte 196,225,249,126,200 // vmovq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 197,225,254,192 // vpaddd %xmm0,%xmm3,%xmm0
- .byte 196,193,249,126,194 // vmovq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,249,22,203,1 // vpextrq $0x1,%xmm1,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,195,249,22,199,1 // vpextrq $0x1,%xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 196,129,121,110,4,152 // vmovd (%r8,%r11,4),%xmm0
- .byte 196,131,121,34,4,144,1 // vpinsrd $0x1,(%r8,%r10,4),%xmm0,%xmm0
- .byte 196,131,121,34,4,160,2 // vpinsrd $0x2,(%r8,%r12,4),%xmm0,%xmm0
- .byte 196,3,121,34,4,184,3 // vpinsrd $0x3,(%r8,%r15,4),%xmm0,%xmm8
- .byte 196,129,121,110,4,136 // vmovd (%r8,%r9,4),%xmm0
- .byte 196,195,121,34,4,128,1 // vpinsrd $0x1,(%r8,%rax,4),%xmm0,%xmm0
- .byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
- .byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
- .byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,21,204,107,2,0 // vmovaps 0x26bcc(%rip),%ymm10 # 3cb80 <_sk_srcover_bgra_8888_sse2_lowp+0x934>
- .byte 196,193,124,84,194 // vandps %ymm10,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,174,101,2,0 // vbroadcastss 0x265ae(%rip),%ymm9 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 196,193,113,114,208,8 // vpsrld $0x8,%xmm8,%xmm1
- .byte 197,233,114,211,8 // vpsrld $0x8,%xmm3,%xmm2
- .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,193,116,84,202 // vandps %ymm10,%ymm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 196,193,33,114,208,16 // vpsrld $0x10,%xmm8,%xmm11
- .byte 197,233,114,211,16 // vpsrld $0x10,%xmm3,%xmm2
- .byte 196,227,37,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm11,%ymm2
- .byte 196,193,108,84,210 // vandps %ymm10,%ymm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 196,193,57,114,208,24 // vpsrld $0x18,%xmm8,%xmm8
- .byte 197,225,114,211,24 // vpsrld $0x18,%xmm3,%xmm3
- .byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_8888_avx
-.globl _sk_store_8888_avx
-FUNCTION(_sk_store_8888_avx)
-_sk_store_8888_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,171,100,2,0 // vbroadcastss 0x264ab(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,201,100,2,0 // vbroadcastss 0x264c9(%rip),%ymm11 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,17,114,244,8 // vpslld $0x8,%xmm12,%xmm13
- .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
- .byte 196,193,25,114,244,8 // vpslld $0x8,%xmm12,%xmm12
- .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,65,29,86,201 // vorpd %ymm9,%ymm12,%ymm9
- .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,17,114,244,16 // vpslld $0x10,%xmm12,%xmm13
- .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
- .byte 196,193,25,114,244,16 // vpslld $0x10,%xmm12,%xmm12
- .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,41,114,240,24 // vpslld $0x18,%xmm8,%xmm10
- .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8
- .byte 196,193,57,114,240,24 // vpslld $0x18,%xmm8,%xmm8
- .byte 196,67,45,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm10,%ymm8
- .byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8
- .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 16108 <_sk_store_8888_avx+0xda>
- .byte 196,65,124,17,4,144 // vmovups %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 16104 <_sk_store_8888_avx+0xd6>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 16170 <_sk_store_8888_avx+0x142>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 16104 <_sk_store_8888_avx+0xd6>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 235,199 // jmp 16104 <_sk_store_8888_avx+0xd6>
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,65,122,17,76,144,16 // vmovss %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,121,17,4,144 // vmovupd %xmm8,(%r8,%rdx,4)
- .byte 235,150 // jmp 16104 <_sk_store_8888_avx+0xd6>
- .byte 102,144 // xchg %ax,%ax
- .byte 181,255 // mov $0xff,%ch
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 189,255,255,255,246 // mov $0xf6ffffff,%ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc016184 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfd9f38>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_avx
-.globl _sk_load_bgra_avx
-FUNCTION(_sk_load_bgra_avx)
-_sk_load_bgra_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 1622d <_sk_load_bgra_avx+0xa1>
- .byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
- .byte 197,125,40,21,236,105,2,0 // vmovapd 0x269ec(%rip),%ymm10 # 3cba0 <_sk_srcover_bgra_8888_sse2_lowp+0x954>
- .byte 196,193,53,84,202 // vandpd %ymm10,%ymm9,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,98,125,24,5,174,99,2,0 // vbroadcastss 0x263ae(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,116,89,208 // vmulps %ymm8,%ymm1,%ymm2
- .byte 196,193,113,114,209,8 // vpsrld $0x8,%xmm9,%xmm1
- .byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
- .byte 197,249,114,211,8 // vpsrld $0x8,%xmm3,%xmm0
- .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 196,193,125,84,194 // vandpd %ymm10,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,193,124,89,200 // vmulps %ymm8,%ymm0,%ymm1
- .byte 196,193,33,114,209,16 // vpsrld $0x10,%xmm9,%xmm11
- .byte 197,249,114,211,16 // vpsrld $0x10,%xmm3,%xmm0
- .byte 196,227,37,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm11,%ymm0
- .byte 196,193,125,84,194 // vandpd %ymm10,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,193,49,114,209,24 // vpsrld $0x18,%xmm9,%xmm9
- .byte 197,225,114,211,24 // vpsrld $0x18,%xmm3,%xmm3
- .byte 196,227,53,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm9,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,108,255,255,255 // ja 161ac <_sk_load_bgra_avx+0x20>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 162dc <_sk_load_bgra_avx+0x150>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
- .byte 233,78,255,255,255 // jmpq 161ac <_sk_load_bgra_avx+0x20>
- .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
- .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
- .byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
- .byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,39,255,255,255 // jmpq 161ac <_sk_load_bgra_avx+0x20>
- .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
- .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,99,117,12,200,64 // vblendps $0x40,%ymm0,%ymm1,%ymm9
- .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0
- .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
- .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0
- .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
- .byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
- .byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,210,254,255,255 // jmpq 161ac <_sk_load_bgra_avx+0x20>
- .byte 102,144 // xchg %ax,%ax
- .byte 119,255 // ja 162dd <_sk_load_bgra_avx+0x151>
- .byte 255 // (bad)
- .byte 255,152,255,255,255,130 // lcall *-0x7d000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 237 // in (%dx),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 169 // .byte 0xa9
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_dst_avx
-.globl _sk_load_bgra_dst_avx
-FUNCTION(_sk_load_bgra_dst_avx)
-_sk_load_bgra_dst_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,135,0,0,0 // jne 16399 <_sk_load_bgra_dst_avx+0xa1>
- .byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
- .byte 197,125,40,21,160,104,2,0 // vmovapd 0x268a0(%rip),%ymm10 # 3cbc0 <_sk_srcover_bgra_8888_sse2_lowp+0x974>
- .byte 196,193,53,84,234 // vandpd %ymm10,%ymm9,%ymm5
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,98,125,24,5,66,98,2,0 // vbroadcastss 0x26242(%rip),%ymm8 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,84,89,240 // vmulps %ymm8,%ymm5,%ymm6
- .byte 196,193,81,114,209,8 // vpsrld $0x8,%xmm9,%xmm5
- .byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
- .byte 197,217,114,215,8 // vpsrld $0x8,%xmm7,%xmm4
- .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 196,193,93,84,226 // vandpd %ymm10,%ymm4,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,193,92,89,232 // vmulps %ymm8,%ymm4,%ymm5
- .byte 196,193,33,114,209,16 // vpsrld $0x10,%xmm9,%xmm11
- .byte 197,217,114,215,16 // vpsrld $0x10,%xmm7,%xmm4
- .byte 196,227,37,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm11,%ymm4
- .byte 196,193,93,84,226 // vandpd %ymm10,%ymm4,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,193,49,114,209,24 // vpsrld $0x18,%xmm9,%xmm9
- .byte 197,193,114,215,24 // vpsrld $0x18,%xmm7,%xmm7
- .byte 196,227,53,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,108,255,255,255 // ja 16318 <_sk_load_bgra_dst_avx+0x20>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 16448 <_sk_load_bgra_dst_avx+0x150>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
- .byte 233,78,255,255,255 // jmpq 16318 <_sk_load_bgra_dst_avx+0x20>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
- .byte 196,193,123,16,36,144 // vmovsd (%r8,%rdx,4),%xmm4
- .byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,39,255,255,255 // jmpq 16318 <_sk_load_bgra_dst_avx+0x20>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
- .byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,99,85,12,204,64 // vblendps $0x40,%ymm4,%ymm5,%ymm9
- .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- .byte 196,193,121,16,36,144 // vmovupd (%r8,%rdx,4),%xmm4
- .byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,210,254,255,255 // jmpq 16318 <_sk_load_bgra_dst_avx+0x20>
- .byte 102,144 // xchg %ax,%ax
- .byte 119,255 // ja 16449 <_sk_load_bgra_dst_avx+0x151>
- .byte 255 // (bad)
- .byte 255,152,255,255,255,130 // lcall *-0x7d000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 237 // in (%dx),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 169 // .byte 0xa9
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_bgra_avx
-.globl _sk_gather_bgra_avx
-FUNCTION(_sk_gather_bgra_avx)
-_sk_gather_bgra_avx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 196,65,57,118,192 // vpcmpeqd %xmm8,%xmm8,%xmm8
- .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
- .byte 196,193,105,254,208 // vpaddd %xmm8,%xmm2,%xmm2
- .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
- .byte 196,193,105,254,208 // vpaddd %xmm8,%xmm2,%xmm2
- .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 197,249,110,80,8 // vmovd 0x8(%rax),%xmm2
- .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2
- .byte 196,226,105,64,217 // vpmulld %xmm1,%xmm2,%xmm3
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 196,226,105,64,201 // vpmulld %xmm1,%xmm2,%xmm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 196,227,125,25,194,1 // vextractf128 $0x1,%ymm0,%xmm2
- .byte 197,241,254,202 // vpaddd %xmm2,%xmm1,%xmm1
- .byte 196,225,249,126,200 // vmovq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 197,225,254,192 // vpaddd %xmm0,%xmm3,%xmm0
- .byte 196,193,249,126,194 // vmovq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,249,22,203,1 // vpextrq $0x1,%xmm1,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,195,249,22,199,1 // vpextrq $0x1,%xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 196,129,121,110,4,152 // vmovd (%r8,%r11,4),%xmm0
- .byte 196,131,121,34,4,144,1 // vpinsrd $0x1,(%r8,%r10,4),%xmm0,%xmm0
- .byte 196,131,121,34,4,160,2 // vpinsrd $0x2,(%r8,%r12,4),%xmm0,%xmm0
- .byte 196,3,121,34,4,184,3 // vpinsrd $0x3,(%r8,%r15,4),%xmm0,%xmm8
- .byte 196,129,121,110,4,136 // vmovd (%r8,%r9,4),%xmm0
- .byte 196,195,121,34,4,128,1 // vpinsrd $0x1,(%r8,%rax,4),%xmm0,%xmm0
- .byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
- .byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
- .byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 197,124,40,13,120,102,2,0 // vmovaps 0x26678(%rip),%ymm9 # 3cbe0 <_sk_srcover_bgra_8888_sse2_lowp+0x994>
- .byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,21,250,95,2,0 // vbroadcastss 0x25ffa(%rip),%ymm10 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 196,193,124,89,210 // vmulps %ymm10,%ymm0,%ymm2
- .byte 196,193,121,114,208,8 // vpsrld $0x8,%xmm8,%xmm0
- .byte 197,241,114,211,8 // vpsrld $0x8,%xmm3,%xmm1
- .byte 196,227,125,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,193,124,89,202 // vmulps %ymm10,%ymm0,%ymm1
- .byte 196,193,33,114,208,16 // vpsrld $0x10,%xmm8,%xmm11
- .byte 197,249,114,211,16 // vpsrld $0x10,%xmm3,%xmm0
- .byte 196,227,37,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm11,%ymm0
- .byte 196,193,124,84,193 // vandps %ymm9,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,193,124,89,194 // vmulps %ymm10,%ymm0,%ymm0
- .byte 196,193,57,114,208,24 // vpsrld $0x18,%xmm8,%xmm8
- .byte 197,225,114,211,24 // vpsrld $0x18,%xmm3,%xmm3
- .byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,218 // vmulps %ymm10,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_bgra_avx
-.globl _sk_store_bgra_avx
-FUNCTION(_sk_store_bgra_avx)
-_sk_store_bgra_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,202 // vmaxps %ymm2,%ymm8,%ymm9
- .byte 196,98,125,24,21,247,94,2,0 // vbroadcastss 0x25ef7(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,21,95,2,0 // vbroadcastss 0x25f15(%rip),%ymm11 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,17,114,244,8 // vpslld $0x8,%xmm12,%xmm13
- .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
- .byte 196,193,25,114,244,8 // vpslld $0x8,%xmm12,%xmm12
- .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,65,29,86,201 // vorpd %ymm9,%ymm12,%ymm9
- .byte 197,60,95,224 // vmaxps %ymm0,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,17,114,244,16 // vpslld $0x10,%xmm12,%xmm13
- .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
- .byte 196,193,25,114,244,16 // vpslld $0x10,%xmm12,%xmm12
- .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,41,114,240,24 // vpslld $0x18,%xmm8,%xmm10
- .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8
- .byte 196,193,57,114,240,24 // vpslld $0x18,%xmm8,%xmm8
- .byte 196,67,45,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm10,%ymm8
- .byte 196,65,29,86,192 // vorpd %ymm8,%ymm12,%ymm8
- .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 166bc <_sk_store_bgra_avx+0xda>
- .byte 196,65,124,17,4,144 // vmovups %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 166b8 <_sk_store_bgra_avx+0xd6>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 16724 <_sk_store_bgra_avx+0x142>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 166b8 <_sk_store_bgra_avx+0xd6>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 235,199 // jmp 166b8 <_sk_store_bgra_avx+0xd6>
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,65,122,17,76,144,16 // vmovss %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,121,17,4,144 // vmovupd %xmm8,(%r8,%rdx,4)
- .byte 235,150 // jmp 166b8 <_sk_store_bgra_avx+0xd6>
- .byte 102,144 // xchg %ax,%ax
- .byte 181,255 // mov $0xff,%ch
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 189,255,255,255,246 // mov $0xf6ffffff,%ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 233,255,255,255,219 // jmpq ffffffffdc016738 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfda4ec>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_1010102_avx
-.globl _sk_load_1010102_avx
-FUNCTION(_sk_load_1010102_avx)
-_sk_load_1010102_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,145,0,0,0 // jne 167eb <_sk_load_1010102_avx+0xab>
- .byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
- .byte 196,98,125,24,29,175,94,2,0 // vbroadcastss 0x25eaf(%rip),%ymm11 # 3c618 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- .byte 196,193,53,84,195 // vandpd %ymm11,%ymm9,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,5,161,94,2,0 // vbroadcastss 0x25ea1(%rip),%ymm8 # 3c61c <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 196,193,41,114,209,10 // vpsrld $0xa,%xmm9,%xmm10
- .byte 196,99,125,25,203,1 // vextractf128 $0x1,%ymm9,%xmm3
- .byte 197,241,114,211,10 // vpsrld $0xa,%xmm3,%xmm1
- .byte 196,227,45,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm10,%ymm1
- .byte 196,193,117,84,203 // vandpd %ymm11,%ymm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 196,193,41,114,209,20 // vpsrld $0x14,%xmm9,%xmm10
- .byte 197,233,114,211,20 // vpsrld $0x14,%xmm3,%xmm2
- .byte 196,227,45,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm10,%ymm2
- .byte 196,193,109,84,211 // vandpd %ymm11,%ymm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,208 // vmulps %ymm8,%ymm2,%ymm2
- .byte 196,193,57,114,209,30 // vpsrld $0x1e,%xmm9,%xmm8
- .byte 197,225,114,211,30 // vpsrld $0x1e,%xmm3,%xmm3
- .byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,134,93,2,0 // vbroadcastss 0x25d86(%rip),%ymm8 # 3c568 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,98,255,255,255 // ja 16760 <_sk_load_1010102_avx+0x20>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,144,0,0,0 // lea 0x90(%rip),%r9 # 16898 <_sk_load_1010102_avx+0x158>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
- .byte 233,68,255,255,255 // jmpq 16760 <_sk_load_1010102_avx+0x20>
- .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
- .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,99,117,12,200,4 // vblendps $0x4,%ymm0,%ymm1,%ymm9
- .byte 196,193,123,16,4,144 // vmovsd (%r8,%rdx,4),%xmm0
- .byte 196,99,53,13,200,1 // vblendpd $0x1,%ymm0,%ymm9,%ymm9
- .byte 233,29,255,255,255 // jmpq 16760 <_sk_load_1010102_avx+0x20>
- .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
- .byte 197,249,112,192,68 // vpshufd $0x44,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,99,117,12,200,64 // vblendps $0x40,%ymm0,%ymm1,%ymm9
- .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0
- .byte 196,195,121,34,68,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
- .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0
- .byte 196,195,121,34,68,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- .byte 196,99,53,24,200,1 // vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
- .byte 196,193,121,16,4,144 // vmovupd (%r8,%rdx,4),%xmm0
- .byte 196,67,125,13,201,12 // vblendpd $0xc,%ymm9,%ymm0,%ymm9
- .byte 233,200,254,255,255 // jmpq 16760 <_sk_load_1010102_avx+0x20>
- .byte 121,255 // jns 16899 <_sk_load_1010102_avx+0x159>
- .byte 255 // (bad)
- .byte 255,154,255,255,255,132 // lcall *-0x7b000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_1010102_dst_avx
-.globl _sk_load_1010102_dst_avx
-FUNCTION(_sk_load_1010102_dst_avx)
-_sk_load_1010102_dst_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,145,0,0,0 // jne 1695f <_sk_load_1010102_dst_avx+0xab>
- .byte 196,65,125,16,12,144 // vmovupd (%r8,%rdx,4),%ymm9
- .byte 196,98,125,24,29,59,93,2,0 // vbroadcastss 0x25d3b(%rip),%ymm11 # 3c618 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- .byte 196,193,53,84,227 // vandpd %ymm11,%ymm9,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,98,125,24,5,45,93,2,0 // vbroadcastss 0x25d2d(%rip),%ymm8 # 3c61c <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- .byte 196,193,92,89,224 // vmulps %ymm8,%ymm4,%ymm4
- .byte 196,193,41,114,209,10 // vpsrld $0xa,%xmm9,%xmm10
- .byte 196,99,125,25,207,1 // vextractf128 $0x1,%ymm9,%xmm7
- .byte 197,209,114,215,10 // vpsrld $0xa,%xmm7,%xmm5
- .byte 196,227,45,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm10,%ymm5
- .byte 196,193,85,84,235 // vandpd %ymm11,%ymm5,%ymm5
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,193,84,89,232 // vmulps %ymm8,%ymm5,%ymm5
- .byte 196,193,41,114,209,20 // vpsrld $0x14,%xmm9,%xmm10
- .byte 197,201,114,215,20 // vpsrld $0x14,%xmm7,%xmm6
- .byte 196,227,45,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm10,%ymm6
- .byte 196,193,77,84,243 // vandpd %ymm11,%ymm6,%ymm6
- .byte 197,252,91,246 // vcvtdq2ps %ymm6,%ymm6
- .byte 196,193,76,89,240 // vmulps %ymm8,%ymm6,%ymm6
- .byte 196,193,57,114,209,30 // vpsrld $0x1e,%xmm9,%xmm8
- .byte 197,193,114,215,30 // vpsrld $0x1e,%xmm7,%xmm7
- .byte 196,227,61,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
- .byte 197,252,91,255 // vcvtdq2ps %ymm7,%ymm7
- .byte 196,98,125,24,5,18,92,2,0 // vbroadcastss 0x25c12(%rip),%ymm8 # 3c568 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- .byte 196,193,68,89,248 // vmulps %ymm8,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 15,135,98,255,255,255 // ja 168d4 <_sk_load_1010102_dst_avx+0x20>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,144,0,0,0 // lea 0x90(%rip),%r9 # 16a0c <_sk_load_1010102_dst_avx+0x158>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,122,16,12,144 // vmovss (%r8,%rdx,4),%xmm9
- .byte 233,68,255,255,255 // jmpq 168d4 <_sk_load_1010102_dst_avx+0x20>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,99,85,12,204,4 // vblendps $0x4,%ymm4,%ymm5,%ymm9
- .byte 196,193,123,16,36,144 // vmovsd (%r8,%rdx,4),%xmm4
- .byte 196,99,53,13,204,1 // vblendpd $0x1,%ymm4,%ymm9,%ymm9
- .byte 233,29,255,255,255 // jmpq 168d4 <_sk_load_1010102_dst_avx+0x20>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 197,249,112,228,68 // vpshufd $0x44,%xmm4,%xmm4
- .byte 196,227,125,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 196,99,85,12,204,64 // vblendps $0x40,%ymm4,%ymm5,%ymm9
- .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
- .byte 196,195,89,34,100,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- .byte 196,99,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm4
- .byte 196,195,89,34,100,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- .byte 196,99,53,24,204,1 // vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- .byte 196,193,121,16,36,144 // vmovupd (%r8,%rdx,4),%xmm4
- .byte 196,67,93,13,201,12 // vblendpd $0xc,%ymm9,%ymm4,%ymm9
- .byte 233,200,254,255,255 // jmpq 168d4 <_sk_load_1010102_dst_avx+0x20>
- .byte 121,255 // jns 16a0d <_sk_load_1010102_dst_avx+0x159>
- .byte 255 // (bad)
- .byte 255,154,255,255,255,132 // lcall *-0x7b000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_1010102_avx
-.globl _sk_gather_1010102_avx
-FUNCTION(_sk_gather_1010102_avx)
-_sk_gather_1010102_avx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 196,65,57,118,192 // vpcmpeqd %xmm8,%xmm8,%xmm8
- .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
- .byte 196,193,105,254,208 // vpaddd %xmm8,%xmm2,%xmm2
- .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,180,95,192 // vmaxps %ymm0,%ymm9,%ymm0
- .byte 197,252,93,194 // vminps %ymm2,%ymm0,%ymm0
- .byte 196,226,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 196,193,97,254,216 // vpaddd %xmm8,%xmm3,%xmm3
- .byte 196,193,105,254,208 // vpaddd %xmm8,%xmm2,%xmm2
- .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 197,180,95,201 // vmaxps %ymm1,%ymm9,%ymm1
- .byte 197,244,93,202 // vminps %ymm2,%ymm1,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 197,249,110,80,8 // vmovd 0x8(%rax),%xmm2
- .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2
- .byte 196,226,105,64,217 // vpmulld %xmm1,%xmm2,%xmm3
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 196,226,105,64,201 // vpmulld %xmm1,%xmm2,%xmm1
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 196,227,125,25,194,1 // vextractf128 $0x1,%ymm0,%xmm2
- .byte 197,241,254,202 // vpaddd %xmm2,%xmm1,%xmm1
- .byte 196,225,249,126,200 // vmovq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 197,225,254,192 // vpaddd %xmm0,%xmm3,%xmm0
- .byte 196,193,249,126,194 // vmovq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,249,22,203,1 // vpextrq $0x1,%xmm1,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,195,249,22,199,1 // vpextrq $0x1,%xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 196,129,121,110,4,152 // vmovd (%r8,%r11,4),%xmm0
- .byte 196,131,121,34,4,144,1 // vpinsrd $0x1,(%r8,%r10,4),%xmm0,%xmm0
- .byte 196,131,121,34,4,160,2 // vpinsrd $0x2,(%r8,%r12,4),%xmm0,%xmm0
- .byte 196,3,121,34,4,184,3 // vpinsrd $0x3,(%r8,%r15,4),%xmm0,%xmm8
- .byte 196,129,121,110,4,136 // vmovd (%r8,%r9,4),%xmm0
- .byte 196,195,121,34,4,128,1 // vpinsrd $0x1,(%r8,%rax,4),%xmm0,%xmm0
- .byte 196,131,121,34,4,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
- .byte 196,195,121,34,28,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
- .byte 196,227,61,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- .byte 196,98,125,24,29,235,90,2,0 // vbroadcastss 0x25aeb(%rip),%ymm11 # 3c618 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- .byte 196,193,124,84,195 // vandps %ymm11,%ymm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,221,90,2,0 // vbroadcastss 0x25add(%rip),%ymm9 # 3c61c <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 196,193,41,114,208,10 // vpsrld $0xa,%xmm8,%xmm10
- .byte 197,241,114,211,10 // vpsrld $0xa,%xmm3,%xmm1
- .byte 196,227,45,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm10,%ymm1
- .byte 196,193,116,84,203 // vandps %ymm11,%ymm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 196,193,41,114,208,20 // vpsrld $0x14,%xmm8,%xmm10
- .byte 197,233,114,211,20 // vpsrld $0x14,%xmm3,%xmm2
- .byte 196,227,45,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm10,%ymm2
- .byte 196,193,108,84,211 // vandps %ymm11,%ymm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 196,193,57,114,208,30 // vpsrld $0x1e,%xmm8,%xmm8
- .byte 197,225,114,211,30 // vpsrld $0x1e,%xmm3,%xmm3
- .byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,98,125,24,5,200,89,2,0 // vbroadcastss 0x259c8(%rip),%ymm8 # 3c568 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- .byte 196,193,100,89,216 // vmulps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_1010102_avx
-.globl _sk_store_1010102_avx
-FUNCTION(_sk_store_1010102_avx)
-_sk_store_1010102_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,41,89,2,0 // vbroadcastss 0x25929(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,63,90,2,0 // vbroadcastss 0x25a3f(%rip),%ymm11 # 3c620 <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,193,17,114,244,10 // vpslld $0xa,%xmm12,%xmm13
- .byte 196,67,125,25,228,1 // vextractf128 $0x1,%ymm12,%xmm12
- .byte 196,193,25,114,244,10 // vpslld $0xa,%xmm12,%xmm12
- .byte 196,67,21,24,228,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- .byte 196,65,29,86,201 // vorpd %ymm9,%ymm12,%ymm9
- .byte 197,60,95,226 // vmaxps %ymm2,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,219 // vmulps %ymm11,%ymm12,%ymm11
- .byte 196,65,125,91,219 // vcvtps2dq %ymm11,%ymm11
- .byte 196,193,25,114,243,20 // vpslld $0x14,%xmm11,%xmm12
- .byte 196,67,125,25,219,1 // vextractf128 $0x1,%ymm11,%xmm11
- .byte 196,193,33,114,243,20 // vpslld $0x14,%xmm11,%xmm11
- .byte 196,67,29,24,219,1 // vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,204,89,2,0 // vbroadcastss 0x259cc(%rip),%ymm10 # 3c624 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
- .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,193,41,114,240,30 // vpslld $0x1e,%xmm8,%xmm10
- .byte 196,67,125,25,192,1 // vextractf128 $0x1,%ymm8,%xmm8
- .byte 196,193,57,114,240,30 // vpslld $0x1e,%xmm8,%xmm8
- .byte 196,67,45,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm10,%ymm8
- .byte 196,65,37,86,192 // vorpd %ymm8,%ymm11,%ymm8
- .byte 196,65,53,86,192 // vorpd %ymm8,%ymm9,%ymm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 16c93 <_sk_store_1010102_avx+0xe3>
- .byte 196,65,124,17,4,144 // vmovups %ymm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,242 // ja 16c8f <_sk_store_1010102_avx+0xdf>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,85,0,0,0 // lea 0x55(%rip),%r9 # 16cfc <_sk_store_1010102_avx+0x14c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 16c8f <_sk_store_1010102_avx+0xdf>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 235,199 // jmp 16c8f <_sk_store_1010102_avx+0xdf>
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,25,193,1 // vextractf128 $0x1,%ymm8,%xmm9
- .byte 196,65,122,17,76,144,16 // vmovss %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,121,17,4,144 // vmovupd %xmm8,(%r8,%rdx,4)
- .byte 235,150 // jmp 16c8f <_sk_store_1010102_avx+0xdf>
- .byte 15,31,0 // nopl (%rax)
- .byte 180,255 // mov $0xff,%ah
- .byte 255 // (bad)
- .byte 255,196 // inc %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 188,255,255,255,245 // mov $0xf5ffffff,%esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,255,255,255,218 // callq ffffffffdb016d10 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdafdaac4>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,204 // dec %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_f16_avx
-.globl _sk_load_f16_avx
-FUNCTION(_sk_load_f16_avx)
-_sk_load_f16_avx:
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 197,252,17,124,36,224 // vmovups %ymm7,-0x20(%rsp)
- .byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
- .byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
- .byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 16f6d <_sk_load_f16_avx+0x255>
- .byte 196,65,121,16,4,208 // vmovupd (%r8,%rdx,8),%xmm8
- .byte 196,193,121,16,84,208,16 // vmovupd 0x10(%r8,%rdx,8),%xmm2
- .byte 196,193,121,16,92,208,32 // vmovupd 0x20(%r8,%rdx,8),%xmm3
- .byte 196,65,122,111,76,208,48 // vmovdqu 0x30(%r8,%rdx,8),%xmm9
- .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0
- .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2
- .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1
- .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3
- .byte 197,121,97,242 // vpunpcklwd %xmm2,%xmm0,%xmm14
- .byte 197,121,105,194 // vpunpckhwd %xmm2,%xmm0,%xmm8
- .byte 197,113,97,251 // vpunpcklwd %xmm3,%xmm1,%xmm15
- .byte 197,113,105,203 // vpunpckhwd %xmm3,%xmm1,%xmm9
- .byte 196,193,9,108,199 // vpunpcklqdq %xmm15,%xmm14,%xmm0
- .byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
- .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,21,193,105,2,0 // vmovddup 0x269c1(%rip),%xmm10 # 3d768 <_sk_srcover_bgra_8888_sse2_lowp+0x151c>
- .byte 196,193,121,219,218 // vpand %xmm10,%xmm0,%xmm3
- .byte 196,98,121,24,29,219,88,2,0 // vbroadcastss 0x258db(%rip),%xmm11 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0x444>
- .byte 197,33,102,227 // vpcmpgtd %xmm3,%xmm11,%xmm12
- .byte 196,193,113,219,210 // vpand %xmm10,%xmm1,%xmm2
- .byte 197,33,102,234 // vpcmpgtd %xmm2,%xmm11,%xmm13
- .byte 196,195,21,24,252,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm7
- .byte 197,123,18,37,160,105,2,0 // vmovddup 0x269a0(%rip),%xmm12 # 3d770 <_sk_srcover_bgra_8888_sse2_lowp+0x1524>
- .byte 196,193,113,219,204 // vpand %xmm12,%xmm1,%xmm1
- .byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1
- .byte 196,193,121,219,196 // vpand %xmm12,%xmm0,%xmm0
- .byte 197,249,114,240,16 // vpslld $0x10,%xmm0,%xmm0
- .byte 197,233,114,242,13 // vpslld $0xd,%xmm2,%xmm2
- .byte 197,241,235,202 // vpor %xmm2,%xmm1,%xmm1
- .byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
- .byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,149,88,2,0 // vbroadcastss 0x25895(%rip),%xmm3 # 3c694 <_sk_srcover_bgra_8888_sse2_lowp+0x448>
- .byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
- .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
- .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,227,125,74,196,112 // vblendvps %ymm7,%ymm4,%ymm0,%ymm0
- .byte 196,193,9,109,207 // vpunpckhqdq %xmm15,%xmm14,%xmm1
- .byte 196,226,121,51,209 // vpmovzxwd %xmm1,%xmm2
- .byte 197,249,112,201,78 // vpshufd $0x4e,%xmm1,%xmm1
- .byte 196,98,121,51,249 // vpmovzxwd %xmm1,%xmm15
- .byte 196,193,1,219,250 // vpand %xmm10,%xmm15,%xmm7
- .byte 197,33,102,247 // vpcmpgtd %xmm7,%xmm11,%xmm14
- .byte 196,193,105,219,202 // vpand %xmm10,%xmm2,%xmm1
- .byte 197,33,102,233 // vpcmpgtd %xmm1,%xmm11,%xmm13
- .byte 196,67,21,24,238,1 // vinsertf128 $0x1,%xmm14,%ymm13,%ymm13
- .byte 196,193,105,219,212 // vpand %xmm12,%xmm2,%xmm2
- .byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
- .byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1
- .byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1
- .byte 196,193,1,219,212 // vpand %xmm12,%xmm15,%xmm2
- .byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
- .byte 197,193,114,247,13 // vpslld $0xd,%xmm7,%xmm7
- .byte 197,233,235,215 // vpor %xmm7,%xmm2,%xmm2
- .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2
- .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
- .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,227,117,74,204,208 // vblendvps %ymm13,%ymm4,%ymm1,%ymm1
- .byte 196,193,57,108,209 // vpunpcklqdq %xmm9,%xmm8,%xmm2
- .byte 196,226,121,51,250 // vpmovzxwd %xmm2,%xmm7
- .byte 197,249,112,210,78 // vpshufd $0x4e,%xmm2,%xmm2
- .byte 196,98,121,51,234 // vpmovzxwd %xmm2,%xmm13
- .byte 196,65,17,219,250 // vpand %xmm10,%xmm13,%xmm15
- .byte 196,65,33,102,247 // vpcmpgtd %xmm15,%xmm11,%xmm14
- .byte 196,193,65,219,210 // vpand %xmm10,%xmm7,%xmm2
- .byte 197,161,102,242 // vpcmpgtd %xmm2,%xmm11,%xmm6
- .byte 196,195,77,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm6,%ymm6
- .byte 196,193,65,219,252 // vpand %xmm12,%xmm7,%xmm7
- .byte 197,193,114,247,16 // vpslld $0x10,%xmm7,%xmm7
- .byte 197,233,114,242,13 // vpslld $0xd,%xmm2,%xmm2
- .byte 197,193,235,210 // vpor %xmm2,%xmm7,%xmm2
- .byte 196,193,17,219,252 // vpand %xmm12,%xmm13,%xmm7
- .byte 197,193,114,247,16 // vpslld $0x10,%xmm7,%xmm7
- .byte 196,193,81,114,247,13 // vpslld $0xd,%xmm15,%xmm5
- .byte 197,193,235,237 // vpor %xmm5,%xmm7,%xmm5
- .byte 197,209,254,235 // vpaddd %xmm3,%xmm5,%xmm5
- .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2
- .byte 196,227,109,24,213,1 // vinsertf128 $0x1,%xmm5,%ymm2,%ymm2
- .byte 196,227,109,74,212,96 // vblendvps %ymm6,%ymm4,%ymm2,%ymm2
- .byte 196,193,57,109,233 // vpunpckhqdq %xmm9,%xmm8,%xmm5
- .byte 196,226,121,51,245 // vpmovzxwd %xmm5,%xmm6
- .byte 197,249,112,237,78 // vpshufd $0x4e,%xmm5,%xmm5
- .byte 196,226,121,51,237 // vpmovzxwd %xmm5,%xmm5
- .byte 196,65,81,219,202 // vpand %xmm10,%xmm5,%xmm9
- .byte 196,65,33,102,193 // vpcmpgtd %xmm9,%xmm11,%xmm8
- .byte 196,193,73,219,250 // vpand %xmm10,%xmm6,%xmm7
- .byte 197,33,102,215 // vpcmpgtd %xmm7,%xmm11,%xmm10
- .byte 196,67,45,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm10,%ymm8
- .byte 196,193,73,219,244 // vpand %xmm12,%xmm6,%xmm6
- .byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5
- .byte 197,201,114,246,16 // vpslld $0x10,%xmm6,%xmm6
- .byte 197,193,114,247,13 // vpslld $0xd,%xmm7,%xmm7
- .byte 197,201,235,247 // vpor %xmm7,%xmm6,%xmm6
- .byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
- .byte 196,193,65,114,241,13 // vpslld $0xd,%xmm9,%xmm7
- .byte 197,209,235,239 // vpor %xmm7,%xmm5,%xmm5
- .byte 197,209,254,235 // vpaddd %xmm3,%xmm5,%xmm5
- .byte 197,201,254,219 // vpaddd %xmm3,%xmm6,%xmm3
- .byte 196,227,101,24,221,1 // vinsertf128 $0x1,%xmm5,%ymm3,%ymm3
- .byte 196,227,101,74,220,128 // vblendvps %ymm8,%ymm4,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,100,36,128 // vmovups -0x80(%rsp),%ymm4
- .byte 197,252,16,108,36,160 // vmovups -0x60(%rsp),%ymm5
- .byte 197,252,16,116,36,192 // vmovups -0x40(%rsp),%ymm6
- .byte 197,252,16,124,36,224 // vmovups -0x20(%rsp),%ymm7
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 255,224 // jmpq *%rax
- .byte 196,65,123,16,4,208 // vmovsd (%r8,%rdx,8),%xmm8
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 16fd3 <_sk_load_f16_avx+0x2bb>
- .byte 196,65,57,22,68,208,8 // vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 16fd3 <_sk_load_f16_avx+0x2bb>
- .byte 196,193,123,16,84,208,16 // vmovsd 0x10(%r8,%rdx,8),%xmm2
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 16fe0 <_sk_load_f16_avx+0x2c8>
- .byte 196,193,105,22,84,208,24 // vmovhpd 0x18(%r8,%rdx,8),%xmm2,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 16fe0 <_sk_load_f16_avx+0x2c8>
- .byte 196,193,123,16,92,208,32 // vmovsd 0x20(%r8,%rdx,8),%xmm3
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 16d69 <_sk_load_f16_avx+0x51>
- .byte 196,193,97,22,92,208,40 // vmovhpd 0x28(%r8,%rdx,8),%xmm3,%xmm3
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 16d69 <_sk_load_f16_avx+0x51>
- .byte 196,65,122,126,76,208,48 // vmovq 0x30(%r8,%rdx,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 16d69 <_sk_load_f16_avx+0x51>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,137,253,255,255 // jmpq 16d69 <_sk_load_f16_avx+0x51>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,128,253,255,255 // jmpq 16d69 <_sk_load_f16_avx+0x51>
-
-HIDDEN _sk_load_f16_dst_avx
-.globl _sk_load_f16_dst_avx
-FUNCTION(_sk_load_f16_dst_avx)
-_sk_load_f16_dst_avx:
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 197,252,17,92,36,224 // vmovups %ymm3,-0x20(%rsp)
- .byte 197,252,17,84,36,192 // vmovups %ymm2,-0x40(%rsp)
- .byte 197,252,17,76,36,160 // vmovups %ymm1,-0x60(%rsp)
- .byte 197,252,17,68,36,128 // vmovups %ymm0,-0x80(%rsp)
- .byte 15,133,31,2,0,0 // jne 1723e <_sk_load_f16_dst_avx+0x255>
- .byte 196,65,121,16,4,208 // vmovupd (%r8,%rdx,8),%xmm8
- .byte 196,193,121,16,116,208,16 // vmovupd 0x10(%r8,%rdx,8),%xmm6
- .byte 196,193,121,16,124,208,32 // vmovupd 0x20(%r8,%rdx,8),%xmm7
- .byte 196,65,122,111,76,208,48 // vmovdqu 0x30(%r8,%rdx,8),%xmm9
- .byte 197,185,97,230 // vpunpcklwd %xmm6,%xmm8,%xmm4
- .byte 197,185,105,246 // vpunpckhwd %xmm6,%xmm8,%xmm6
- .byte 196,193,65,97,233 // vpunpcklwd %xmm9,%xmm7,%xmm5
- .byte 196,193,65,105,249 // vpunpckhwd %xmm9,%xmm7,%xmm7
- .byte 197,89,97,246 // vpunpcklwd %xmm6,%xmm4,%xmm14
- .byte 197,89,105,198 // vpunpckhwd %xmm6,%xmm4,%xmm8
- .byte 197,81,97,255 // vpunpcklwd %xmm7,%xmm5,%xmm15
- .byte 197,81,105,207 // vpunpckhwd %xmm7,%xmm5,%xmm9
- .byte 196,193,9,108,231 // vpunpcklqdq %xmm15,%xmm14,%xmm4
- .byte 196,226,121,51,236 // vpmovzxwd %xmm4,%xmm5
- .byte 197,249,112,228,78 // vpshufd $0x4e,%xmm4,%xmm4
- .byte 196,226,121,51,228 // vpmovzxwd %xmm4,%xmm4
- .byte 197,123,18,21,240,102,2,0 // vmovddup 0x266f0(%rip),%xmm10 # 3d768 <_sk_srcover_bgra_8888_sse2_lowp+0x151c>
- .byte 196,193,89,219,250 // vpand %xmm10,%xmm4,%xmm7
- .byte 196,98,121,24,29,10,86,2,0 // vbroadcastss 0x2560a(%rip),%xmm11 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0x444>
- .byte 197,33,102,231 // vpcmpgtd %xmm7,%xmm11,%xmm12
- .byte 196,193,81,219,242 // vpand %xmm10,%xmm5,%xmm6
- .byte 197,33,102,238 // vpcmpgtd %xmm6,%xmm11,%xmm13
- .byte 196,195,21,24,220,1 // vinsertf128 $0x1,%xmm12,%ymm13,%ymm3
- .byte 197,123,18,37,207,102,2,0 // vmovddup 0x266cf(%rip),%xmm12 # 3d770 <_sk_srcover_bgra_8888_sse2_lowp+0x1524>
- .byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5
- .byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
- .byte 196,193,89,219,228 // vpand %xmm12,%xmm4,%xmm4
- .byte 197,217,114,244,16 // vpslld $0x10,%xmm4,%xmm4
- .byte 197,201,114,246,13 // vpslld $0xd,%xmm6,%xmm6
- .byte 197,209,235,238 // vpor %xmm6,%xmm5,%xmm5
- .byte 197,201,114,247,13 // vpslld $0xd,%xmm7,%xmm6
- .byte 197,217,235,230 // vpor %xmm6,%xmm4,%xmm4
- .byte 196,226,121,24,61,196,85,2,0 // vbroadcastss 0x255c4(%rip),%xmm7 # 3c694 <_sk_srcover_bgra_8888_sse2_lowp+0x448>
- .byte 197,217,254,231 // vpaddd %xmm7,%xmm4,%xmm4
- .byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
- .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 196,227,93,74,224,48 // vblendvps %ymm3,%ymm0,%ymm4,%ymm4
- .byte 196,193,9,109,223 // vpunpckhqdq %xmm15,%xmm14,%xmm3
- .byte 196,226,121,51,235 // vpmovzxwd %xmm3,%xmm5
- .byte 197,249,112,219,78 // vpshufd $0x4e,%xmm3,%xmm3
- .byte 196,98,121,51,251 // vpmovzxwd %xmm3,%xmm15
- .byte 196,193,1,219,242 // vpand %xmm10,%xmm15,%xmm6
- .byte 197,33,102,246 // vpcmpgtd %xmm6,%xmm11,%xmm14
- .byte 196,193,81,219,218 // vpand %xmm10,%xmm5,%xmm3
- .byte 197,33,102,235 // vpcmpgtd %xmm3,%xmm11,%xmm13
- .byte 196,67,21,24,238,1 // vinsertf128 $0x1,%xmm14,%ymm13,%ymm13
- .byte 196,193,81,219,236 // vpand %xmm12,%xmm5,%xmm5
- .byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
- .byte 197,225,114,243,13 // vpslld $0xd,%xmm3,%xmm3
- .byte 197,209,235,219 // vpor %xmm3,%xmm5,%xmm3
- .byte 196,193,1,219,236 // vpand %xmm12,%xmm15,%xmm5
- .byte 197,209,114,245,16 // vpslld $0x10,%xmm5,%xmm5
- .byte 197,201,114,246,13 // vpslld $0xd,%xmm6,%xmm6
- .byte 197,209,235,238 // vpor %xmm6,%xmm5,%xmm5
- .byte 197,209,254,239 // vpaddd %xmm7,%xmm5,%xmm5
- .byte 197,225,254,223 // vpaddd %xmm7,%xmm3,%xmm3
- .byte 196,227,101,24,221,1 // vinsertf128 $0x1,%xmm5,%ymm3,%ymm3
- .byte 196,227,101,74,232,208 // vblendvps %ymm13,%ymm0,%ymm3,%ymm5
- .byte 196,193,57,108,217 // vpunpcklqdq %xmm9,%xmm8,%xmm3
- .byte 196,226,121,51,243 // vpmovzxwd %xmm3,%xmm6
- .byte 197,249,112,219,78 // vpshufd $0x4e,%xmm3,%xmm3
- .byte 196,98,121,51,235 // vpmovzxwd %xmm3,%xmm13
- .byte 196,65,17,219,250 // vpand %xmm10,%xmm13,%xmm15
- .byte 196,65,33,102,247 // vpcmpgtd %xmm15,%xmm11,%xmm14
- .byte 196,193,73,219,218 // vpand %xmm10,%xmm6,%xmm3
- .byte 197,161,102,211 // vpcmpgtd %xmm3,%xmm11,%xmm2
- .byte 196,195,109,24,214,1 // vinsertf128 $0x1,%xmm14,%ymm2,%ymm2
- .byte 196,193,73,219,244 // vpand %xmm12,%xmm6,%xmm6
- .byte 197,201,114,246,16 // vpslld $0x10,%xmm6,%xmm6
- .byte 197,225,114,243,13 // vpslld $0xd,%xmm3,%xmm3
- .byte 197,201,235,219 // vpor %xmm3,%xmm6,%xmm3
- .byte 196,193,17,219,244 // vpand %xmm12,%xmm13,%xmm6
- .byte 197,201,114,246,16 // vpslld $0x10,%xmm6,%xmm6
- .byte 196,193,113,114,247,13 // vpslld $0xd,%xmm15,%xmm1
- .byte 197,201,235,201 // vpor %xmm1,%xmm6,%xmm1
- .byte 197,241,254,207 // vpaddd %xmm7,%xmm1,%xmm1
- .byte 197,225,254,223 // vpaddd %xmm7,%xmm3,%xmm3
- .byte 196,227,101,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm1
- .byte 196,227,117,74,240,32 // vblendvps %ymm2,%ymm0,%ymm1,%ymm6
- .byte 196,193,57,109,201 // vpunpckhqdq %xmm9,%xmm8,%xmm1
- .byte 196,226,121,51,209 // vpmovzxwd %xmm1,%xmm2
- .byte 197,249,112,201,78 // vpshufd $0x4e,%xmm1,%xmm1
- .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1
- .byte 196,65,113,219,202 // vpand %xmm10,%xmm1,%xmm9
- .byte 196,65,33,102,193 // vpcmpgtd %xmm9,%xmm11,%xmm8
- .byte 196,193,105,219,218 // vpand %xmm10,%xmm2,%xmm3
- .byte 197,33,102,211 // vpcmpgtd %xmm3,%xmm11,%xmm10
- .byte 196,67,45,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm10,%ymm8
- .byte 196,193,105,219,212 // vpand %xmm12,%xmm2,%xmm2
- .byte 196,193,113,219,204 // vpand %xmm12,%xmm1,%xmm1
- .byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
- .byte 197,225,114,243,13 // vpslld $0xd,%xmm3,%xmm3
- .byte 197,233,235,211 // vpor %xmm3,%xmm2,%xmm2
- .byte 197,241,114,241,16 // vpslld $0x10,%xmm1,%xmm1
- .byte 196,193,97,114,241,13 // vpslld $0xd,%xmm9,%xmm3
- .byte 197,241,235,203 // vpor %xmm3,%xmm1,%xmm1
- .byte 197,241,254,207 // vpaddd %xmm7,%xmm1,%xmm1
- .byte 197,233,254,215 // vpaddd %xmm7,%xmm2,%xmm2
- .byte 196,227,109,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm1
- .byte 196,227,117,74,248,128 // vblendvps %ymm8,%ymm0,%ymm1,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,68,36,128 // vmovups -0x80(%rsp),%ymm0
- .byte 197,252,16,76,36,160 // vmovups -0x60(%rsp),%ymm1
- .byte 197,252,16,84,36,192 // vmovups -0x40(%rsp),%ymm2
- .byte 197,252,16,92,36,224 // vmovups -0x20(%rsp),%ymm3
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 255,224 // jmpq *%rax
- .byte 196,65,123,16,4,208 // vmovsd (%r8,%rdx,8),%xmm8
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 172a4 <_sk_load_f16_dst_avx+0x2bb>
- .byte 196,65,57,22,68,208,8 // vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 172a4 <_sk_load_f16_dst_avx+0x2bb>
- .byte 196,193,123,16,116,208,16 // vmovsd 0x10(%r8,%rdx,8),%xmm6
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 172b1 <_sk_load_f16_dst_avx+0x2c8>
- .byte 196,193,73,22,116,208,24 // vmovhpd 0x18(%r8,%rdx,8),%xmm6,%xmm6
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 172b1 <_sk_load_f16_dst_avx+0x2c8>
- .byte 196,193,123,16,124,208,32 // vmovsd 0x20(%r8,%rdx,8),%xmm7
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,179,253,255,255 // je 1703a <_sk_load_f16_dst_avx+0x51>
- .byte 196,193,65,22,124,208,40 // vmovhpd 0x28(%r8,%rdx,8),%xmm7,%xmm7
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,162,253,255,255 // jb 1703a <_sk_load_f16_dst_avx+0x51>
- .byte 196,65,122,126,76,208,48 // vmovq 0x30(%r8,%rdx,8),%xmm9
- .byte 233,150,253,255,255 // jmpq 1703a <_sk_load_f16_dst_avx+0x51>
- .byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 197,201,87,246 // vxorpd %xmm6,%xmm6,%xmm6
- .byte 233,137,253,255,255 // jmpq 1703a <_sk_load_f16_dst_avx+0x51>
- .byte 197,193,87,255 // vxorpd %xmm7,%xmm7,%xmm7
- .byte 233,128,253,255,255 // jmpq 1703a <_sk_load_f16_dst_avx+0x51>
-
-HIDDEN _sk_gather_f16_avx
-.globl _sk_gather_f16_avx
-FUNCTION(_sk_gather_f16_avx)
-_sk_gather_f16_avx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 197,252,17,124,36,224 // vmovups %ymm7,-0x20(%rsp)
- .byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
- .byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
- .byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 196,65,49,118,201 // vpcmpeqd %xmm9,%xmm9,%xmm9
- .byte 196,193,97,254,217 // vpaddd %xmm9,%xmm3,%xmm3
- .byte 196,193,105,254,209 // vpaddd %xmm9,%xmm2,%xmm2
- .byte 196,227,109,24,211,1 // vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,220,95,192 // vmaxps %ymm0,%ymm4,%ymm0
- .byte 197,252,93,210 // vminps %ymm2,%ymm0,%ymm2
- .byte 196,226,125,24,64,16 // vbroadcastss 0x10(%rax),%ymm0
- .byte 196,227,125,25,195,1 // vextractf128 $0x1,%ymm0,%xmm3
- .byte 196,193,97,254,217 // vpaddd %xmm9,%xmm3,%xmm3
- .byte 196,193,121,254,193 // vpaddd %xmm9,%xmm0,%xmm0
- .byte 196,227,125,24,195,1 // vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
- .byte 197,220,95,201 // vmaxps %ymm1,%ymm4,%ymm1
- .byte 197,244,93,192 // vminps %ymm0,%ymm1,%ymm0
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,200 // vcvttps2dq %ymm0,%ymm1
- .byte 197,249,110,64,8 // vmovd 0x8(%rax),%xmm0
- .byte 197,249,112,216,0 // vpshufd $0x0,%xmm0,%xmm3
- .byte 196,226,97,64,193 // vpmulld %xmm1,%xmm3,%xmm0
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 196,226,97,64,201 // vpmulld %xmm1,%xmm3,%xmm1
- .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
- .byte 196,227,125,25,211,1 // vextractf128 $0x1,%ymm2,%xmm3
- .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
- .byte 196,227,249,22,200,1 // vpextrq $0x1,%xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,202 // vmovq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 197,249,254,194 // vpaddd %xmm2,%xmm0,%xmm0
- .byte 196,227,249,22,195,1 // vpextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,199 // vmovq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 196,129,122,126,4,248 // vmovq (%r8,%r15,8),%xmm0
- .byte 196,129,122,126,12,224 // vmovq (%r8,%r12,8),%xmm1
- .byte 197,113,108,208 // vpunpcklqdq %xmm0,%xmm1,%xmm10
- .byte 196,193,122,126,12,216 // vmovq (%r8,%rbx,8),%xmm1
- .byte 196,129,122,126,20,240 // vmovq (%r8,%r14,8),%xmm2
- .byte 197,233,108,201 // vpunpcklqdq %xmm1,%xmm2,%xmm1
- .byte 196,129,122,126,20,208 // vmovq (%r8,%r10,8),%xmm2
- .byte 196,129,122,126,28,216 // vmovq (%r8,%r11,8),%xmm3
- .byte 197,225,108,210 // vpunpcklqdq %xmm2,%xmm3,%xmm2
- .byte 196,65,122,126,12,192 // vmovq (%r8,%rax,8),%xmm9
- .byte 196,129,122,126,28,200 // vmovq (%r8,%r9,8),%xmm3
- .byte 196,193,97,108,217 // vpunpcklqdq %xmm9,%xmm3,%xmm3
- .byte 197,169,97,193 // vpunpcklwd %xmm1,%xmm10,%xmm0
- .byte 197,169,105,201 // vpunpckhwd %xmm1,%xmm10,%xmm1
- .byte 197,105,97,211 // vpunpcklwd %xmm3,%xmm2,%xmm10
- .byte 197,233,105,211 // vpunpckhwd %xmm3,%xmm2,%xmm2
- .byte 197,121,97,241 // vpunpcklwd %xmm1,%xmm0,%xmm14
- .byte 197,121,105,201 // vpunpckhwd %xmm1,%xmm0,%xmm9
- .byte 197,41,97,250 // vpunpcklwd %xmm2,%xmm10,%xmm15
- .byte 197,41,105,210 // vpunpckhwd %xmm2,%xmm10,%xmm10
- .byte 196,193,9,108,199 // vpunpcklqdq %xmm15,%xmm14,%xmm0
- .byte 196,226,121,51,208 // vpmovzxwd %xmm0,%xmm2
- .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 197,123,18,29,86,99,2,0 // vmovddup 0x26356(%rip),%xmm11 # 3d768 <_sk_srcover_bgra_8888_sse2_lowp+0x151c>
- .byte 196,193,121,219,219 // vpand %xmm11,%xmm0,%xmm3
- .byte 196,98,121,24,37,112,82,2,0 // vbroadcastss 0x25270(%rip),%xmm12 # 3c690 <_sk_srcover_bgra_8888_sse2_lowp+0x444>
- .byte 197,25,102,235 // vpcmpgtd %xmm3,%xmm12,%xmm13
- .byte 196,193,105,219,203 // vpand %xmm11,%xmm2,%xmm1
- .byte 197,25,102,193 // vpcmpgtd %xmm1,%xmm12,%xmm8
- .byte 196,67,61,24,197,1 // vinsertf128 $0x1,%xmm13,%ymm8,%ymm8
- .byte 197,123,18,45,53,99,2,0 // vmovddup 0x26335(%rip),%xmm13 # 3d770 <_sk_srcover_bgra_8888_sse2_lowp+0x1524>
- .byte 196,193,105,219,213 // vpand %xmm13,%xmm2,%xmm2
- .byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
- .byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1
- .byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1
- .byte 196,193,121,219,197 // vpand %xmm13,%xmm0,%xmm0
- .byte 197,249,114,240,16 // vpslld $0x10,%xmm0,%xmm0
- .byte 197,233,114,243,13 // vpslld $0xd,%xmm3,%xmm2
- .byte 197,249,235,194 // vpor %xmm2,%xmm0,%xmm0
- .byte 196,226,121,24,29,42,82,2,0 // vbroadcastss 0x2522a(%rip),%xmm3 # 3c694 <_sk_srcover_bgra_8888_sse2_lowp+0x448>
- .byte 197,249,254,195 // vpaddd %xmm3,%xmm0,%xmm0
- .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
- .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 196,227,125,74,196,128 // vblendvps %ymm8,%ymm4,%ymm0,%ymm0
- .byte 196,193,9,109,207 // vpunpckhqdq %xmm15,%xmm14,%xmm1
- .byte 196,226,121,51,209 // vpmovzxwd %xmm1,%xmm2
- .byte 197,249,112,201,78 // vpshufd $0x4e,%xmm1,%xmm1
- .byte 196,98,121,51,193 // vpmovzxwd %xmm1,%xmm8
- .byte 196,65,57,219,251 // vpand %xmm11,%xmm8,%xmm15
- .byte 196,65,25,102,247 // vpcmpgtd %xmm15,%xmm12,%xmm14
- .byte 196,193,105,219,203 // vpand %xmm11,%xmm2,%xmm1
- .byte 197,153,102,249 // vpcmpgtd %xmm1,%xmm12,%xmm7
- .byte 196,195,69,24,254,1 // vinsertf128 $0x1,%xmm14,%ymm7,%ymm7
- .byte 196,193,105,219,213 // vpand %xmm13,%xmm2,%xmm2
- .byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
- .byte 197,241,114,241,13 // vpslld $0xd,%xmm1,%xmm1
- .byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1
- .byte 196,193,57,219,213 // vpand %xmm13,%xmm8,%xmm2
- .byte 197,233,114,242,16 // vpslld $0x10,%xmm2,%xmm2
- .byte 196,193,73,114,247,13 // vpslld $0xd,%xmm15,%xmm6
- .byte 197,233,235,214 // vpor %xmm6,%xmm2,%xmm2
- .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2
- .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
- .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,227,117,74,204,112 // vblendvps %ymm7,%ymm4,%ymm1,%ymm1
- .byte 196,193,49,108,210 // vpunpcklqdq %xmm10,%xmm9,%xmm2
- .byte 196,226,121,51,242 // vpmovzxwd %xmm2,%xmm6
- .byte 197,249,112,210,78 // vpshufd $0x4e,%xmm2,%xmm2
- .byte 196,98,121,51,242 // vpmovzxwd %xmm2,%xmm14
- .byte 196,193,9,219,251 // vpand %xmm11,%xmm14,%xmm7
- .byte 197,25,102,199 // vpcmpgtd %xmm7,%xmm12,%xmm8
- .byte 196,193,73,219,211 // vpand %xmm11,%xmm6,%xmm2
- .byte 197,25,102,250 // vpcmpgtd %xmm2,%xmm12,%xmm15
- .byte 196,67,5,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm15,%ymm8
- .byte 196,193,73,219,245 // vpand %xmm13,%xmm6,%xmm6
- .byte 197,201,114,246,16 // vpslld $0x10,%xmm6,%xmm6
- .byte 197,233,114,242,13 // vpslld $0xd,%xmm2,%xmm2
- .byte 197,201,235,210 // vpor %xmm2,%xmm6,%xmm2
- .byte 196,193,9,219,245 // vpand %xmm13,%xmm14,%xmm6
- .byte 197,201,114,246,16 // vpslld $0x10,%xmm6,%xmm6
- .byte 197,193,114,247,13 // vpslld $0xd,%xmm7,%xmm7
- .byte 197,201,235,247 // vpor %xmm7,%xmm6,%xmm6
- .byte 197,201,254,243 // vpaddd %xmm3,%xmm6,%xmm6
- .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2
- .byte 196,227,109,24,214,1 // vinsertf128 $0x1,%xmm6,%ymm2,%ymm2
- .byte 196,227,109,74,212,128 // vblendvps %ymm8,%ymm4,%ymm2,%ymm2
- .byte 196,193,49,109,242 // vpunpckhqdq %xmm10,%xmm9,%xmm6
- .byte 196,226,121,51,254 // vpmovzxwd %xmm6,%xmm7
- .byte 197,249,112,246,78 // vpshufd $0x4e,%xmm6,%xmm6
- .byte 196,98,121,51,214 // vpmovzxwd %xmm6,%xmm10
- .byte 196,65,41,219,195 // vpand %xmm11,%xmm10,%xmm8
- .byte 196,65,25,102,200 // vpcmpgtd %xmm8,%xmm12,%xmm9
- .byte 196,193,65,219,243 // vpand %xmm11,%xmm7,%xmm6
- .byte 197,25,102,222 // vpcmpgtd %xmm6,%xmm12,%xmm11
- .byte 196,67,37,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm11,%ymm9
- .byte 196,193,65,219,253 // vpand %xmm13,%xmm7,%xmm7
- .byte 196,65,41,219,213 // vpand %xmm13,%xmm10,%xmm10
- .byte 197,193,114,247,16 // vpslld $0x10,%xmm7,%xmm7
- .byte 197,201,114,246,13 // vpslld $0xd,%xmm6,%xmm6
- .byte 197,193,235,246 // vpor %xmm6,%xmm7,%xmm6
- .byte 196,193,65,114,242,16 // vpslld $0x10,%xmm10,%xmm7
- .byte 196,193,81,114,240,13 // vpslld $0xd,%xmm8,%xmm5
- .byte 197,193,235,237 // vpor %xmm5,%xmm7,%xmm5
- .byte 197,209,254,235 // vpaddd %xmm3,%xmm5,%xmm5
- .byte 197,201,254,219 // vpaddd %xmm3,%xmm6,%xmm3
- .byte 196,227,101,24,221,1 // vinsertf128 $0x1,%xmm5,%ymm3,%ymm3
- .byte 196,227,101,74,220,144 // vblendvps %ymm9,%ymm4,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,100,36,128 // vmovups -0x80(%rsp),%ymm4
- .byte 197,252,16,108,36,160 // vmovups -0x60(%rsp),%ymm5
- .byte 197,252,16,116,36,192 // vmovups -0x40(%rsp),%ymm6
- .byte 197,252,16,124,36,224 // vmovups -0x20(%rsp),%ymm7
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_f16_avx
-.globl _sk_store_f16_avx
-FUNCTION(_sk_store_f16_avx)
-_sk_store_f16_avx:
- .byte 72,131,236,56 // sub $0x38,%rsp
- .byte 197,252,17,60,36 // vmovups %ymm7,(%rsp)
- .byte 197,252,17,116,36,224 // vmovups %ymm6,-0x20(%rsp)
- .byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
- .byte 197,252,17,100,36,160 // vmovups %ymm4,-0x60(%rsp)
- .byte 197,252,40,225 // vmovaps %ymm1,%ymm4
- .byte 196,98,125,24,5,72,80,2,0 // vbroadcastss 0x25048(%rip),%ymm8 # 3c64c <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 196,65,124,84,216 // vandps %ymm8,%ymm0,%ymm11
- .byte 196,98,125,24,21,134,80,2,0 // vbroadcastss 0x25086(%rip),%ymm10 # 3c698 <_sk_srcover_bgra_8888_sse2_lowp+0x44c>
- .byte 196,65,124,84,226 // vandps %ymm10,%ymm0,%ymm12
- .byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,98,121,24,13,118,80,2,0 // vbroadcastss 0x25076(%rip),%xmm9 # 3c69c <_sk_srcover_bgra_8888_sse2_lowp+0x450>
- .byte 196,65,49,102,245 // vpcmpgtd %xmm13,%xmm9,%xmm14
- .byte 196,65,49,102,252 // vpcmpgtd %xmm12,%xmm9,%xmm15
- .byte 196,67,5,24,246,1 // vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
- .byte 196,67,125,25,223,1 // vextractf128 $0x1,%ymm11,%xmm15
- .byte 196,193,1,114,215,16 // vpsrld $0x10,%xmm15,%xmm15
- .byte 196,193,33,114,211,16 // vpsrld $0x10,%xmm11,%xmm11
- .byte 196,193,17,114,213,13 // vpsrld $0xd,%xmm13,%xmm13
- .byte 196,65,17,254,239 // vpaddd %xmm15,%xmm13,%xmm13
- .byte 196,193,25,114,212,13 // vpsrld $0xd,%xmm12,%xmm12
- .byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
- .byte 196,98,121,24,29,57,80,2,0 // vbroadcastss 0x25039(%rip),%xmm11 # 3c6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x454>
- .byte 196,65,17,254,235 // vpaddd %xmm11,%xmm13,%xmm13
- .byte 196,65,25,254,227 // vpaddd %xmm11,%xmm12,%xmm12
- .byte 196,67,29,24,237,1 // vinsertf128 $0x1,%xmm13,%ymm12,%ymm13
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,99,21,74,233,224 // vblendvps %ymm14,%ymm1,%ymm13,%ymm13
- .byte 196,65,92,84,242 // vandps %ymm10,%ymm4,%ymm14
- .byte 196,67,125,25,247,1 // vextractf128 $0x1,%ymm14,%xmm15
- .byte 196,193,49,102,255 // vpcmpgtd %xmm15,%xmm9,%xmm7
- .byte 196,65,49,102,230 // vpcmpgtd %xmm14,%xmm9,%xmm12
- .byte 196,227,29,24,255,1 // vinsertf128 $0x1,%xmm7,%ymm12,%ymm7
- .byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp)
- .byte 196,65,92,84,224 // vandps %ymm8,%ymm4,%ymm12
- .byte 196,99,125,25,230,1 // vextractf128 $0x1,%ymm12,%xmm6
- .byte 197,201,114,214,16 // vpsrld $0x10,%xmm6,%xmm6
- .byte 196,193,81,114,215,13 // vpsrld $0xd,%xmm15,%xmm5
- .byte 197,124,40,250 // vmovaps %ymm2,%ymm15
- .byte 197,209,254,238 // vpaddd %xmm6,%xmm5,%xmm5
- .byte 196,193,73,114,212,16 // vpsrld $0x10,%xmm12,%xmm6
- .byte 196,193,89,114,214,13 // vpsrld $0xd,%xmm14,%xmm4
- .byte 197,217,254,230 // vpaddd %xmm6,%xmm4,%xmm4
- .byte 196,193,81,254,235 // vpaddd %xmm11,%xmm5,%xmm5
- .byte 196,193,89,254,227 // vpaddd %xmm11,%xmm4,%xmm4
- .byte 196,227,93,24,229,1 // vinsertf128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,99,93,74,241,112 // vblendvps %ymm7,%ymm1,%ymm4,%ymm14
- .byte 196,193,4,84,226 // vandps %ymm10,%ymm15,%ymm4
- .byte 196,227,125,25,229,1 // vextractf128 $0x1,%ymm4,%xmm5
- .byte 197,177,102,245 // vpcmpgtd %xmm5,%xmm9,%xmm6
- .byte 197,177,102,252 // vpcmpgtd %xmm4,%xmm9,%xmm7
- .byte 196,227,69,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm7,%ymm6
- .byte 196,193,4,84,248 // vandps %ymm8,%ymm15,%ymm7
- .byte 196,227,125,25,250,1 // vextractf128 $0x1,%ymm7,%xmm2
- .byte 197,233,114,210,16 // vpsrld $0x10,%xmm2,%xmm2
- .byte 197,209,114,213,13 // vpsrld $0xd,%xmm5,%xmm5
- .byte 197,209,254,210 // vpaddd %xmm2,%xmm5,%xmm2
- .byte 197,209,114,215,16 // vpsrld $0x10,%xmm7,%xmm5
- .byte 197,217,114,212,13 // vpsrld $0xd,%xmm4,%xmm4
- .byte 197,217,254,229 // vpaddd %xmm5,%xmm4,%xmm4
- .byte 196,193,105,254,211 // vpaddd %xmm11,%xmm2,%xmm2
- .byte 196,193,89,254,227 // vpaddd %xmm11,%xmm4,%xmm4
- .byte 196,227,93,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm4,%ymm2
- .byte 196,99,109,74,225,96 // vblendvps %ymm6,%ymm1,%ymm2,%ymm12
- .byte 196,193,100,84,226 // vandps %ymm10,%ymm3,%ymm4
- .byte 196,227,125,25,229,1 // vextractf128 $0x1,%ymm4,%xmm5
- .byte 197,177,102,245 // vpcmpgtd %xmm5,%xmm9,%xmm6
- .byte 197,177,102,252 // vpcmpgtd %xmm4,%xmm9,%xmm7
- .byte 196,227,69,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm7,%ymm6
- .byte 196,193,100,84,248 // vandps %ymm8,%ymm3,%ymm7
- .byte 196,227,125,25,250,1 // vextractf128 $0x1,%ymm7,%xmm2
- .byte 197,233,114,210,16 // vpsrld $0x10,%xmm2,%xmm2
- .byte 197,209,114,213,13 // vpsrld $0xd,%xmm5,%xmm5
- .byte 197,209,254,210 // vpaddd %xmm2,%xmm5,%xmm2
- .byte 197,209,114,215,16 // vpsrld $0x10,%xmm7,%xmm5
- .byte 197,217,114,212,13 // vpsrld $0xd,%xmm4,%xmm4
- .byte 197,217,254,229 // vpaddd %xmm5,%xmm4,%xmm4
- .byte 196,193,105,254,211 // vpaddd %xmm11,%xmm2,%xmm2
- .byte 196,193,89,254,227 // vpaddd %xmm11,%xmm4,%xmm4
- .byte 196,227,93,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm4,%ymm2
- .byte 196,227,109,74,201,96 // vblendvps %ymm6,%ymm1,%ymm2,%ymm1
- .byte 196,99,125,25,234,1 // vextractf128 $0x1,%ymm13,%xmm2
- .byte 196,226,17,43,210 // vpackusdw %xmm2,%xmm13,%xmm2
- .byte 196,99,125,25,244,1 // vextractf128 $0x1,%ymm14,%xmm4
- .byte 196,226,9,43,228 // vpackusdw %xmm4,%xmm14,%xmm4
- .byte 196,99,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm5
- .byte 196,226,25,43,245 // vpackusdw %xmm5,%xmm12,%xmm6
- .byte 196,227,125,25,205,1 // vextractf128 $0x1,%ymm1,%xmm5
- .byte 196,226,113,43,205 // vpackusdw %xmm5,%xmm1,%xmm1
- .byte 197,233,97,236 // vpunpcklwd %xmm4,%xmm2,%xmm5
- .byte 197,233,105,212 // vpunpckhwd %xmm4,%xmm2,%xmm2
- .byte 197,201,97,225 // vpunpcklwd %xmm1,%xmm6,%xmm4
- .byte 197,201,105,201 // vpunpckhwd %xmm1,%xmm6,%xmm1
- .byte 197,81,98,220 // vpunpckldq %xmm4,%xmm5,%xmm11
- .byte 197,81,106,212 // vpunpckhdq %xmm4,%xmm5,%xmm10
- .byte 197,105,98,201 // vpunpckldq %xmm1,%xmm2,%xmm9
- .byte 197,105,106,193 // vpunpckhdq %xmm1,%xmm2,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,68 // jne 17838 <_sk_store_f16_avx+0x25c>
- .byte 196,65,122,127,28,208 // vmovdqu %xmm11,(%r8,%rdx,8)
- .byte 196,65,122,127,84,208,16 // vmovdqu %xmm10,0x10(%r8,%rdx,8)
- .byte 196,65,122,127,76,208,32 // vmovdqu %xmm9,0x20(%r8,%rdx,8)
- .byte 196,65,122,127,68,208,48 // vmovdqu %xmm8,0x30(%r8,%rdx,8)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,76,36,128 // vmovups -0x80(%rsp),%ymm1
- .byte 197,124,41,250 // vmovaps %ymm15,%ymm2
- .byte 197,252,16,100,36,160 // vmovups -0x60(%rsp),%ymm4
- .byte 197,252,16,108,36,192 // vmovups -0x40(%rsp),%ymm5
- .byte 197,252,16,116,36,224 // vmovups -0x20(%rsp),%ymm6
- .byte 197,252,16,60,36 // vmovups (%rsp),%ymm7
- .byte 72,131,196,56 // add $0x38,%rsp
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,214,28,208 // vmovq %xmm11,(%r8,%rdx,8)
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,203 // je 1780f <_sk_store_f16_avx+0x233>
- .byte 196,65,121,23,92,208,8 // vmovhpd %xmm11,0x8(%r8,%rdx,8)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,190 // jb 1780f <_sk_store_f16_avx+0x233>
- .byte 196,65,121,214,84,208,16 // vmovq %xmm10,0x10(%r8,%rdx,8)
- .byte 116,181 // je 1780f <_sk_store_f16_avx+0x233>
- .byte 196,65,121,23,84,208,24 // vmovhpd %xmm10,0x18(%r8,%rdx,8)
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,168 // jb 1780f <_sk_store_f16_avx+0x233>
- .byte 196,65,121,214,76,208,32 // vmovq %xmm9,0x20(%r8,%rdx,8)
- .byte 116,159 // je 1780f <_sk_store_f16_avx+0x233>
- .byte 196,65,121,23,76,208,40 // vmovhpd %xmm9,0x28(%r8,%rdx,8)
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,146 // jb 1780f <_sk_store_f16_avx+0x233>
- .byte 196,65,121,214,68,208,48 // vmovq %xmm8,0x30(%r8,%rdx,8)
- .byte 235,137 // jmp 1780f <_sk_store_f16_avx+0x233>
-
-HIDDEN _sk_load_u16_be_avx
-.globl _sk_load_u16_be_avx
-FUNCTION(_sk_load_u16_be_avx)
-_sk_load_u16_be_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 77,1,201 // add %r9,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,12,1,0,0 // jne 179b3 <_sk_load_u16_be_avx+0x12d>
- .byte 196,1,121,16,4,65 // vmovupd (%r9,%r8,2),%xmm8
- .byte 196,129,121,16,84,65,16 // vmovupd 0x10(%r9,%r8,2),%xmm2
- .byte 196,129,121,16,92,65,32 // vmovupd 0x20(%r9,%r8,2),%xmm3
- .byte 196,1,122,111,76,65,48 // vmovdqu 0x30(%r9,%r8,2),%xmm9
- .byte 197,185,97,194 // vpunpcklwd %xmm2,%xmm8,%xmm0
- .byte 197,185,105,210 // vpunpckhwd %xmm2,%xmm8,%xmm2
- .byte 196,193,97,97,201 // vpunpcklwd %xmm9,%xmm3,%xmm1
- .byte 196,193,97,105,217 // vpunpckhwd %xmm9,%xmm3,%xmm3
- .byte 197,121,97,210 // vpunpcklwd %xmm2,%xmm0,%xmm10
- .byte 197,121,105,194 // vpunpckhwd %xmm2,%xmm0,%xmm8
- .byte 197,241,97,211 // vpunpcklwd %xmm3,%xmm1,%xmm2
- .byte 197,113,105,219 // vpunpckhwd %xmm3,%xmm1,%xmm11
- .byte 197,169,108,194 // vpunpcklqdq %xmm2,%xmm10,%xmm0
- .byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1
- .byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0
- .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
- .byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
- .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,120,76,2,0 // vbroadcastss 0x24c78(%rip),%ymm9 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,169,109,202 // vpunpckhqdq %xmm2,%xmm10,%xmm1
- .byte 197,233,113,241,8 // vpsllw $0x8,%xmm1,%xmm2
- .byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1
- .byte 197,233,235,201 // vpor %xmm1,%xmm2,%xmm1
- .byte 196,226,121,51,209 // vpmovzxwd %xmm1,%xmm2
- .byte 197,249,112,201,78 // vpshufd $0x4e,%xmm1,%xmm1
- .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1
- .byte 196,227,109,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 196,193,57,108,211 // vpunpcklqdq %xmm11,%xmm8,%xmm2
- .byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3
- .byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2
- .byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2
- .byte 196,226,121,51,218 // vpmovzxwd %xmm2,%xmm3
- .byte 197,249,112,210,78 // vpshufd $0x4e,%xmm2,%xmm2
- .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
- .byte 196,227,101,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 196,193,57,109,219 // vpunpckhqdq %xmm11,%xmm8,%xmm3
- .byte 197,185,113,243,8 // vpsllw $0x8,%xmm3,%xmm8
- .byte 197,225,113,211,8 // vpsrlw $0x8,%xmm3,%xmm3
- .byte 197,185,235,219 // vpor %xmm3,%xmm8,%xmm3
- .byte 196,98,121,51,195 // vpmovzxwd %xmm3,%xmm8
- .byte 197,249,112,219,78 // vpshufd $0x4e,%xmm3,%xmm3
- .byte 196,226,121,51,219 // vpmovzxwd %xmm3,%xmm3
- .byte 196,227,61,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 196,193,100,89,217 // vmulps %ymm9,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,1,123,16,4,65 // vmovsd (%r9,%r8,2),%xmm8
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,85 // je 17a19 <_sk_load_u16_be_avx+0x193>
- .byte 196,1,57,22,68,65,8 // vmovhpd 0x8(%r9,%r8,2),%xmm8,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,72 // jb 17a19 <_sk_load_u16_be_avx+0x193>
- .byte 196,129,123,16,84,65,16 // vmovsd 0x10(%r9,%r8,2),%xmm2
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 116,72 // je 17a26 <_sk_load_u16_be_avx+0x1a0>
- .byte 196,129,105,22,84,65,24 // vmovhpd 0x18(%r9,%r8,2),%xmm2,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,59 // jb 17a26 <_sk_load_u16_be_avx+0x1a0>
- .byte 196,129,123,16,92,65,32 // vmovsd 0x20(%r9,%r8,2),%xmm3
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 15,132,198,254,255,255 // je 178c2 <_sk_load_u16_be_avx+0x3c>
- .byte 196,129,97,22,92,65,40 // vmovhpd 0x28(%r9,%r8,2),%xmm3,%xmm3
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,130,181,254,255,255 // jb 178c2 <_sk_load_u16_be_avx+0x3c>
- .byte 196,1,122,126,76,65,48 // vmovq 0x30(%r9,%r8,2),%xmm9
- .byte 233,169,254,255,255 // jmpq 178c2 <_sk_load_u16_be_avx+0x3c>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 197,233,87,210 // vxorpd %xmm2,%xmm2,%xmm2
- .byte 233,156,254,255,255 // jmpq 178c2 <_sk_load_u16_be_avx+0x3c>
- .byte 197,225,87,219 // vxorpd %xmm3,%xmm3,%xmm3
- .byte 233,147,254,255,255 // jmpq 178c2 <_sk_load_u16_be_avx+0x3c>
-
-HIDDEN _sk_load_rgb_u16_be_avx
-.globl _sk_load_rgb_u16_be_avx
-FUNCTION(_sk_load_rgb_u16_be_avx)
-_sk_load_rgb_u16_be_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,82 // lea (%rdx,%rdx,2),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 77,1,201 // add %r9,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,253,0,0,0 // jne 17b49 <_sk_load_rgb_u16_be_avx+0x11a>
- .byte 196,1,122,111,28,65 // vmovdqu (%r9,%r8,2),%xmm11
- .byte 196,129,122,111,92,65,12 // vmovdqu 0xc(%r9,%r8,2),%xmm3
- .byte 196,129,122,111,84,65,24 // vmovdqu 0x18(%r9,%r8,2),%xmm2
- .byte 196,129,122,111,68,65,32 // vmovdqu 0x20(%r9,%r8,2),%xmm0
- .byte 197,249,115,216,4 // vpsrldq $0x4,%xmm0,%xmm0
- .byte 196,193,57,115,219,6 // vpsrldq $0x6,%xmm11,%xmm8
- .byte 197,169,115,219,6 // vpsrldq $0x6,%xmm3,%xmm10
- .byte 197,241,115,218,6 // vpsrldq $0x6,%xmm2,%xmm1
- .byte 197,177,115,216,6 // vpsrldq $0x6,%xmm0,%xmm9
- .byte 196,193,113,97,201 // vpunpcklwd %xmm9,%xmm1,%xmm1
- .byte 197,233,97,192 // vpunpcklwd %xmm0,%xmm2,%xmm0
- .byte 196,193,57,97,210 // vpunpcklwd %xmm10,%xmm8,%xmm2
- .byte 197,161,97,219 // vpunpcklwd %xmm3,%xmm11,%xmm3
- .byte 197,97,97,194 // vpunpcklwd %xmm2,%xmm3,%xmm8
- .byte 197,225,105,210 // vpunpckhwd %xmm2,%xmm3,%xmm2
- .byte 197,249,97,217 // vpunpcklwd %xmm1,%xmm0,%xmm3
- .byte 197,249,105,193 // vpunpckhwd %xmm1,%xmm0,%xmm0
- .byte 197,233,108,208 // vpunpcklqdq %xmm0,%xmm2,%xmm2
- .byte 197,185,108,195 // vpunpcklqdq %xmm3,%xmm8,%xmm0
- .byte 197,241,113,240,8 // vpsllw $0x8,%xmm0,%xmm1
- .byte 197,249,113,208,8 // vpsrlw $0x8,%xmm0,%xmm0
- .byte 197,241,235,192 // vpor %xmm0,%xmm1,%xmm0
- .byte 196,226,121,51,200 // vpmovzxwd %xmm0,%xmm1
- .byte 197,249,112,192,78 // vpshufd $0x4e,%xmm0,%xmm0
- .byte 196,226,121,51,192 // vpmovzxwd %xmm0,%xmm0
- .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,98,125,24,13,181,74,2,0 // vbroadcastss 0x24ab5(%rip),%ymm9 # 3c590 <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- .byte 196,193,124,89,193 // vmulps %ymm9,%ymm0,%ymm0
- .byte 197,185,109,203 // vpunpckhqdq %xmm3,%xmm8,%xmm1
- .byte 197,225,113,241,8 // vpsllw $0x8,%xmm1,%xmm3
- .byte 197,241,113,209,8 // vpsrlw $0x8,%xmm1,%xmm1
- .byte 197,225,235,201 // vpor %xmm1,%xmm3,%xmm1
- .byte 196,226,121,51,217 // vpmovzxwd %xmm1,%xmm3
- .byte 197,249,112,201,78 // vpshufd $0x4e,%xmm1,%xmm1
- .byte 196,226,121,51,201 // vpmovzxwd %xmm1,%xmm1
- .byte 196,227,101,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 196,193,116,89,201 // vmulps %ymm9,%ymm1,%ymm1
- .byte 197,225,113,242,8 // vpsllw $0x8,%xmm2,%xmm3
- .byte 197,233,113,210,8 // vpsrlw $0x8,%xmm2,%xmm2
- .byte 197,225,235,210 // vpor %xmm2,%xmm3,%xmm2
- .byte 196,226,121,51,218 // vpmovzxwd %xmm2,%xmm3
- .byte 197,249,112,210,78 // vpshufd $0x4e,%xmm2,%xmm2
- .byte 196,226,121,51,210 // vpmovzxwd %xmm2,%xmm2
- .byte 196,227,101,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,193,108,89,209 // vmulps %ymm9,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,181,73,2,0 // vbroadcastss 0x249b5(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,110,4,65 // vmovd (%r9,%r8,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,92,65,4,2 // vpinsrw $0x2,0x4(%r9,%r8,2),%xmm0,%xmm11
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,31 // jne 17b81 <_sk_load_rgb_u16_be_avx+0x152>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 233,0,255,255,255 // jmpq 17a81 <_sk_load_rgb_u16_be_avx+0x52>
- .byte 196,129,121,110,68,65,6 // vmovd 0x6(%r9,%r8,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,68,65,10,2 // vpinsrw $0x2,0xa(%r9,%r8,2),%xmm0,%xmm8
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,48 // jb 17bcb <_sk_load_rgb_u16_be_avx+0x19c>
- .byte 196,129,121,110,68,65,12 // vmovd 0xc(%r9,%r8,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,92,65,16,2 // vpinsrw $0x2,0x10(%r9,%r8,2),%xmm0,%xmm3
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 117,48 // jne 17be5 <_sk_load_rgb_u16_be_avx+0x1b6>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 233,182,254,255,255 // jmpq 17a81 <_sk_load_rgb_u16_be_avx+0x52>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 196,65,41,239,210 // vpxor %xmm10,%xmm10,%xmm10
- .byte 197,225,239,219 // vpxor %xmm3,%xmm3,%xmm3
- .byte 233,156,254,255,255 // jmpq 17a81 <_sk_load_rgb_u16_be_avx+0x52>
- .byte 196,129,121,110,68,65,18 // vmovd 0x12(%r9,%r8,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,1,121,196,84,65,22,2 // vpinsrw $0x2,0x16(%r9,%r8,2),%xmm0,%xmm10
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,39 // jb 17c26 <_sk_load_rgb_u16_be_avx+0x1f7>
- .byte 196,129,121,110,68,65,24 // vmovd 0x18(%r9,%r8,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,84,65,28,2 // vpinsrw $0x2,0x1c(%r9,%r8,2),%xmm0,%xmm2
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 117,30 // jne 17c37 <_sk_load_rgb_u16_be_avx+0x208>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 233,91,254,255,255 // jmpq 17a81 <_sk_load_rgb_u16_be_avx+0x52>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 197,241,239,201 // vpxor %xmm1,%xmm1,%xmm1
- .byte 197,233,239,210 // vpxor %xmm2,%xmm2,%xmm2
- .byte 233,74,254,255,255 // jmpq 17a81 <_sk_load_rgb_u16_be_avx+0x52>
- .byte 196,129,121,110,68,65,30 // vmovd 0x1e(%r9,%r8,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,76,65,34,2 // vpinsrw $0x2,0x22(%r9,%r8,2),%xmm0,%xmm1
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,25 // jb 17c6a <_sk_load_rgb_u16_be_avx+0x23b>
- .byte 196,129,121,110,68,65,36 // vmovd 0x24(%r9,%r8,2),%xmm0
- .byte 196,65,49,239,201 // vpxor %xmm9,%xmm9,%xmm9
- .byte 196,129,121,196,68,65,40,2 // vpinsrw $0x2,0x28(%r9,%r8,2),%xmm0,%xmm0
- .byte 233,23,254,255,255 // jmpq 17a81 <_sk_load_rgb_u16_be_avx+0x52>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 233,14,254,255,255 // jmpq 17a81 <_sk_load_rgb_u16_be_avx+0x52>
-
-HIDDEN _sk_store_u16_be_avx
-.globl _sk_store_u16_be_avx
-FUNCTION(_sk_store_u16_be_avx)
-_sk_store_u16_be_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 77,1,201 // add %r9,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,95,200 // vmaxps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,21,95,72,2,0 // vbroadcastss 0x2485f(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,65,52,93,202 // vminps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,29,125,73,2,0 // vbroadcastss 0x2497d(%rip),%ymm11 # 3c628 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- .byte 196,65,52,89,203 // vmulps %ymm11,%ymm9,%ymm9
- .byte 196,65,125,91,201 // vcvtps2dq %ymm9,%ymm9
- .byte 196,67,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm12
- .byte 196,66,49,43,204 // vpackusdw %xmm12,%xmm9,%xmm9
- .byte 196,193,25,113,241,8 // vpsllw $0x8,%xmm9,%xmm12
- .byte 196,193,49,113,209,8 // vpsrlw $0x8,%xmm9,%xmm9
- .byte 196,65,25,235,201 // vpor %xmm9,%xmm12,%xmm9
- .byte 197,60,95,225 // vmaxps %ymm1,%ymm8,%ymm12
- .byte 196,65,28,93,226 // vminps %ymm10,%ymm12,%ymm12
- .byte 196,65,28,89,227 // vmulps %ymm11,%ymm12,%ymm12
- .byte 196,65,125,91,228 // vcvtps2dq %ymm12,%ymm12
- .byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,66,25,43,229 // vpackusdw %xmm13,%xmm12,%xmm12
- .byte 196,193,17,113,244,8 // vpsllw $0x8,%xmm12,%xmm13
- .byte 196,193,25,113,212,8 // vpsrlw $0x8,%xmm12,%xmm12
- .byte 196,65,17,235,228 // vpor %xmm12,%xmm13,%xmm12
- .byte 197,60,95,234 // vmaxps %ymm2,%ymm8,%ymm13
- .byte 196,65,20,93,234 // vminps %ymm10,%ymm13,%ymm13
- .byte 196,65,20,89,235 // vmulps %ymm11,%ymm13,%ymm13
- .byte 196,65,125,91,237 // vcvtps2dq %ymm13,%ymm13
- .byte 196,67,125,25,238,1 // vextractf128 $0x1,%ymm13,%xmm14
- .byte 196,66,17,43,238 // vpackusdw %xmm14,%xmm13,%xmm13
- .byte 196,193,9,113,245,8 // vpsllw $0x8,%xmm13,%xmm14
- .byte 196,193,17,113,213,8 // vpsrlw $0x8,%xmm13,%xmm13
- .byte 196,65,9,235,237 // vpor %xmm13,%xmm14,%xmm13
- .byte 197,60,95,195 // vmaxps %ymm3,%ymm8,%ymm8
- .byte 196,65,60,93,194 // vminps %ymm10,%ymm8,%ymm8
- .byte 196,65,60,89,195 // vmulps %ymm11,%ymm8,%ymm8
- .byte 196,65,125,91,192 // vcvtps2dq %ymm8,%ymm8
- .byte 196,67,125,25,194,1 // vextractf128 $0x1,%ymm8,%xmm10
- .byte 196,66,57,43,194 // vpackusdw %xmm10,%xmm8,%xmm8
- .byte 196,193,41,113,240,8 // vpsllw $0x8,%xmm8,%xmm10
- .byte 196,193,57,113,208,8 // vpsrlw $0x8,%xmm8,%xmm8
- .byte 196,65,41,235,192 // vpor %xmm8,%xmm10,%xmm8
- .byte 196,65,49,97,212 // vpunpcklwd %xmm12,%xmm9,%xmm10
- .byte 196,65,49,105,228 // vpunpckhwd %xmm12,%xmm9,%xmm12
- .byte 196,65,17,97,200 // vpunpcklwd %xmm8,%xmm13,%xmm9
- .byte 196,65,17,105,192 // vpunpckhwd %xmm8,%xmm13,%xmm8
- .byte 196,65,41,98,217 // vpunpckldq %xmm9,%xmm10,%xmm11
- .byte 196,65,41,106,209 // vpunpckhdq %xmm9,%xmm10,%xmm10
- .byte 196,65,25,98,200 // vpunpckldq %xmm8,%xmm12,%xmm9
- .byte 196,65,25,106,192 // vpunpckhdq %xmm8,%xmm12,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,31 // jne 17daa <_sk_store_u16_be_avx+0x137>
- .byte 196,1,122,127,28,65 // vmovdqu %xmm11,(%r9,%r8,2)
- .byte 196,1,122,127,84,65,16 // vmovdqu %xmm10,0x10(%r9,%r8,2)
- .byte 196,1,122,127,76,65,32 // vmovdqu %xmm9,0x20(%r9,%r8,2)
- .byte 196,1,122,127,68,65,48 // vmovdqu %xmm8,0x30(%r9,%r8,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,1,121,214,28,65 // vmovq %xmm11,(%r9,%r8,2)
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 17da6 <_sk_store_u16_be_avx+0x133>
- .byte 196,1,121,23,92,65,8 // vmovhpd %xmm11,0x8(%r9,%r8,2)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 17da6 <_sk_store_u16_be_avx+0x133>
- .byte 196,1,121,214,84,65,16 // vmovq %xmm10,0x10(%r9,%r8,2)
- .byte 116,218 // je 17da6 <_sk_store_u16_be_avx+0x133>
- .byte 196,1,121,23,84,65,24 // vmovhpd %xmm10,0x18(%r9,%r8,2)
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 17da6 <_sk_store_u16_be_avx+0x133>
- .byte 196,1,121,214,76,65,32 // vmovq %xmm9,0x20(%r9,%r8,2)
- .byte 116,196 // je 17da6 <_sk_store_u16_be_avx+0x133>
- .byte 196,1,121,23,76,65,40 // vmovhpd %xmm9,0x28(%r9,%r8,2)
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,183 // jb 17da6 <_sk_store_u16_be_avx+0x133>
- .byte 196,1,121,214,68,65,48 // vmovq %xmm8,0x30(%r9,%r8,2)
- .byte 235,174 // jmp 17da6 <_sk_store_u16_be_avx+0x133>
-
-HIDDEN _sk_load_f32_avx
-.globl _sk_load_f32_avx
-FUNCTION(_sk_load_f32_avx)
-_sk_load_f32_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,91,1,0,0 // ja 17f63 <_sk_load_f32_avx+0x16b>
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 197,253,17,100,36,128 // vmovupd %ymm4,-0x80(%rsp)
- .byte 197,253,17,108,36,160 // vmovupd %ymm5,-0x60(%rsp)
- .byte 197,253,17,116,36,192 // vmovupd %ymm6,-0x40(%rsp)
- .byte 197,253,17,124,36,224 // vmovupd %ymm7,-0x20(%rsp)
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 17f74 <_sk_load_f32_avx+0x17c>
- .byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
- .byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
- .byte 197,237,87,210 // vxorpd %ymm2,%ymm2,%ymm2
- .byte 196,65,37,87,219 // vxorpd %ymm11,%ymm11,%ymm11
- .byte 196,65,29,87,228 // vxorpd %ymm12,%ymm12,%ymm12
- .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
- .byte 196,65,13,87,246 // vxorpd %ymm14,%ymm14,%ymm14
- .byte 197,205,87,246 // vxorpd %ymm6,%ymm6,%ymm6
- .byte 196,65,5,87,255 // vxorpd %ymm15,%ymm15,%ymm15
- .byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 196,65,21,87,237 // vxorpd %ymm13,%ymm13,%ymm13
- .byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
- .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
- .byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,16,68,129,112 // vmovupd 0x70(%r9,%r8,4),%xmm0
- .byte 196,227,125,6,192,40 // vperm2f128 $0x28,%ymm0,%ymm0,%ymm0
- .byte 196,129,121,16,76,129,96 // vmovupd 0x60(%r9,%r8,4),%xmm1
- .byte 196,227,125,6,225,40 // vperm2f128 $0x28,%ymm1,%ymm0,%ymm4
- .byte 196,129,121,16,76,129,80 // vmovupd 0x50(%r9,%r8,4),%xmm1
- .byte 196,227,125,6,209,40 // vperm2f128 $0x28,%ymm1,%ymm0,%ymm2
- .byte 197,125,40,204 // vmovapd %ymm4,%ymm9
- .byte 196,129,121,16,76,129,64 // vmovupd 0x40(%r9,%r8,4),%xmm1
- .byte 196,99,125,6,193,40 // vperm2f128 $0x28,%ymm1,%ymm0,%ymm8
- .byte 196,65,125,40,217 // vmovapd %ymm9,%ymm11
- .byte 197,125,40,226 // vmovapd %ymm2,%ymm12
- .byte 196,129,121,16,76,129,48 // vmovupd 0x30(%r9,%r8,4),%xmm1
- .byte 196,227,117,13,192,12 // vblendpd $0xc,%ymm0,%ymm1,%ymm0
- .byte 196,65,125,40,243 // vmovapd %ymm11,%ymm14
- .byte 197,125,41,230 // vmovapd %ymm12,%ymm6
- .byte 196,65,125,40,248 // vmovapd %ymm8,%ymm15
- .byte 196,129,121,16,76,129,32 // vmovupd 0x20(%r9,%r8,4),%xmm1
- .byte 196,195,117,13,206,12 // vblendpd $0xc,%ymm14,%ymm1,%ymm1
- .byte 197,125,40,238 // vmovapd %ymm6,%ymm13
- .byte 197,125,41,253 // vmovapd %ymm15,%ymm5
- .byte 196,129,121,16,84,129,16 // vmovupd 0x10(%r9,%r8,4),%xmm2
- .byte 196,67,109,13,213,12 // vblendpd $0xc,%ymm13,%ymm2,%ymm10
- .byte 197,253,40,217 // vmovapd %ymm1,%ymm3
- .byte 197,253,40,253 // vmovapd %ymm5,%ymm7
- .byte 196,129,121,16,12,129 // vmovupd (%r9,%r8,4),%xmm1
- .byte 196,227,117,13,207,12 // vblendpd $0xc,%ymm7,%ymm1,%ymm1
- .byte 197,252,16,124,36,224 // vmovups -0x20(%rsp),%ymm7
- .byte 197,252,16,116,36,192 // vmovups -0x40(%rsp),%ymm6
- .byte 197,252,16,108,36,160 // vmovups -0x60(%rsp),%ymm5
- .byte 197,252,16,100,36,128 // vmovups -0x80(%rsp),%ymm4
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 196,193,116,20,210 // vunpcklps %ymm10,%ymm1,%ymm2
- .byte 196,65,116,21,194 // vunpckhps %ymm10,%ymm1,%ymm8
- .byte 197,228,20,200 // vunpcklps %ymm0,%ymm3,%ymm1
- .byte 197,228,21,216 // vunpckhps %ymm0,%ymm3,%ymm3
- .byte 197,237,20,193 // vunpcklpd %ymm1,%ymm2,%ymm0
- .byte 197,237,21,201 // vunpckhpd %ymm1,%ymm2,%ymm1
- .byte 197,189,20,211 // vunpcklpd %ymm3,%ymm8,%ymm2
- .byte 197,189,21,219 // vunpckhpd %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
- .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
- .byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 235,203 // jmp 17f3d <_sk_load_f32_avx+0x145>
- .byte 102,144 // xchg %ax,%ax
- .byte 27,255 // sbb %edi,%edi
- .byte 255 // (bad)
- .byte 255,161,255,255,255,140 // jmpq *-0x73000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,119,255 // pushq -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255,70,255 // incl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 29017f90 <_sk_srcover_bgra_8888_sse2_lowp+0x28fdbd44>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_f32_dst_avx
-.globl _sk_load_f32_dst_avx
-FUNCTION(_sk_load_f32_dst_avx)
-_sk_load_f32_dst_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,221,87,228 // vxorpd %ymm4,%ymm4,%ymm4
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 15,135,91,1,0,0 // ja 180ff <_sk_load_f32_dst_avx+0x16b>
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 197,253,17,68,36,128 // vmovupd %ymm0,-0x80(%rsp)
- .byte 197,253,17,76,36,160 // vmovupd %ymm1,-0x60(%rsp)
- .byte 197,253,17,84,36,192 // vmovupd %ymm2,-0x40(%rsp)
- .byte 197,253,17,92,36,224 // vmovupd %ymm3,-0x20(%rsp)
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 76,141,21,50,1,0,0 // lea 0x132(%rip),%r10 # 18110 <_sk_load_f32_dst_avx+0x17c>
- .byte 73,99,4,186 // movslq (%r10,%rdi,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 197,253,87,192 // vxorpd %ymm0,%ymm0,%ymm0
- .byte 196,65,53,87,201 // vxorpd %ymm9,%ymm9,%ymm9
- .byte 197,205,87,246 // vxorpd %ymm6,%ymm6,%ymm6
- .byte 196,65,37,87,219 // vxorpd %ymm11,%ymm11,%ymm11
- .byte 196,65,29,87,228 // vxorpd %ymm12,%ymm12,%ymm12
- .byte 196,65,61,87,192 // vxorpd %ymm8,%ymm8,%ymm8
- .byte 196,65,13,87,246 // vxorpd %ymm14,%ymm14,%ymm14
- .byte 197,237,87,210 // vxorpd %ymm2,%ymm2,%ymm2
- .byte 196,65,5,87,255 // vxorpd %ymm15,%ymm15,%ymm15
- .byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 196,65,21,87,237 // vxorpd %ymm13,%ymm13,%ymm13
- .byte 197,245,87,201 // vxorpd %ymm1,%ymm1,%ymm1
- .byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
- .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
- .byte 197,229,87,219 // vxorpd %ymm3,%ymm3,%ymm3
- .byte 255,224 // jmpq *%rax
- .byte 196,129,121,16,68,129,112 // vmovupd 0x70(%r9,%r8,4),%xmm0
- .byte 196,227,125,6,224,40 // vperm2f128 $0x28,%ymm0,%ymm0,%ymm4
- .byte 196,129,121,16,68,129,96 // vmovupd 0x60(%r9,%r8,4),%xmm0
- .byte 196,227,125,6,192,40 // vperm2f128 $0x28,%ymm0,%ymm0,%ymm0
- .byte 196,129,121,16,76,129,80 // vmovupd 0x50(%r9,%r8,4),%xmm1
- .byte 196,227,125,6,241,40 // vperm2f128 $0x28,%ymm1,%ymm0,%ymm6
- .byte 197,125,40,200 // vmovapd %ymm0,%ymm9
- .byte 196,129,121,16,68,129,64 // vmovupd 0x40(%r9,%r8,4),%xmm0
- .byte 196,99,125,6,192,40 // vperm2f128 $0x28,%ymm0,%ymm0,%ymm8
- .byte 196,65,125,40,217 // vmovapd %ymm9,%ymm11
- .byte 197,125,40,230 // vmovapd %ymm6,%ymm12
- .byte 196,129,121,16,68,129,48 // vmovupd 0x30(%r9,%r8,4),%xmm0
- .byte 196,227,125,13,228,12 // vblendpd $0xc,%ymm4,%ymm0,%ymm4
- .byte 196,65,125,40,243 // vmovapd %ymm11,%ymm14
- .byte 197,125,41,226 // vmovapd %ymm12,%ymm2
- .byte 196,65,125,40,248 // vmovapd %ymm8,%ymm15
- .byte 196,129,121,16,68,129,32 // vmovupd 0x20(%r9,%r8,4),%xmm0
- .byte 196,195,125,13,238,12 // vblendpd $0xc,%ymm14,%ymm0,%ymm5
- .byte 197,125,40,234 // vmovapd %ymm2,%ymm13
- .byte 197,125,41,249 // vmovapd %ymm15,%ymm1
- .byte 196,129,121,16,68,129,16 // vmovupd 0x10(%r9,%r8,4),%xmm0
- .byte 196,67,125,13,213,12 // vblendpd $0xc,%ymm13,%ymm0,%ymm10
- .byte 197,253,40,253 // vmovapd %ymm5,%ymm7
- .byte 197,253,40,217 // vmovapd %ymm1,%ymm3
- .byte 196,129,121,16,4,129 // vmovupd (%r9,%r8,4),%xmm0
- .byte 196,227,125,13,235,12 // vblendpd $0xc,%ymm3,%ymm0,%ymm5
- .byte 197,252,16,92,36,224 // vmovups -0x20(%rsp),%ymm3
- .byte 197,252,16,84,36,192 // vmovups -0x40(%rsp),%ymm2
- .byte 197,252,16,76,36,160 // vmovups -0x60(%rsp),%ymm1
- .byte 197,252,16,68,36,128 // vmovups -0x80(%rsp),%ymm0
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 196,193,84,20,242 // vunpcklps %ymm10,%ymm5,%ymm6
- .byte 196,65,84,21,194 // vunpckhps %ymm10,%ymm5,%ymm8
- .byte 197,196,20,236 // vunpcklps %ymm4,%ymm7,%ymm5
- .byte 197,196,21,252 // vunpckhps %ymm4,%ymm7,%ymm7
- .byte 197,205,20,229 // vunpcklpd %ymm5,%ymm6,%ymm4
- .byte 197,205,21,237 // vunpckhpd %ymm5,%ymm6,%ymm5
- .byte 197,189,20,247 // vunpcklpd %ymm7,%ymm8,%ymm6
- .byte 197,189,21,255 // vunpckhpd %ymm7,%ymm8,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 197,197,87,255 // vxorpd %ymm7,%ymm7,%ymm7
- .byte 196,65,45,87,210 // vxorpd %ymm10,%ymm10,%ymm10
- .byte 197,213,87,237 // vxorpd %ymm5,%ymm5,%ymm5
- .byte 235,203 // jmp 180d9 <_sk_load_f32_dst_avx+0x145>
- .byte 102,144 // xchg %ax,%ax
- .byte 27,255 // sbb %edi,%edi
- .byte 255 // (bad)
- .byte 255,161,255,255,255,140 // jmpq *-0x73000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,119,255 // pushq -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255,70,255 // incl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,53,255,255,255,40 // pushq 0x28ffffff(%rip) # 2901812c <_sk_srcover_bgra_8888_sse2_lowp+0x28fdbee0>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_f32_avx
-.globl _sk_store_f32_avx
-FUNCTION(_sk_store_f32_avx)
-_sk_store_f32_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 197,124,20,193 // vunpcklps %ymm1,%ymm0,%ymm8
- .byte 197,124,21,217 // vunpckhps %ymm1,%ymm0,%ymm11
- .byte 197,108,20,203 // vunpcklps %ymm3,%ymm2,%ymm9
- .byte 197,108,21,227 // vunpckhps %ymm3,%ymm2,%ymm12
- .byte 196,65,61,20,209 // vunpcklpd %ymm9,%ymm8,%ymm10
- .byte 196,65,61,21,201 // vunpckhpd %ymm9,%ymm8,%ymm9
- .byte 196,65,37,20,196 // vunpcklpd %ymm12,%ymm11,%ymm8
- .byte 196,65,37,21,220 // vunpckhpd %ymm12,%ymm11,%ymm11
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,55 // jne 181a9 <_sk_store_f32_avx+0x79>
- .byte 196,67,45,24,225,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
- .byte 196,67,61,24,235,1 // vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
- .byte 196,67,45,6,201,49 // vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
- .byte 196,67,61,6,195,49 // vperm2f128 $0x31,%ymm11,%ymm8,%ymm8
- .byte 196,1,124,17,36,129 // vmovups %ymm12,(%r9,%r8,4)
- .byte 196,1,124,17,108,129,32 // vmovups %ymm13,0x20(%r9,%r8,4)
- .byte 196,1,125,17,76,129,64 // vmovupd %ymm9,0x40(%r9,%r8,4)
- .byte 196,1,125,17,68,129,96 // vmovupd %ymm8,0x60(%r9,%r8,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,1,121,17,20,129 // vmovupd %xmm10,(%r9,%r8,4)
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 181a5 <_sk_store_f32_avx+0x75>
- .byte 196,1,121,17,76,129,16 // vmovupd %xmm9,0x10(%r9,%r8,4)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 181a5 <_sk_store_f32_avx+0x75>
- .byte 196,1,121,17,68,129,32 // vmovupd %xmm8,0x20(%r9,%r8,4)
- .byte 116,218 // je 181a5 <_sk_store_f32_avx+0x75>
- .byte 196,1,121,17,92,129,48 // vmovupd %xmm11,0x30(%r9,%r8,4)
- .byte 72,131,255,5 // cmp $0x5,%rdi
- .byte 114,205 // jb 181a5 <_sk_store_f32_avx+0x75>
- .byte 196,3,125,25,84,129,64,1 // vextractf128 $0x1,%ymm10,0x40(%r9,%r8,4)
- .byte 116,195 // je 181a5 <_sk_store_f32_avx+0x75>
- .byte 196,3,125,25,76,129,80,1 // vextractf128 $0x1,%ymm9,0x50(%r9,%r8,4)
- .byte 72,131,255,7 // cmp $0x7,%rdi
- .byte 114,181 // jb 181a5 <_sk_store_f32_avx+0x75>
- .byte 196,3,125,25,68,129,96,1 // vextractf128 $0x1,%ymm8,0x60(%r9,%r8,4)
- .byte 235,171 // jmp 181a5 <_sk_store_f32_avx+0x75>
-
-HIDDEN _sk_repeat_x_avx
-.globl _sk_repeat_x_avx
-FUNCTION(_sk_repeat_x_avx)
-_sk_repeat_x_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8
- .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8
- .byte 196,67,125,8,192,1 // vroundps $0x1,%ymm8,%ymm8
- .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
- .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_repeat_y_avx
-.globl _sk_repeat_y_avx
-FUNCTION(_sk_repeat_y_avx)
-_sk_repeat_y_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8
- .byte 197,60,89,193 // vmulps %ymm1,%ymm8,%ymm8
- .byte 196,67,125,8,192,1 // vroundps $0x1,%ymm8,%ymm8
- .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
- .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,193,116,92,200 // vsubps %ymm8,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_x_avx
-.globl _sk_mirror_x_avx
-FUNCTION(_sk_mirror_x_avx)
-_sk_mirror_x_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,72,4 // vmovss 0x4(%rax),%xmm9
- .byte 196,67,121,4,208,0 // vpermilps $0x0,%xmm8,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- .byte 196,65,124,92,218 // vsubps %ymm10,%ymm0,%ymm11
- .byte 196,193,58,88,192 // vaddss %xmm8,%xmm8,%xmm0
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,99,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- .byte 197,178,89,5,127,66,2,0 // vmulss 0x2427f(%rip),%xmm9,%xmm0 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,227,121,4,192,0 // vpermilps $0x0,%xmm0,%xmm0
- .byte 196,227,125,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
- .byte 196,227,125,8,192,1 // vroundps $0x1,%ymm0,%ymm0
- .byte 196,193,124,89,192 // vmulps %ymm8,%ymm0,%ymm0
- .byte 197,164,92,192 // vsubps %ymm0,%ymm11,%ymm0
- .byte 196,193,124,92,194 // vsubps %ymm10,%ymm0,%ymm0
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,192 // vsubps %ymm0,%ymm8,%ymm8
- .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_y_avx
-.globl _sk_mirror_y_avx
-FUNCTION(_sk_mirror_y_avx)
-_sk_mirror_y_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,72,4 // vmovss 0x4(%rax),%xmm9
- .byte 196,67,121,4,208,0 // vpermilps $0x0,%xmm8,%xmm10
- .byte 196,67,45,24,210,1 // vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- .byte 196,65,116,92,218 // vsubps %ymm10,%ymm1,%ymm11
- .byte 196,193,58,88,200 // vaddss %xmm8,%xmm8,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,99,117,24,193,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- .byte 197,178,89,13,21,66,2,0 // vmulss 0x24215(%rip),%xmm9,%xmm1 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
- .byte 196,227,125,8,201,1 // vroundps $0x1,%ymm1,%ymm1
- .byte 196,193,116,89,200 // vmulps %ymm8,%ymm1,%ymm1
- .byte 197,164,92,201 // vsubps %ymm1,%ymm11,%ymm1
- .byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,193 // vsubps %ymm1,%ymm8,%ymm8
- .byte 197,188,84,201 // vandps %ymm1,%ymm8,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_x_1_avx
-.globl _sk_clamp_x_1_avx
-FUNCTION(_sk_clamp_x_1_avx)
-_sk_clamp_x_1_avx:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,210,65,2,0 // vbroadcastss 0x241d2(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_repeat_x_1_avx
-.globl _sk_repeat_x_1_avx
-FUNCTION(_sk_repeat_x_1_avx)
-_sk_repeat_x_1_avx:
- .byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
- .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,172,65,2,0 // vbroadcastss 0x241ac(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_x_1_avx
-.globl _sk_mirror_x_1_avx
-FUNCTION(_sk_mirror_x_1_avx)
-_sk_mirror_x_1_avx:
- .byte 196,98,125,24,5,178,65,2,0 // vbroadcastss 0x241b2(%rip),%ymm8 # 3c514 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
- .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,13,136,65,2,0 // vbroadcastss 0x24188(%rip),%ymm9 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
- .byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
- .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
- .byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
- .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
- .byte 197,180,84,192 // vandps %ymm0,%ymm9,%ymm0
- .byte 197,188,95,192 // vmaxps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,5,88,65,2,0 // vbroadcastss 0x24158(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_avx
-.globl _sk_decal_x_avx
-FUNCTION(_sk_decal_x_avx)
-_sk_decal_x_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,194,200,2 // vcmpleps %ymm0,%ymm8,%ymm9
- .byte 196,98,125,24,80,64 // vbroadcastss 0x40(%rax),%ymm10
- .byte 196,65,124,194,210,1 // vcmpltps %ymm10,%ymm0,%ymm10
- .byte 196,65,44,84,201 // vandps %ymm9,%ymm10,%ymm9
- .byte 196,65,60,194,208,15 // vcmptrueps %ymm8,%ymm8,%ymm10
- .byte 196,67,61,74,194,144 // vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- .byte 197,124,17,0 // vmovups %ymm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_y_avx
-.globl _sk_decal_y_avx
-FUNCTION(_sk_decal_y_avx)
-_sk_decal_y_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,194,201,2 // vcmpleps %ymm1,%ymm8,%ymm9
- .byte 196,98,125,24,80,68 // vbroadcastss 0x44(%rax),%ymm10
- .byte 196,65,116,194,210,1 // vcmpltps %ymm10,%ymm1,%ymm10
- .byte 196,65,44,84,201 // vandps %ymm9,%ymm10,%ymm9
- .byte 196,65,60,194,208,15 // vcmptrueps %ymm8,%ymm8,%ymm10
- .byte 196,67,61,74,194,144 // vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- .byte 197,124,17,0 // vmovups %ymm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_and_y_avx
-.globl _sk_decal_x_and_y_avx
-FUNCTION(_sk_decal_x_and_y_avx)
-_sk_decal_x_and_y_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,194,200,2 // vcmpleps %ymm0,%ymm8,%ymm9
- .byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
- .byte 196,65,49,99,202 // vpacksswb %xmm10,%xmm9,%xmm9
- .byte 196,98,125,24,80,64 // vbroadcastss 0x40(%rax),%ymm10
- .byte 196,65,124,194,210,1 // vcmpltps %ymm10,%ymm0,%ymm10
- .byte 196,67,125,25,211,1 // vextractf128 $0x1,%ymm10,%xmm11
- .byte 196,65,41,99,211 // vpacksswb %xmm11,%xmm10,%xmm10
- .byte 197,60,194,217,2 // vcmpleps %ymm1,%ymm8,%ymm11
- .byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12
- .byte 196,65,33,99,220 // vpacksswb %xmm12,%xmm11,%xmm11
- .byte 196,65,33,219,201 // vpand %xmm9,%xmm11,%xmm9
- .byte 196,65,49,219,202 // vpand %xmm10,%xmm9,%xmm9
- .byte 196,98,125,24,80,68 // vbroadcastss 0x44(%rax),%ymm10
- .byte 196,65,116,194,210,1 // vcmpltps %ymm10,%ymm1,%ymm10
- .byte 196,67,125,25,211,1 // vextractf128 $0x1,%ymm10,%xmm11
- .byte 196,65,41,99,211 // vpacksswb %xmm11,%xmm10,%xmm10
- .byte 196,65,49,219,202 // vpand %xmm10,%xmm9,%xmm9
- .byte 196,66,121,51,209 // vpmovzxwd %xmm9,%xmm10
- .byte 196,193,41,114,242,31 // vpslld $0x1f,%xmm10,%xmm10
- .byte 196,193,41,114,226,31 // vpsrad $0x1f,%xmm10,%xmm10
- .byte 197,49,105,200 // vpunpckhwd %xmm0,%xmm9,%xmm9
- .byte 196,193,49,114,241,31 // vpslld $0x1f,%xmm9,%xmm9
- .byte 196,193,49,114,225,31 // vpsrad $0x1f,%xmm9,%xmm9
- .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,65,60,194,208,15 // vcmptrueps %ymm8,%ymm8,%ymm10
- .byte 196,67,61,74,194,144 // vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- .byte 197,124,17,0 // vmovups %ymm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_check_decal_mask_avx
-.globl _sk_check_decal_mask_avx
-FUNCTION(_sk_check_decal_mask_avx)
-_sk_check_decal_mask_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,16,0 // vmovups (%rax),%ymm8
- .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
- .byte 197,188,84,201 // vandps %ymm1,%ymm8,%ymm1
- .byte 197,188,84,210 // vandps %ymm2,%ymm8,%ymm2
- .byte 197,188,84,219 // vandps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_luminance_to_alpha_avx
-.globl _sk_luminance_to_alpha_avx
-FUNCTION(_sk_luminance_to_alpha_avx)
-_sk_luminance_to_alpha_avx:
- .byte 196,226,125,24,29,95,65,2,0 // vbroadcastss 0x2415f(%rip),%ymm3 # 3c630 <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,29,78,65,2,0 // vbroadcastss 0x2414e(%rip),%ymm3 # 3c62c <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
- .byte 197,244,89,203 // vmulps %ymm3,%ymm1,%ymm1
- .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 196,226,125,24,13,69,65,2,0 // vbroadcastss 0x24145(%rip),%ymm1 # 3c634 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
- .byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
- .byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_translate_avx
-.globl _sk_matrix_translate_avx
-FUNCTION(_sk_matrix_translate_avx)
-_sk_matrix_translate_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8
- .byte 197,188,88,201 // vaddps %ymm1,%ymm8,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_scale_translate_avx
-.globl _sk_matrix_scale_translate_avx
-FUNCTION(_sk_matrix_scale_translate_avx)
-_sk_matrix_scale_translate_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 196,98,125,24,72,8 // vbroadcastss 0x8(%rax),%ymm9
- .byte 197,188,89,192 // vmulps %ymm0,%ymm8,%ymm0
- .byte 196,193,124,88,193 // vaddps %ymm9,%ymm0,%ymm0
- .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 197,188,89,201 // vmulps %ymm1,%ymm8,%ymm1
- .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_2x3_avx
-.globl _sk_matrix_2x3_avx
-FUNCTION(_sk_matrix_2x3_avx)
-_sk_matrix_2x3_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 196,98,125,24,72,8 // vbroadcastss 0x8(%rax),%ymm9
- .byte 196,98,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm10
- .byte 197,52,89,201 // vmulps %ymm1,%ymm9,%ymm9
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm9
- .byte 196,98,125,24,80,12 // vbroadcastss 0xc(%rax),%ymm10
- .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
- .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
- .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 197,252,88,201 // vaddps %ymm1,%ymm0,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_3x4_avx
-.globl _sk_matrix_3x4_avx
-FUNCTION(_sk_matrix_3x4_avx)
-_sk_matrix_3x4_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10
- .byte 196,98,125,24,88,36 // vbroadcastss 0x24(%rax),%ymm11
- .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 197,52,89,201 // vmulps %ymm1,%ymm9,%ymm9
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm9
- .byte 196,98,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm10
- .byte 196,98,125,24,88,28 // vbroadcastss 0x1c(%rax),%ymm11
- .byte 196,98,125,24,96,40 // vbroadcastss 0x28(%rax),%ymm12
- .byte 197,36,89,218 // vmulps %ymm2,%ymm11,%ymm11
- .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 197,44,89,209 // vmulps %ymm1,%ymm10,%ymm10
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 197,52,89,200 // vmulps %ymm0,%ymm9,%ymm9
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10
- .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
- .byte 196,98,125,24,96,32 // vbroadcastss 0x20(%rax),%ymm12
- .byte 196,98,125,24,104,44 // vbroadcastss 0x2c(%rax),%ymm13
- .byte 197,156,89,210 // vmulps %ymm2,%ymm12,%ymm2
- .byte 196,193,108,88,213 // vaddps %ymm13,%ymm2,%ymm2
- .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
- .byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
- .byte 197,252,88,209 // vaddps %ymm1,%ymm0,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_4x5_avx
-.globl _sk_matrix_4x5_avx
-FUNCTION(_sk_matrix_4x5_avx)
-_sk_matrix_4x5_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 196,98,125,24,72,16 // vbroadcastss 0x10(%rax),%ymm9
- .byte 196,98,125,24,80,32 // vbroadcastss 0x20(%rax),%ymm10
- .byte 196,98,125,24,88,48 // vbroadcastss 0x30(%rax),%ymm11
- .byte 196,98,125,24,96,64 // vbroadcastss 0x40(%rax),%ymm12
- .byte 197,36,89,219 // vmulps %ymm3,%ymm11,%ymm11
- .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 197,44,89,210 // vmulps %ymm2,%ymm10,%ymm10
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 197,52,89,201 // vmulps %ymm1,%ymm9,%ymm9
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm9
- .byte 196,98,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm10
- .byte 196,98,125,24,88,36 // vbroadcastss 0x24(%rax),%ymm11
- .byte 196,98,125,24,96,52 // vbroadcastss 0x34(%rax),%ymm12
- .byte 196,98,125,24,104,68 // vbroadcastss 0x44(%rax),%ymm13
- .byte 197,28,89,227 // vmulps %ymm3,%ymm12,%ymm12
- .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
- .byte 197,36,89,218 // vmulps %ymm2,%ymm11,%ymm11
- .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 197,44,89,209 // vmulps %ymm1,%ymm10,%ymm10
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 197,52,89,200 // vmulps %ymm0,%ymm9,%ymm9
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10
- .byte 196,98,125,24,88,24 // vbroadcastss 0x18(%rax),%ymm11
- .byte 196,98,125,24,96,40 // vbroadcastss 0x28(%rax),%ymm12
- .byte 196,98,125,24,104,56 // vbroadcastss 0x38(%rax),%ymm13
- .byte 196,98,125,24,112,72 // vbroadcastss 0x48(%rax),%ymm14
- .byte 197,20,89,235 // vmulps %ymm3,%ymm13,%ymm13
- .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 197,28,89,226 // vmulps %ymm2,%ymm12,%ymm12
- .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
- .byte 197,36,89,217 // vmulps %ymm1,%ymm11,%ymm11
- .byte 196,65,36,88,220 // vaddps %ymm12,%ymm11,%ymm11
- .byte 197,44,89,208 // vmulps %ymm0,%ymm10,%ymm10
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,98,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm11
- .byte 196,98,125,24,96,28 // vbroadcastss 0x1c(%rax),%ymm12
- .byte 196,98,125,24,104,44 // vbroadcastss 0x2c(%rax),%ymm13
- .byte 196,98,125,24,112,60 // vbroadcastss 0x3c(%rax),%ymm14
- .byte 196,98,125,24,120,76 // vbroadcastss 0x4c(%rax),%ymm15
- .byte 197,140,89,219 // vmulps %ymm3,%ymm14,%ymm3
- .byte 196,193,100,88,223 // vaddps %ymm15,%ymm3,%ymm3
- .byte 197,148,89,210 // vmulps %ymm2,%ymm13,%ymm2
- .byte 197,236,88,211 // vaddps %ymm3,%ymm2,%ymm2
- .byte 197,156,89,201 // vmulps %ymm1,%ymm12,%ymm1
- .byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
- .byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
- .byte 197,124,41,210 // vmovaps %ymm10,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_4x3_avx
-.globl _sk_matrix_4x3_avx
-FUNCTION(_sk_matrix_4x3_avx)
-_sk_matrix_4x3_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
- .byte 196,226,125,24,88,16 // vbroadcastss 0x10(%rax),%ymm3
- .byte 196,98,125,24,64,32 // vbroadcastss 0x20(%rax),%ymm8
- .byte 197,228,89,217 // vmulps %ymm1,%ymm3,%ymm3
- .byte 196,193,100,88,216 // vaddps %ymm8,%ymm3,%ymm3
- .byte 197,236,89,208 // vmulps %ymm0,%ymm2,%ymm2
- .byte 197,108,88,195 // vaddps %ymm3,%ymm2,%ymm8
- .byte 196,226,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm2
- .byte 196,226,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm3
- .byte 196,98,125,24,72,36 // vbroadcastss 0x24(%rax),%ymm9
- .byte 197,228,89,217 // vmulps %ymm1,%ymm3,%ymm3
- .byte 196,193,100,88,217 // vaddps %ymm9,%ymm3,%ymm3
- .byte 197,236,89,208 // vmulps %ymm0,%ymm2,%ymm2
- .byte 197,108,88,203 // vaddps %ymm3,%ymm2,%ymm9
- .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2
- .byte 196,226,125,24,88,24 // vbroadcastss 0x18(%rax),%ymm3
- .byte 196,98,125,24,80,40 // vbroadcastss 0x28(%rax),%ymm10
- .byte 197,228,89,217 // vmulps %ymm1,%ymm3,%ymm3
- .byte 196,193,100,88,218 // vaddps %ymm10,%ymm3,%ymm3
- .byte 197,236,89,208 // vmulps %ymm0,%ymm2,%ymm2
- .byte 197,236,88,211 // vaddps %ymm3,%ymm2,%ymm2
- .byte 196,226,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm3
- .byte 196,98,125,24,80,28 // vbroadcastss 0x1c(%rax),%ymm10
- .byte 196,98,125,24,88,44 // vbroadcastss 0x2c(%rax),%ymm11
- .byte 197,172,89,201 // vmulps %ymm1,%ymm10,%ymm1
- .byte 196,193,116,88,203 // vaddps %ymm11,%ymm1,%ymm1
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,252,88,217 // vaddps %ymm1,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_perspective_avx
-.globl _sk_matrix_perspective_avx
-FUNCTION(_sk_matrix_perspective_avx)
-_sk_matrix_perspective_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 196,98,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm9
- .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10
- .byte 197,52,89,201 // vmulps %ymm1,%ymm9,%ymm9
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 197,60,89,192 // vmulps %ymm0,%ymm8,%ymm8
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 196,98,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm10
- .byte 196,98,125,24,88,20 // vbroadcastss 0x14(%rax),%ymm11
- .byte 197,44,89,209 // vmulps %ymm1,%ymm10,%ymm10
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 197,52,89,200 // vmulps %ymm0,%ymm9,%ymm9
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,80,24 // vbroadcastss 0x18(%rax),%ymm10
- .byte 196,98,125,24,88,28 // vbroadcastss 0x1c(%rax),%ymm11
- .byte 196,98,125,24,96,32 // vbroadcastss 0x20(%rax),%ymm12
- .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
- .byte 196,193,116,88,204 // vaddps %ymm12,%ymm1,%ymm1
- .byte 197,172,89,192 // vmulps %ymm0,%ymm10,%ymm0
- .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 197,252,83,200 // vrcpps %ymm0,%ymm1
- .byte 197,188,89,193 // vmulps %ymm1,%ymm8,%ymm0
- .byte 197,180,89,201 // vmulps %ymm1,%ymm9,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_gradient_avx
-.globl _sk_evenly_spaced_gradient_avx
-FUNCTION(_sk_evenly_spaced_gradient_avx)
-_sk_evenly_spaced_gradient_avx:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 197,252,17,124,36,216 // vmovups %ymm7,-0x28(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,139,24 // mov (%rax),%rbx
- .byte 72,139,104,8 // mov 0x8(%rax),%rbp
- .byte 72,255,203 // dec %rbx
- .byte 120,7 // js 18893 <_sk_evenly_spaced_gradient_avx+0x25>
- .byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1
- .byte 235,21 // jmp 188a8 <_sk_evenly_spaced_gradient_avx+0x3a>
- .byte 73,137,216 // mov %rbx,%r8
- .byte 73,209,232 // shr %r8
- .byte 131,227,1 // and $0x1,%ebx
- .byte 76,9,195 // or %r8,%rbx
- .byte 196,225,242,42,203 // vcvtsi2ss %rbx,%xmm1,%xmm1
- .byte 197,242,88,201 // vaddss %xmm1,%xmm1,%xmm1
- .byte 196,227,121,4,201,0 // vpermilps $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- .byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,193,249,126,202 // vmovq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 196,195,249,22,207,1 // vpextrq $0x1,%xmm1,%r15
- .byte 69,137,254 // mov %r15d,%r14d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 196,193,249,126,205 // vmovq %xmm1,%r13
- .byte 69,137,236 // mov %r13d,%r12d
- .byte 73,193,237,32 // shr $0x20,%r13
- .byte 196,161,122,16,76,165,0 // vmovss 0x0(%rbp,%r12,4),%xmm1
- .byte 196,163,113,33,76,173,0,16 // vinsertps $0x10,0x0(%rbp,%r13,4),%xmm1,%xmm1
- .byte 196,161,122,16,84,181,0 // vmovss 0x0(%rbp,%r14,4),%xmm2
- .byte 196,33,122,16,68,189,0 // vmovss 0x0(%rbp,%r15,4),%xmm8
- .byte 196,161,122,16,92,157,0 // vmovss 0x0(%rbp,%r11,4),%xmm3
- .byte 196,35,97,33,76,149,0,16 // vinsertps $0x10,0x0(%rbp,%r10,4),%xmm3,%xmm9
- .byte 196,161,122,16,124,141,0 // vmovss 0x0(%rbp,%r9,4),%xmm7
- .byte 196,33,122,16,92,133,0 // vmovss 0x0(%rbp,%r8,4),%xmm11
- .byte 196,99,113,33,226,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm12
- .byte 72,139,88,40 // mov 0x28(%rax),%rbx
- .byte 196,161,122,16,20,163 // vmovss (%rbx,%r12,4),%xmm2
- .byte 196,35,105,33,44,171,16 // vinsertps $0x10,(%rbx,%r13,4),%xmm2,%xmm13
- .byte 196,161,122,16,28,179 // vmovss (%rbx,%r14,4),%xmm3
- .byte 196,161,122,16,12,187 // vmovss (%rbx,%r15,4),%xmm1
- .byte 196,161,122,16,20,155 // vmovss (%rbx,%r11,4),%xmm2
- .byte 196,35,105,33,52,147,16 // vinsertps $0x10,(%rbx,%r10,4),%xmm2,%xmm14
- .byte 196,33,122,16,60,139 // vmovss (%rbx,%r9,4),%xmm15
- .byte 196,33,122,16,20,131 // vmovss (%rbx,%r8,4),%xmm10
- .byte 196,67,25,33,192,48 // vinsertps $0x30,%xmm8,%xmm12,%xmm8
- .byte 196,227,49,33,215,32 // vinsertps $0x20,%xmm7,%xmm9,%xmm2
- .byte 196,195,105,33,211,48 // vinsertps $0x30,%xmm11,%xmm2,%xmm2
- .byte 196,67,109,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm2,%ymm8
- .byte 196,227,17,33,211,32 // vinsertps $0x20,%xmm3,%xmm13,%xmm2
- .byte 196,99,105,33,201,48 // vinsertps $0x30,%xmm1,%xmm2,%xmm9
- .byte 72,139,88,16 // mov 0x10(%rax),%rbx
- .byte 196,161,122,16,20,163 // vmovss (%rbx,%r12,4),%xmm2
- .byte 196,35,105,33,28,171,16 // vinsertps $0x10,(%rbx,%r13,4),%xmm2,%xmm11
- .byte 196,33,122,16,36,179 // vmovss (%rbx,%r14,4),%xmm12
- .byte 196,161,122,16,12,187 // vmovss (%rbx,%r15,4),%xmm1
- .byte 196,161,122,16,60,155 // vmovss (%rbx,%r11,4),%xmm7
- .byte 196,163,65,33,60,147,16 // vinsertps $0x10,(%rbx,%r10,4),%xmm7,%xmm7
- .byte 196,161,122,16,28,139 // vmovss (%rbx,%r9,4),%xmm3
- .byte 196,33,122,16,44,131 // vmovss (%rbx,%r8,4),%xmm13
- .byte 196,195,9,33,215,32 // vinsertps $0x20,%xmm15,%xmm14,%xmm2
- .byte 196,195,105,33,210,48 // vinsertps $0x30,%xmm10,%xmm2,%xmm2
- .byte 196,67,109,24,241,1 // vinsertf128 $0x1,%xmm9,%ymm2,%ymm14
- .byte 196,195,33,33,212,32 // vinsertps $0x20,%xmm12,%xmm11,%xmm2
- .byte 196,99,105,33,201,48 // vinsertps $0x30,%xmm1,%xmm2,%xmm9
- .byte 196,99,65,33,211,32 // vinsertps $0x20,%xmm3,%xmm7,%xmm10
- .byte 72,139,88,48 // mov 0x30(%rax),%rbx
- .byte 196,161,122,16,28,163 // vmovss (%rbx,%r12,4),%xmm3
- .byte 196,35,97,33,28,171,16 // vinsertps $0x10,(%rbx,%r13,4),%xmm3,%xmm11
- .byte 196,33,122,16,60,179 // vmovss (%rbx,%r14,4),%xmm15
- .byte 196,33,122,16,36,187 // vmovss (%rbx,%r15,4),%xmm12
- .byte 196,161,122,16,20,155 // vmovss (%rbx,%r11,4),%xmm2
- .byte 196,163,105,33,20,147,16 // vinsertps $0x10,(%rbx,%r10,4),%xmm2,%xmm2
- .byte 196,161,122,16,60,139 // vmovss (%rbx,%r9,4),%xmm7
- .byte 196,161,122,16,28,131 // vmovss (%rbx,%r8,4),%xmm3
- .byte 196,67,41,33,213,48 // vinsertps $0x30,%xmm13,%xmm10,%xmm10
- .byte 196,67,45,24,233,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm13
- .byte 196,195,33,33,207,32 // vinsertps $0x20,%xmm15,%xmm11,%xmm1
- .byte 196,67,113,33,204,48 // vinsertps $0x30,%xmm12,%xmm1,%xmm9
- .byte 196,227,105,33,215,32 // vinsertps $0x20,%xmm7,%xmm2,%xmm2
- .byte 196,99,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm10
- .byte 72,139,88,24 // mov 0x18(%rax),%rbx
- .byte 196,161,122,16,28,163 // vmovss (%rbx,%r12,4),%xmm3
- .byte 196,35,97,33,28,171,16 // vinsertps $0x10,(%rbx,%r13,4),%xmm3,%xmm11
- .byte 196,33,122,16,36,179 // vmovss (%rbx,%r14,4),%xmm12
- .byte 196,33,122,16,60,187 // vmovss (%rbx,%r15,4),%xmm15
- .byte 196,161,122,16,20,155 // vmovss (%rbx,%r11,4),%xmm2
- .byte 196,163,105,33,20,147,16 // vinsertps $0x10,(%rbx,%r10,4),%xmm2,%xmm2
- .byte 196,161,122,16,28,139 // vmovss (%rbx,%r9,4),%xmm3
- .byte 196,161,122,16,60,131 // vmovss (%rbx,%r8,4),%xmm7
- .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,195,33,33,204,32 // vinsertps $0x20,%xmm12,%xmm11,%xmm1
- .byte 196,195,113,33,207,48 // vinsertps $0x30,%xmm15,%xmm1,%xmm1
- .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
- .byte 196,99,109,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm10
- .byte 72,139,88,56 // mov 0x38(%rax),%rbx
- .byte 196,161,122,16,12,163 // vmovss (%rbx,%r12,4),%xmm1
- .byte 196,35,113,33,28,171,16 // vinsertps $0x10,(%rbx,%r13,4),%xmm1,%xmm11
- .byte 196,33,122,16,36,179 // vmovss (%rbx,%r14,4),%xmm12
- .byte 196,33,122,16,60,187 // vmovss (%rbx,%r15,4),%xmm15
- .byte 196,161,122,16,60,155 // vmovss (%rbx,%r11,4),%xmm7
- .byte 196,163,65,33,60,147,16 // vinsertps $0x10,(%rbx,%r10,4),%xmm7,%xmm7
- .byte 196,161,122,16,12,139 // vmovss (%rbx,%r9,4),%xmm1
- .byte 196,161,122,16,20,131 // vmovss (%rbx,%r8,4),%xmm2
- .byte 196,195,33,33,220,32 // vinsertps $0x20,%xmm12,%xmm11,%xmm3
- .byte 196,195,97,33,223,48 // vinsertps $0x30,%xmm15,%xmm3,%xmm3
- .byte 196,227,65,33,201,32 // vinsertps $0x20,%xmm1,%xmm7,%xmm1
- .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1
- .byte 196,99,117,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm1,%ymm11
- .byte 72,139,88,32 // mov 0x20(%rax),%rbx
- .byte 196,161,122,16,12,163 // vmovss (%rbx,%r12,4),%xmm1
- .byte 196,163,113,33,12,171,16 // vinsertps $0x10,(%rbx,%r13,4),%xmm1,%xmm1
- .byte 196,161,122,16,20,179 // vmovss (%rbx,%r14,4),%xmm2
- .byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1
- .byte 196,161,122,16,20,187 // vmovss (%rbx,%r15,4),%xmm2
- .byte 196,161,122,16,28,155 // vmovss (%rbx,%r11,4),%xmm3
- .byte 196,35,97,33,36,147,16 // vinsertps $0x10,(%rbx,%r10,4),%xmm3,%xmm12
- .byte 196,161,122,16,60,139 // vmovss (%rbx,%r9,4),%xmm7
- .byte 196,161,122,16,28,131 // vmovss (%rbx,%r8,4),%xmm3
- .byte 196,99,113,33,250,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm15
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 196,161,122,16,20,160 // vmovss (%rax,%r12,4),%xmm2
- .byte 196,163,105,33,20,168,16 // vinsertps $0x10,(%rax,%r13,4),%xmm2,%xmm2
- .byte 196,227,25,33,255,32 // vinsertps $0x20,%xmm7,%xmm12,%xmm7
- .byte 196,161,122,16,12,176 // vmovss (%rax,%r14,4),%xmm1
- .byte 196,227,65,33,219,48 // vinsertps $0x30,%xmm3,%xmm7,%xmm3
- .byte 196,161,122,16,60,184 // vmovss (%rax,%r15,4),%xmm7
- .byte 196,67,101,24,231,1 // vinsertf128 $0x1,%xmm15,%ymm3,%ymm12
- .byte 196,161,122,16,28,152 // vmovss (%rax,%r11,4),%xmm3
- .byte 196,163,97,33,28,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm3,%xmm3
- .byte 196,227,105,33,201,32 // vinsertps $0x20,%xmm1,%xmm2,%xmm1
- .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2
- .byte 196,227,113,33,207,48 // vinsertps $0x30,%xmm7,%xmm1,%xmm1
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,97,33,210,32 // vinsertps $0x20,%xmm2,%xmm3,%xmm2
- .byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
- .byte 196,227,109,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm3
- .byte 197,188,89,200 // vmulps %ymm0,%ymm8,%ymm1
- .byte 196,65,116,88,198 // vaddps %ymm14,%ymm1,%ymm8
- .byte 197,148,89,200 // vmulps %ymm0,%ymm13,%ymm1
- .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
- .byte 197,172,89,208 // vmulps %ymm0,%ymm10,%ymm2
- .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
- .byte 197,252,88,219 // vaddps %ymm3,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,252,16,124,36,216 // vmovups -0x28(%rsp),%ymm7
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gradient_avx
-.globl _sk_gradient_avx
-FUNCTION(_sk_gradient_avx)
-_sk_gradient_avx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 197,252,17,124,36,208 // vmovups %ymm7,-0x30(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,81 // jb 18c42 <_sk_gradient_avx+0x6f>
- .byte 72,139,88,72 // mov 0x48(%rax),%rbx
- .byte 73,255,200 // dec %r8
- .byte 72,131,195,4 // add $0x4,%rbx
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,98,125,24,21,246,56,2,0 // vbroadcastss 0x238f6(%rip),%ymm10 # 3c500 <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 196,98,125,24,3 // vbroadcastss (%rbx),%ymm8
- .byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8
- .byte 196,67,53,74,194,128 // vblendvps %ymm8,%ymm10,%ymm9,%ymm8
- .byte 196,99,125,25,194,1 // vextractf128 $0x1,%ymm8,%xmm2
- .byte 196,227,125,25,203,1 // vextractf128 $0x1,%ymm1,%xmm3
- .byte 197,225,254,210 // vpaddd %xmm2,%xmm3,%xmm2
- .byte 196,193,113,254,200 // vpaddd %xmm8,%xmm1,%xmm1
- .byte 196,227,117,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 72,131,195,4 // add $0x4,%rbx
- .byte 73,255,200 // dec %r8
- .byte 117,204 // jne 18c0e <_sk_gradient_avx+0x3b>
- .byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,193,249,126,202 // vmovq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,25,201,1 // vextractf128 $0x1,%ymm1,%xmm1
- .byte 196,195,249,22,207,1 // vpextrq $0x1,%xmm1,%r15
- .byte 69,137,254 // mov %r15d,%r14d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 196,225,249,126,203 // vmovq %xmm1,%rbx
- .byte 65,137,220 // mov %ebx,%r12d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 76,139,104,8 // mov 0x8(%rax),%r13
- .byte 196,129,122,16,76,165,0 // vmovss 0x0(%r13,%r12,4),%xmm1
- .byte 196,195,113,33,76,157,0,16 // vinsertps $0x10,0x0(%r13,%rbx,4),%xmm1,%xmm1
- .byte 196,129,122,16,84,181,0 // vmovss 0x0(%r13,%r14,4),%xmm2
- .byte 196,1,122,16,68,189,0 // vmovss 0x0(%r13,%r15,4),%xmm8
- .byte 196,129,122,16,92,157,0 // vmovss 0x0(%r13,%r11,4),%xmm3
- .byte 196,3,97,33,76,149,0,16 // vinsertps $0x10,0x0(%r13,%r10,4),%xmm3,%xmm9
- .byte 196,129,122,16,124,141,0 // vmovss 0x0(%r13,%r9,4),%xmm7
- .byte 196,1,122,16,92,133,0 // vmovss 0x0(%r13,%r8,4),%xmm11
- .byte 196,99,113,33,226,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm12
- .byte 76,139,104,40 // mov 0x28(%rax),%r13
- .byte 196,129,122,16,84,165,0 // vmovss 0x0(%r13,%r12,4),%xmm2
- .byte 196,67,105,33,108,157,0,16 // vinsertps $0x10,0x0(%r13,%rbx,4),%xmm2,%xmm13
- .byte 196,129,122,16,92,181,0 // vmovss 0x0(%r13,%r14,4),%xmm3
- .byte 196,129,122,16,76,189,0 // vmovss 0x0(%r13,%r15,4),%xmm1
- .byte 196,129,122,16,84,157,0 // vmovss 0x0(%r13,%r11,4),%xmm2
- .byte 196,3,105,33,116,149,0,16 // vinsertps $0x10,0x0(%r13,%r10,4),%xmm2,%xmm14
- .byte 196,1,122,16,124,141,0 // vmovss 0x0(%r13,%r9,4),%xmm15
- .byte 196,1,122,16,84,133,0 // vmovss 0x0(%r13,%r8,4),%xmm10
- .byte 196,67,25,33,192,48 // vinsertps $0x30,%xmm8,%xmm12,%xmm8
- .byte 196,227,49,33,215,32 // vinsertps $0x20,%xmm7,%xmm9,%xmm2
- .byte 196,195,105,33,211,48 // vinsertps $0x30,%xmm11,%xmm2,%xmm2
- .byte 196,67,109,24,192,1 // vinsertf128 $0x1,%xmm8,%ymm2,%ymm8
- .byte 196,227,17,33,211,32 // vinsertps $0x20,%xmm3,%xmm13,%xmm2
- .byte 196,99,105,33,201,48 // vinsertps $0x30,%xmm1,%xmm2,%xmm9
- .byte 76,139,104,16 // mov 0x10(%rax),%r13
- .byte 196,129,122,16,84,165,0 // vmovss 0x0(%r13,%r12,4),%xmm2
- .byte 196,67,105,33,92,157,0,16 // vinsertps $0x10,0x0(%r13,%rbx,4),%xmm2,%xmm11
- .byte 196,1,122,16,100,181,0 // vmovss 0x0(%r13,%r14,4),%xmm12
- .byte 196,129,122,16,76,189,0 // vmovss 0x0(%r13,%r15,4),%xmm1
- .byte 196,129,122,16,124,157,0 // vmovss 0x0(%r13,%r11,4),%xmm7
- .byte 196,131,65,33,124,149,0,16 // vinsertps $0x10,0x0(%r13,%r10,4),%xmm7,%xmm7
- .byte 196,129,122,16,92,141,0 // vmovss 0x0(%r13,%r9,4),%xmm3
- .byte 196,1,122,16,108,133,0 // vmovss 0x0(%r13,%r8,4),%xmm13
- .byte 196,195,9,33,215,32 // vinsertps $0x20,%xmm15,%xmm14,%xmm2
- .byte 196,195,105,33,210,48 // vinsertps $0x30,%xmm10,%xmm2,%xmm2
- .byte 196,67,109,24,241,1 // vinsertf128 $0x1,%xmm9,%ymm2,%ymm14
- .byte 196,195,33,33,212,32 // vinsertps $0x20,%xmm12,%xmm11,%xmm2
- .byte 196,99,105,33,201,48 // vinsertps $0x30,%xmm1,%xmm2,%xmm9
- .byte 196,99,65,33,211,32 // vinsertps $0x20,%xmm3,%xmm7,%xmm10
- .byte 76,139,104,48 // mov 0x30(%rax),%r13
- .byte 196,129,122,16,92,165,0 // vmovss 0x0(%r13,%r12,4),%xmm3
- .byte 196,67,97,33,92,157,0,16 // vinsertps $0x10,0x0(%r13,%rbx,4),%xmm3,%xmm11
- .byte 196,1,122,16,124,181,0 // vmovss 0x0(%r13,%r14,4),%xmm15
- .byte 196,1,122,16,100,189,0 // vmovss 0x0(%r13,%r15,4),%xmm12
- .byte 196,129,122,16,84,157,0 // vmovss 0x0(%r13,%r11,4),%xmm2
- .byte 196,131,105,33,84,149,0,16 // vinsertps $0x10,0x0(%r13,%r10,4),%xmm2,%xmm2
- .byte 196,129,122,16,124,141,0 // vmovss 0x0(%r13,%r9,4),%xmm7
- .byte 196,129,122,16,92,133,0 // vmovss 0x0(%r13,%r8,4),%xmm3
- .byte 196,67,41,33,213,48 // vinsertps $0x30,%xmm13,%xmm10,%xmm10
- .byte 196,67,45,24,233,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm13
- .byte 196,195,33,33,207,32 // vinsertps $0x20,%xmm15,%xmm11,%xmm1
- .byte 196,67,113,33,204,48 // vinsertps $0x30,%xmm12,%xmm1,%xmm9
- .byte 196,227,105,33,215,32 // vinsertps $0x20,%xmm7,%xmm2,%xmm2
- .byte 196,99,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm10
- .byte 76,139,104,24 // mov 0x18(%rax),%r13
- .byte 196,129,122,16,92,165,0 // vmovss 0x0(%r13,%r12,4),%xmm3
- .byte 196,67,97,33,92,157,0,16 // vinsertps $0x10,0x0(%r13,%rbx,4),%xmm3,%xmm11
- .byte 196,1,122,16,100,181,0 // vmovss 0x0(%r13,%r14,4),%xmm12
- .byte 196,1,122,16,124,189,0 // vmovss 0x0(%r13,%r15,4),%xmm15
- .byte 196,129,122,16,84,157,0 // vmovss 0x0(%r13,%r11,4),%xmm2
- .byte 196,131,105,33,84,149,0,16 // vinsertps $0x10,0x0(%r13,%r10,4),%xmm2,%xmm2
- .byte 196,129,122,16,92,141,0 // vmovss 0x0(%r13,%r9,4),%xmm3
- .byte 196,129,122,16,124,133,0 // vmovss 0x0(%r13,%r8,4),%xmm7
- .byte 196,67,45,24,201,1 // vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,195,33,33,204,32 // vinsertps $0x20,%xmm12,%xmm11,%xmm1
- .byte 196,195,113,33,207,48 // vinsertps $0x30,%xmm15,%xmm1,%xmm1
- .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
- .byte 196,99,109,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm10
- .byte 76,139,104,56 // mov 0x38(%rax),%r13
- .byte 196,129,122,16,76,165,0 // vmovss 0x0(%r13,%r12,4),%xmm1
- .byte 196,67,113,33,92,157,0,16 // vinsertps $0x10,0x0(%r13,%rbx,4),%xmm1,%xmm11
- .byte 196,1,122,16,100,181,0 // vmovss 0x0(%r13,%r14,4),%xmm12
- .byte 196,1,122,16,124,189,0 // vmovss 0x0(%r13,%r15,4),%xmm15
- .byte 196,129,122,16,124,157,0 // vmovss 0x0(%r13,%r11,4),%xmm7
- .byte 196,131,65,33,124,149,0,16 // vinsertps $0x10,0x0(%r13,%r10,4),%xmm7,%xmm7
- .byte 196,129,122,16,76,141,0 // vmovss 0x0(%r13,%r9,4),%xmm1
- .byte 196,129,122,16,84,133,0 // vmovss 0x0(%r13,%r8,4),%xmm2
- .byte 196,195,33,33,220,32 // vinsertps $0x20,%xmm12,%xmm11,%xmm3
- .byte 196,195,97,33,223,48 // vinsertps $0x30,%xmm15,%xmm3,%xmm3
- .byte 196,227,65,33,201,32 // vinsertps $0x20,%xmm1,%xmm7,%xmm1
- .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1
- .byte 196,99,117,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm1,%ymm11
- .byte 76,139,104,32 // mov 0x20(%rax),%r13
- .byte 196,129,122,16,76,165,0 // vmovss 0x0(%r13,%r12,4),%xmm1
- .byte 196,195,113,33,76,157,0,16 // vinsertps $0x10,0x0(%r13,%rbx,4),%xmm1,%xmm1
- .byte 196,129,122,16,84,181,0 // vmovss 0x0(%r13,%r14,4),%xmm2
- .byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1
- .byte 196,129,122,16,84,189,0 // vmovss 0x0(%r13,%r15,4),%xmm2
- .byte 196,129,122,16,92,157,0 // vmovss 0x0(%r13,%r11,4),%xmm3
- .byte 196,3,97,33,100,149,0,16 // vinsertps $0x10,0x0(%r13,%r10,4),%xmm3,%xmm12
- .byte 196,129,122,16,124,141,0 // vmovss 0x0(%r13,%r9,4),%xmm7
- .byte 196,129,122,16,92,133,0 // vmovss 0x0(%r13,%r8,4),%xmm3
- .byte 196,99,113,33,250,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm15
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 196,161,122,16,20,160 // vmovss (%rax,%r12,4),%xmm2
- .byte 196,227,105,33,20,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- .byte 196,227,25,33,255,32 // vinsertps $0x20,%xmm7,%xmm12,%xmm7
- .byte 196,161,122,16,12,176 // vmovss (%rax,%r14,4),%xmm1
- .byte 196,227,65,33,219,48 // vinsertps $0x30,%xmm3,%xmm7,%xmm3
- .byte 196,161,122,16,60,184 // vmovss (%rax,%r15,4),%xmm7
- .byte 196,67,101,24,231,1 // vinsertf128 $0x1,%xmm15,%ymm3,%ymm12
- .byte 196,161,122,16,28,152 // vmovss (%rax,%r11,4),%xmm3
- .byte 196,163,97,33,28,144,16 // vinsertps $0x10,(%rax,%r10,4),%xmm3,%xmm3
- .byte 196,227,105,33,201,32 // vinsertps $0x20,%xmm1,%xmm2,%xmm1
- .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2
- .byte 196,227,113,33,207,48 // vinsertps $0x30,%xmm7,%xmm1,%xmm1
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,97,33,210,32 // vinsertps $0x20,%xmm2,%xmm3,%xmm2
- .byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
- .byte 196,227,109,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm3
- .byte 197,188,89,200 // vmulps %ymm0,%ymm8,%ymm1
- .byte 196,65,116,88,198 // vaddps %ymm14,%ymm1,%ymm8
- .byte 197,148,89,200 // vmulps %ymm0,%ymm13,%ymm1
- .byte 196,193,116,88,201 // vaddps %ymm9,%ymm1,%ymm1
- .byte 197,172,89,208 // vmulps %ymm0,%ymm10,%ymm2
- .byte 196,193,108,88,211 // vaddps %ymm11,%ymm2,%ymm2
- .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
- .byte 197,252,88,219 // vaddps %ymm3,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 197,252,16,124,36,208 // vmovups -0x30(%rsp),%ymm7
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_2_stop_gradient_avx
-.globl _sk_evenly_spaced_2_stop_gradient_avx
-FUNCTION(_sk_evenly_spaced_2_stop_gradient_avx)
-_sk_evenly_spaced_2_stop_gradient_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,8 // vbroadcastss (%rax),%ymm1
- .byte 196,226,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm2
- .byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
- .byte 197,116,88,194 // vaddps %ymm2,%ymm1,%ymm8
- .byte 196,226,125,24,72,4 // vbroadcastss 0x4(%rax),%ymm1
- .byte 196,226,125,24,80,20 // vbroadcastss 0x14(%rax),%ymm2
- .byte 197,244,89,200 // vmulps %ymm0,%ymm1,%ymm1
- .byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2
- .byte 196,226,125,24,88,24 // vbroadcastss 0x18(%rax),%ymm3
- .byte 197,236,89,208 // vmulps %ymm0,%ymm2,%ymm2
- .byte 197,236,88,211 // vaddps %ymm3,%ymm2,%ymm2
- .byte 196,226,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm3
- .byte 196,98,125,24,72,28 // vbroadcastss 0x1c(%rax),%ymm9
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 196,193,124,88,217 // vaddps %ymm9,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_unit_angle_avx
-.globl _sk_xy_to_unit_angle_avx
-FUNCTION(_sk_xy_to_unit_angle_avx)
-_sk_xy_to_unit_angle_avx:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,92,200 // vsubps %ymm0,%ymm8,%ymm9
- .byte 197,52,84,200 // vandps %ymm0,%ymm9,%ymm9
- .byte 197,60,92,209 // vsubps %ymm1,%ymm8,%ymm10
- .byte 197,44,84,209 // vandps %ymm1,%ymm10,%ymm10
- .byte 196,65,52,93,218 // vminps %ymm10,%ymm9,%ymm11
- .byte 196,65,52,95,226 // vmaxps %ymm10,%ymm9,%ymm12
- .byte 196,65,36,94,220 // vdivps %ymm12,%ymm11,%ymm11
- .byte 196,65,36,89,227 // vmulps %ymm11,%ymm11,%ymm12
- .byte 196,98,125,24,45,32,54,2,0 // vbroadcastss 0x23620(%rip),%ymm13 # 3c638 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
- .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,22,54,2,0 // vbroadcastss 0x23616(%rip),%ymm14 # 3c63c <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
- .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,65,28,89,237 // vmulps %ymm13,%ymm12,%ymm13
- .byte 196,98,125,24,53,7,54,2,0 // vbroadcastss 0x23607(%rip),%ymm14 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
- .byte 196,65,20,88,238 // vaddps %ymm14,%ymm13,%ymm13
- .byte 196,65,28,89,229 // vmulps %ymm13,%ymm12,%ymm12
- .byte 196,98,125,24,45,248,53,2,0 // vbroadcastss 0x235f8(%rip),%ymm13 # 3c644 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
- .byte 196,65,28,88,229 // vaddps %ymm13,%ymm12,%ymm12
- .byte 196,65,36,89,220 // vmulps %ymm12,%ymm11,%ymm11
- .byte 196,65,52,194,202,1 // vcmpltps %ymm10,%ymm9,%ymm9
- .byte 196,98,125,24,21,227,53,2,0 // vbroadcastss 0x235e3(%rip),%ymm10 # 3c648 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 196,65,44,92,211 // vsubps %ymm11,%ymm10,%ymm10
- .byte 196,67,37,74,202,144 // vblendvps %ymm9,%ymm10,%ymm11,%ymm9
- .byte 196,193,124,194,192,1 // vcmpltps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,21,121,52,2,0 // vbroadcastss 0x23479(%rip),%ymm10 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,44,92,209 // vsubps %ymm9,%ymm10,%ymm10
- .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- .byte 196,65,116,194,200,1 // vcmpltps %ymm8,%ymm1,%ymm9
- .byte 196,98,125,24,21,99,52,2,0 // vbroadcastss 0x23463(%rip),%ymm10 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,44,92,208 // vsubps %ymm0,%ymm10,%ymm10
- .byte 196,195,125,74,194,144 // vblendvps %ymm9,%ymm10,%ymm0,%ymm0
- .byte 196,65,124,194,200,3 // vcmpunordps %ymm8,%ymm0,%ymm9
- .byte 196,195,125,74,192,144 // vblendvps %ymm9,%ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_radius_avx
-.globl _sk_xy_to_radius_avx
-FUNCTION(_sk_xy_to_radius_avx)
-_sk_xy_to_radius_avx:
- .byte 197,252,89,192 // vmulps %ymm0,%ymm0,%ymm0
- .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
- .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 197,252,81,192 // vsqrtps %ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_negate_x_avx
-.globl _sk_negate_x_avx
-FUNCTION(_sk_negate_x_avx)
-_sk_negate_x_avx:
- .byte 196,98,125,24,5,123,53,2,0 // vbroadcastss 0x2357b(%rip),%ymm8 # 3c64c <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 196,193,124,87,192 // vxorps %ymm8,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_strip_avx
-.globl _sk_xy_to_2pt_conical_strip_avx
-FUNCTION(_sk_xy_to_2pt_conical_strip_avx)
-_sk_xy_to_2pt_conical_strip_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,64 // vbroadcastss 0x40(%rax),%ymm8
- .byte 197,116,89,201 // vmulps %ymm1,%ymm1,%ymm9
- .byte 196,65,60,92,193 // vsubps %ymm9,%ymm8,%ymm8
- .byte 196,65,124,81,192 // vsqrtps %ymm8,%ymm8
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_focal_on_circle_avx
-.globl _sk_xy_to_2pt_conical_focal_on_circle_avx
-FUNCTION(_sk_xy_to_2pt_conical_focal_on_circle_avx)
-_sk_xy_to_2pt_conical_focal_on_circle_avx:
- .byte 197,116,89,193 // vmulps %ymm1,%ymm1,%ymm8
- .byte 197,60,94,192 // vdivps %ymm0,%ymm8,%ymm8
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_well_behaved_avx
-.globl _sk_xy_to_2pt_conical_well_behaved_avx
-FUNCTION(_sk_xy_to_2pt_conical_well_behaved_avx)
-_sk_xy_to_2pt_conical_well_behaved_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,89,192 // vmulps %ymm0,%ymm0,%ymm8
- .byte 197,116,89,201 // vmulps %ymm1,%ymm1,%ymm9
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 196,65,124,81,192 // vsqrtps %ymm8,%ymm8
- .byte 196,98,125,24,72,64 // vbroadcastss 0x40(%rax),%ymm9
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_greater_avx
-.globl _sk_xy_to_2pt_conical_greater_avx
-FUNCTION(_sk_xy_to_2pt_conical_greater_avx)
-_sk_xy_to_2pt_conical_greater_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,89,192 // vmulps %ymm0,%ymm0,%ymm8
- .byte 197,116,89,201 // vmulps %ymm1,%ymm1,%ymm9
- .byte 196,65,60,92,193 // vsubps %ymm9,%ymm8,%ymm8
- .byte 196,65,124,81,192 // vsqrtps %ymm8,%ymm8
- .byte 196,98,125,24,72,64 // vbroadcastss 0x40(%rax),%ymm9
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_smaller_avx
-.globl _sk_xy_to_2pt_conical_smaller_avx
-FUNCTION(_sk_xy_to_2pt_conical_smaller_avx)
-_sk_xy_to_2pt_conical_smaller_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,89,192 // vmulps %ymm0,%ymm0,%ymm8
- .byte 197,116,89,201 // vmulps %ymm1,%ymm1,%ymm9
- .byte 196,65,60,92,193 // vsubps %ymm9,%ymm8,%ymm8
- .byte 196,65,124,81,192 // vsqrtps %ymm8,%ymm8
- .byte 196,98,125,24,13,219,52,2,0 // vbroadcastss 0x234db(%rip),%ymm9 # 3c64c <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- .byte 196,65,60,87,193 // vxorps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,72,64 // vbroadcastss 0x40(%rax),%ymm9
- .byte 197,180,89,192 // vmulps %ymm0,%ymm9,%ymm0
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_alter_2pt_conical_compensate_focal_avx
-.globl _sk_alter_2pt_conical_compensate_focal_avx
-FUNCTION(_sk_alter_2pt_conical_compensate_focal_avx)
-_sk_alter_2pt_conical_compensate_focal_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,64,68 // vbroadcastss 0x44(%rax),%ymm8
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_alter_2pt_conical_unswap_avx
-.globl _sk_alter_2pt_conical_unswap_avx
-FUNCTION(_sk_alter_2pt_conical_unswap_avx)
-_sk_alter_2pt_conical_unswap_avx:
- .byte 196,98,125,24,5,91,51,2,0 // vbroadcastss 0x2335b(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,188,92,192 // vsubps %ymm0,%ymm8,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mask_2pt_conical_nan_avx
-.globl _sk_mask_2pt_conical_nan_avx
-FUNCTION(_sk_mask_2pt_conical_nan_avx)
-_sk_mask_2pt_conical_nan_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,65,124,194,193,3 // vcmpunordps %ymm9,%ymm0,%ymm8
- .byte 196,67,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm8
- .byte 196,193,124,194,193,7 // vcmpordps %ymm9,%ymm0,%ymm0
- .byte 196,65,52,194,209,15 // vcmptrueps %ymm9,%ymm9,%ymm10
- .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- .byte 197,252,17,0 // vmovups %ymm0,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mask_2pt_conical_degenerates_avx
-.globl _sk_mask_2pt_conical_degenerates_avx
-FUNCTION(_sk_mask_2pt_conical_degenerates_avx)
-_sk_mask_2pt_conical_degenerates_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,52,194,192,5 // vcmpnltps %ymm0,%ymm9,%ymm8
- .byte 196,67,125,74,193,128 // vblendvps %ymm8,%ymm9,%ymm0,%ymm8
- .byte 197,180,194,192,1 // vcmpltps %ymm0,%ymm9,%ymm0
- .byte 196,65,52,194,209,15 // vcmptrueps %ymm9,%ymm9,%ymm10
- .byte 196,195,53,74,194,0 // vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- .byte 197,252,17,0 // vmovups %ymm0,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,192 // vmovaps %ymm8,%ymm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_apply_vector_mask_avx
-.globl _sk_apply_vector_mask_avx
-FUNCTION(_sk_apply_vector_mask_avx)
-_sk_apply_vector_mask_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,16,0 // vmovups (%rax),%ymm8
- .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
- .byte 197,188,84,201 // vandps %ymm1,%ymm8,%ymm1
- .byte 197,188,84,210 // vandps %ymm2,%ymm8,%ymm2
- .byte 197,188,84,219 // vandps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_save_xy_avx
-.globl _sk_save_xy_avx
-FUNCTION(_sk_save_xy_avx)
-_sk_save_xy_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,202,50,2,0 // vbroadcastss 0x232ca(%rip),%ymm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,124,88,200 // vaddps %ymm8,%ymm0,%ymm9
- .byte 196,67,125,8,209,1 // vroundps $0x1,%ymm9,%ymm10
- .byte 196,65,52,92,202 // vsubps %ymm10,%ymm9,%ymm9
- .byte 196,65,116,88,192 // vaddps %ymm8,%ymm1,%ymm8
- .byte 196,67,125,8,208,1 // vroundps $0x1,%ymm8,%ymm10
- .byte 196,65,60,92,194 // vsubps %ymm10,%ymm8,%ymm8
- .byte 197,252,17,0 // vmovups %ymm0,(%rax)
- .byte 197,252,17,72,64 // vmovups %ymm1,0x40(%rax)
- .byte 197,124,17,136,128,0,0,0 // vmovups %ymm9,0x80(%rax)
- .byte 197,124,17,128,192,0,0,0 // vmovups %ymm8,0xc0(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_accumulate_avx
-.globl _sk_accumulate_avx
-FUNCTION(_sk_accumulate_avx)
-_sk_accumulate_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,16,128,0,1,0,0 // vmovups 0x100(%rax),%ymm8
- .byte 197,60,89,128,64,1,0,0 // vmulps 0x140(%rax),%ymm8,%ymm8
- .byte 197,60,89,200 // vmulps %ymm0,%ymm8,%ymm9
- .byte 197,180,88,228 // vaddps %ymm4,%ymm9,%ymm4
- .byte 197,60,89,201 // vmulps %ymm1,%ymm8,%ymm9
- .byte 197,180,88,237 // vaddps %ymm5,%ymm9,%ymm5
- .byte 197,60,89,202 // vmulps %ymm2,%ymm8,%ymm9
- .byte 197,180,88,246 // vaddps %ymm6,%ymm9,%ymm6
- .byte 197,60,89,195 // vmulps %ymm3,%ymm8,%ymm8
- .byte 197,188,88,255 // vaddps %ymm7,%ymm8,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_nx_avx
-.globl _sk_bilinear_nx_avx
-FUNCTION(_sk_bilinear_nx_avx)
-_sk_bilinear_nx_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,164,51,2,0 // vbroadcastss 0x233a4(%rip),%ymm0 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,67,50,2,0 // vbroadcastss 0x23243(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_px_avx
-.globl _sk_bilinear_px_avx
-FUNCTION(_sk_bilinear_px_avx)
-_sk_bilinear_px_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,32,50,2,0 // vbroadcastss 0x23220(%rip),%ymm0 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_ny_avx
-.globl _sk_bilinear_ny_avx
-FUNCTION(_sk_bilinear_ny_avx)
-_sk_bilinear_ny_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,85,51,2,0 // vbroadcastss 0x23355(%rip),%ymm1 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,243,49,2,0 // vbroadcastss 0x231f3(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_py_avx
-.globl _sk_bilinear_py_avx
-FUNCTION(_sk_bilinear_py_avx)
-_sk_bilinear_py_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,208,49,2,0 // vbroadcastss 0x231d0(%rip),%ymm1 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n3x_avx
-.globl _sk_bicubic_n3x_avx
-FUNCTION(_sk_bicubic_n3x_avx)
-_sk_bicubic_n3x_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,8,51,2,0 // vbroadcastss 0x23308(%rip),%ymm0 # 3c654 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,163,49,2,0 // vbroadcastss 0x231a3(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,233,50,2,0 // vbroadcastss 0x232e9(%rip),%ymm10 # 3c658 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,243,49,2,0 // vbroadcastss 0x231f3(%rip),%ymm10 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
- .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n1x_avx
-.globl _sk_bicubic_n1x_avx
-FUNCTION(_sk_bicubic_n1x_avx)
-_sk_bicubic_n1x_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,178,50,2,0 // vbroadcastss 0x232b2(%rip),%ymm0 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 196,98,125,24,5,81,49,2,0 // vbroadcastss 0x23151(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,128,0,0,0 // vsubps 0x80(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,160,50,2,0 // vbroadcastss 0x232a0(%rip),%ymm9 # 3c65c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- .byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,150,50,2,0 // vbroadcastss 0x23296(%rip),%ymm10 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,27,49,2,0 // vbroadcastss 0x2311b(%rip),%ymm10 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,116,50,2,0 // vbroadcastss 0x23274(%rip),%ymm9 # 3c664 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p1x_avx
-.globl _sk_bicubic_p1x_avx
-FUNCTION(_sk_bicubic_p1x_avx)
-_sk_bicubic_p1x_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,236,48,2,0 // vbroadcastss 0x230ec(%rip),%ymm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,188,88,0 // vaddps (%rax),%ymm8,%ymm0
- .byte 197,124,16,136,128,0,0,0 // vmovups 0x80(%rax),%ymm9
- .byte 196,98,125,24,21,59,50,2,0 // vbroadcastss 0x2323b(%rip),%ymm10 # 3c65c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,49,50,2,0 // vbroadcastss 0x23231(%rip),%ymm11 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
- .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,24,50,2,0 // vbroadcastss 0x23218(%rip),%ymm9 # 3c664 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p3x_avx
-.globl _sk_bicubic_p3x_avx
-FUNCTION(_sk_bicubic_p3x_avx)
-_sk_bicubic_p3x_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,5,248,49,2,0 // vbroadcastss 0x231f8(%rip),%ymm0 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 197,124,16,128,128,0,0,0 // vmovups 0x80(%rax),%ymm8
- .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,214,49,2,0 // vbroadcastss 0x231d6(%rip),%ymm10 # 3c658 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,224,48,2,0 // vbroadcastss 0x230e0(%rip),%ymm10 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
- .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 197,124,17,128,0,1,0,0 // vmovups %ymm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n3y_avx
-.globl _sk_bicubic_n3y_avx
-FUNCTION(_sk_bicubic_n3y_avx)
-_sk_bicubic_n3y_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,163,49,2,0 // vbroadcastss 0x231a3(%rip),%ymm1 # 3c654 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,61,48,2,0 // vbroadcastss 0x2303d(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,131,49,2,0 // vbroadcastss 0x23183(%rip),%ymm10 # 3c658 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,141,48,2,0 // vbroadcastss 0x2308d(%rip),%ymm10 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
- .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n1y_avx
-.globl _sk_bicubic_n1y_avx
-FUNCTION(_sk_bicubic_n1y_avx)
-_sk_bicubic_n1y_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,76,49,2,0 // vbroadcastss 0x2314c(%rip),%ymm1 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 196,98,125,24,5,234,47,2,0 // vbroadcastss 0x22fea(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,128,192,0,0,0 // vsubps 0xc0(%rax),%ymm8,%ymm8
- .byte 196,98,125,24,13,57,49,2,0 // vbroadcastss 0x23139(%rip),%ymm9 # 3c65c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- .byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,47,49,2,0 // vbroadcastss 0x2312f(%rip),%ymm10 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 196,65,60,89,201 // vmulps %ymm9,%ymm8,%ymm9
- .byte 196,98,125,24,21,180,47,2,0 // vbroadcastss 0x22fb4(%rip),%ymm10 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,52,88,202 // vaddps %ymm10,%ymm9,%ymm9
- .byte 196,65,60,89,193 // vmulps %ymm9,%ymm8,%ymm8
- .byte 196,98,125,24,13,13,49,2,0 // vbroadcastss 0x2310d(%rip),%ymm9 # 3c664 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p1y_avx
-.globl _sk_bicubic_p1y_avx
-FUNCTION(_sk_bicubic_p1y_avx)
-_sk_bicubic_p1y_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,5,133,47,2,0 // vbroadcastss 0x22f85(%rip),%ymm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,188,88,72,64 // vaddps 0x40(%rax),%ymm8,%ymm1
- .byte 197,124,16,136,192,0,0,0 // vmovups 0xc0(%rax),%ymm9
- .byte 196,98,125,24,21,211,48,2,0 // vbroadcastss 0x230d3(%rip),%ymm10 # 3c65c <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,98,125,24,29,201,48,2,0 // vbroadcastss 0x230c9(%rip),%ymm11 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 196,65,44,88,211 // vaddps %ymm11,%ymm10,%ymm10
- .byte 196,65,52,89,210 // vmulps %ymm10,%ymm9,%ymm10
- .byte 196,65,44,88,192 // vaddps %ymm8,%ymm10,%ymm8
- .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 196,98,125,24,13,176,48,2,0 // vbroadcastss 0x230b0(%rip),%ymm9 # 3c664 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- .byte 196,65,60,88,193 // vaddps %ymm9,%ymm8,%ymm8
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p3y_avx
-.globl _sk_bicubic_p3y_avx
-FUNCTION(_sk_bicubic_p3y_avx)
-_sk_bicubic_p3y_avx:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,13,144,48,2,0 // vbroadcastss 0x23090(%rip),%ymm1 # 3c660 <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- .byte 197,244,88,72,64 // vaddps 0x40(%rax),%ymm1,%ymm1
- .byte 197,124,16,128,192,0,0,0 // vmovups 0xc0(%rax),%ymm8
- .byte 196,65,60,89,200 // vmulps %ymm8,%ymm8,%ymm9
- .byte 196,98,125,24,21,109,48,2,0 // vbroadcastss 0x2306d(%rip),%ymm10 # 3c658 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- .byte 196,65,60,89,194 // vmulps %ymm10,%ymm8,%ymm8
- .byte 196,98,125,24,21,119,47,2,0 // vbroadcastss 0x22f77(%rip),%ymm10 # 3c570 <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- .byte 196,65,60,88,194 // vaddps %ymm10,%ymm8,%ymm8
- .byte 196,65,52,89,192 // vmulps %ymm8,%ymm9,%ymm8
- .byte 197,124,17,128,64,1,0,0 // vmovups %ymm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_callback_avx
-.globl _sk_callback_avx
-FUNCTION(_sk_callback_avx)
-_sk_callback_avx:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,228,224 // and $0xffffffffffffffe0,%rsp
- .byte 72,129,236,160,0,0,0 // sub $0xa0,%rsp
- .byte 197,252,41,124,36,96 // vmovaps %ymm7,0x60(%rsp)
- .byte 197,252,41,116,36,64 // vmovaps %ymm6,0x40(%rsp)
- .byte 197,252,41,108,36,32 // vmovaps %ymm5,0x20(%rsp)
- .byte 197,252,41,36,36 // vmovaps %ymm4,(%rsp)
- .byte 73,137,206 // mov %rcx,%r14
- .byte 73,137,215 // mov %rdx,%r15
- .byte 73,137,253 // mov %rdi,%r13
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,137,195 // mov %rax,%rbx
- .byte 73,137,244 // mov %rsi,%r12
- .byte 197,252,20,225 // vunpcklps %ymm1,%ymm0,%ymm4
- .byte 197,252,21,193 // vunpckhps %ymm1,%ymm0,%ymm0
- .byte 197,236,20,203 // vunpcklps %ymm3,%ymm2,%ymm1
- .byte 197,236,21,211 // vunpckhps %ymm3,%ymm2,%ymm2
- .byte 197,221,20,217 // vunpcklpd %ymm1,%ymm4,%ymm3
- .byte 197,221,21,201 // vunpckhpd %ymm1,%ymm4,%ymm1
- .byte 197,253,20,226 // vunpcklpd %ymm2,%ymm0,%ymm4
- .byte 197,253,21,194 // vunpckhpd %ymm2,%ymm0,%ymm0
- .byte 196,227,101,24,209,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm2
- .byte 196,227,93,24,232,1 // vinsertf128 $0x1,%xmm0,%ymm4,%ymm5
- .byte 196,227,101,6,201,49 // vperm2f128 $0x31,%ymm1,%ymm3,%ymm1
- .byte 196,227,93,6,192,49 // vperm2f128 $0x31,%ymm0,%ymm4,%ymm0
- .byte 197,252,17,83,8 // vmovups %ymm2,0x8(%rbx)
- .byte 197,252,17,107,40 // vmovups %ymm5,0x28(%rbx)
- .byte 197,253,17,75,72 // vmovupd %ymm1,0x48(%rbx)
- .byte 197,253,17,67,104 // vmovupd %ymm0,0x68(%rbx)
- .byte 77,133,237 // test %r13,%r13
- .byte 190,8,0,0,0 // mov $0x8,%esi
- .byte 65,15,69,245 // cmovne %r13d,%esi
- .byte 72,137,223 // mov %rbx,%rdi
- .byte 197,248,119 // vzeroupper
- .byte 255,19 // callq *(%rbx)
- .byte 72,139,131,8,1,0,0 // mov 0x108(%rbx),%rax
- .byte 197,248,16,0 // vmovups (%rax),%xmm0
- .byte 197,248,16,72,16 // vmovups 0x10(%rax),%xmm1
- .byte 197,248,16,80,32 // vmovups 0x20(%rax),%xmm2
- .byte 197,248,16,88,48 // vmovups 0x30(%rax),%xmm3
- .byte 196,227,101,24,88,112,1 // vinsertf128 $0x1,0x70(%rax),%ymm3,%ymm3
- .byte 196,227,109,24,80,96,1 // vinsertf128 $0x1,0x60(%rax),%ymm2,%ymm2
- .byte 196,227,117,24,72,80,1 // vinsertf128 $0x1,0x50(%rax),%ymm1,%ymm1
- .byte 196,227,125,24,64,64,1 // vinsertf128 $0x1,0x40(%rax),%ymm0,%ymm0
- .byte 197,252,20,225 // vunpcklps %ymm1,%ymm0,%ymm4
- .byte 197,252,21,233 // vunpckhps %ymm1,%ymm0,%ymm5
- .byte 197,236,20,203 // vunpcklps %ymm3,%ymm2,%ymm1
- .byte 197,236,21,219 // vunpckhps %ymm3,%ymm2,%ymm3
- .byte 197,221,20,193 // vunpcklpd %ymm1,%ymm4,%ymm0
- .byte 197,221,21,201 // vunpckhpd %ymm1,%ymm4,%ymm1
- .byte 197,213,20,211 // vunpcklpd %ymm3,%ymm5,%ymm2
- .byte 197,213,21,219 // vunpckhpd %ymm3,%ymm5,%ymm3
- .byte 76,137,230 // mov %r12,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,137,239 // mov %r13,%rdi
- .byte 76,137,250 // mov %r15,%rdx
- .byte 76,137,241 // mov %r14,%rcx
- .byte 197,252,40,36,36 // vmovaps (%rsp),%ymm4
- .byte 197,252,40,108,36,32 // vmovaps 0x20(%rsp),%ymm5
- .byte 197,252,40,116,36,64 // vmovaps 0x40(%rsp),%ymm6
- .byte 197,252,40,124,36,96 // vmovaps 0x60(%rsp),%ymm7
- .byte 72,141,101,216 // lea -0x28(%rbp),%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clut_3D_avx
-.globl _sk_clut_3D_avx
-FUNCTION(_sk_clut_3D_avx)
-_sk_clut_3D_avx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,129,236,216,1,0,0 // sub $0x1d8,%rsp
- .byte 197,252,17,188,36,160,1,0,0 // vmovups %ymm7,0x1a0(%rsp)
- .byte 197,252,17,180,36,128,1,0,0 // vmovups %ymm6,0x180(%rsp)
- .byte 197,252,17,172,36,96,1,0,0 // vmovups %ymm5,0x160(%rsp)
- .byte 197,252,17,164,36,64,1,0,0 // vmovups %ymm4,0x140(%rsp)
- .byte 197,252,17,156,36,32,1,0,0 // vmovups %ymm3,0x120(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,16 // mov 0x10(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 196,193,121,110,217 // vmovd %r9d,%xmm3
- .byte 197,249,112,219,0 // vpshufd $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
- .byte 197,252,17,148,36,192,0,0,0 // vmovups %ymm2,0xc0(%rsp)
- .byte 197,254,91,218 // vcvttps2dq %ymm2,%ymm3
- .byte 68,139,72,12 // mov 0xc(%rax),%r9d
- .byte 69,141,81,255 // lea -0x1(%r9),%r10d
- .byte 196,193,121,110,210 // vmovd %r10d,%xmm2
- .byte 197,249,112,210,0 // vpshufd $0x0,%xmm2,%xmm2
- .byte 196,227,109,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
- .byte 197,252,17,76,36,192 // vmovups %ymm1,-0x40(%rsp)
- .byte 197,254,91,225 // vcvttps2dq %ymm1,%ymm4
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 197,121,112,201,0 // vpshufd $0x0,%xmm1,%xmm9
- .byte 196,227,125,25,226,1 // vextractf128 $0x1,%ymm4,%xmm2
- .byte 197,253,111,244 // vmovdqa %ymm4,%ymm6
- .byte 197,254,127,116,36,64 // vmovdqu %ymm6,0x40(%rsp)
- .byte 196,226,49,64,226 // vpmulld %xmm2,%xmm9,%xmm4
- .byte 197,249,127,164,36,144,0,0,0 // vmovdqa %xmm4,0x90(%rsp)
- .byte 196,227,125,25,223,1 // vextractf128 $0x1,%ymm3,%xmm7
- .byte 197,249,127,124,36,224 // vmovdqa %xmm7,-0x20(%rsp)
- .byte 197,253,111,235 // vmovdqa %ymm3,%ymm5
- .byte 197,254,127,172,36,160,0,0,0 // vmovdqu %ymm5,0xa0(%rsp)
- .byte 196,193,121,110,209 // vmovd %r9d,%xmm2
- .byte 196,226,105,64,201 // vpmulld %xmm1,%xmm2,%xmm1
- .byte 197,249,112,217,0 // vpshufd $0x0,%xmm1,%xmm3
- .byte 68,139,64,8 // mov 0x8(%rax),%r8d
- .byte 65,255,200 // dec %r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,116,89,232 // vmulps %ymm0,%ymm1,%ymm13
- .byte 196,65,126,91,221 // vcvttps2dq %ymm13,%ymm11
- .byte 196,99,125,25,216,1 // vextractf128 $0x1,%ymm11,%xmm0
- .byte 196,226,97,64,192 // vpmulld %xmm0,%xmm3,%xmm0
- .byte 197,249,127,68,36,176 // vmovdqa %xmm0,-0x50(%rsp)
- .byte 72,139,0 // mov (%rax),%rax
- .byte 197,217,254,207 // vpaddd %xmm7,%xmm4,%xmm1
- .byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0
- .byte 196,226,121,24,37,5,46,2,0 // vbroadcastss 0x22e05(%rip),%xmm4 # 3c66c <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 196,98,121,64,228 // vpmulld %xmm4,%xmm0,%xmm12
- .byte 196,226,49,64,198 // vpmulld %xmm6,%xmm9,%xmm0
- .byte 197,249,127,132,36,128,0,0,0 // vmovdqa %xmm0,0x80(%rsp)
- .byte 197,249,254,197 // vpaddd %xmm5,%xmm0,%xmm0
- .byte 196,194,97,64,211 // vpmulld %xmm11,%xmm3,%xmm2
- .byte 197,249,127,84,36,160 // vmovdqa %xmm2,-0x60(%rsp)
- .byte 197,233,254,208 // vpaddd %xmm0,%xmm2,%xmm2
- .byte 196,226,105,64,212 // vpmulld %xmm4,%xmm2,%xmm2
- .byte 196,193,121,126,208 // vmovd %xmm2,%r8d
- .byte 196,195,121,22,209,1 // vpextrd $0x1,%xmm2,%r9d
- .byte 196,195,121,22,210,2 // vpextrd $0x2,%xmm2,%r10d
- .byte 196,195,121,22,211,3 // vpextrd $0x3,%xmm2,%r11d
- .byte 196,65,121,126,231 // vmovd %xmm12,%r15d
- .byte 196,67,121,22,230,1 // vpextrd $0x1,%xmm12,%r14d
- .byte 196,67,121,22,228,2 // vpextrd $0x2,%xmm12,%r12d
- .byte 196,99,121,22,227,3 // vpextrd $0x3,%xmm12,%ebx
- .byte 196,161,122,16,44,184 // vmovss (%rax,%r15,4),%xmm5
- .byte 196,163,81,33,44,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm5,%xmm5
- .byte 196,163,81,33,44,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm5,%xmm5
- .byte 196,227,81,33,44,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm5,%xmm5
- .byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
- .byte 196,163,73,33,52,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- .byte 196,163,73,33,52,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm6,%xmm6
- .byte 196,163,73,33,52,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm6,%xmm6
- .byte 196,99,77,24,245,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm14
- .byte 197,201,118,246 // vpcmpeqd %xmm6,%xmm6,%xmm6
- .byte 197,233,250,238 // vpsubd %xmm6,%xmm2,%xmm5
- .byte 196,195,249,22,232,1 // vpextrq $0x1,%xmm5,%r8
- .byte 196,193,249,126,233 // vmovq %xmm5,%r9
- .byte 197,153,250,238 // vpsubd %xmm6,%xmm12,%xmm5
- .byte 196,195,249,22,234,1 // vpextrq $0x1,%xmm5,%r10
- .byte 196,225,249,126,235 // vmovq %xmm5,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,44,152 // vmovss (%rax,%r11,4),%xmm5
- .byte 196,227,81,33,44,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm5,%xmm5
- .byte 196,161,122,16,52,176 // vmovss (%rax,%r14,4),%xmm6
- .byte 196,227,81,33,238,32 // vinsertps $0x20,%xmm6,%xmm5,%xmm5
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,81,33,238,48 // vinsertps $0x30,%xmm6,%xmm5,%xmm5
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6
- .byte 196,163,73,33,52,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,73,33,247,32 // vinsertps $0x20,%xmm7,%xmm6,%xmm6
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
- .byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,118,43,2,0 // vbroadcastss 0x22b76(%rip),%xmm10 # 3c508 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- .byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
- .byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 196,193,25,254,210 // vpaddd %xmm10,%xmm12,%xmm2
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 196,225,249,126,211 // vmovq %xmm2,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,20,152 // vmovss (%rax,%r11,4),%xmm2
- .byte 196,227,105,33,20,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- .byte 196,161,122,16,52,176 // vmovss (%rax,%r14,4),%xmm6
- .byte 196,227,105,33,214,32 // vinsertps $0x20,%xmm6,%xmm2,%xmm2
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6
- .byte 196,163,73,33,52,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,73,33,247,32 // vinsertps $0x20,%xmm7,%xmm6,%xmm6
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
- .byte 196,227,77,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- .byte 196,226,125,24,61,66,44,2,0 // vbroadcastss 0x22c42(%rip),%ymm7 # 3c668 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- .byte 197,148,88,247 // vaddps %ymm7,%ymm13,%ymm6
- .byte 197,124,40,231 // vmovaps %ymm7,%ymm12
- .byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
- .byte 197,254,91,246 // vcvttps2dq %ymm6,%ymm6
- .byte 196,227,125,25,247,1 // vextractf128 $0x1,%ymm6,%xmm7
- .byte 196,226,97,64,255 // vpmulld %xmm7,%xmm3,%xmm7
- .byte 197,249,127,124,36,144 // vmovdqa %xmm7,-0x70(%rsp)
- .byte 196,226,97,64,222 // vpmulld %xmm6,%xmm3,%xmm3
- .byte 197,249,127,92,36,128 // vmovdqa %xmm3,-0x80(%rsp)
- .byte 197,225,254,192 // vpaddd %xmm0,%xmm3,%xmm0
- .byte 197,193,254,201 // vpaddd %xmm1,%xmm7,%xmm1
- .byte 196,226,113,64,204 // vpmulld %xmm4,%xmm1,%xmm1
- .byte 196,226,121,64,220 // vpmulld %xmm4,%xmm0,%xmm3
- .byte 196,193,121,126,217 // vmovd %xmm3,%r9d
- .byte 196,195,121,22,216,1 // vpextrd $0x1,%xmm3,%r8d
- .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d
- .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d
- .byte 196,193,121,126,207 // vmovd %xmm1,%r15d
- .byte 196,195,121,22,206,1 // vpextrd $0x1,%xmm1,%r14d
- .byte 196,195,121,22,204,2 // vpextrd $0x2,%xmm1,%r12d
- .byte 196,227,121,22,203,3 // vpextrd $0x3,%xmm1,%ebx
- .byte 196,161,122,16,4,184 // vmovss (%rax,%r15,4),%xmm0
- .byte 196,163,121,33,4,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- .byte 196,163,121,33,4,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- .byte 196,227,121,33,4,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,52,136 // vmovss (%rax,%r9,4),%xmm6
- .byte 196,163,73,33,52,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm6,%xmm6
- .byte 196,163,73,33,52,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm6,%xmm6
- .byte 196,163,73,33,52,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm6,%xmm6
- .byte 196,99,77,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm6,%ymm8
- .byte 197,201,118,246 // vpcmpeqd %xmm6,%xmm6,%xmm6
- .byte 197,225,250,198 // vpsubd %xmm6,%xmm3,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 197,241,250,198 // vpsubd %xmm6,%xmm1,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,60,176 // vmovss (%rax,%r14,4),%xmm7
- .byte 196,227,121,33,199,32 // vinsertps $0x20,%xmm7,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,121,33,199,48 // vinsertps $0x30,%xmm7,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7
- .byte 196,163,65,33,60,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7
- .byte 196,33,122,16,60,144 // vmovss (%rax,%r10,4),%xmm15
- .byte 196,195,65,33,255,32 // vinsertps $0x20,%xmm15,%xmm7,%xmm7
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
- .byte 196,227,65,33,246,48 // vinsertps $0x30,%xmm6,%xmm7,%xmm6
- .byte 196,227,77,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm6,%ymm0
- .byte 196,193,97,254,218 // vpaddd %xmm10,%xmm3,%xmm3
- .byte 196,195,249,22,216,1 // vpextrq $0x1,%xmm3,%r8
- .byte 196,193,249,126,217 // vmovq %xmm3,%r9
- .byte 196,193,113,254,202 // vpaddd %xmm10,%xmm1,%xmm1
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 196,225,249,126,203 // vmovq %xmm1,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,12,152 // vmovss (%rax,%r11,4),%xmm1
- .byte 196,227,113,33,12,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3
- .byte 196,227,113,33,203,32 // vinsertps $0x20,%xmm3,%xmm1,%xmm1
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,113,33,203,48 // vinsertps $0x30,%xmm3,%xmm1,%xmm1
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3
- .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,97,33,222,32 // vinsertps $0x20,%xmm6,%xmm3,%xmm3
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
- .byte 196,227,97,33,222,48 // vinsertps $0x30,%xmm6,%xmm3,%xmm3
- .byte 196,227,101,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm1
- .byte 196,193,124,91,219 // vcvtdq2ps %ymm11,%ymm3
- .byte 197,20,92,219 // vsubps %ymm3,%ymm13,%ymm11
- .byte 196,193,60,92,222 // vsubps %ymm14,%ymm8,%ymm3
- .byte 197,164,89,219 // vmulps %ymm3,%ymm11,%ymm3
- .byte 197,140,88,219 // vaddps %ymm3,%ymm14,%ymm3
- .byte 197,252,17,156,36,224,0,0,0 // vmovups %ymm3,0xe0(%rsp)
- .byte 197,252,92,197 // vsubps %ymm5,%ymm0,%ymm0
- .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
- .byte 197,212,88,192 // vaddps %ymm0,%ymm5,%ymm0
- .byte 197,252,17,68,36,32 // vmovups %ymm0,0x20(%rsp)
- .byte 197,244,92,194 // vsubps %ymm2,%ymm1,%ymm0
- .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
- .byte 197,236,88,192 // vaddps %ymm0,%ymm2,%ymm0
- .byte 197,252,17,132,36,0,1,0,0 // vmovups %ymm0,0x100(%rsp)
- .byte 197,156,88,68,36,192 // vaddps -0x40(%rsp),%ymm12,%ymm0
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 196,226,49,64,200 // vpmulld %xmm0,%xmm9,%xmm1
- .byte 197,249,127,76,36,96 // vmovdqa %xmm1,0x60(%rsp)
- .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0
- .byte 196,226,49,64,192 // vpmulld %xmm0,%xmm9,%xmm0
- .byte 197,249,127,68,36,112 // vmovdqa %xmm0,0x70(%rsp)
- .byte 197,249,254,116,36,224 // vpaddd -0x20(%rsp),%xmm0,%xmm6
- .byte 197,121,111,100,36,176 // vmovdqa -0x50(%rsp),%xmm12
- .byte 196,193,73,254,196 // vpaddd %xmm12,%xmm6,%xmm0
- .byte 196,98,121,64,196 // vpmulld %xmm4,%xmm0,%xmm8
- .byte 197,241,254,140,36,160,0,0,0 // vpaddd 0xa0(%rsp),%xmm1,%xmm1
- .byte 197,249,111,108,36,160 // vmovdqa -0x60(%rsp),%xmm5
- .byte 197,241,254,197 // vpaddd %xmm5,%xmm1,%xmm0
- .byte 196,226,121,64,196 // vpmulld %xmm4,%xmm0,%xmm0
- .byte 196,193,121,126,193 // vmovd %xmm0,%r9d
- .byte 196,195,121,22,192,1 // vpextrd $0x1,%xmm0,%r8d
- .byte 196,195,121,22,194,2 // vpextrd $0x2,%xmm0,%r10d
- .byte 196,195,121,22,195,3 // vpextrd $0x3,%xmm0,%r11d
- .byte 196,65,121,126,199 // vmovd %xmm8,%r15d
- .byte 196,67,121,22,198,1 // vpextrd $0x1,%xmm8,%r14d
- .byte 196,67,121,22,196,2 // vpextrd $0x2,%xmm8,%r12d
- .byte 196,99,121,22,195,3 // vpextrd $0x3,%xmm8,%ebx
- .byte 196,161,122,16,60,184 // vmovss (%rax,%r15,4),%xmm7
- .byte 196,163,65,33,60,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm7,%xmm7
- .byte 196,163,65,33,60,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm7,%xmm7
- .byte 196,227,65,33,60,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm7,%xmm7
- .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2
- .byte 196,163,105,33,20,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm2,%xmm2
- .byte 196,163,105,33,20,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm2,%xmm2
- .byte 196,163,105,33,20,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm2,%xmm2
- .byte 196,227,109,24,215,1 // vinsertf128 $0x1,%xmm7,%ymm2,%ymm2
- .byte 197,252,17,84,36,224 // vmovups %ymm2,-0x20(%rsp)
- .byte 197,225,118,219 // vpcmpeqd %xmm3,%xmm3,%xmm3
- .byte 197,249,250,211 // vpsubd %xmm3,%xmm0,%xmm2
- .byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 197,185,250,211 // vpsubd %xmm3,%xmm8,%xmm2
- .byte 196,65,17,118,237 // vpcmpeqd %xmm13,%xmm13,%xmm13
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 196,225,249,126,211 // vmovq %xmm2,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,20,152 // vmovss (%rax,%r11,4),%xmm2
- .byte 196,227,105,33,20,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- .byte 196,161,122,16,60,176 // vmovss (%rax,%r14,4),%xmm7
- .byte 196,227,105,33,215,32 // vinsertps $0x20,%xmm7,%xmm2,%xmm2
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,105,33,215,48 // vinsertps $0x30,%xmm7,%xmm2,%xmm2
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7
- .byte 196,163,65,33,60,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,65,33,219,32 // vinsertps $0x20,%xmm3,%xmm7,%xmm3
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,97,33,223,48 // vinsertps $0x30,%xmm7,%xmm3,%xmm3
- .byte 196,99,101,24,202,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm9
- .byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 196,193,57,254,194 // vpaddd %xmm10,%xmm8,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2
- .byte 196,227,121,33,194,32 // vinsertps $0x20,%xmm2,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,20,144 // vmovss (%rax,%r10,4),%xmm2
- .byte 196,227,121,33,194,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2
- .byte 196,163,105,33,20,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,28,128 // vmovss (%rax,%r8,4),%xmm3
- .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
- .byte 196,99,109,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm8
- .byte 197,121,111,124,36,128 // vmovdqa -0x80(%rsp),%xmm15
- .byte 197,129,254,193 // vpaddd %xmm1,%xmm15,%xmm0
- .byte 197,121,111,116,36,144 // vmovdqa -0x70(%rsp),%xmm14
- .byte 197,137,254,206 // vpaddd %xmm6,%xmm14,%xmm1
- .byte 196,226,113,64,244 // vpmulld %xmm4,%xmm1,%xmm6
- .byte 196,226,121,64,204 // vpmulld %xmm4,%xmm0,%xmm1
- .byte 196,193,121,126,201 // vmovd %xmm1,%r9d
- .byte 196,195,121,22,200,1 // vpextrd $0x1,%xmm1,%r8d
- .byte 196,195,121,22,202,2 // vpextrd $0x2,%xmm1,%r10d
- .byte 196,195,121,22,203,3 // vpextrd $0x3,%xmm1,%r11d
- .byte 196,193,121,126,247 // vmovd %xmm6,%r15d
- .byte 196,195,121,22,246,1 // vpextrd $0x1,%xmm6,%r14d
- .byte 196,195,121,22,244,2 // vpextrd $0x2,%xmm6,%r12d
- .byte 196,227,121,22,243,3 // vpextrd $0x3,%xmm6,%ebx
- .byte 196,161,122,16,4,184 // vmovss (%rax,%r15,4),%xmm0
- .byte 196,163,121,33,4,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- .byte 196,163,121,33,4,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- .byte 196,227,121,33,4,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2
- .byte 196,163,105,33,20,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm2,%xmm2
- .byte 196,163,105,33,20,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm2,%xmm2
- .byte 196,163,105,33,20,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm2,%xmm2
- .byte 196,227,109,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm0
- .byte 196,193,113,250,213 // vpsubd %xmm13,%xmm1,%xmm2
- .byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 196,193,73,250,213 // vpsubd %xmm13,%xmm6,%xmm2
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 196,225,249,126,211 // vmovq %xmm2,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,20,152 // vmovss (%rax,%r11,4),%xmm2
- .byte 196,227,105,33,20,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3
- .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3
- .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,97,33,223,32 // vinsertps $0x20,%xmm7,%xmm3,%xmm3
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,97,33,223,48 // vinsertps $0x30,%xmm7,%xmm3,%xmm3
- .byte 196,99,101,24,234,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm13
- .byte 196,193,113,254,202 // vpaddd %xmm10,%xmm1,%xmm1
- .byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 196,193,73,254,202 // vpaddd %xmm10,%xmm6,%xmm1
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 196,225,249,126,203 // vmovq %xmm1,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,12,152 // vmovss (%rax,%r11,4),%xmm1
- .byte 196,227,113,33,12,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2
- .byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,20,144 // vmovss (%rax,%r10,4),%xmm2
- .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2
- .byte 196,163,105,33,20,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,28,128 // vmovss (%rax,%r8,4),%xmm3
- .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
- .byte 196,227,109,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm1
- .byte 197,252,16,84,36,224 // vmovups -0x20(%rsp),%ymm2
- .byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
- .byte 197,236,88,208 // vaddps %ymm0,%ymm2,%ymm2
- .byte 196,193,20,92,193 // vsubps %ymm9,%ymm13,%ymm0
- .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
- .byte 197,180,88,216 // vaddps %ymm0,%ymm9,%ymm3
- .byte 196,193,116,92,192 // vsubps %ymm8,%ymm1,%ymm0
- .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
- .byte 197,188,88,200 // vaddps %ymm0,%ymm8,%ymm1
- .byte 197,252,91,68,36,64 // vcvtdq2ps 0x40(%rsp),%ymm0
- .byte 197,252,16,116,36,192 // vmovups -0x40(%rsp),%ymm6
- .byte 197,76,92,232 // vsubps %ymm0,%ymm6,%ymm13
- .byte 197,252,16,132,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm0
- .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 197,148,89,210 // vmulps %ymm2,%ymm13,%ymm2
- .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
- .byte 197,252,17,68,36,192 // vmovups %ymm0,-0x40(%rsp)
- .byte 197,252,16,68,36,32 // vmovups 0x20(%rsp),%ymm0
- .byte 197,228,92,208 // vsubps %ymm0,%ymm3,%ymm2
- .byte 197,148,89,210 // vmulps %ymm2,%ymm13,%ymm2
- .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
- .byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp)
- .byte 197,252,16,132,36,0,1,0,0 // vmovups 0x100(%rsp),%ymm0
- .byte 197,244,92,200 // vsubps %ymm0,%ymm1,%ymm1
- .byte 197,148,89,201 // vmulps %ymm1,%ymm13,%ymm1
- .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 197,252,17,68,36,32 // vmovups %ymm0,0x20(%rsp)
- .byte 197,252,16,4,36 // vmovups (%rsp),%ymm0
- .byte 197,252,88,140,36,192,0,0,0 // vaddps 0xc0(%rsp),%ymm0,%ymm1
- .byte 197,126,91,201 // vcvttps2dq %ymm1,%ymm9
- .byte 196,99,125,25,200,1 // vextractf128 $0x1,%ymm9,%xmm0
- .byte 197,249,127,4,36 // vmovdqa %xmm0,(%rsp)
- .byte 197,249,254,180,36,144,0,0,0 // vpaddd 0x90(%rsp),%xmm0,%xmm6
- .byte 197,177,254,156,36,128,0,0,0 // vpaddd 0x80(%rsp),%xmm9,%xmm3
- .byte 197,153,254,206 // vpaddd %xmm6,%xmm12,%xmm1
- .byte 196,226,113,64,204 // vpmulld %xmm4,%xmm1,%xmm1
- .byte 197,209,254,211 // vpaddd %xmm3,%xmm5,%xmm2
- .byte 196,226,105,64,212 // vpmulld %xmm4,%xmm2,%xmm2
- .byte 196,193,121,126,209 // vmovd %xmm2,%r9d
- .byte 196,195,121,22,208,1 // vpextrd $0x1,%xmm2,%r8d
- .byte 196,195,121,22,210,2 // vpextrd $0x2,%xmm2,%r10d
- .byte 196,195,121,22,211,3 // vpextrd $0x3,%xmm2,%r11d
- .byte 196,193,121,126,207 // vmovd %xmm1,%r15d
- .byte 196,195,121,22,206,1 // vpextrd $0x1,%xmm1,%r14d
- .byte 196,195,121,22,204,2 // vpextrd $0x2,%xmm1,%r12d
- .byte 196,227,121,22,203,3 // vpextrd $0x3,%xmm1,%ebx
- .byte 196,161,122,16,60,184 // vmovss (%rax,%r15,4),%xmm7
- .byte 196,163,65,33,60,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm7,%xmm7
- .byte 196,163,65,33,60,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm7,%xmm7
- .byte 196,227,65,33,60,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm7,%xmm7
- .byte 196,161,122,16,4,136 // vmovss (%rax,%r9,4),%xmm0
- .byte 196,163,121,33,4,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm0,%xmm0
- .byte 196,163,121,33,4,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm0,%xmm0
- .byte 196,163,121,33,4,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm0,%xmm0
- .byte 196,99,125,24,231,1 // vinsertf128 $0x1,%xmm7,%ymm0,%ymm12
- .byte 197,209,118,237 // vpcmpeqd %xmm5,%xmm5,%xmm5
- .byte 197,233,250,197 // vpsubd %xmm5,%xmm2,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 197,241,250,197 // vpsubd %xmm5,%xmm1,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,60,176 // vmovss (%rax,%r14,4),%xmm7
- .byte 196,227,121,33,199,32 // vinsertps $0x20,%xmm7,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,121,33,199,48 // vinsertps $0x30,%xmm7,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7
- .byte 196,163,65,33,60,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7
- .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5
- .byte 196,227,65,33,237,32 // vinsertps $0x20,%xmm5,%xmm7,%xmm5
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,81,33,239,48 // vinsertps $0x30,%xmm7,%xmm5,%xmm5
- .byte 196,227,85,24,248,1 // vinsertf128 $0x1,%xmm0,%ymm5,%ymm7
- .byte 196,193,105,254,194 // vpaddd %xmm10,%xmm2,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 196,193,113,254,194 // vpaddd %xmm10,%xmm1,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,12,176 // vmovss (%rax,%r14,4),%xmm1
- .byte 196,227,121,33,193,32 // vinsertps $0x20,%xmm1,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,12,144 // vmovss (%rax,%r10,4),%xmm1
- .byte 196,227,121,33,193,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1
- .byte 196,163,113,33,12,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1
- .byte 196,161,122,16,20,144 // vmovss (%rax,%r10,4),%xmm2
- .byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,20,128 // vmovss (%rax,%r8,4),%xmm2
- .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1
- .byte 196,99,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm8
- .byte 197,129,254,195 // vpaddd %xmm3,%xmm15,%xmm0
- .byte 197,137,254,206 // vpaddd %xmm6,%xmm14,%xmm1
- .byte 196,226,113,64,204 // vpmulld %xmm4,%xmm1,%xmm1
- .byte 196,226,121,64,212 // vpmulld %xmm4,%xmm0,%xmm2
- .byte 196,193,121,126,209 // vmovd %xmm2,%r9d
- .byte 196,195,121,22,208,1 // vpextrd $0x1,%xmm2,%r8d
- .byte 196,195,121,22,210,2 // vpextrd $0x2,%xmm2,%r10d
- .byte 196,195,121,22,211,3 // vpextrd $0x3,%xmm2,%r11d
- .byte 196,193,121,126,207 // vmovd %xmm1,%r15d
- .byte 196,195,121,22,206,1 // vpextrd $0x1,%xmm1,%r14d
- .byte 196,195,121,22,204,2 // vpextrd $0x2,%xmm1,%r12d
- .byte 196,227,121,22,203,3 // vpextrd $0x3,%xmm1,%ebx
- .byte 196,161,122,16,4,184 // vmovss (%rax,%r15,4),%xmm0
- .byte 196,163,121,33,4,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- .byte 196,163,121,33,4,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- .byte 196,227,121,33,4,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3
- .byte 196,163,97,33,28,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- .byte 196,227,101,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm3
- .byte 197,209,118,237 // vpcmpeqd %xmm5,%xmm5,%xmm5
- .byte 197,233,250,197 // vpsubd %xmm5,%xmm2,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 197,241,250,197 // vpsubd %xmm5,%xmm1,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,44,176 // vmovss (%rax,%r14,4),%xmm5
- .byte 196,227,121,33,197,32 // vinsertps $0x20,%xmm5,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5
- .byte 196,227,121,33,197,48 // vinsertps $0x30,%xmm5,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,44,152 // vmovss (%rax,%rbx,4),%xmm5
- .byte 196,163,81,33,44,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm5,%xmm5
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,81,33,238,32 // vinsertps $0x20,%xmm6,%xmm5,%xmm5
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
- .byte 196,227,81,33,238,48 // vinsertps $0x30,%xmm6,%xmm5,%xmm5
- .byte 196,227,85,24,240,1 // vinsertf128 $0x1,%xmm0,%ymm5,%ymm6
- .byte 196,193,105,254,194 // vpaddd %xmm10,%xmm2,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 196,193,113,254,194 // vpaddd %xmm10,%xmm1,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,12,176 // vmovss (%rax,%r14,4),%xmm1
- .byte 196,227,121,33,193,32 // vinsertps $0x20,%xmm1,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,12,144 // vmovss (%rax,%r10,4),%xmm1
- .byte 196,227,121,33,193,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1
- .byte 196,163,113,33,12,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1
- .byte 196,161,122,16,20,144 // vmovss (%rax,%r10,4),%xmm2
- .byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,20,128 // vmovss (%rax,%r8,4),%xmm2
- .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1
- .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 196,193,100,92,204 // vsubps %ymm12,%ymm3,%ymm1
- .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
- .byte 197,28,88,225 // vaddps %ymm1,%ymm12,%ymm12
- .byte 197,204,92,207 // vsubps %ymm7,%ymm6,%ymm1
- .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
- .byte 197,68,88,241 // vaddps %ymm1,%ymm7,%ymm14
- .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
- .byte 197,164,89,192 // vmulps %ymm0,%ymm11,%ymm0
- .byte 197,60,88,192 // vaddps %ymm0,%ymm8,%ymm8
- .byte 197,249,111,4,36 // vmovdqa (%rsp),%xmm0
- .byte 197,249,254,116,36,112 // vpaddd 0x70(%rsp),%xmm0,%xmm6
- .byte 197,177,254,76,36,96 // vpaddd 0x60(%rsp),%xmm9,%xmm1
- .byte 197,241,254,68,36,160 // vpaddd -0x60(%rsp),%xmm1,%xmm0
- .byte 197,201,254,84,36,176 // vpaddd -0x50(%rsp),%xmm6,%xmm2
- .byte 196,98,105,64,204 // vpmulld %xmm4,%xmm2,%xmm9
- .byte 196,226,121,64,220 // vpmulld %xmm4,%xmm0,%xmm3
- .byte 196,193,121,126,217 // vmovd %xmm3,%r9d
- .byte 196,195,121,22,216,1 // vpextrd $0x1,%xmm3,%r8d
- .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d
- .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d
- .byte 196,65,121,126,207 // vmovd %xmm9,%r15d
- .byte 196,67,121,22,206,1 // vpextrd $0x1,%xmm9,%r14d
- .byte 196,67,121,22,204,2 // vpextrd $0x2,%xmm9,%r12d
- .byte 196,99,121,22,203,3 // vpextrd $0x3,%xmm9,%ebx
- .byte 196,161,122,16,4,184 // vmovss (%rax,%r15,4),%xmm0
- .byte 196,163,121,33,4,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- .byte 196,163,121,33,4,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- .byte 196,227,121,33,4,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2
- .byte 196,163,105,33,20,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm2,%xmm2
- .byte 196,163,105,33,20,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm2,%xmm2
- .byte 196,163,105,33,20,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm2,%xmm2
- .byte 196,227,109,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm0
- .byte 197,209,118,237 // vpcmpeqd %xmm5,%xmm5,%xmm5
- .byte 197,225,250,213 // vpsubd %xmm5,%xmm3,%xmm2
- .byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 197,177,250,213 // vpsubd %xmm5,%xmm9,%xmm2
- .byte 196,65,1,118,255 // vpcmpeqd %xmm15,%xmm15,%xmm15
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 196,225,249,126,211 // vmovq %xmm2,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,20,152 // vmovss (%rax,%r11,4),%xmm2
- .byte 196,227,105,33,20,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- .byte 196,161,122,16,44,176 // vmovss (%rax,%r14,4),%xmm5
- .byte 196,227,105,33,213,32 // vinsertps $0x20,%xmm5,%xmm2,%xmm2
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5
- .byte 196,227,105,33,213,48 // vinsertps $0x30,%xmm5,%xmm2,%xmm2
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,44,152 // vmovss (%rax,%rbx,4),%xmm5
- .byte 196,163,81,33,44,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm5,%xmm5
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,81,33,239,32 // vinsertps $0x20,%xmm7,%xmm5,%xmm5
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,81,33,239,48 // vinsertps $0x30,%xmm7,%xmm5,%xmm5
- .byte 196,227,85,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm5,%ymm2
- .byte 196,193,97,254,218 // vpaddd %xmm10,%xmm3,%xmm3
- .byte 196,195,249,22,216,1 // vpextrq $0x1,%xmm3,%r8
- .byte 196,193,249,126,217 // vmovq %xmm3,%r9
- .byte 196,193,49,254,218 // vpaddd %xmm10,%xmm9,%xmm3
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
- .byte 196,225,249,126,219 // vmovq %xmm3,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,28,152 // vmovss (%rax,%r11,4),%xmm3
- .byte 196,227,97,33,28,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- .byte 196,161,122,16,44,176 // vmovss (%rax,%r14,4),%xmm5
- .byte 196,227,97,33,221,32 // vinsertps $0x20,%xmm5,%xmm3,%xmm3
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5
- .byte 196,227,97,33,221,48 // vinsertps $0x30,%xmm5,%xmm3,%xmm3
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,44,152 // vmovss (%rax,%rbx,4),%xmm5
- .byte 196,163,81,33,44,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm5,%xmm5
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,81,33,239,32 // vinsertps $0x20,%xmm7,%xmm5,%xmm5
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,81,33,239,48 // vinsertps $0x30,%xmm7,%xmm5,%xmm5
- .byte 196,99,85,24,203,1 // vinsertf128 $0x1,%xmm3,%ymm5,%ymm9
- .byte 197,241,254,76,36,128 // vpaddd -0x80(%rsp),%xmm1,%xmm1
- .byte 197,201,254,92,36,144 // vpaddd -0x70(%rsp),%xmm6,%xmm3
- .byte 196,226,97,64,220 // vpmulld %xmm4,%xmm3,%xmm3
- .byte 196,226,113,64,228 // vpmulld %xmm4,%xmm1,%xmm4
- .byte 196,193,121,126,225 // vmovd %xmm4,%r9d
- .byte 196,195,121,22,224,1 // vpextrd $0x1,%xmm4,%r8d
- .byte 196,195,121,22,226,2 // vpextrd $0x2,%xmm4,%r10d
- .byte 196,195,121,22,227,3 // vpextrd $0x3,%xmm4,%r11d
- .byte 196,193,121,126,223 // vmovd %xmm3,%r15d
- .byte 196,195,121,22,222,1 // vpextrd $0x1,%xmm3,%r14d
- .byte 196,195,121,22,220,2 // vpextrd $0x2,%xmm3,%r12d
- .byte 196,227,121,22,219,3 // vpextrd $0x3,%xmm3,%ebx
- .byte 196,161,122,16,12,184 // vmovss (%rax,%r15,4),%xmm1
- .byte 196,163,113,33,12,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm1,%xmm1
- .byte 196,163,113,33,12,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm1,%xmm1
- .byte 196,227,113,33,12,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm1,%xmm1
- .byte 196,161,122,16,44,136 // vmovss (%rax,%r9,4),%xmm5
- .byte 196,163,81,33,44,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm5,%xmm5
- .byte 196,163,81,33,44,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm5,%xmm5
- .byte 196,163,81,33,44,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm5,%xmm5
- .byte 196,227,85,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm5,%ymm1
- .byte 196,193,89,250,239 // vpsubd %xmm15,%xmm4,%xmm5
- .byte 196,195,249,22,232,1 // vpextrq $0x1,%xmm5,%r8
- .byte 196,193,249,126,233 // vmovq %xmm5,%r9
- .byte 196,193,97,250,239 // vpsubd %xmm15,%xmm3,%xmm5
- .byte 196,195,249,22,234,1 // vpextrq $0x1,%xmm5,%r10
- .byte 196,225,249,126,235 // vmovq %xmm5,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,44,152 // vmovss (%rax,%r11,4),%xmm5
- .byte 196,227,81,33,44,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm5,%xmm5
- .byte 196,161,122,16,52,176 // vmovss (%rax,%r14,4),%xmm6
- .byte 196,227,81,33,238,32 // vinsertps $0x20,%xmm6,%xmm5,%xmm5
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,81,33,238,48 // vinsertps $0x30,%xmm6,%xmm5,%xmm5
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6
- .byte 196,163,73,33,52,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,73,33,247,32 // vinsertps $0x20,%xmm7,%xmm6,%xmm6
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
- .byte 196,227,77,24,245,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm6
- .byte 196,193,89,254,226 // vpaddd %xmm10,%xmm4,%xmm4
- .byte 196,195,249,22,224,1 // vpextrq $0x1,%xmm4,%r8
- .byte 196,193,249,126,225 // vmovq %xmm4,%r9
- .byte 196,193,97,254,218 // vpaddd %xmm10,%xmm3,%xmm3
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
- .byte 196,225,249,126,219 // vmovq %xmm3,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,28,152 // vmovss (%rax,%r11,4),%xmm3
- .byte 196,227,97,33,28,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- .byte 196,161,122,16,36,176 // vmovss (%rax,%r14,4),%xmm4
- .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4
- .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4
- .byte 196,163,89,33,36,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4
- .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5
- .byte 196,227,89,33,229,32 // vinsertps $0x20,%xmm5,%xmm4,%xmm4
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,44,128 // vmovss (%rax,%r8,4),%xmm5
- .byte 196,227,89,33,229,48 // vinsertps $0x30,%xmm5,%xmm4,%xmm4
- .byte 196,227,93,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm4,%ymm3
- .byte 197,244,92,200 // vsubps %ymm0,%ymm1,%ymm1
- .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
- .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 197,204,92,202 // vsubps %ymm2,%ymm6,%ymm1
- .byte 197,164,89,201 // vmulps %ymm1,%ymm11,%ymm1
- .byte 197,236,88,201 // vaddps %ymm1,%ymm2,%ymm1
- .byte 196,193,100,92,209 // vsubps %ymm9,%ymm3,%ymm2
- .byte 197,164,89,210 // vmulps %ymm2,%ymm11,%ymm2
- .byte 197,180,88,210 // vaddps %ymm2,%ymm9,%ymm2
- .byte 196,193,124,92,196 // vsubps %ymm12,%ymm0,%ymm0
- .byte 197,148,89,192 // vmulps %ymm0,%ymm13,%ymm0
- .byte 197,156,88,192 // vaddps %ymm0,%ymm12,%ymm0
- .byte 196,193,116,92,206 // vsubps %ymm14,%ymm1,%ymm1
- .byte 197,148,89,201 // vmulps %ymm1,%ymm13,%ymm1
- .byte 197,140,88,201 // vaddps %ymm1,%ymm14,%ymm1
- .byte 196,193,108,92,208 // vsubps %ymm8,%ymm2,%ymm2
- .byte 197,148,89,210 // vmulps %ymm2,%ymm13,%ymm2
- .byte 197,188,88,210 // vaddps %ymm2,%ymm8,%ymm2
- .byte 197,252,91,156,36,160,0,0,0 // vcvtdq2ps 0xa0(%rsp),%ymm3
- .byte 197,252,16,164,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm4
- .byte 197,220,92,219 // vsubps %ymm3,%ymm4,%ymm3
- .byte 197,252,16,100,36,192 // vmovups -0x40(%rsp),%ymm4
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
- .byte 197,252,16,100,36,64 // vmovups 0x40(%rsp),%ymm4
- .byte 197,244,92,204 // vsubps %ymm4,%ymm1,%ymm1
- .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1
- .byte 197,220,88,201 // vaddps %ymm1,%ymm4,%ymm1
- .byte 197,252,16,100,36,32 // vmovups 0x20(%rsp),%ymm4
- .byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2
- .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
- .byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,156,36,32,1,0,0 // vmovups 0x120(%rsp),%ymm3
- .byte 197,252,16,164,36,64,1,0,0 // vmovups 0x140(%rsp),%ymm4
- .byte 197,252,16,172,36,96,1,0,0 // vmovups 0x160(%rsp),%ymm5
- .byte 197,252,16,180,36,128,1,0,0 // vmovups 0x180(%rsp),%ymm6
- .byte 197,252,16,188,36,160,1,0,0 // vmovups 0x1a0(%rsp),%ymm7
- .byte 72,129,196,216,1,0,0 // add $0x1d8,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clut_4D_avx
-.globl _sk_clut_4D_avx
-FUNCTION(_sk_clut_4D_avx)
-_sk_clut_4D_avx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,129,236,216,2,0,0 // sub $0x2d8,%rsp
- .byte 197,252,17,188,36,160,2,0,0 // vmovups %ymm7,0x2a0(%rsp)
- .byte 197,252,17,180,36,128,2,0,0 // vmovups %ymm6,0x280(%rsp)
- .byte 197,252,17,172,36,96,2,0,0 // vmovups %ymm5,0x260(%rsp)
- .byte 197,252,17,164,36,64,2,0,0 // vmovups %ymm4,0x240(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,20 // mov 0x14(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 196,193,121,110,225 // vmovd %r9d,%xmm4
- .byte 197,249,112,228,0 // vpshufd $0x0,%xmm4,%xmm4
- .byte 196,227,93,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm4,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 197,92,89,203 // vmulps %ymm3,%ymm4,%ymm9
- .byte 197,124,17,140,36,224,1,0,0 // vmovups %ymm9,0x1e0(%rsp)
- .byte 68,139,72,16 // mov 0x10(%rax),%r9d
- .byte 69,141,81,255 // lea -0x1(%r9),%r10d
- .byte 196,193,121,110,218 // vmovd %r10d,%xmm3
- .byte 197,249,112,219,0 // vpshufd $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
- .byte 197,252,17,148,36,0,1,0,0 // vmovups %ymm2,0x100(%rsp)
- .byte 197,254,91,218 // vcvttps2dq %ymm2,%ymm3
- .byte 196,227,125,25,218,1 // vextractf128 $0x1,%ymm3,%xmm2
- .byte 197,253,111,251 // vmovdqa %ymm3,%ymm7
- .byte 197,254,127,188,36,64,1,0,0 // vmovdqu %ymm7,0x140(%rsp)
- .byte 196,193,121,110,216 // vmovd %r8d,%xmm3
- .byte 197,249,112,227,0 // vpshufd $0x0,%xmm3,%xmm4
- .byte 196,226,89,64,242 // vpmulld %xmm2,%xmm4,%xmm6
- .byte 197,249,111,236 // vmovdqa %xmm4,%xmm5
- .byte 197,249,127,108,36,192 // vmovdqa %xmm5,-0x40(%rsp)
- .byte 197,249,127,180,36,160,0,0,0 // vmovdqa %xmm6,0xa0(%rsp)
- .byte 196,193,121,110,209 // vmovd %r9d,%xmm2
- .byte 196,226,105,64,211 // vpmulld %xmm3,%xmm2,%xmm2
- .byte 197,121,112,194,0 // vpshufd $0x0,%xmm2,%xmm8
- .byte 68,139,64,12 // mov 0xc(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 196,193,121,110,217 // vmovd %r9d,%xmm3
- .byte 197,249,112,219,0 // vpshufd $0x0,%xmm3,%xmm3
- .byte 196,227,101,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- .byte 197,252,91,219 // vcvtdq2ps %ymm3,%ymm3
- .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1
- .byte 197,252,17,140,36,128,0,0,0 // vmovups %ymm1,0x80(%rsp)
- .byte 197,254,91,217 // vcvttps2dq %ymm1,%ymm3
- .byte 196,227,125,25,217,1 // vextractf128 $0x1,%ymm3,%xmm1
- .byte 197,125,111,211 // vmovdqa %ymm3,%ymm10
- .byte 197,126,127,148,36,192,0,0,0 // vmovdqu %ymm10,0xc0(%rsp)
- .byte 196,226,57,64,217 // vpmulld %xmm1,%xmm8,%xmm3
- .byte 197,249,127,156,36,224,0,0,0 // vmovdqa %xmm3,0xe0(%rsp)
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,226,113,64,202 // vpmulld %xmm2,%xmm1,%xmm1
- .byte 197,249,112,225,0 // vpshufd $0x0,%xmm1,%xmm4
- .byte 68,139,64,8 // mov 0x8(%rax),%r8d
- .byte 65,255,200 // dec %r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 197,249,112,201,0 // vpshufd $0x0,%xmm1,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- .byte 197,252,91,201 // vcvtdq2ps %ymm1,%ymm1
- .byte 197,116,89,248 // vmulps %ymm0,%ymm1,%ymm15
- .byte 196,65,126,91,223 // vcvttps2dq %ymm15,%ymm11
- .byte 196,99,125,25,216,1 // vextractf128 $0x1,%ymm11,%xmm0
- .byte 196,226,89,64,208 // vpmulld %xmm0,%xmm4,%xmm2
- .byte 197,249,127,84,36,128 // vmovdqa %xmm2,-0x80(%rsp)
- .byte 72,139,0 // mov (%rax),%rax
- .byte 196,193,126,91,201 // vcvttps2dq %ymm9,%ymm1
- .byte 197,254,127,140,36,192,1,0,0 // vmovdqu %ymm1,0x1c0(%rsp)
- .byte 196,227,125,25,200,1 // vextractf128 $0x1,%ymm1,%xmm0
- .byte 197,249,127,68,36,96 // vmovdqa %xmm0,0x60(%rsp)
- .byte 197,201,254,192 // vpaddd %xmm0,%xmm6,%xmm0
- .byte 197,249,127,68,36,32 // vmovdqa %xmm0,0x20(%rsp)
- .byte 197,225,254,216 // vpaddd %xmm0,%xmm3,%xmm3
- .byte 197,233,254,195 // vpaddd %xmm3,%xmm2,%xmm0
- .byte 196,98,121,24,13,6,29,2,0 // vbroadcastss 0x21d06(%rip),%xmm9 # 3c66c <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- .byte 196,194,121,64,209 // vpmulld %xmm9,%xmm0,%xmm2
- .byte 196,226,81,64,199 // vpmulld %xmm7,%xmm5,%xmm0
- .byte 197,249,127,132,36,96,1,0,0 // vmovdqa %xmm0,0x160(%rsp)
- .byte 197,121,254,241 // vpaddd %xmm1,%xmm0,%xmm14
- .byte 196,194,57,64,194 // vpmulld %xmm10,%xmm8,%xmm0
- .byte 197,249,127,68,36,240 // vmovdqa %xmm0,-0x10(%rsp)
- .byte 196,193,121,254,206 // vpaddd %xmm14,%xmm0,%xmm1
- .byte 196,194,89,64,195 // vpmulld %xmm11,%xmm4,%xmm0
- .byte 197,249,127,68,36,144 // vmovdqa %xmm0,-0x70(%rsp)
- .byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0
- .byte 196,194,121,64,193 // vpmulld %xmm9,%xmm0,%xmm0
- .byte 196,193,121,126,192 // vmovd %xmm0,%r8d
- .byte 196,195,121,22,193,1 // vpextrd $0x1,%xmm0,%r9d
- .byte 196,195,121,22,194,2 // vpextrd $0x2,%xmm0,%r10d
- .byte 196,195,121,22,195,3 // vpextrd $0x3,%xmm0,%r11d
- .byte 196,193,121,126,215 // vmovd %xmm2,%r15d
- .byte 196,195,121,22,214,1 // vpextrd $0x1,%xmm2,%r14d
- .byte 196,195,121,22,212,2 // vpextrd $0x2,%xmm2,%r12d
- .byte 196,227,121,22,211,3 // vpextrd $0x3,%xmm2,%ebx
- .byte 196,161,122,16,44,184 // vmovss (%rax,%r15,4),%xmm5
- .byte 196,163,81,33,44,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm5,%xmm5
- .byte 196,163,81,33,44,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm5,%xmm5
- .byte 196,227,81,33,44,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm5,%xmm5
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,163,65,33,60,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7
- .byte 196,163,65,33,60,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm7,%xmm7
- .byte 196,163,65,33,60,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm7,%xmm7
- .byte 196,99,69,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm7,%ymm13
- .byte 197,201,118,246 // vpcmpeqd %xmm6,%xmm6,%xmm6
- .byte 197,249,250,238 // vpsubd %xmm6,%xmm0,%xmm5
- .byte 196,195,249,22,232,1 // vpextrq $0x1,%xmm5,%r8
- .byte 196,193,249,126,233 // vmovq %xmm5,%r9
- .byte 197,233,250,238 // vpsubd %xmm6,%xmm2,%xmm5
- .byte 196,195,249,22,234,1 // vpextrq $0x1,%xmm5,%r10
- .byte 196,225,249,126,235 // vmovq %xmm5,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,44,152 // vmovss (%rax,%r11,4),%xmm5
- .byte 196,227,81,33,44,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm5,%xmm5
- .byte 196,161,122,16,60,176 // vmovss (%rax,%r14,4),%xmm7
- .byte 196,227,81,33,239,32 // vinsertps $0x20,%xmm7,%xmm5,%xmm5
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,81,33,239,48 // vinsertps $0x30,%xmm7,%xmm5,%xmm5
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7
- .byte 196,163,65,33,60,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,65,33,246,32 // vinsertps $0x20,%xmm6,%xmm7,%xmm6
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
- .byte 196,227,77,24,237,1 // vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,98,121,24,21,103,26,2,0 // vbroadcastss 0x21a67(%rip),%xmm10 # 3c508 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- .byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 196,193,105,254,194 // vpaddd %xmm10,%xmm2,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2
- .byte 196,227,121,33,194,32 // vinsertps $0x20,%xmm2,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,20,144 // vmovss (%rax,%r10,4),%xmm2
- .byte 196,227,121,33,194,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2
- .byte 196,163,105,33,20,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,105,33,214,32 // vinsertps $0x20,%xmm6,%xmm2,%xmm2
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
- .byte 196,227,105,33,214,48 // vinsertps $0x30,%xmm6,%xmm2,%xmm2
- .byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- .byte 196,98,125,24,37,51,27,2,0 // vbroadcastss 0x21b33(%rip),%ymm12 # 3c668 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- .byte 196,193,4,88,196 // vaddps %ymm12,%ymm15,%ymm0
- .byte 197,124,17,36,36 // vmovups %ymm12,(%rsp)
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 196,227,125,25,198,1 // vextractf128 $0x1,%ymm0,%xmm6
- .byte 196,226,89,64,246 // vpmulld %xmm6,%xmm4,%xmm6
- .byte 197,249,127,116,36,176 // vmovdqa %xmm6,-0x50(%rsp)
- .byte 196,226,89,64,192 // vpmulld %xmm0,%xmm4,%xmm0
- .byte 197,249,127,68,36,160 // vmovdqa %xmm0,-0x60(%rsp)
- .byte 197,249,254,193 // vpaddd %xmm1,%xmm0,%xmm0
- .byte 197,201,254,203 // vpaddd %xmm3,%xmm6,%xmm1
- .byte 196,194,113,64,201 // vpmulld %xmm9,%xmm1,%xmm1
- .byte 196,194,121,64,225 // vpmulld %xmm9,%xmm0,%xmm4
- .byte 196,193,121,126,225 // vmovd %xmm4,%r9d
- .byte 196,195,121,22,224,1 // vpextrd $0x1,%xmm4,%r8d
- .byte 196,195,121,22,226,2 // vpextrd $0x2,%xmm4,%r10d
- .byte 196,195,121,22,227,3 // vpextrd $0x3,%xmm4,%r11d
- .byte 196,193,121,126,207 // vmovd %xmm1,%r15d
- .byte 196,195,121,22,206,1 // vpextrd $0x1,%xmm1,%r14d
- .byte 196,195,121,22,204,2 // vpextrd $0x2,%xmm1,%r12d
- .byte 196,227,121,22,203,3 // vpextrd $0x3,%xmm1,%ebx
- .byte 196,161,122,16,4,184 // vmovss (%rax,%r15,4),%xmm0
- .byte 196,163,121,33,4,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- .byte 196,163,121,33,4,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- .byte 196,227,121,33,4,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3
- .byte 196,163,97,33,28,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- .byte 196,227,101,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm0
- .byte 197,201,118,246 // vpcmpeqd %xmm6,%xmm6,%xmm6
- .byte 197,217,250,222 // vpsubd %xmm6,%xmm4,%xmm3
- .byte 196,195,249,22,216,1 // vpextrq $0x1,%xmm3,%r8
- .byte 196,193,249,126,217 // vmovq %xmm3,%r9
- .byte 197,241,250,222 // vpsubd %xmm6,%xmm1,%xmm3
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
- .byte 196,225,249,126,219 // vmovq %xmm3,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,28,152 // vmovss (%rax,%r11,4),%xmm3
- .byte 196,227,97,33,28,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- .byte 196,161,122,16,52,176 // vmovss (%rax,%r14,4),%xmm6
- .byte 196,227,97,33,222,32 // vinsertps $0x20,%xmm6,%xmm3,%xmm3
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,97,33,222,48 // vinsertps $0x30,%xmm6,%xmm3,%xmm3
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6
- .byte 196,163,73,33,52,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,73,33,247,32 // vinsertps $0x20,%xmm7,%xmm6,%xmm6
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
- .byte 196,227,77,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
- .byte 196,193,89,254,226 // vpaddd %xmm10,%xmm4,%xmm4
- .byte 196,195,249,22,224,1 // vpextrq $0x1,%xmm4,%r8
- .byte 196,193,249,126,225 // vmovq %xmm4,%r9
- .byte 196,193,113,254,202 // vpaddd %xmm10,%xmm1,%xmm1
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 196,225,249,126,203 // vmovq %xmm1,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,12,152 // vmovss (%rax,%r11,4),%xmm1
- .byte 196,227,113,33,12,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- .byte 196,161,122,16,36,176 // vmovss (%rax,%r14,4),%xmm4
- .byte 196,227,113,33,204,32 // vinsertps $0x20,%xmm4,%xmm1,%xmm1
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4
- .byte 196,227,113,33,204,48 // vinsertps $0x30,%xmm4,%xmm1,%xmm1
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4
- .byte 196,163,89,33,36,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,89,33,230,32 // vinsertps $0x20,%xmm6,%xmm4,%xmm4
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
- .byte 196,227,89,33,230,48 // vinsertps $0x30,%xmm6,%xmm4,%xmm4
- .byte 196,227,93,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm4,%ymm1
- .byte 196,193,124,91,227 // vcvtdq2ps %ymm11,%ymm4
- .byte 197,4,92,252 // vsubps %ymm4,%ymm15,%ymm15
- .byte 196,193,124,92,197 // vsubps %ymm13,%ymm0,%ymm0
- .byte 197,132,89,192 // vmulps %ymm0,%ymm15,%ymm0
- .byte 197,148,88,192 // vaddps %ymm0,%ymm13,%ymm0
- .byte 197,252,17,132,36,32,1,0,0 // vmovups %ymm0,0x120(%rsp)
- .byte 197,228,92,197 // vsubps %ymm5,%ymm3,%ymm0
- .byte 197,132,89,192 // vmulps %ymm0,%ymm15,%ymm0
- .byte 197,212,88,192 // vaddps %ymm0,%ymm5,%ymm0
- .byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp)
- .byte 197,244,92,194 // vsubps %ymm2,%ymm1,%ymm0
- .byte 197,132,89,192 // vmulps %ymm0,%ymm15,%ymm0
- .byte 197,108,88,232 // vaddps %ymm0,%ymm2,%ymm13
- .byte 197,124,16,156,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm11
- .byte 196,193,36,88,196 // vaddps %ymm12,%ymm11,%ymm0
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 196,226,57,64,200 // vpmulld %xmm0,%xmm8,%xmm1
- .byte 197,249,127,76,36,224 // vmovdqa %xmm1,-0x20(%rsp)
- .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0
- .byte 196,226,57,64,192 // vpmulld %xmm0,%xmm8,%xmm0
- .byte 197,249,127,68,36,208 // vmovdqa %xmm0,-0x30(%rsp)
- .byte 197,249,254,108,36,32 // vpaddd 0x20(%rsp),%xmm0,%xmm5
- .byte 196,193,113,254,198 // vpaddd %xmm14,%xmm1,%xmm0
- .byte 197,121,111,100,36,128 // vmovdqa -0x80(%rsp),%xmm12
- .byte 196,193,81,254,204 // vpaddd %xmm12,%xmm5,%xmm1
- .byte 196,194,113,64,209 // vpmulld %xmm9,%xmm1,%xmm2
- .byte 197,121,111,68,36,144 // vmovdqa -0x70(%rsp),%xmm8
- .byte 196,193,121,254,200 // vpaddd %xmm8,%xmm0,%xmm1
- .byte 196,194,113,64,241 // vpmulld %xmm9,%xmm1,%xmm6
- .byte 196,193,121,126,241 // vmovd %xmm6,%r9d
- .byte 196,195,121,22,240,1 // vpextrd $0x1,%xmm6,%r8d
- .byte 196,195,121,22,242,2 // vpextrd $0x2,%xmm6,%r10d
- .byte 196,195,121,22,243,3 // vpextrd $0x3,%xmm6,%r11d
- .byte 196,193,121,126,215 // vmovd %xmm2,%r15d
- .byte 196,195,121,22,214,1 // vpextrd $0x1,%xmm2,%r14d
- .byte 196,195,121,22,212,2 // vpextrd $0x2,%xmm2,%r12d
- .byte 196,227,121,22,211,3 // vpextrd $0x3,%xmm2,%ebx
- .byte 196,161,122,16,12,184 // vmovss (%rax,%r15,4),%xmm1
- .byte 196,163,113,33,12,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm1,%xmm1
- .byte 196,163,113,33,12,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm1,%xmm1
- .byte 196,227,113,33,12,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm1,%xmm1
- .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3
- .byte 196,163,97,33,28,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- .byte 196,99,101,24,241,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm14
- .byte 197,225,118,219 // vpcmpeqd %xmm3,%xmm3,%xmm3
- .byte 197,201,250,203 // vpsubd %xmm3,%xmm6,%xmm1
- .byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 197,233,250,203 // vpsubd %xmm3,%xmm2,%xmm1
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 196,225,249,126,203 // vmovq %xmm1,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,12,152 // vmovss (%rax,%r11,4),%xmm1
- .byte 196,227,113,33,12,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3
- .byte 196,227,113,33,203,32 // vinsertps $0x20,%xmm3,%xmm1,%xmm1
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,113,33,203,48 // vinsertps $0x30,%xmm3,%xmm1,%xmm1
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3
- .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4
- .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,36,128 // vmovss (%rax,%r8,4),%xmm4
- .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3
- .byte 196,227,101,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm1
- .byte 196,193,73,254,218 // vpaddd %xmm10,%xmm6,%xmm3
- .byte 196,195,249,22,216,1 // vpextrq $0x1,%xmm3,%r8
- .byte 196,193,249,126,217 // vmovq %xmm3,%r9
- .byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 196,225,249,126,211 // vmovq %xmm2,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,20,152 // vmovss (%rax,%r11,4),%xmm2
- .byte 196,227,105,33,20,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3
- .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3
- .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4
- .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,36,128 // vmovss (%rax,%r8,4),%xmm4
- .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3
- .byte 196,227,101,24,242,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm6
- .byte 197,249,254,68,36,160 // vpaddd -0x60(%rsp),%xmm0,%xmm0
- .byte 197,209,254,84,36,176 // vpaddd -0x50(%rsp),%xmm5,%xmm2
- .byte 196,194,105,64,209 // vpmulld %xmm9,%xmm2,%xmm2
- .byte 196,194,121,64,233 // vpmulld %xmm9,%xmm0,%xmm5
- .byte 196,193,121,126,233 // vmovd %xmm5,%r9d
- .byte 196,195,121,22,232,1 // vpextrd $0x1,%xmm5,%r8d
- .byte 196,195,121,22,234,2 // vpextrd $0x2,%xmm5,%r10d
- .byte 196,195,121,22,235,3 // vpextrd $0x3,%xmm5,%r11d
- .byte 196,193,121,126,215 // vmovd %xmm2,%r15d
- .byte 196,195,121,22,214,1 // vpextrd $0x1,%xmm2,%r14d
- .byte 196,195,121,22,212,2 // vpextrd $0x2,%xmm2,%r12d
- .byte 196,227,121,22,211,3 // vpextrd $0x3,%xmm2,%ebx
- .byte 196,161,122,16,4,184 // vmovss (%rax,%r15,4),%xmm0
- .byte 196,163,121,33,4,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- .byte 196,163,121,33,4,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- .byte 196,227,121,33,4,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3
- .byte 196,163,97,33,28,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- .byte 196,227,101,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm0
- .byte 197,217,118,228 // vpcmpeqd %xmm4,%xmm4,%xmm4
- .byte 197,209,250,220 // vpsubd %xmm4,%xmm5,%xmm3
- .byte 196,195,249,22,216,1 // vpextrq $0x1,%xmm3,%r8
- .byte 196,193,249,126,217 // vmovq %xmm3,%r9
- .byte 197,233,250,220 // vpsubd %xmm4,%xmm2,%xmm3
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
- .byte 196,225,249,126,219 // vmovq %xmm3,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,28,152 // vmovss (%rax,%r11,4),%xmm3
- .byte 196,227,97,33,28,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- .byte 196,161,122,16,36,176 // vmovss (%rax,%r14,4),%xmm4
- .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4
- .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4
- .byte 196,163,89,33,36,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,89,33,231,32 // vinsertps $0x20,%xmm7,%xmm4,%xmm4
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,89,33,231,48 // vinsertps $0x30,%xmm7,%xmm4,%xmm4
- .byte 196,227,93,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm4,%ymm3
- .byte 196,193,81,254,226 // vpaddd %xmm10,%xmm5,%xmm4
- .byte 196,195,249,22,224,1 // vpextrq $0x1,%xmm4,%r8
- .byte 196,193,249,126,225 // vmovq %xmm4,%r9
- .byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 196,225,249,126,211 // vmovq %xmm2,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,20,152 // vmovss (%rax,%r11,4),%xmm2
- .byte 196,227,105,33,20,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- .byte 196,161,122,16,36,176 // vmovss (%rax,%r14,4),%xmm4
- .byte 196,227,105,33,212,32 // vinsertps $0x20,%xmm4,%xmm2,%xmm2
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4
- .byte 196,227,105,33,212,48 // vinsertps $0x30,%xmm4,%xmm2,%xmm2
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4
- .byte 196,163,89,33,36,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4
- .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5
- .byte 196,227,89,33,229,32 // vinsertps $0x20,%xmm5,%xmm4,%xmm4
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,44,128 // vmovss (%rax,%r8,4),%xmm5
- .byte 196,227,89,33,229,48 // vinsertps $0x30,%xmm5,%xmm4,%xmm4
- .byte 196,227,93,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm4,%ymm2
- .byte 196,193,124,92,198 // vsubps %ymm14,%ymm0,%ymm0
- .byte 197,132,89,192 // vmulps %ymm0,%ymm15,%ymm0
- .byte 197,140,88,192 // vaddps %ymm0,%ymm14,%ymm0
- .byte 197,228,92,217 // vsubps %ymm1,%ymm3,%ymm3
- .byte 197,132,89,219 // vmulps %ymm3,%ymm15,%ymm3
- .byte 197,244,88,203 // vaddps %ymm3,%ymm1,%ymm1
- .byte 197,236,92,214 // vsubps %ymm6,%ymm2,%ymm2
- .byte 197,132,89,210 // vmulps %ymm2,%ymm15,%ymm2
- .byte 197,204,88,210 // vaddps %ymm2,%ymm6,%ymm2
- .byte 197,252,91,156,36,192,0,0,0 // vcvtdq2ps 0xc0(%rsp),%ymm3
- .byte 197,164,92,219 // vsubps %ymm3,%ymm11,%ymm3
- .byte 197,252,17,156,36,192,0,0,0 // vmovups %ymm3,0xc0(%rsp)
- .byte 197,252,16,164,36,32,1,0,0 // vmovups 0x120(%rsp),%ymm4
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
- .byte 197,252,17,132,36,128,0,0,0 // vmovups %ymm0,0x80(%rsp)
- .byte 197,252,16,100,36,64 // vmovups 0x40(%rsp),%ymm4
- .byte 197,244,92,196 // vsubps %ymm4,%ymm1,%ymm0
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
- .byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp)
- .byte 196,193,108,92,197 // vsubps %ymm13,%ymm2,%ymm0
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,148,88,192 // vaddps %ymm0,%ymm13,%ymm0
- .byte 197,252,17,68,36,32 // vmovups %ymm0,0x20(%rsp)
- .byte 197,252,16,4,36 // vmovups (%rsp),%ymm0
- .byte 197,252,88,132,36,0,1,0,0 // vaddps 0x100(%rsp),%ymm0,%ymm0
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 196,227,125,25,193,1 // vextractf128 $0x1,%ymm0,%xmm1
- .byte 197,249,111,84,36,192 // vmovdqa -0x40(%rsp),%xmm2
- .byte 196,226,105,64,201 // vpmulld %xmm1,%xmm2,%xmm1
- .byte 197,249,127,140,36,32,1,0,0 // vmovdqa %xmm1,0x120(%rsp)
- .byte 196,226,105,64,192 // vpmulld %xmm0,%xmm2,%xmm0
- .byte 197,249,127,68,36,192 // vmovdqa %xmm0,-0x40(%rsp)
- .byte 197,241,254,76,36,96 // vpaddd 0x60(%rsp),%xmm1,%xmm1
- .byte 197,249,127,140,36,176,1,0,0 // vmovdqa %xmm1,0x1b0(%rsp)
- .byte 197,241,254,172,36,224,0,0,0 // vpaddd 0xe0(%rsp),%xmm1,%xmm5
- .byte 196,193,81,254,204 // vpaddd %xmm12,%xmm5,%xmm1
- .byte 196,194,113,64,225 // vpmulld %xmm9,%xmm1,%xmm4
- .byte 197,121,254,180,36,192,1,0,0 // vpaddd 0x1c0(%rsp),%xmm0,%xmm14
- .byte 197,137,254,84,36,240 // vpaddd -0x10(%rsp),%xmm14,%xmm2
- .byte 196,193,105,254,248 // vpaddd %xmm8,%xmm2,%xmm7
- .byte 196,194,65,64,249 // vpmulld %xmm9,%xmm7,%xmm7
- .byte 196,193,121,126,249 // vmovd %xmm7,%r9d
- .byte 196,195,121,22,248,1 // vpextrd $0x1,%xmm7,%r8d
- .byte 196,195,121,22,250,2 // vpextrd $0x2,%xmm7,%r10d
- .byte 196,195,121,22,251,3 // vpextrd $0x3,%xmm7,%r11d
- .byte 196,193,121,126,231 // vmovd %xmm4,%r15d
- .byte 196,195,121,22,230,1 // vpextrd $0x1,%xmm4,%r14d
- .byte 196,195,121,22,228,2 // vpextrd $0x2,%xmm4,%r12d
- .byte 196,227,121,22,227,3 // vpextrd $0x3,%xmm4,%ebx
- .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3
- .byte 196,163,97,33,28,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm3,%xmm3
- .byte 196,227,97,33,28,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm3,%xmm3
- .byte 196,161,122,16,52,136 // vmovss (%rax,%r9,4),%xmm6
- .byte 196,163,73,33,52,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm6,%xmm6
- .byte 196,163,73,33,52,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm6,%xmm6
- .byte 196,163,73,33,52,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm6,%xmm6
- .byte 196,227,77,24,203,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm1
- .byte 197,249,118,192 // vpcmpeqd %xmm0,%xmm0,%xmm0
- .byte 197,193,250,216 // vpsubd %xmm0,%xmm7,%xmm3
- .byte 196,195,249,22,216,1 // vpextrq $0x1,%xmm3,%r8
- .byte 196,193,249,126,217 // vmovq %xmm3,%r9
- .byte 197,217,250,216 // vpsubd %xmm0,%xmm4,%xmm3
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
- .byte 196,225,249,126,219 // vmovq %xmm3,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,28,152 // vmovss (%rax,%r11,4),%xmm3
- .byte 196,227,97,33,28,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- .byte 196,161,122,16,52,176 // vmovss (%rax,%r14,4),%xmm6
- .byte 196,227,97,33,222,32 // vinsertps $0x20,%xmm6,%xmm3,%xmm3
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,97,33,222,48 // vinsertps $0x30,%xmm6,%xmm3,%xmm3
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6
- .byte 196,163,73,33,52,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- .byte 196,161,122,16,4,144 // vmovss (%rax,%r10,4),%xmm0
- .byte 196,227,73,33,192,32 // vinsertps $0x20,%xmm0,%xmm6,%xmm0
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
- .byte 196,227,121,33,198,48 // vinsertps $0x30,%xmm6,%xmm0,%xmm0
- .byte 196,99,125,24,235,1 // vinsertf128 $0x1,%xmm3,%ymm0,%ymm13
- .byte 196,193,65,254,194 // vpaddd %xmm10,%xmm7,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 196,193,89,254,194 // vpaddd %xmm10,%xmm4,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3
- .byte 196,227,121,33,195,32 // vinsertps $0x20,%xmm3,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,121,33,195,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3
- .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4
- .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,36,128 // vmovss (%rax,%r8,4),%xmm4
- .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3
- .byte 196,99,101,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm11
- .byte 197,121,111,100,36,160 // vmovdqa -0x60(%rsp),%xmm12
- .byte 197,153,254,194 // vpaddd %xmm2,%xmm12,%xmm0
- .byte 197,121,111,68,36,176 // vmovdqa -0x50(%rsp),%xmm8
- .byte 197,185,254,213 // vpaddd %xmm5,%xmm8,%xmm2
- .byte 196,194,105,64,225 // vpmulld %xmm9,%xmm2,%xmm4
- .byte 196,194,121,64,233 // vpmulld %xmm9,%xmm0,%xmm5
- .byte 196,193,121,126,233 // vmovd %xmm5,%r9d
- .byte 196,195,121,22,232,1 // vpextrd $0x1,%xmm5,%r8d
- .byte 196,195,121,22,234,2 // vpextrd $0x2,%xmm5,%r10d
- .byte 196,195,121,22,235,3 // vpextrd $0x3,%xmm5,%r11d
- .byte 196,193,121,126,231 // vmovd %xmm4,%r15d
- .byte 196,195,121,22,230,1 // vpextrd $0x1,%xmm4,%r14d
- .byte 196,195,121,22,228,2 // vpextrd $0x2,%xmm4,%r12d
- .byte 196,227,121,22,227,3 // vpextrd $0x3,%xmm4,%ebx
- .byte 196,161,122,16,4,184 // vmovss (%rax,%r15,4),%xmm0
- .byte 196,163,121,33,4,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- .byte 196,163,121,33,4,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- .byte 196,227,121,33,4,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2
- .byte 196,163,105,33,20,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm2,%xmm2
- .byte 196,163,105,33,20,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm2,%xmm2
- .byte 196,163,105,33,20,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm2,%xmm2
- .byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- .byte 197,225,118,219 // vpcmpeqd %xmm3,%xmm3,%xmm3
- .byte 197,209,250,195 // vpsubd %xmm3,%xmm5,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 197,217,250,195 // vpsubd %xmm3,%xmm4,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3
- .byte 196,227,121,33,195,32 // vinsertps $0x20,%xmm3,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,121,33,195,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3
- .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,97,33,222,32 // vinsertps $0x20,%xmm6,%xmm3,%xmm3
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
- .byte 196,227,97,33,222,48 // vinsertps $0x30,%xmm6,%xmm3,%xmm3
- .byte 196,227,101,24,248,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm7
- .byte 196,193,81,254,194 // vpaddd %xmm10,%xmm5,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 196,193,89,254,194 // vpaddd %xmm10,%xmm4,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3
- .byte 196,227,121,33,195,32 // vinsertps $0x20,%xmm3,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,121,33,195,48 // vinsertps $0x30,%xmm3,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3
- .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4
- .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,36,128 // vmovss (%rax,%r8,4),%xmm4
- .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3
- .byte 196,227,101,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm0
- .byte 197,236,92,209 // vsubps %ymm1,%ymm2,%ymm2
- .byte 197,132,89,210 // vmulps %ymm2,%ymm15,%ymm2
- .byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 197,252,17,76,36,96 // vmovups %ymm1,0x60(%rsp)
- .byte 196,193,68,92,213 // vsubps %ymm13,%ymm7,%ymm2
- .byte 197,132,89,210 // vmulps %ymm2,%ymm15,%ymm2
- .byte 197,148,88,202 // vaddps %ymm2,%ymm13,%ymm1
- .byte 197,252,17,140,36,32,2,0,0 // vmovups %ymm1,0x220(%rsp)
- .byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0
- .byte 197,132,89,192 // vmulps %ymm0,%ymm15,%ymm0
- .byte 197,164,88,192 // vaddps %ymm0,%ymm11,%ymm0
- .byte 197,252,17,132,36,0,2,0,0 // vmovups %ymm0,0x200(%rsp)
- .byte 197,249,111,132,36,176,1,0,0 // vmovdqa 0x1b0(%rsp),%xmm0
- .byte 197,249,254,108,36,208 // vpaddd -0x30(%rsp),%xmm0,%xmm5
- .byte 197,137,254,100,36,224 // vpaddd -0x20(%rsp),%xmm14,%xmm4
- .byte 197,209,254,68,36,128 // vpaddd -0x80(%rsp),%xmm5,%xmm0
- .byte 196,66,121,64,217 // vpmulld %xmm9,%xmm0,%xmm11
- .byte 197,121,111,108,36,144 // vmovdqa -0x70(%rsp),%xmm13
- .byte 196,193,89,254,197 // vpaddd %xmm13,%xmm4,%xmm0
- .byte 196,194,121,64,209 // vpmulld %xmm9,%xmm0,%xmm2
- .byte 196,193,121,126,209 // vmovd %xmm2,%r9d
- .byte 196,195,121,22,208,1 // vpextrd $0x1,%xmm2,%r8d
- .byte 196,195,121,22,210,2 // vpextrd $0x2,%xmm2,%r10d
- .byte 196,195,121,22,211,3 // vpextrd $0x3,%xmm2,%r11d
- .byte 196,65,121,126,223 // vmovd %xmm11,%r15d
- .byte 196,67,121,22,222,1 // vpextrd $0x1,%xmm11,%r14d
- .byte 196,67,121,22,220,2 // vpextrd $0x2,%xmm11,%r12d
- .byte 196,99,121,22,219,3 // vpextrd $0x3,%xmm11,%ebx
- .byte 196,161,122,16,4,184 // vmovss (%rax,%r15,4),%xmm0
- .byte 196,163,121,33,4,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- .byte 196,163,121,33,4,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- .byte 196,227,121,33,4,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,12,136 // vmovss (%rax,%r9,4),%xmm1
- .byte 196,163,113,33,12,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm1,%xmm1
- .byte 196,163,113,33,12,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm1,%xmm1
- .byte 196,163,113,33,12,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm1,%xmm1
- .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 197,225,118,219 // vpcmpeqd %xmm3,%xmm3,%xmm3
- .byte 197,233,250,203 // vpsubd %xmm3,%xmm2,%xmm1
- .byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 197,161,250,203 // vpsubd %xmm3,%xmm11,%xmm1
- .byte 197,193,118,255 // vpcmpeqd %xmm7,%xmm7,%xmm7
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 196,225,249,126,203 // vmovq %xmm1,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,12,152 // vmovss (%rax,%r11,4),%xmm1
- .byte 196,227,113,33,12,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3
- .byte 196,227,113,33,203,32 // vinsertps $0x20,%xmm3,%xmm1,%xmm1
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,113,33,203,48 // vinsertps $0x30,%xmm3,%xmm1,%xmm1
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3
- .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,97,33,222,32 // vinsertps $0x20,%xmm6,%xmm3,%xmm3
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
- .byte 196,227,97,33,222,48 // vinsertps $0x30,%xmm6,%xmm3,%xmm3
- .byte 196,227,101,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm1
- .byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
- .byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 196,193,33,254,210 // vpaddd %xmm10,%xmm11,%xmm2
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 196,225,249,126,211 // vmovq %xmm2,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,20,152 // vmovss (%rax,%r11,4),%xmm2
- .byte 196,227,105,33,20,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3
- .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3
- .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,97,33,222,32 // vinsertps $0x20,%xmm6,%xmm3,%xmm3
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
- .byte 196,227,97,33,222,48 // vinsertps $0x30,%xmm6,%xmm3,%xmm3
- .byte 196,99,101,24,218,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm11
- .byte 197,153,254,212 // vpaddd %xmm4,%xmm12,%xmm2
- .byte 197,185,254,221 // vpaddd %xmm5,%xmm8,%xmm3
- .byte 196,194,97,64,225 // vpmulld %xmm9,%xmm3,%xmm4
- .byte 196,194,105,64,233 // vpmulld %xmm9,%xmm2,%xmm5
- .byte 196,193,121,126,233 // vmovd %xmm5,%r9d
- .byte 196,195,121,22,232,1 // vpextrd $0x1,%xmm5,%r8d
- .byte 196,195,121,22,234,2 // vpextrd $0x2,%xmm5,%r10d
- .byte 196,195,121,22,235,3 // vpextrd $0x3,%xmm5,%r11d
- .byte 196,193,121,126,231 // vmovd %xmm4,%r15d
- .byte 196,195,121,22,230,1 // vpextrd $0x1,%xmm4,%r14d
- .byte 196,195,121,22,228,2 // vpextrd $0x2,%xmm4,%r12d
- .byte 196,227,121,22,227,3 // vpextrd $0x3,%xmm4,%ebx
- .byte 196,161,122,16,20,184 // vmovss (%rax,%r15,4),%xmm2
- .byte 196,163,105,33,20,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm2,%xmm2
- .byte 196,163,105,33,20,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm2,%xmm2
- .byte 196,227,105,33,20,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm2,%xmm2
- .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3
- .byte 196,163,97,33,28,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- .byte 196,227,101,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm2
- .byte 197,209,250,223 // vpsubd %xmm7,%xmm5,%xmm3
- .byte 196,195,249,22,216,1 // vpextrq $0x1,%xmm3,%r8
- .byte 196,193,249,126,217 // vmovq %xmm3,%r9
- .byte 197,217,250,223 // vpsubd %xmm7,%xmm4,%xmm3
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
- .byte 196,225,249,126,219 // vmovq %xmm3,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,28,152 // vmovss (%rax,%r11,4),%xmm3
- .byte 196,227,97,33,28,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- .byte 196,161,122,16,52,176 // vmovss (%rax,%r14,4),%xmm6
- .byte 196,227,97,33,222,32 // vinsertps $0x20,%xmm6,%xmm3,%xmm3
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,97,33,222,48 // vinsertps $0x30,%xmm6,%xmm3,%xmm3
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6
- .byte 196,163,73,33,52,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,73,33,247,32 // vinsertps $0x20,%xmm7,%xmm6,%xmm6
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
- .byte 196,99,77,24,243,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm14
- .byte 196,193,81,254,218 // vpaddd %xmm10,%xmm5,%xmm3
- .byte 196,195,249,22,216,1 // vpextrq $0x1,%xmm3,%r8
- .byte 196,193,249,126,217 // vmovq %xmm3,%r9
- .byte 196,193,89,254,218 // vpaddd %xmm10,%xmm4,%xmm3
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
- .byte 196,225,249,126,219 // vmovq %xmm3,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,28,152 // vmovss (%rax,%r11,4),%xmm3
- .byte 196,227,97,33,28,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- .byte 196,161,122,16,36,176 // vmovss (%rax,%r14,4),%xmm4
- .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4
- .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4
- .byte 196,163,89,33,36,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4
- .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5
- .byte 196,227,89,33,229,32 // vinsertps $0x20,%xmm5,%xmm4,%xmm4
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,44,128 // vmovss (%rax,%r8,4),%xmm5
- .byte 196,227,89,33,229,48 // vinsertps $0x30,%xmm5,%xmm4,%xmm4
- .byte 196,227,93,24,219,1 // vinsertf128 $0x1,%xmm3,%ymm4,%ymm3
- .byte 197,236,92,208 // vsubps %ymm0,%ymm2,%ymm2
- .byte 197,124,17,188,36,128,1,0,0 // vmovups %ymm15,0x180(%rsp)
- .byte 197,132,89,210 // vmulps %ymm2,%ymm15,%ymm2
- .byte 197,252,88,194 // vaddps %ymm2,%ymm0,%ymm0
- .byte 197,140,92,209 // vsubps %ymm1,%ymm14,%ymm2
- .byte 197,132,89,210 // vmulps %ymm2,%ymm15,%ymm2
- .byte 197,244,88,202 // vaddps %ymm2,%ymm1,%ymm1
- .byte 196,193,100,92,211 // vsubps %ymm11,%ymm3,%ymm2
- .byte 197,132,89,210 // vmulps %ymm2,%ymm15,%ymm2
- .byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 197,252,16,100,36,96 // vmovups 0x60(%rsp),%ymm4
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 197,252,16,156,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm3
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
- .byte 197,252,16,164,36,32,2,0,0 // vmovups 0x220(%rsp),%ymm4
- .byte 197,244,92,204 // vsubps %ymm4,%ymm1,%ymm1
- .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1
- .byte 197,220,88,201 // vaddps %ymm1,%ymm4,%ymm1
- .byte 197,252,16,164,36,0,2,0,0 // vmovups 0x200(%rsp),%ymm4
- .byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2
- .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
- .byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
- .byte 197,252,91,156,36,64,1,0,0 // vcvtdq2ps 0x140(%rsp),%ymm3
- .byte 197,252,16,164,36,0,1,0,0 // vmovups 0x100(%rsp),%ymm4
- .byte 197,220,92,219 // vsubps %ymm3,%ymm4,%ymm3
- .byte 197,252,17,92,36,96 // vmovups %ymm3,0x60(%rsp)
- .byte 197,252,16,164,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm4
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
- .byte 197,252,17,132,36,0,1,0,0 // vmovups %ymm0,0x100(%rsp)
- .byte 197,252,16,100,36,64 // vmovups 0x40(%rsp),%ymm4
- .byte 197,244,92,196 // vsubps %ymm4,%ymm1,%ymm0
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
- .byte 197,252,17,132,36,64,1,0,0 // vmovups %ymm0,0x140(%rsp)
- .byte 197,252,16,76,36,32 // vmovups 0x20(%rsp),%ymm1
- .byte 197,236,92,193 // vsubps %ymm1,%ymm2,%ymm0
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
- .byte 197,252,17,132,36,128,0,0,0 // vmovups %ymm0,0x80(%rsp)
- .byte 197,252,16,4,36 // vmovups (%rsp),%ymm0
- .byte 197,252,88,132,36,224,1,0,0 // vaddps 0x1e0(%rsp),%ymm0,%ymm0
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,254,127,68,36,64 // vmovdqu %ymm0,0x40(%rsp)
- .byte 197,249,254,148,36,96,1,0,0 // vpaddd 0x160(%rsp),%xmm0,%xmm2
- .byte 197,249,127,20,36 // vmovdqa %xmm2,(%rsp)
- .byte 196,227,125,25,192,1 // vextractf128 $0x1,%ymm0,%xmm0
- .byte 197,249,127,68,36,32 // vmovdqa %xmm0,0x20(%rsp)
- .byte 197,121,254,188,36,160,0,0,0 // vpaddd 0xa0(%rsp),%xmm0,%xmm15
- .byte 197,129,254,172,36,224,0,0,0 // vpaddd 0xe0(%rsp),%xmm15,%xmm5
- .byte 197,249,111,100,36,128 // vmovdqa -0x80(%rsp),%xmm4
- .byte 197,217,254,197 // vpaddd %xmm5,%xmm4,%xmm0
- .byte 196,194,121,64,201 // vpmulld %xmm9,%xmm0,%xmm1
- .byte 197,233,254,84,36,240 // vpaddd -0x10(%rsp),%xmm2,%xmm2
- .byte 197,145,254,194 // vpaddd %xmm2,%xmm13,%xmm0
- .byte 196,194,121,64,193 // vpmulld %xmm9,%xmm0,%xmm0
- .byte 196,193,121,126,193 // vmovd %xmm0,%r9d
- .byte 196,195,121,22,192,1 // vpextrd $0x1,%xmm0,%r8d
- .byte 196,195,121,22,194,2 // vpextrd $0x2,%xmm0,%r10d
- .byte 196,195,121,22,195,3 // vpextrd $0x3,%xmm0,%r11d
- .byte 196,193,121,126,207 // vmovd %xmm1,%r15d
- .byte 196,195,121,22,206,1 // vpextrd $0x1,%xmm1,%r14d
- .byte 196,195,121,22,204,2 // vpextrd $0x2,%xmm1,%r12d
- .byte 196,227,121,22,203,3 // vpextrd $0x3,%xmm1,%ebx
- .byte 196,161,122,16,52,184 // vmovss (%rax,%r15,4),%xmm6
- .byte 196,163,73,33,52,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm6,%xmm6
- .byte 196,163,73,33,52,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm6,%xmm6
- .byte 196,227,73,33,52,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm6,%xmm6
- .byte 196,161,122,16,60,136 // vmovss (%rax,%r9,4),%xmm7
- .byte 196,163,65,33,60,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm7,%xmm7
- .byte 196,163,65,33,60,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm7,%xmm7
- .byte 196,163,65,33,60,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm7,%xmm7
- .byte 196,99,69,24,246,1 // vinsertf128 $0x1,%xmm6,%ymm7,%ymm14
- .byte 197,225,118,219 // vpcmpeqd %xmm3,%xmm3,%xmm3
- .byte 197,249,250,243 // vpsubd %xmm3,%xmm0,%xmm6
- .byte 196,195,249,22,240,1 // vpextrq $0x1,%xmm6,%r8
- .byte 196,193,249,126,241 // vmovq %xmm6,%r9
- .byte 197,241,250,243 // vpsubd %xmm3,%xmm1,%xmm6
- .byte 196,65,17,118,237 // vpcmpeqd %xmm13,%xmm13,%xmm13
- .byte 196,195,249,22,242,1 // vpextrq $0x1,%xmm6,%r10
- .byte 196,225,249,126,243 // vmovq %xmm6,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,52,152 // vmovss (%rax,%r11,4),%xmm6
- .byte 196,227,73,33,52,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm6,%xmm6
- .byte 196,161,122,16,60,176 // vmovss (%rax,%r14,4),%xmm7
- .byte 196,227,73,33,247,32 // vinsertps $0x20,%xmm7,%xmm6,%xmm6
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7
- .byte 196,163,65,33,60,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,65,33,219,32 // vinsertps $0x20,%xmm3,%xmm7,%xmm3
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,97,33,223,48 // vinsertps $0x30,%xmm7,%xmm3,%xmm3
- .byte 196,227,101,24,254,1 // vinsertf128 $0x1,%xmm6,%ymm3,%ymm7
- .byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 196,193,113,254,194 // vpaddd %xmm10,%xmm1,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,12,176 // vmovss (%rax,%r14,4),%xmm1
- .byte 196,227,121,33,193,32 // vinsertps $0x20,%xmm1,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,12,144 // vmovss (%rax,%r10,4),%xmm1
- .byte 196,227,121,33,193,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1
- .byte 196,163,113,33,12,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,113,33,203,32 // vinsertps $0x20,%xmm3,%xmm1,%xmm1
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,28,128 // vmovss (%rax,%r8,4),%xmm3
- .byte 196,227,113,33,203,48 // vinsertps $0x30,%xmm3,%xmm1,%xmm1
- .byte 196,99,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm8
- .byte 197,121,111,100,36,160 // vmovdqa -0x60(%rsp),%xmm12
- .byte 197,153,254,194 // vpaddd %xmm2,%xmm12,%xmm0
- .byte 197,121,111,92,36,176 // vmovdqa -0x50(%rsp),%xmm11
- .byte 197,161,254,205 // vpaddd %xmm5,%xmm11,%xmm1
- .byte 196,194,113,64,201 // vpmulld %xmm9,%xmm1,%xmm1
- .byte 196,194,121,64,193 // vpmulld %xmm9,%xmm0,%xmm0
- .byte 196,193,121,126,193 // vmovd %xmm0,%r9d
- .byte 196,195,121,22,192,1 // vpextrd $0x1,%xmm0,%r8d
- .byte 196,195,121,22,194,2 // vpextrd $0x2,%xmm0,%r10d
- .byte 196,195,121,22,195,3 // vpextrd $0x3,%xmm0,%r11d
- .byte 196,193,121,126,207 // vmovd %xmm1,%r15d
- .byte 196,195,121,22,206,1 // vpextrd $0x1,%xmm1,%r14d
- .byte 196,195,121,22,204,2 // vpextrd $0x2,%xmm1,%r12d
- .byte 196,227,121,22,203,3 // vpextrd $0x3,%xmm1,%ebx
- .byte 196,161,122,16,20,184 // vmovss (%rax,%r15,4),%xmm2
- .byte 196,163,105,33,20,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm2,%xmm2
- .byte 196,163,105,33,20,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm2,%xmm2
- .byte 196,227,105,33,20,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm2,%xmm2
- .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3
- .byte 196,163,97,33,28,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- .byte 196,227,101,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm2
- .byte 196,193,121,250,221 // vpsubd %xmm13,%xmm0,%xmm3
- .byte 196,195,249,22,216,1 // vpextrq $0x1,%xmm3,%r8
- .byte 196,193,249,126,217 // vmovq %xmm3,%r9
- .byte 196,193,113,250,221 // vpsubd %xmm13,%xmm1,%xmm3
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
- .byte 196,225,249,126,219 // vmovq %xmm3,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,28,152 // vmovss (%rax,%r11,4),%xmm3
- .byte 196,227,97,33,28,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- .byte 196,161,122,16,44,176 // vmovss (%rax,%r14,4),%xmm5
- .byte 196,227,97,33,221,32 // vinsertps $0x20,%xmm5,%xmm3,%xmm3
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5
- .byte 196,227,97,33,221,48 // vinsertps $0x30,%xmm5,%xmm3,%xmm3
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,44,152 // vmovss (%rax,%rbx,4),%xmm5
- .byte 196,163,81,33,44,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm5,%xmm5
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,81,33,238,32 // vinsertps $0x20,%xmm6,%xmm5,%xmm5
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
- .byte 196,227,81,33,238,48 // vinsertps $0x30,%xmm6,%xmm5,%xmm5
- .byte 196,227,85,24,235,1 // vinsertf128 $0x1,%xmm3,%ymm5,%ymm5
- .byte 196,193,121,254,194 // vpaddd %xmm10,%xmm0,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 196,193,113,254,194 // vpaddd %xmm10,%xmm1,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,12,176 // vmovss (%rax,%r14,4),%xmm1
- .byte 196,227,121,33,193,32 // vinsertps $0x20,%xmm1,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,12,144 // vmovss (%rax,%r10,4),%xmm1
- .byte 196,227,121,33,193,48 // vinsertps $0x30,%xmm1,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,12,152 // vmovss (%rax,%rbx,4),%xmm1
- .byte 196,163,113,33,12,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,113,33,203,32 // vinsertps $0x20,%xmm3,%xmm1,%xmm1
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,28,128 // vmovss (%rax,%r8,4),%xmm3
- .byte 196,227,113,33,203,48 // vinsertps $0x30,%xmm3,%xmm1,%xmm1
- .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 196,193,108,92,206 // vsubps %ymm14,%ymm2,%ymm1
- .byte 197,252,16,148,36,128,1,0,0 // vmovups 0x180(%rsp),%ymm2
- .byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
- .byte 197,12,88,241 // vaddps %ymm1,%ymm14,%ymm14
- .byte 197,212,92,207 // vsubps %ymm7,%ymm5,%ymm1
- .byte 197,236,89,201 // vmulps %ymm1,%ymm2,%ymm1
- .byte 197,196,88,201 // vaddps %ymm1,%ymm7,%ymm1
- .byte 197,252,17,140,36,160,0,0,0 // vmovups %ymm1,0xa0(%rsp)
- .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
- .byte 197,236,89,192 // vmulps %ymm0,%ymm2,%ymm0
- .byte 197,60,88,192 // vaddps %ymm0,%ymm8,%ymm8
- .byte 197,129,254,68,36,208 // vpaddd -0x30(%rsp),%xmm15,%xmm0
- .byte 197,249,111,12,36 // vmovdqa (%rsp),%xmm1
- .byte 197,241,254,124,36,224 // vpaddd -0x20(%rsp),%xmm1,%xmm7
- .byte 197,249,254,204 // vpaddd %xmm4,%xmm0,%xmm1
- .byte 196,194,113,64,201 // vpmulld %xmm9,%xmm1,%xmm1
- .byte 197,121,111,124,36,144 // vmovdqa -0x70(%rsp),%xmm15
- .byte 196,193,65,254,215 // vpaddd %xmm15,%xmm7,%xmm2
- .byte 196,194,105,64,209 // vpmulld %xmm9,%xmm2,%xmm2
- .byte 196,193,121,126,209 // vmovd %xmm2,%r9d
- .byte 196,195,121,22,208,1 // vpextrd $0x1,%xmm2,%r8d
- .byte 196,195,121,22,210,2 // vpextrd $0x2,%xmm2,%r10d
- .byte 196,195,121,22,211,3 // vpextrd $0x3,%xmm2,%r11d
- .byte 196,193,121,126,207 // vmovd %xmm1,%r15d
- .byte 196,195,121,22,206,1 // vpextrd $0x1,%xmm1,%r14d
- .byte 196,195,121,22,204,2 // vpextrd $0x2,%xmm1,%r12d
- .byte 196,227,121,22,203,3 // vpextrd $0x3,%xmm1,%ebx
- .byte 196,161,122,16,28,184 // vmovss (%rax,%r15,4),%xmm3
- .byte 196,163,97,33,28,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm3,%xmm3
- .byte 196,227,97,33,28,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm3,%xmm3
- .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4
- .byte 196,163,89,33,36,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm4,%xmm4
- .byte 196,163,89,33,36,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm4,%xmm4
- .byte 196,163,89,33,36,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm4,%xmm4
- .byte 196,227,93,24,227,1 // vinsertf128 $0x1,%xmm3,%ymm4,%ymm4
- .byte 197,209,118,237 // vpcmpeqd %xmm5,%xmm5,%xmm5
- .byte 197,233,250,221 // vpsubd %xmm5,%xmm2,%xmm3
- .byte 196,195,249,22,216,1 // vpextrq $0x1,%xmm3,%r8
- .byte 196,193,249,126,217 // vmovq %xmm3,%r9
- .byte 197,241,250,221 // vpsubd %xmm5,%xmm1,%xmm3
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
- .byte 196,225,249,126,219 // vmovq %xmm3,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,28,152 // vmovss (%rax,%r11,4),%xmm3
- .byte 196,227,97,33,28,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- .byte 196,161,122,16,44,176 // vmovss (%rax,%r14,4),%xmm5
- .byte 196,227,97,33,221,32 // vinsertps $0x20,%xmm5,%xmm3,%xmm3
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5
- .byte 196,227,97,33,221,48 // vinsertps $0x30,%xmm5,%xmm3,%xmm3
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,44,152 // vmovss (%rax,%rbx,4),%xmm5
- .byte 196,163,81,33,44,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm5,%xmm5
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,81,33,238,32 // vinsertps $0x20,%xmm6,%xmm5,%xmm5
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
- .byte 196,227,81,33,238,48 // vinsertps $0x30,%xmm6,%xmm5,%xmm5
- .byte 196,227,85,24,235,1 // vinsertf128 $0x1,%xmm3,%ymm5,%ymm5
- .byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
- .byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 196,193,113,254,202 // vpaddd %xmm10,%xmm1,%xmm1
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 196,225,249,126,203 // vmovq %xmm1,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,12,152 // vmovss (%rax,%r11,4),%xmm1
- .byte 196,227,113,33,12,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2
- .byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,20,144 // vmovss (%rax,%r10,4),%xmm2
- .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2
- .byte 196,163,105,33,20,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,28,128 // vmovss (%rax,%r8,4),%xmm3
- .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
- .byte 196,99,109,24,233,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm13
- .byte 197,153,254,215 // vpaddd %xmm7,%xmm12,%xmm2
- .byte 197,161,254,192 // vpaddd %xmm0,%xmm11,%xmm0
- .byte 196,65,121,111,227 // vmovdqa %xmm11,%xmm12
- .byte 196,194,121,64,201 // vpmulld %xmm9,%xmm0,%xmm1
- .byte 196,194,105,64,209 // vpmulld %xmm9,%xmm2,%xmm2
- .byte 196,193,121,126,209 // vmovd %xmm2,%r9d
- .byte 196,195,121,22,208,1 // vpextrd $0x1,%xmm2,%r8d
- .byte 196,195,121,22,210,2 // vpextrd $0x2,%xmm2,%r10d
- .byte 196,195,121,22,211,3 // vpextrd $0x3,%xmm2,%r11d
- .byte 196,193,121,126,207 // vmovd %xmm1,%r15d
- .byte 196,195,121,22,206,1 // vpextrd $0x1,%xmm1,%r14d
- .byte 196,195,121,22,204,2 // vpextrd $0x2,%xmm1,%r12d
- .byte 196,227,121,22,203,3 // vpextrd $0x3,%xmm1,%ebx
- .byte 196,161,122,16,4,184 // vmovss (%rax,%r15,4),%xmm0
- .byte 196,163,121,33,4,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- .byte 196,163,121,33,4,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- .byte 196,227,121,33,4,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3
- .byte 196,163,97,33,28,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- .byte 196,227,101,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm3,%ymm0
- .byte 197,201,118,246 // vpcmpeqd %xmm6,%xmm6,%xmm6
- .byte 197,233,250,222 // vpsubd %xmm6,%xmm2,%xmm3
- .byte 196,195,249,22,216,1 // vpextrq $0x1,%xmm3,%r8
- .byte 196,193,249,126,217 // vmovq %xmm3,%r9
- .byte 197,241,250,222 // vpsubd %xmm6,%xmm1,%xmm3
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
- .byte 196,225,249,126,219 // vmovq %xmm3,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,28,152 // vmovss (%rax,%r11,4),%xmm3
- .byte 196,227,97,33,28,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- .byte 196,161,122,16,52,176 // vmovss (%rax,%r14,4),%xmm6
- .byte 196,227,97,33,222,32 // vinsertps $0x20,%xmm6,%xmm3,%xmm3
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,97,33,222,48 // vinsertps $0x30,%xmm6,%xmm3,%xmm3
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6
- .byte 196,163,73,33,52,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,73,33,247,32 // vinsertps $0x20,%xmm7,%xmm6,%xmm6
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
- .byte 196,227,77,24,243,1 // vinsertf128 $0x1,%xmm3,%ymm6,%ymm6
- .byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
- .byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 196,193,113,254,202 // vpaddd %xmm10,%xmm1,%xmm1
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 196,225,249,126,203 // vmovq %xmm1,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,12,152 // vmovss (%rax,%r11,4),%xmm1
- .byte 196,227,113,33,12,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2
- .byte 196,227,113,33,202,32 // vinsertps $0x20,%xmm2,%xmm1,%xmm1
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,20,144 // vmovss (%rax,%r10,4),%xmm2
- .byte 196,227,113,33,202,48 // vinsertps $0x30,%xmm2,%xmm1,%xmm1
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2
- .byte 196,163,105,33,20,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,28,128 // vmovss (%rax,%r8,4),%xmm3
- .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
- .byte 196,227,109,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm2,%ymm1
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 197,252,16,156,36,128,1,0,0 // vmovups 0x180(%rsp),%ymm3
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
- .byte 197,204,92,213 // vsubps %ymm5,%ymm6,%ymm2
- .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
- .byte 197,212,88,210 // vaddps %ymm2,%ymm5,%ymm2
- .byte 196,193,116,92,205 // vsubps %ymm13,%ymm1,%ymm1
- .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1
- .byte 197,148,88,201 // vaddps %ymm1,%ymm13,%ymm1
- .byte 196,193,124,92,198 // vsubps %ymm14,%ymm0,%ymm0
- .byte 197,252,16,156,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm3
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,140,88,192 // vaddps %ymm0,%ymm14,%ymm0
- .byte 197,252,17,4,36 // vmovups %ymm0,(%rsp)
- .byte 197,252,16,164,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm4
- .byte 197,236,92,196 // vsubps %ymm4,%ymm2,%ymm0
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
- .byte 197,252,17,132,36,160,0,0,0 // vmovups %ymm0,0xa0(%rsp)
- .byte 196,193,116,92,192 // vsubps %ymm8,%ymm1,%ymm0
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,188,88,192 // vaddps %ymm0,%ymm8,%ymm0
- .byte 197,252,17,132,36,96,1,0,0 // vmovups %ymm0,0x160(%rsp)
- .byte 197,254,111,68,36,64 // vmovdqu 0x40(%rsp),%ymm0
- .byte 197,121,254,116,36,192 // vpaddd -0x40(%rsp),%xmm0,%xmm14
- .byte 197,249,111,68,36,32 // vmovdqa 0x20(%rsp),%xmm0
- .byte 197,121,254,172,36,32,1,0,0 // vpaddd 0x120(%rsp),%xmm0,%xmm13
- .byte 197,145,254,188,36,224,0,0,0 // vpaddd 0xe0(%rsp),%xmm13,%xmm7
- .byte 197,137,254,108,36,240 // vpaddd -0x10(%rsp),%xmm14,%xmm5
- .byte 197,193,254,76,36,128 // vpaddd -0x80(%rsp),%xmm7,%xmm1
- .byte 196,194,113,64,209 // vpmulld %xmm9,%xmm1,%xmm2
- .byte 196,193,81,254,207 // vpaddd %xmm15,%xmm5,%xmm1
- .byte 196,194,113,64,225 // vpmulld %xmm9,%xmm1,%xmm4
- .byte 196,193,121,126,225 // vmovd %xmm4,%r9d
- .byte 196,195,121,22,224,1 // vpextrd $0x1,%xmm4,%r8d
- .byte 196,195,121,22,226,2 // vpextrd $0x2,%xmm4,%r10d
- .byte 196,195,121,22,227,3 // vpextrd $0x3,%xmm4,%r11d
- .byte 196,193,121,126,215 // vmovd %xmm2,%r15d
- .byte 196,195,121,22,214,1 // vpextrd $0x1,%xmm2,%r14d
- .byte 196,195,121,22,212,2 // vpextrd $0x2,%xmm2,%r12d
- .byte 196,227,121,22,211,3 // vpextrd $0x3,%xmm2,%ebx
- .byte 196,161,122,16,12,184 // vmovss (%rax,%r15,4),%xmm1
- .byte 196,163,113,33,12,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm1,%xmm1
- .byte 196,163,113,33,12,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm1,%xmm1
- .byte 196,227,113,33,12,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm1,%xmm1
- .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3
- .byte 196,163,97,33,28,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- .byte 196,227,101,24,217,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm3
- .byte 197,249,118,192 // vpcmpeqd %xmm0,%xmm0,%xmm0
- .byte 197,217,250,200 // vpsubd %xmm0,%xmm4,%xmm1
- .byte 196,195,249,22,200,1 // vpextrq $0x1,%xmm1,%r8
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 197,233,250,200 // vpsubd %xmm0,%xmm2,%xmm1
- .byte 196,65,1,118,255 // vpcmpeqd %xmm15,%xmm15,%xmm15
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 196,225,249,126,203 // vmovq %xmm1,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,12,152 // vmovss (%rax,%r11,4),%xmm1
- .byte 196,227,113,33,12,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- .byte 196,161,122,16,52,176 // vmovss (%rax,%r14,4),%xmm6
- .byte 196,227,113,33,206,32 // vinsertps $0x20,%xmm6,%xmm1,%xmm1
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,113,33,206,48 // vinsertps $0x30,%xmm6,%xmm1,%xmm1
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6
- .byte 196,163,73,33,52,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- .byte 196,161,122,16,4,144 // vmovss (%rax,%r10,4),%xmm0
- .byte 196,227,73,33,192,32 // vinsertps $0x20,%xmm0,%xmm6,%xmm0
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,52,128 // vmovss (%rax,%r8,4),%xmm6
- .byte 196,227,121,33,198,48 // vinsertps $0x30,%xmm6,%xmm0,%xmm0
- .byte 196,227,125,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm0,%ymm1
- .byte 196,193,89,254,194 // vpaddd %xmm10,%xmm4,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 196,193,105,254,194 // vpaddd %xmm10,%xmm2,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,20,176 // vmovss (%rax,%r14,4),%xmm2
- .byte 196,227,121,33,194,32 // vinsertps $0x20,%xmm2,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,20,144 // vmovss (%rax,%r10,4),%xmm2
- .byte 196,227,121,33,194,48 // vinsertps $0x30,%xmm2,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,20,152 // vmovss (%rax,%rbx,4),%xmm2
- .byte 196,163,105,33,20,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2
- .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4
- .byte 196,227,105,33,212,32 // vinsertps $0x20,%xmm4,%xmm2,%xmm2
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,36,128 // vmovss (%rax,%r8,4),%xmm4
- .byte 196,227,105,33,212,48 // vinsertps $0x30,%xmm4,%xmm2,%xmm2
- .byte 196,99,109,24,216,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm11
- .byte 197,121,111,68,36,160 // vmovdqa -0x60(%rsp),%xmm8
- .byte 197,185,254,197 // vpaddd %xmm5,%xmm8,%xmm0
- .byte 197,153,254,215 // vpaddd %xmm7,%xmm12,%xmm2
- .byte 196,194,105,64,233 // vpmulld %xmm9,%xmm2,%xmm5
- .byte 196,194,121,64,225 // vpmulld %xmm9,%xmm0,%xmm4
- .byte 196,193,121,126,225 // vmovd %xmm4,%r9d
- .byte 196,195,121,22,224,1 // vpextrd $0x1,%xmm4,%r8d
- .byte 196,195,121,22,226,2 // vpextrd $0x2,%xmm4,%r10d
- .byte 196,195,121,22,227,3 // vpextrd $0x3,%xmm4,%r11d
- .byte 196,193,121,126,239 // vmovd %xmm5,%r15d
- .byte 196,195,121,22,238,1 // vpextrd $0x1,%xmm5,%r14d
- .byte 196,195,121,22,236,2 // vpextrd $0x2,%xmm5,%r12d
- .byte 196,227,121,22,235,3 // vpextrd $0x3,%xmm5,%ebx
- .byte 196,161,122,16,4,184 // vmovss (%rax,%r15,4),%xmm0
- .byte 196,163,121,33,4,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- .byte 196,163,121,33,4,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- .byte 196,227,121,33,4,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,20,136 // vmovss (%rax,%r9,4),%xmm2
- .byte 196,163,105,33,20,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm2,%xmm2
- .byte 196,163,105,33,20,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm2,%xmm2
- .byte 196,163,105,33,20,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm2,%xmm2
- .byte 196,227,109,24,208,1 // vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- .byte 196,193,89,250,199 // vpsubd %xmm15,%xmm4,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 196,193,81,250,199 // vpsubd %xmm15,%xmm5,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,52,176 // vmovss (%rax,%r14,4),%xmm6
- .byte 196,227,121,33,198,32 // vinsertps $0x20,%xmm6,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,121,33,198,48 // vinsertps $0x30,%xmm6,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,52,152 // vmovss (%rax,%rbx,4),%xmm6
- .byte 196,163,73,33,52,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,73,33,247,32 // vinsertps $0x20,%xmm7,%xmm6,%xmm6
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
- .byte 196,227,77,24,240,1 // vinsertf128 $0x1,%xmm0,%ymm6,%ymm6
- .byte 196,193,89,254,194 // vpaddd %xmm10,%xmm4,%xmm0
- .byte 196,195,249,22,192,1 // vpextrq $0x1,%xmm0,%r8
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 196,193,81,254,194 // vpaddd %xmm10,%xmm5,%xmm0
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 196,225,249,126,195 // vmovq %xmm0,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,4,152 // vmovss (%rax,%r11,4),%xmm0
- .byte 196,227,121,33,4,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,36,176 // vmovss (%rax,%r14,4),%xmm4
- .byte 196,227,121,33,196,32 // vinsertps $0x20,%xmm4,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4
- .byte 196,227,121,33,196,48 // vinsertps $0x30,%xmm4,%xmm0,%xmm0
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,36,152 // vmovss (%rax,%rbx,4),%xmm4
- .byte 196,163,89,33,36,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4
- .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5
- .byte 196,227,89,33,229,32 // vinsertps $0x20,%xmm5,%xmm4,%xmm4
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,44,128 // vmovss (%rax,%r8,4),%xmm5
- .byte 196,227,89,33,229,48 // vinsertps $0x30,%xmm5,%xmm4,%xmm4
- .byte 196,227,93,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm4,%ymm0
- .byte 197,236,92,211 // vsubps %ymm3,%ymm2,%ymm2
- .byte 197,252,16,164,36,128,1,0,0 // vmovups 0x180(%rsp),%ymm4
- .byte 197,220,89,210 // vmulps %ymm2,%ymm4,%ymm2
- .byte 197,228,88,210 // vaddps %ymm2,%ymm3,%ymm2
- .byte 197,252,17,148,36,224,0,0,0 // vmovups %ymm2,0xe0(%rsp)
- .byte 197,204,92,209 // vsubps %ymm1,%ymm6,%ymm2
- .byte 197,220,89,210 // vmulps %ymm2,%ymm4,%ymm2
- .byte 197,116,88,250 // vaddps %ymm2,%ymm1,%ymm15
- .byte 196,193,124,92,195 // vsubps %ymm11,%ymm0,%ymm0
- .byte 197,220,89,192 // vmulps %ymm0,%ymm4,%ymm0
- .byte 197,124,40,228 // vmovaps %ymm4,%ymm12
- .byte 197,36,88,216 // vaddps %ymm0,%ymm11,%ymm11
- .byte 197,145,254,124,36,208 // vpaddd -0x30(%rsp),%xmm13,%xmm7
- .byte 197,137,254,68,36,224 // vpaddd -0x20(%rsp),%xmm14,%xmm0
- .byte 197,249,254,76,36,144 // vpaddd -0x70(%rsp),%xmm0,%xmm1
- .byte 197,193,254,84,36,128 // vpaddd -0x80(%rsp),%xmm7,%xmm2
- .byte 196,66,105,64,241 // vpmulld %xmm9,%xmm2,%xmm14
- .byte 196,194,113,64,209 // vpmulld %xmm9,%xmm1,%xmm2
- .byte 196,193,121,126,209 // vmovd %xmm2,%r9d
- .byte 196,195,121,22,208,1 // vpextrd $0x1,%xmm2,%r8d
- .byte 196,195,121,22,210,2 // vpextrd $0x2,%xmm2,%r10d
- .byte 196,195,121,22,211,3 // vpextrd $0x3,%xmm2,%r11d
- .byte 196,65,121,126,247 // vmovd %xmm14,%r15d
- .byte 196,67,121,22,246,1 // vpextrd $0x1,%xmm14,%r14d
- .byte 196,67,121,22,244,2 // vpextrd $0x2,%xmm14,%r12d
- .byte 196,99,121,22,243,3 // vpextrd $0x3,%xmm14,%ebx
- .byte 196,161,122,16,12,184 // vmovss (%rax,%r15,4),%xmm1
- .byte 196,163,113,33,12,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm1,%xmm1
- .byte 196,163,113,33,12,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm1,%xmm1
- .byte 196,227,113,33,12,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm1,%xmm1
- .byte 196,161,122,16,28,136 // vmovss (%rax,%r9,4),%xmm3
- .byte 196,163,97,33,28,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- .byte 196,163,97,33,28,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- .byte 196,227,101,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm3,%ymm1
- .byte 197,217,118,228 // vpcmpeqd %xmm4,%xmm4,%xmm4
- .byte 197,233,250,220 // vpsubd %xmm4,%xmm2,%xmm3
- .byte 196,195,249,22,216,1 // vpextrq $0x1,%xmm3,%r8
- .byte 196,193,249,126,217 // vmovq %xmm3,%r9
- .byte 197,137,250,220 // vpsubd %xmm4,%xmm14,%xmm3
- .byte 197,201,118,246 // vpcmpeqd %xmm6,%xmm6,%xmm6
- .byte 196,195,249,22,218,1 // vpextrq $0x1,%xmm3,%r10
- .byte 196,225,249,126,219 // vmovq %xmm3,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,28,152 // vmovss (%rax,%r11,4),%xmm3
- .byte 196,227,97,33,28,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- .byte 196,161,122,16,44,176 // vmovss (%rax,%r14,4),%xmm5
- .byte 196,227,97,33,221,32 // vinsertps $0x20,%xmm5,%xmm3,%xmm3
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,44,144 // vmovss (%rax,%r10,4),%xmm5
- .byte 196,227,97,33,221,48 // vinsertps $0x30,%xmm5,%xmm3,%xmm3
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,44,152 // vmovss (%rax,%rbx,4),%xmm5
- .byte 196,163,81,33,44,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm5,%xmm5
- .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4
- .byte 196,227,81,33,228,32 // vinsertps $0x20,%xmm4,%xmm5,%xmm4
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,44,128 // vmovss (%rax,%r8,4),%xmm5
- .byte 196,227,89,33,229,48 // vinsertps $0x30,%xmm5,%xmm4,%xmm4
- .byte 196,227,93,24,235,1 // vinsertf128 $0x1,%xmm3,%ymm4,%ymm5
- .byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
- .byte 196,195,249,22,208,1 // vpextrq $0x1,%xmm2,%r8
- .byte 196,193,249,126,209 // vmovq %xmm2,%r9
- .byte 196,193,9,254,210 // vpaddd %xmm10,%xmm14,%xmm2
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 196,225,249,126,211 // vmovq %xmm2,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,20,152 // vmovss (%rax,%r11,4),%xmm2
- .byte 196,227,105,33,20,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3
- .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3
- .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4
- .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,36,128 // vmovss (%rax,%r8,4),%xmm4
- .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3
- .byte 196,99,101,24,242,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm14
- .byte 197,185,254,192 // vpaddd %xmm0,%xmm8,%xmm0
- .byte 197,193,254,84,36,176 // vpaddd -0x50(%rsp),%xmm7,%xmm2
- .byte 196,194,105,64,209 // vpmulld %xmm9,%xmm2,%xmm2
- .byte 196,194,121,64,217 // vpmulld %xmm9,%xmm0,%xmm3
- .byte 196,193,121,126,217 // vmovd %xmm3,%r9d
- .byte 196,195,121,22,216,1 // vpextrd $0x1,%xmm3,%r8d
- .byte 196,195,121,22,218,2 // vpextrd $0x2,%xmm3,%r10d
- .byte 196,195,121,22,219,3 // vpextrd $0x3,%xmm3,%r11d
- .byte 196,193,121,126,215 // vmovd %xmm2,%r15d
- .byte 196,195,121,22,214,1 // vpextrd $0x1,%xmm2,%r14d
- .byte 196,195,121,22,212,2 // vpextrd $0x2,%xmm2,%r12d
- .byte 196,227,121,22,211,3 // vpextrd $0x3,%xmm2,%ebx
- .byte 196,161,122,16,4,184 // vmovss (%rax,%r15,4),%xmm0
- .byte 196,163,121,33,4,176,16 // vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- .byte 196,163,121,33,4,160,32 // vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- .byte 196,227,121,33,4,152,48 // vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- .byte 196,161,122,16,36,136 // vmovss (%rax,%r9,4),%xmm4
- .byte 196,163,89,33,36,128,16 // vinsertps $0x10,(%rax,%r8,4),%xmm4,%xmm4
- .byte 196,163,89,33,36,144,32 // vinsertps $0x20,(%rax,%r10,4),%xmm4,%xmm4
- .byte 196,163,89,33,36,152,48 // vinsertps $0x30,(%rax,%r11,4),%xmm4,%xmm4
- .byte 196,227,93,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm4,%ymm0
- .byte 197,225,250,230 // vpsubd %xmm6,%xmm3,%xmm4
- .byte 196,195,249,22,224,1 // vpextrq $0x1,%xmm4,%r8
- .byte 196,193,249,126,225 // vmovq %xmm4,%r9
- .byte 197,233,250,230 // vpsubd %xmm6,%xmm2,%xmm4
- .byte 196,195,249,22,226,1 // vpextrq $0x1,%xmm4,%r10
- .byte 196,225,249,126,227 // vmovq %xmm4,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,36,152 // vmovss (%rax,%r11,4),%xmm4
- .byte 196,227,89,33,36,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm4,%xmm4
- .byte 196,161,122,16,60,176 // vmovss (%rax,%r14,4),%xmm7
- .byte 196,227,89,33,231,32 // vinsertps $0x20,%xmm7,%xmm4,%xmm4
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,60,144 // vmovss (%rax,%r10,4),%xmm7
- .byte 196,227,89,33,231,48 // vinsertps $0x30,%xmm7,%xmm4,%xmm4
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,60,152 // vmovss (%rax,%rbx,4),%xmm7
- .byte 196,163,65,33,60,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7
- .byte 196,161,122,16,52,144 // vmovss (%rax,%r10,4),%xmm6
- .byte 196,227,65,33,246,32 // vinsertps $0x20,%xmm6,%xmm7,%xmm6
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,60,128 // vmovss (%rax,%r8,4),%xmm7
- .byte 196,227,73,33,247,48 // vinsertps $0x30,%xmm7,%xmm6,%xmm6
- .byte 196,227,77,24,252,1 // vinsertf128 $0x1,%xmm4,%ymm6,%ymm7
- .byte 196,193,97,254,218 // vpaddd %xmm10,%xmm3,%xmm3
- .byte 196,195,249,22,216,1 // vpextrq $0x1,%xmm3,%r8
- .byte 196,193,249,126,217 // vmovq %xmm3,%r9
- .byte 196,193,105,254,210 // vpaddd %xmm10,%xmm2,%xmm2
- .byte 196,195,249,22,210,1 // vpextrq $0x1,%xmm2,%r10
- .byte 196,225,249,126,211 // vmovq %xmm2,%rbx
- .byte 65,137,219 // mov %ebx,%r11d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 196,161,122,16,20,152 // vmovss (%rax,%r11,4),%xmm2
- .byte 196,227,105,33,20,152,16 // vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- .byte 196,161,122,16,28,176 // vmovss (%rax,%r14,4),%xmm3
- .byte 196,227,105,33,211,32 // vinsertps $0x20,%xmm3,%xmm2,%xmm2
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,161,122,16,28,144 // vmovss (%rax,%r10,4),%xmm3
- .byte 196,227,105,33,211,48 // vinsertps $0x30,%xmm3,%xmm2,%xmm2
- .byte 68,137,203 // mov %r9d,%ebx
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,194 // mov %r8d,%r10d
- .byte 197,250,16,28,152 // vmovss (%rax,%rbx,4),%xmm3
- .byte 196,163,97,33,28,136,16 // vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- .byte 196,161,122,16,36,144 // vmovss (%rax,%r10,4),%xmm4
- .byte 196,227,97,33,220,32 // vinsertps $0x20,%xmm4,%xmm3,%xmm3
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 196,161,122,16,36,128 // vmovss (%rax,%r8,4),%xmm4
- .byte 196,227,97,33,220,48 // vinsertps $0x30,%xmm4,%xmm3,%xmm3
- .byte 196,227,101,24,210,1 // vinsertf128 $0x1,%xmm2,%ymm3,%ymm2
- .byte 197,252,92,193 // vsubps %ymm1,%ymm0,%ymm0
- .byte 197,156,89,192 // vmulps %ymm0,%ymm12,%ymm0
- .byte 197,244,88,192 // vaddps %ymm0,%ymm1,%ymm0
- .byte 197,196,92,205 // vsubps %ymm5,%ymm7,%ymm1
- .byte 197,156,89,201 // vmulps %ymm1,%ymm12,%ymm1
- .byte 197,212,88,201 // vaddps %ymm1,%ymm5,%ymm1
- .byte 196,193,108,92,214 // vsubps %ymm14,%ymm2,%ymm2
- .byte 197,156,89,210 // vmulps %ymm2,%ymm12,%ymm2
- .byte 197,140,88,210 // vaddps %ymm2,%ymm14,%ymm2
- .byte 197,252,16,164,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm4
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 197,252,16,156,36,192,0,0,0 // vmovups 0xc0(%rsp),%ymm3
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
- .byte 196,193,116,92,207 // vsubps %ymm15,%ymm1,%ymm1
- .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1
- .byte 197,132,88,201 // vaddps %ymm1,%ymm15,%ymm1
- .byte 196,193,108,92,211 // vsubps %ymm11,%ymm2,%ymm2
- .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
- .byte 197,164,88,210 // vaddps %ymm2,%ymm11,%ymm2
- .byte 197,252,16,36,36 // vmovups (%rsp),%ymm4
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 197,252,16,92,36,96 // vmovups 0x60(%rsp),%ymm3
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
- .byte 197,252,16,164,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm4
- .byte 197,244,92,204 // vsubps %ymm4,%ymm1,%ymm1
- .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1
- .byte 197,220,88,201 // vaddps %ymm1,%ymm4,%ymm1
- .byte 197,252,16,164,36,96,1,0,0 // vmovups 0x160(%rsp),%ymm4
- .byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2
- .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
- .byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
- .byte 197,252,91,156,36,192,1,0,0 // vcvtdq2ps 0x1c0(%rsp),%ymm3
- .byte 197,252,16,164,36,224,1,0,0 // vmovups 0x1e0(%rsp),%ymm4
- .byte 197,220,92,219 // vsubps %ymm3,%ymm4,%ymm3
- .byte 197,252,16,164,36,0,1,0,0 // vmovups 0x100(%rsp),%ymm4
- .byte 197,252,92,196 // vsubps %ymm4,%ymm0,%ymm0
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 197,220,88,192 // vaddps %ymm0,%ymm4,%ymm0
- .byte 197,252,16,164,36,64,1,0,0 // vmovups 0x140(%rsp),%ymm4
- .byte 197,244,92,204 // vsubps %ymm4,%ymm1,%ymm1
- .byte 197,228,89,201 // vmulps %ymm1,%ymm3,%ymm1
- .byte 197,220,88,201 // vaddps %ymm1,%ymm4,%ymm1
- .byte 197,252,16,164,36,128,0,0,0 // vmovups 0x80(%rsp),%ymm4
- .byte 197,236,92,212 // vsubps %ymm4,%ymm2,%ymm2
- .byte 197,228,89,210 // vmulps %ymm2,%ymm3,%ymm2
- .byte 197,220,88,210 // vaddps %ymm2,%ymm4,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,136,252,1,0 // vbroadcastss 0x1fc88(%rip),%ymm3 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,16,164,36,64,2,0,0 // vmovups 0x240(%rsp),%ymm4
- .byte 197,252,16,172,36,96,2,0,0 // vmovups 0x260(%rsp),%ymm5
- .byte 197,252,16,180,36,128,2,0,0 // vmovups 0x280(%rsp),%ymm6
- .byte 197,252,16,188,36,160,2,0,0 // vmovups 0x2a0(%rsp),%ymm7
- .byte 72,129,196,216,2,0,0 // add $0x2d8,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gauss_a_to_rgba_avx
-.globl _sk_gauss_a_to_rgba_avx
-FUNCTION(_sk_gauss_a_to_rgba_avx)
-_sk_gauss_a_to_rgba_avx:
- .byte 196,226,125,24,5,191,253,1,0 // vbroadcastss 0x1fdbf(%rip),%ymm0 # 3c670 <_sk_srcover_bgra_8888_sse2_lowp+0x424>
- .byte 197,228,89,192 // vmulps %ymm0,%ymm3,%ymm0
- .byte 196,226,125,24,13,182,253,1,0 // vbroadcastss 0x1fdb6(%rip),%ymm1 # 3c674 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
- .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,169,253,1,0 // vbroadcastss 0x1fda9(%rip),%ymm1 # 3c678 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
- .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,156,253,1,0 // vbroadcastss 0x1fd9c(%rip),%ymm1 # 3c67c <_sk_srcover_bgra_8888_sse2_lowp+0x430>
- .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 197,252,89,195 // vmulps %ymm3,%ymm0,%ymm0
- .byte 196,226,125,24,13,143,253,1,0 // vbroadcastss 0x1fd8f(%rip),%ymm1 # 3c680 <_sk_srcover_bgra_8888_sse2_lowp+0x434>
- .byte 197,252,88,193 // vaddps %ymm1,%ymm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 197,252,40,208 // vmovaps %ymm0,%ymm2
- .byte 197,252,40,216 // vmovaps %ymm0,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilerp_clamp_8888_avx
-.globl _sk_bilerp_clamp_8888_avx
-FUNCTION(_sk_bilerp_clamp_8888_avx)
-_sk_bilerp_clamp_8888_avx:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,129,236,120,1,0,0 // sub $0x178,%rsp
- .byte 197,254,127,124,36,32 // vmovdqu %ymm7,0x20(%rsp)
- .byte 197,252,17,52,36 // vmovups %ymm6,(%rsp)
- .byte 197,252,17,108,36,224 // vmovups %ymm5,-0x20(%rsp)
- .byte 197,252,17,100,36,192 // vmovups %ymm4,-0x40(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,29,195,251,1,0 // vbroadcastss 0x1fbc3(%rip),%ymm3 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,252,17,132,36,64,1,0,0 // vmovups %ymm0,0x140(%rsp)
- .byte 197,252,88,195 // vaddps %ymm3,%ymm0,%ymm0
- .byte 196,227,125,8,208,1 // vroundps $0x1,%ymm0,%ymm2
- .byte 197,252,92,194 // vsubps %ymm2,%ymm0,%ymm0
- .byte 197,252,17,140,36,192,0,0,0 // vmovups %ymm1,0xc0(%rsp)
- .byte 197,244,88,203 // vaddps %ymm3,%ymm1,%ymm1
- .byte 196,227,125,8,209,1 // vroundps $0x1,%ymm1,%ymm2
- .byte 197,244,92,210 // vsubps %ymm2,%ymm1,%ymm2
- .byte 196,226,125,24,13,144,251,1,0 // vbroadcastss 0x1fb90(%rip),%ymm1 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,252,17,132,36,32,1,0,0 // vmovups %ymm0,0x120(%rsp)
- .byte 197,244,92,192 // vsubps %ymm0,%ymm1,%ymm0
- .byte 197,252,17,132,36,224,0,0,0 // vmovups %ymm0,0xe0(%rsp)
- .byte 197,252,17,148,36,160,0,0,0 // vmovups %ymm2,0xa0(%rsp)
- .byte 197,244,92,194 // vsubps %ymm2,%ymm1,%ymm0
- .byte 197,252,17,68,36,64 // vmovups %ymm0,0x40(%rsp)
- .byte 196,226,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm1
- .byte 196,227,125,25,202,1 // vextractf128 $0x1,%ymm1,%xmm2
- .byte 197,225,118,219 // vpcmpeqd %xmm3,%xmm3,%xmm3
- .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2
- .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
- .byte 196,227,117,24,194,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm0
- .byte 197,252,17,132,36,0,1,0,0 // vmovups %ymm0,0x100(%rsp)
- .byte 196,226,125,24,72,16 // vbroadcastss 0x10(%rax),%ymm1
- .byte 196,227,125,25,202,1 // vextractf128 $0x1,%ymm1,%xmm2
- .byte 197,233,254,211 // vpaddd %xmm3,%xmm2,%xmm2
- .byte 197,241,254,203 // vpaddd %xmm3,%xmm1,%xmm1
- .byte 196,227,117,24,194,1 // vinsertf128 $0x1,%xmm2,%ymm1,%ymm0
- .byte 197,252,17,132,36,128,0,0,0 // vmovups %ymm0,0x80(%rsp)
- .byte 76,139,0 // mov (%rax),%r8
- .byte 196,226,125,24,64,8 // vbroadcastss 0x8(%rax),%ymm0
- .byte 197,252,17,68,36,96 // vmovups %ymm0,0x60(%rsp)
- .byte 197,250,16,5,90,252,1,0 // vmovss 0x1fc5a(%rip),%xmm0 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 197,124,40,53,2,2,2,0 // vmovaps 0x20202(%rip),%ymm14 # 3cc00 <_sk_srcover_bgra_8888_sse2_lowp+0x9b4>
- .byte 196,98,125,24,45,109,251,1,0 // vbroadcastss 0x1fb6d(%rip),%ymm13 # 3c574 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,248,40,224 // vmovaps %xmm0,%xmm4
- .byte 196,227,121,4,204,0 // vpermilps $0x0,%xmm4,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- .byte 197,244,88,140,36,192,0,0,0 // vaddps 0xc0(%rsp),%ymm1,%ymm1
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,252,95,201 // vmaxps %ymm1,%ymm0,%ymm1
- .byte 197,248,41,100,36,144 // vmovaps %xmm4,-0x70(%rsp)
- .byte 197,248,46,37,68,252,1,0 // vucomiss 0x1fc44(%rip),%xmm4 # 3c68c <_sk_srcover_bgra_8888_sse2_lowp+0x440>
- .byte 197,252,16,132,36,160,0,0,0 // vmovups 0xa0(%rsp),%ymm0
- .byte 197,252,17,68,36,160 // vmovups %ymm0,-0x60(%rsp)
- .byte 119,12 // ja 1ca65 <_sk_bilerp_clamp_8888_avx+0x160>
- .byte 197,252,16,68,36,64 // vmovups 0x40(%rsp),%ymm0
- .byte 197,252,17,68,36,160 // vmovups %ymm0,-0x60(%rsp)
- .byte 197,244,93,140,36,128,0,0,0 // vminps 0x80(%rsp),%ymm1,%ymm1
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,227,125,25,205,1 // vextractf128 $0x1,%ymm1,%xmm5
- .byte 197,254,111,68,36,96 // vmovdqu 0x60(%rsp),%ymm0
- .byte 196,227,125,25,198,1 // vextractf128 $0x1,%ymm0,%xmm6
- .byte 196,226,73,64,237 // vpmulld %xmm5,%xmm6,%xmm5
- .byte 196,226,121,64,201 // vpmulld %xmm1,%xmm0,%xmm1
- .byte 196,99,117,24,253,1 // vinsertf128 $0x1,%xmm5,%ymm1,%ymm15
- .byte 197,122,16,37,180,251,1,0 // vmovss 0x1fbb4(%rip),%xmm12 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 196,195,121,4,204,0 // vpermilps $0x0,%xmm12,%xmm1
- .byte 196,227,117,24,201,1 // vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- .byte 197,244,88,140,36,64,1,0,0 // vaddps 0x140(%rsp),%ymm1,%ymm1
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,252,95,201 // vmaxps %ymm1,%ymm0,%ymm1
- .byte 197,244,93,140,36,0,1,0,0 // vminps 0x100(%rsp),%ymm1,%ymm1
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 196,227,125,25,205,1 // vextractf128 $0x1,%ymm1,%xmm5
- .byte 196,99,125,25,254,1 // vextractf128 $0x1,%ymm15,%xmm6
- .byte 197,201,254,237 // vpaddd %xmm5,%xmm6,%xmm5
- .byte 196,227,249,22,232,1 // vpextrq $0x1,%xmm5,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 196,193,249,126,234 // vmovq %xmm5,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 197,129,254,201 // vpaddd %xmm1,%xmm15,%xmm1
- .byte 196,227,249,22,203,1 // vpextrq $0x1,%xmm1,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 196,193,249,126,207 // vmovq %xmm1,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 196,129,121,110,12,160 // vmovd (%r8,%r12,4),%xmm1
- .byte 196,131,113,34,12,184,1 // vpinsrd $0x1,(%r8,%r15,4),%xmm1,%xmm1
- .byte 196,131,113,34,12,176,2 // vpinsrd $0x2,(%r8,%r14,4),%xmm1,%xmm1
- .byte 196,195,113,34,12,152,3 // vpinsrd $0x3,(%r8,%rbx,4),%xmm1,%xmm1
- .byte 196,129,121,110,44,152 // vmovd (%r8,%r11,4),%xmm5
- .byte 196,131,81,34,44,144,1 // vpinsrd $0x1,(%r8,%r10,4),%xmm5,%xmm5
- .byte 196,131,81,34,44,136,2 // vpinsrd $0x2,(%r8,%r9,4),%xmm5,%xmm5
- .byte 196,195,81,34,4,128,3 // vpinsrd $0x3,(%r8,%rax,4),%xmm5,%xmm0
- .byte 196,227,117,24,232,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm5
- .byte 196,193,84,84,238 // vandps %ymm14,%ymm5,%ymm5
- .byte 197,252,91,237 // vcvtdq2ps %ymm5,%ymm5
- .byte 196,193,84,89,245 // vmulps %ymm13,%ymm5,%ymm6
- .byte 197,209,114,209,8 // vpsrld $0x8,%xmm1,%xmm5
- .byte 197,217,114,208,8 // vpsrld $0x8,%xmm0,%xmm4
- .byte 196,227,85,24,228,1 // vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 196,193,92,84,230 // vandps %ymm14,%ymm4,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,193,92,89,237 // vmulps %ymm13,%ymm4,%ymm5
- .byte 197,217,114,209,16 // vpsrld $0x10,%xmm1,%xmm4
- .byte 197,193,114,208,16 // vpsrld $0x10,%xmm0,%xmm7
- .byte 196,227,93,24,231,1 // vinsertf128 $0x1,%xmm7,%ymm4,%ymm4
- .byte 196,193,92,84,230 // vandps %ymm14,%ymm4,%ymm4
- .byte 197,252,91,228 // vcvtdq2ps %ymm4,%ymm4
- .byte 196,65,92,89,221 // vmulps %ymm13,%ymm4,%ymm11
- .byte 197,241,114,209,24 // vpsrld $0x18,%xmm1,%xmm1
- .byte 197,249,114,208,24 // vpsrld $0x18,%xmm0,%xmm0
- .byte 196,227,117,24,192,1 // vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 196,193,124,89,205 // vmulps %ymm13,%ymm0,%ymm1
- .byte 197,120,46,37,217,250,1,0 // vucomiss 0x1fad9(%rip),%xmm12 # 3c68c <_sk_srcover_bgra_8888_sse2_lowp+0x440>
- .byte 197,124,16,148,36,32,1,0,0 // vmovups 0x120(%rsp),%ymm10
- .byte 119,9 // ja 1cbc7 <_sk_bilerp_clamp_8888_avx+0x2c2>
- .byte 197,124,16,148,36,224,0,0,0 // vmovups 0xe0(%rsp),%ymm10
- .byte 197,172,89,68,36,160 // vmulps -0x60(%rsp),%ymm10,%ymm0
- .byte 197,252,89,230 // vmulps %ymm6,%ymm0,%ymm4
- .byte 197,52,88,204 // vaddps %ymm4,%ymm9,%ymm9
- .byte 197,252,89,229 // vmulps %ymm5,%ymm0,%ymm4
- .byte 197,60,88,196 // vaddps %ymm4,%ymm8,%ymm8
- .byte 196,193,124,89,227 // vmulps %ymm11,%ymm0,%ymm4
- .byte 197,236,88,212 // vaddps %ymm4,%ymm2,%ymm2
- .byte 197,252,89,193 // vmulps %ymm1,%ymm0,%ymm0
- .byte 197,228,88,216 // vaddps %ymm0,%ymm3,%ymm3
- .byte 197,26,88,37,6,249,1,0 // vaddss 0x1f906(%rip),%xmm12,%xmm12 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,250,16,5,250,248,1,0 // vmovss 0x1f8fa(%rip),%xmm0 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,193,120,46,196 // vucomiss %xmm12,%xmm0
- .byte 15,131,147,254,255,255 // jae 1ca9c <_sk_bilerp_clamp_8888_avx+0x197>
- .byte 197,248,40,100,36,144 // vmovaps -0x70(%rsp),%xmm4
- .byte 197,218,88,37,229,248,1,0 // vaddss 0x1f8e5(%rip),%xmm4,%xmm4 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,250,16,5,217,248,1,0 // vmovss 0x1f8d9(%rip),%xmm0 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,248,46,196 // vucomiss %xmm4,%xmm0
- .byte 15,131,244,253,255,255 // jae 1ca1d <_sk_bilerp_clamp_8888_avx+0x118>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,200 // vmovaps %ymm9,%ymm0
- .byte 197,124,41,193 // vmovaps %ymm8,%ymm1
- .byte 197,252,16,100,36,192 // vmovups -0x40(%rsp),%ymm4
- .byte 197,252,16,108,36,224 // vmovups -0x20(%rsp),%ymm5
- .byte 197,252,16,52,36 // vmovups (%rsp),%ymm6
- .byte 197,252,16,124,36,32 // vmovups 0x20(%rsp),%ymm7
- .byte 72,129,196,120,1,0,0 // add $0x178,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_start_pipeline_sse41
-.globl _sk_start_pipeline_sse41
-FUNCTION(_sk_start_pipeline_sse41)
-_sk_start_pipeline_sse41:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 73,137,215 // mov %rdx,%r15
- .byte 72,137,243 // mov %rsi,%rbx
- .byte 72,137,125,208 // mov %rdi,-0x30(%rbp)
- .byte 76,137,198 // mov %r8,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 73,137,197 // mov %rax,%r13
- .byte 73,137,246 // mov %rsi,%r14
- .byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
- .byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 1cd10 <_sk_start_pipeline_sse41+0xb6>
- .byte 72,139,69,208 // mov -0x30(%rbp),%rax
- .byte 72,141,64,4 // lea 0x4(%rax),%rax
- .byte 72,137,69,200 // mov %rax,-0x38(%rbp)
- .byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 1ccde <_sk_start_pipeline_sse41+0x84>
- .byte 76,139,101,208 // mov -0x30(%rbp),%r12
- .byte 49,255 // xor %edi,%edi
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 76,137,226 // mov %r12,%rdx
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 73,141,84,36,4 // lea 0x4(%r12),%rdx
- .byte 73,131,196,8 // add $0x8,%r12
- .byte 77,57,252 // cmp %r15,%r12
- .byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 1cca7 <_sk_start_pipeline_sse41+0x4d>
- .byte 76,137,255 // mov %r15,%rdi
- .byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 1cd07 <_sk_start_pipeline_sse41+0xad>
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 72,255,195 // inc %rbx
- .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 1cc99 <_sk_start_pipeline_sse41+0x3f>
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 195 // retq
-
-HIDDEN _sk_just_return_sse41
-.globl _sk_just_return_sse41
-FUNCTION(_sk_just_return_sse41)
-_sk_just_return_sse41:
- .byte 195 // retq
-
-HIDDEN _sk_seed_shader_sse41
-.globl _sk_seed_shader_sse41
-FUNCTION(_sk_seed_shader_sse41)
-_sk_seed_shader_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,110,194 // movd %edx,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 102,15,110,201 // movd %ecx,%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,185,1,2,0 // addps 0x201b9(%rip),%xmm1 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,192,1,2,0 // movaps 0x201c0(%rip),%xmm2 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dither_sse41
-.globl _sk_dither_sse41
-FUNCTION(_sk_dither_sse41)
-_sk_dither_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,68,15,110,194 // movd %edx,%xmm8
- .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,105,1,2,0 // paddd 0x20169(%rip),%xmm8 # 3cee0 <_sk_srcover_bgra_8888_sse2_lowp+0xc94>
- .byte 102,68,15,110,201 // movd %ecx,%xmm9
- .byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
- .byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,144,1,2,0 // movdqa 0x20190(%rip),%xmm10 # 3cf20 <_sk_srcover_bgra_8888_sse2_lowp+0xcd4>
- .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
- .byte 102,69,15,219,218 // pand %xmm10,%xmm11
- .byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
- .byte 102,69,15,219,208 // pand %xmm8,%xmm10
- .byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,124,1,2,0 // movdqa 0x2017c(%rip),%xmm12 # 3cf30 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
- .byte 102,68,15,111,45,131,1,2,0 // movdqa 0x20183(%rip),%xmm13 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
- .byte 102,69,15,219,245 // pand %xmm13,%xmm14
- .byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
- .byte 102,69,15,235,243 // por %xmm11,%xmm14
- .byte 102,69,15,219,232 // pand %xmm8,%xmm13
- .byte 102,69,15,254,237 // paddd %xmm13,%xmm13
- .byte 102,69,15,235,234 // por %xmm10,%xmm13
- .byte 102,69,15,219,204 // pand %xmm12,%xmm9
- .byte 102,65,15,114,209,1 // psrld $0x1,%xmm9
- .byte 102,69,15,219,196 // pand %xmm12,%xmm8
- .byte 102,65,15,114,208,2 // psrld $0x2,%xmm8
- .byte 102,69,15,235,197 // por %xmm13,%xmm8
- .byte 102,69,15,235,198 // por %xmm14,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,62,1,2,0 // mulps 0x2013e(%rip),%xmm8 # 3cf50 <_sk_srcover_bgra_8888_sse2_lowp+0xd04>
- .byte 68,15,88,5,70,1,2,0 // addps 0x20146(%rip),%xmm8 # 3cf60 <_sk_srcover_bgra_8888_sse2_lowp+0xd14>
- .byte 243,68,15,16,16 // movss (%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,88,210 // addps %xmm2,%xmm10
- .byte 15,93,195 // minps %xmm3,%xmm0
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 15,93,203 // minps %xmm3,%xmm1
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 68,15,95,201 // maxps %xmm1,%xmm9
- .byte 68,15,93,211 // minps %xmm3,%xmm10
- .byte 65,15,95,210 // maxps %xmm10,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_uniform_color_sse41
-.globl _sk_uniform_color_sse41
-FUNCTION(_sk_uniform_color_sse41)
-_sk_uniform_color_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_black_color_sse41
-.globl _sk_black_color_sse41
-FUNCTION(_sk_black_color_sse41)
-_sk_black_color_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,124,0,2,0 // movaps 0x2007c(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_white_color_sse41
-.globl _sk_white_color_sse41
-FUNCTION(_sk_white_color_sse41)
-_sk_white_color_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,104,0,2,0 // movaps 0x20068(%rip),%xmm0 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_rgba_sse41
-.globl _sk_load_rgba_sse41
-FUNCTION(_sk_load_rgba_sse41)
-_sk_load_rgba_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 15,16,72,16 // movups 0x10(%rax),%xmm1
- .byte 15,16,80,32 // movups 0x20(%rax),%xmm2
- .byte 15,16,88,48 // movups 0x30(%rax),%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_rgba_sse41
-.globl _sk_store_rgba_sse41
-FUNCTION(_sk_store_rgba_sse41)
-_sk_store_rgba_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,17,0 // movups %xmm0,(%rax)
- .byte 15,17,72,16 // movups %xmm1,0x10(%rax)
- .byte 15,17,80,32 // movups %xmm2,0x20(%rax)
- .byte 15,17,88,48 // movups %xmm3,0x30(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clear_sse41
-.globl _sk_clear_sse41
-FUNCTION(_sk_clear_sse41)
-_sk_clear_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcatop_sse41
-.globl _sk_srcatop_sse41
-FUNCTION(_sk_srcatop_sse41)
-_sk_srcatop_sse41:
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,24,0,2,0 // movaps 0x20018(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,204 // mulps %xmm4,%xmm9
- .byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 65,15,88,201 // addps %xmm9,%xmm1
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 65,15,88,216 // addps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstatop_sse41
-.globl _sk_dstatop_sse41
-FUNCTION(_sk_dstatop_sse41)
-_sk_dstatop_sse41:
- .byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,203,255,1,0 // movaps 0x1ffcb(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,207 // subps %xmm7,%xmm9
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 68,15,89,197 // mulps %xmm5,%xmm8
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 68,15,89,198 // mulps %xmm6,%xmm8
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 68,15,89,203 // mulps %xmm3,%xmm9
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 65,15,88,217 // addps %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcin_sse41
-.globl _sk_srcin_sse41
-FUNCTION(_sk_srcin_sse41)
-_sk_srcin_sse41:
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstin_sse41
-.globl _sk_dstin_sse41
-FUNCTION(_sk_dstin_sse41)
-_sk_dstin_sse41:
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcout_sse41
-.globl _sk_srcout_sse41
-FUNCTION(_sk_srcout_sse41)
-_sk_srcout_sse41:
- .byte 68,15,40,5,95,255,1,0 // movaps 0x1ff5f(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,199 // subps %xmm7,%xmm8
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstout_sse41
-.globl _sk_dstout_sse41
-FUNCTION(_sk_dstout_sse41)
-_sk_dstout_sse41:
- .byte 68,15,40,5,63,255,1,0 // movaps 0x1ff3f(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,216 // movaps %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_sse41
-.globl _sk_srcover_sse41
-FUNCTION(_sk_srcover_sse41)
-_sk_srcover_sse41:
- .byte 68,15,40,5,18,255,1,0 // movaps 0x1ff12(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,204 // mulps %xmm4,%xmm9
- .byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 65,15,88,201 // addps %xmm9,%xmm1
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 65,15,88,216 // addps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstover_sse41
-.globl _sk_dstover_sse41
-FUNCTION(_sk_dstover_sse41)
-_sk_dstover_sse41:
- .byte 68,15,40,5,214,254,1,0 // movaps 0x1fed6(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,199 // subps %xmm7,%xmm8
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_modulate_sse41
-.globl _sk_modulate_sse41
-FUNCTION(_sk_modulate_sse41)
-_sk_modulate_sse41:
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_multiply_sse41
-.globl _sk_multiply_sse41
-FUNCTION(_sk_multiply_sse41)
-_sk_multiply_sse41:
- .byte 68,15,40,5,154,254,1,0 // movaps 0x1fe9a(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,92,207 // subps %xmm7,%xmm9
- .byte 69,15,40,209 // movaps %xmm9,%xmm10
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,89,220 // mulps %xmm4,%xmm11
- .byte 69,15,88,218 // addps %xmm10,%xmm11
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 65,15,88,195 // addps %xmm11,%xmm0
- .byte 69,15,40,209 // movaps %xmm9,%xmm10
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,89,221 // mulps %xmm5,%xmm11
- .byte 69,15,88,218 // addps %xmm10,%xmm11
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 65,15,88,203 // addps %xmm11,%xmm1
- .byte 69,15,40,209 // movaps %xmm9,%xmm10
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,89,222 // mulps %xmm6,%xmm11
- .byte 69,15,88,218 // addps %xmm10,%xmm11
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 65,15,88,211 // addps %xmm11,%xmm2
- .byte 68,15,89,203 // mulps %xmm3,%xmm9
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 69,15,88,193 // addps %xmm9,%xmm8
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 65,15,88,216 // addps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_plus__sse41
-.globl _sk_plus__sse41
-FUNCTION(_sk_plus__sse41)
-_sk_plus__sse41:
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,27,254,1,0 // movaps 0x1fe1b(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 65,15,93,208 // minps %xmm8,%xmm2
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 65,15,93,216 // minps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_screen_sse41
-.globl _sk_screen_sse41
-FUNCTION(_sk_screen_sse41)
-_sk_screen_sse41:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 68,15,88,197 // addps %xmm5,%xmm8
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 68,15,92,193 // subps %xmm1,%xmm8
- .byte 68,15,40,202 // movaps %xmm2,%xmm9
- .byte 68,15,88,206 // addps %xmm6,%xmm9
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 68,15,92,202 // subps %xmm2,%xmm9
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 68,15,88,215 // addps %xmm7,%xmm10
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 68,15,92,211 // subps %xmm3,%xmm10
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 65,15,40,218 // movaps %xmm10,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xor__sse41
-.globl _sk_xor__sse41
-FUNCTION(_sk_xor__sse41)
-_sk_xor__sse41:
- .byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,167,253,1,0 // movaps 0x1fda7(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,92,207 // subps %xmm7,%xmm9
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 65,15,92,216 // subps %xmm8,%xmm3
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 68,15,89,212 // mulps %xmm4,%xmm10
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 68,15,89,213 // mulps %xmm5,%xmm10
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 68,15,89,214 // mulps %xmm6,%xmm10
- .byte 65,15,88,210 // addps %xmm10,%xmm2
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 65,15,88,217 // addps %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_darken_sse41
-.globl _sk_darken_sse41
-FUNCTION(_sk_darken_sse41)
-_sk_darken_sse41:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,89,207 // mulps %xmm7,%xmm9
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,95,201 // maxps %xmm1,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 69,15,95,193 // maxps %xmm9,%xmm8
- .byte 65,15,92,200 // subps %xmm8,%xmm1
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 68,15,88,198 // addps %xmm6,%xmm8
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 65,15,95,209 // maxps %xmm9,%xmm2
- .byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,2,253,1,0 // movaps 0x1fd02(%rip),%xmm2 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lighten_sse41
-.globl _sk_lighten_sse41
-FUNCTION(_sk_lighten_sse41)
-_sk_lighten_sse41:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,89,207 // mulps %xmm7,%xmm9
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,93,201 // minps %xmm1,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 69,15,93,193 // minps %xmm9,%xmm8
- .byte 65,15,92,200 // subps %xmm8,%xmm1
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 68,15,88,198 // addps %xmm6,%xmm8
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 65,15,93,209 // minps %xmm9,%xmm2
- .byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,151,252,1,0 // movaps 0x1fc97(%rip),%xmm2 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_difference_sse41
-.globl _sk_difference_sse41
-FUNCTION(_sk_difference_sse41)
-_sk_difference_sse41:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,89,207 // mulps %xmm7,%xmm9
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,93,201 // minps %xmm1,%xmm9
- .byte 69,15,88,201 // addps %xmm9,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 69,15,93,193 // minps %xmm9,%xmm8
- .byte 69,15,88,192 // addps %xmm8,%xmm8
- .byte 65,15,92,200 // subps %xmm8,%xmm1
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 68,15,88,198 // addps %xmm6,%xmm8
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 65,15,93,209 // minps %xmm9,%xmm2
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,33,252,1,0 // movaps 0x1fc21(%rip),%xmm2 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_exclusion_sse41
-.globl _sk_exclusion_sse41
-FUNCTION(_sk_exclusion_sse41)
-_sk_exclusion_sse41:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 68,15,89,197 // mulps %xmm5,%xmm8
- .byte 69,15,88,192 // addps %xmm8,%xmm8
- .byte 65,15,92,200 // subps %xmm8,%xmm1
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 68,15,88,198 // addps %xmm6,%xmm8
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,209,251,1,0 // movaps 0x1fbd1(%rip),%xmm2 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_colorburn_sse41
-.globl _sk_colorburn_sse41
-FUNCTION(_sk_colorburn_sse41)
-_sk_colorburn_sse41:
- .byte 68,15,40,29,184,251,1,0 // movaps 0x1fbb8(%rip),%xmm11 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 68,15,92,231 // subps %xmm7,%xmm12
- .byte 69,15,40,204 // movaps %xmm12,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 68,15,40,199 // movaps %xmm7,%xmm8
- .byte 68,15,92,196 // subps %xmm4,%xmm8
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
- .byte 68,15,83,208 // rcpps %xmm0,%xmm10
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 69,15,93,234 // minps %xmm10,%xmm13
- .byte 68,15,40,199 // movaps %xmm7,%xmm8
- .byte 69,15,92,197 // subps %xmm13,%xmm8
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
- .byte 69,15,88,193 // addps %xmm9,%xmm8
- .byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 68,15,92,219 // subps %xmm3,%xmm11
- .byte 69,15,40,235 // movaps %xmm11,%xmm13
- .byte 68,15,89,236 // mulps %xmm4,%xmm13
- .byte 65,15,194,194,0 // cmpeqps %xmm10,%xmm0
- .byte 69,15,88,197 // addps %xmm13,%xmm8
- .byte 102,69,15,56,20,197 // blendvps %xmm0,%xmm13,%xmm8
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,194,199,0 // cmpeqps %xmm7,%xmm0
- .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
- .byte 69,15,40,236 // movaps %xmm12,%xmm13
- .byte 68,15,89,233 // mulps %xmm1,%xmm13
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 68,15,83,201 // rcpps %xmm1,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 65,15,93,193 // minps %xmm9,%xmm0
- .byte 68,15,40,207 // movaps %xmm7,%xmm9
- .byte 68,15,92,200 // subps %xmm0,%xmm9
- .byte 69,15,40,243 // movaps %xmm11,%xmm14
- .byte 68,15,89,245 // mulps %xmm5,%xmm14
- .byte 65,15,194,202,0 // cmpeqps %xmm10,%xmm1
- .byte 68,15,89,203 // mulps %xmm3,%xmm9
- .byte 69,15,88,205 // addps %xmm13,%xmm9
- .byte 69,15,88,206 // addps %xmm14,%xmm9
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 102,69,15,56,20,206 // blendvps %xmm0,%xmm14,%xmm9
- .byte 68,15,88,237 // addps %xmm5,%xmm13
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,194,199,0 // cmpeqps %xmm7,%xmm0
- .byte 102,69,15,56,20,205 // blendvps %xmm0,%xmm13,%xmm9
- .byte 68,15,89,226 // mulps %xmm2,%xmm12
- .byte 68,15,194,210,0 // cmpeqps %xmm2,%xmm10
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,83,202 // rcpps %xmm2,%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,93,193 // minps %xmm1,%xmm0
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,92,208 // subps %xmm0,%xmm2
- .byte 65,15,40,203 // movaps %xmm11,%xmm1
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 102,15,56,20,209 // blendvps %xmm0,%xmm1,%xmm2
- .byte 68,15,88,230 // addps %xmm6,%xmm12
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,194,199,0 // cmpeqps %xmm7,%xmm0
- .byte 102,65,15,56,20,212 // blendvps %xmm0,%xmm12,%xmm2
- .byte 68,15,89,223 // mulps %xmm7,%xmm11
- .byte 65,15,88,219 // addps %xmm11,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_colordodge_sse41
-.globl _sk_colordodge_sse41
-FUNCTION(_sk_colordodge_sse41)
-_sk_colordodge_sse41:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,21,130,250,1,0 // movaps 0x1fa82(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,218 // movaps %xmm10,%xmm11
- .byte 68,15,92,223 // subps %xmm7,%xmm11
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 69,15,89,224 // mulps %xmm8,%xmm12
- .byte 68,15,40,235 // movaps %xmm3,%xmm13
- .byte 68,15,89,236 // mulps %xmm4,%xmm13
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 68,15,83,200 // rcpps %xmm0,%xmm9
- .byte 69,15,89,205 // mulps %xmm13,%xmm9
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 68,15,40,247 // movaps %xmm7,%xmm14
- .byte 69,15,93,241 // minps %xmm9,%xmm14
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,194,195,0 // cmpeqps %xmm3,%xmm0
- .byte 68,15,89,243 // mulps %xmm3,%xmm14
- .byte 69,15,88,244 // addps %xmm12,%xmm14
- .byte 102,69,15,56,20,240 // blendvps %xmm0,%xmm8,%xmm14
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,92,211 // subps %xmm3,%xmm10
- .byte 69,15,40,194 // movaps %xmm10,%xmm8
- .byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
- .byte 102,69,15,56,20,196 // blendvps %xmm0,%xmm12,%xmm8
- .byte 68,15,40,227 // movaps %xmm3,%xmm12
- .byte 68,15,89,229 // mulps %xmm5,%xmm12
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,83,192 // rcpps %xmm0,%xmm0
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 68,15,93,232 // minps %xmm0,%xmm13
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,194,195,0 // cmpeqps %xmm3,%xmm0
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 69,15,88,236 // addps %xmm12,%xmm13
- .byte 102,68,15,56,20,233 // blendvps %xmm0,%xmm1,%xmm13
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 65,15,88,205 // addps %xmm13,%xmm1
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
- .byte 102,65,15,56,20,204 // blendvps %xmm0,%xmm12,%xmm1
- .byte 68,15,40,227 // movaps %xmm3,%xmm12
- .byte 68,15,89,230 // mulps %xmm6,%xmm12
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,83,192 // rcpps %xmm0,%xmm0
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 68,15,93,224 // minps %xmm0,%xmm12
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,194,195,0 // cmpeqps %xmm3,%xmm0
- .byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 69,15,88,227 // addps %xmm11,%xmm12
- .byte 102,68,15,56,20,226 // blendvps %xmm0,%xmm2,%xmm12
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 68,15,194,206,0 // cmpeqps %xmm6,%xmm9
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 68,15,89,215 // mulps %xmm7,%xmm10
- .byte 65,15,88,218 // addps %xmm10,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hardlight_sse41
-.globl _sk_hardlight_sse41
-FUNCTION(_sk_hardlight_sse41)
-_sk_hardlight_sse41:
- .byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
- .byte 68,15,40,229 // movaps %xmm5,%xmm12
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,77,249,1,0 // movaps 0x1f94d(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,40,234 // movaps %xmm10,%xmm5
- .byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 68,15,92,212 // subps %xmm4,%xmm10
- .byte 69,15,40,194 // movaps %xmm10,%xmm8
- .byte 68,15,89,198 // mulps %xmm6,%xmm8
- .byte 68,15,88,192 // addps %xmm0,%xmm8
- .byte 68,15,40,252 // movaps %xmm4,%xmm15
- .byte 69,15,92,249 // subps %xmm9,%xmm15
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 68,15,40,247 // movaps %xmm7,%xmm14
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 65,15,89,199 // mulps %xmm15,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 68,15,40,251 // movaps %xmm3,%xmm15
- .byte 68,15,92,248 // subps %xmm0,%xmm15
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,194,196,2 // cmpleps %xmm4,%xmm0
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 69,15,88,201 // addps %xmm9,%xmm9
- .byte 102,69,15,56,20,249 // blendvps %xmm0,%xmm9,%xmm15
- .byte 68,15,40,221 // movaps %xmm5,%xmm11
- .byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 69,15,40,204 // movaps %xmm12,%xmm9
- .byte 69,15,92,233 // subps %xmm9,%xmm13
- .byte 68,15,89,232 // mulps %xmm0,%xmm13
- .byte 69,15,88,237 // addps %xmm13,%xmm13
- .byte 68,15,40,227 // movaps %xmm3,%xmm12
- .byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,194,196,2 // cmpleps %xmm4,%xmm0
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 69,15,40,233 // movaps %xmm9,%xmm13
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 102,68,15,56,20,225 // blendvps %xmm0,%xmm1,%xmm12
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 69,15,40,202 // movaps %xmm10,%xmm9
- .byte 68,15,89,215 // mulps %xmm7,%xmm10
- .byte 69,15,88,199 // addps %xmm15,%xmm8
- .byte 65,15,89,205 // mulps %xmm13,%xmm1
- .byte 65,15,88,203 // addps %xmm11,%xmm1
- .byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 15,89,234 // mulps %xmm2,%xmm5
- .byte 68,15,40,92,36,232 // movaps -0x18(%rsp),%xmm11
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,88,205 // addps %xmm5,%xmm9
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,194,196,2 // cmpleps %xmm4,%xmm0
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,92,234 // subps %xmm2,%xmm5
- .byte 65,15,89,211 // mulps %xmm11,%xmm2
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 69,15,92,243 // subps %xmm11,%xmm14
- .byte 68,15,89,245 // mulps %xmm5,%xmm14
- .byte 69,15,88,246 // addps %xmm14,%xmm14
- .byte 65,15,92,222 // subps %xmm14,%xmm3
- .byte 102,15,56,20,218 // blendvps %xmm0,%xmm2,%xmm3
- .byte 68,15,88,203 // addps %xmm3,%xmm9
- .byte 65,15,88,226 // addps %xmm10,%xmm4
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 65,15,40,237 // movaps %xmm13,%xmm5
- .byte 65,15,40,243 // movaps %xmm11,%xmm6
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_overlay_sse41
-.globl _sk_overlay_sse41
-FUNCTION(_sk_overlay_sse41)
-_sk_overlay_sse41:
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 68,15,40,21,34,248,1,0 // movaps 0x1f822(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,218 // movaps %xmm10,%xmm11
- .byte 68,15,92,223 // subps %xmm7,%xmm11
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 65,15,89,198 // mulps %xmm14,%xmm0
- .byte 68,15,92,211 // subps %xmm3,%xmm10
- .byte 69,15,40,194 // movaps %xmm10,%xmm8
- .byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,88,192 // addps %xmm0,%xmm8
- .byte 68,15,40,235 // movaps %xmm3,%xmm13
- .byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,89,244 // mulps %xmm4,%xmm14
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,194,199,2 // cmpleps %xmm7,%xmm0
- .byte 69,15,88,246 // addps %xmm14,%xmm14
- .byte 68,15,40,227 // movaps %xmm3,%xmm12
- .byte 68,15,89,231 // mulps %xmm7,%xmm12
- .byte 65,15,89,205 // mulps %xmm13,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 69,15,40,236 // movaps %xmm12,%xmm13
- .byte 68,15,92,233 // subps %xmm1,%xmm13
- .byte 102,69,15,56,20,238 // blendvps %xmm0,%xmm14,%xmm13
- .byte 69,15,88,197 // addps %xmm13,%xmm8
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 68,15,40,235 // movaps %xmm3,%xmm13
- .byte 69,15,92,233 // subps %xmm9,%xmm13
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,247 // movaps %xmm7,%xmm14
- .byte 68,15,92,245 // subps %xmm5,%xmm14
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,194,199,2 // cmpleps %xmm7,%xmm0
- .byte 69,15,88,201 // addps %xmm9,%xmm9
- .byte 69,15,89,245 // mulps %xmm13,%xmm14
- .byte 69,15,88,246 // addps %xmm14,%xmm14
- .byte 69,15,40,236 // movaps %xmm12,%xmm13
- .byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 102,69,15,56,20,233 // blendvps %xmm0,%xmm9,%xmm13
- .byte 65,15,88,205 // addps %xmm13,%xmm1
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 69,15,40,202 // movaps %xmm10,%xmm9
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 69,15,88,203 // addps %xmm11,%xmm9
- .byte 68,15,40,219 // movaps %xmm3,%xmm11
- .byte 68,15,92,218 // subps %xmm2,%xmm11
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 68,15,92,238 // subps %xmm6,%xmm13
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,194,199,2 // cmpleps %xmm7,%xmm0
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 69,15,89,235 // mulps %xmm11,%xmm13
- .byte 69,15,88,237 // addps %xmm13,%xmm13
- .byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 102,68,15,56,20,226 // blendvps %xmm0,%xmm2,%xmm12
- .byte 69,15,88,204 // addps %xmm12,%xmm9
- .byte 68,15,89,215 // mulps %xmm7,%xmm10
- .byte 65,15,88,218 // addps %xmm10,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_softlight_sse41
-.globl _sk_softlight_sse41
-FUNCTION(_sk_softlight_sse41)
-_sk_softlight_sse41:
- .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp)
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 15,41,84,36,232 // movaps %xmm2,-0x18(%rsp)
- .byte 15,41,76,36,200 // movaps %xmm1,-0x38(%rsp)
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,194,207,1 // cmpltps %xmm7,%xmm9
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,94,199 // divps %xmm7,%xmm0
- .byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 15,40,13,233,246,1,0 // movaps 0x1f6e9(%rip),%xmm1 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 68,15,92,208 // subps %xmm0,%xmm10
- .byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 68,15,40,248 // movaps %xmm0,%xmm15
- .byte 15,82,208 // rsqrtps %xmm0,%xmm2
- .byte 68,15,83,218 // rcpps %xmm2,%xmm11
- .byte 68,15,92,216 // subps %xmm0,%xmm11
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,89,210 // mulps %xmm2,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,40,45,23,247,1,0 // movaps 0x1f717(%rip),%xmm13 # 3cf70 <_sk_srcover_bgra_8888_sse2_lowp+0xd24>
- .byte 69,15,88,245 // addps %xmm13,%xmm14
- .byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 68,15,40,37,23,247,1,0 // movaps 0x1f717(%rip),%xmm12 # 3cf80 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
- .byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 69,15,88,254 // addps %xmm14,%xmm15
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,194,199,2 // cmpleps %xmm7,%xmm0
- .byte 102,69,15,56,20,223 // blendvps %xmm0,%xmm15,%xmm11
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 68,15,88,211 // addps %xmm3,%xmm10
- .byte 68,15,89,214 // mulps %xmm6,%xmm10
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 68,15,88,218 // addps %xmm2,%xmm11
- .byte 15,194,195,2 // cmpleps %xmm3,%xmm0
- .byte 102,69,15,56,20,218 // blendvps %xmm0,%xmm10,%xmm11
- .byte 68,15,40,213 // movaps %xmm5,%xmm10
- .byte 68,15,94,215 // divps %xmm7,%xmm10
- .byte 69,15,84,209 // andps %xmm9,%xmm10
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,89,210 // mulps %xmm2,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 65,15,88,197 // addps %xmm13,%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 65,15,82,194 // rsqrtps %xmm10,%xmm0
- .byte 68,15,83,240 // rcpps %xmm0,%xmm14
- .byte 69,15,92,242 // subps %xmm10,%xmm14
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,194,199,2 // cmpleps %xmm7,%xmm0
- .byte 102,68,15,56,20,242 // blendvps %xmm0,%xmm2,%xmm14
- .byte 68,15,40,249 // movaps %xmm1,%xmm15
- .byte 69,15,92,250 // subps %xmm10,%xmm15
- .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 68,15,89,250 // mulps %xmm2,%xmm15
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 68,15,89,242 // mulps %xmm2,%xmm14
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 68,15,88,242 // addps %xmm2,%xmm14
- .byte 68,15,88,251 // addps %xmm3,%xmm15
- .byte 68,15,89,252 // mulps %xmm4,%xmm15
- .byte 15,194,195,2 // cmpleps %xmm3,%xmm0
- .byte 102,69,15,56,20,247 // blendvps %xmm0,%xmm15,%xmm14
- .byte 68,15,40,249 // movaps %xmm1,%xmm15
- .byte 15,40,100,36,216 // movaps -0x28(%rsp),%xmm4
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,94,199 // divps %xmm7,%xmm0
- .byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 68,15,88,232 // addps %xmm0,%xmm13
- .byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,82,208 // rsqrtps %xmm0,%xmm2
- .byte 68,15,83,202 // rcpps %xmm2,%xmm9
- .byte 68,15,92,200 // subps %xmm0,%xmm9
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,89,210 // mulps %xmm2,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,89,234 // mulps %xmm2,%xmm13
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,194,199,2 // cmpleps %xmm7,%xmm0
- .byte 102,69,15,56,20,204 // blendvps %xmm0,%xmm12,%xmm9
- .byte 68,15,40,100,36,232 // movaps -0x18(%rsp),%xmm12
- .byte 65,15,40,196 // movaps %xmm12,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 68,15,89,202 // mulps %xmm2,%xmm9
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 68,15,88,202 // addps %xmm2,%xmm9
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,194,195,2 // cmpleps %xmm3,%xmm0
- .byte 102,68,15,56,20,201 // blendvps %xmm0,%xmm1,%xmm9
- .byte 68,15,92,255 // subps %xmm7,%xmm15
- .byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 65,15,89,207 // mulps %xmm15,%xmm1
- .byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,92,211 // subps %xmm3,%xmm10
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 68,15,88,192 // addps %xmm0,%xmm8
- .byte 69,15,88,195 // addps %xmm11,%xmm8
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 15,40,108,36,184 // movaps -0x48(%rsp),%xmm5
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 65,15,88,206 // addps %xmm14,%xmm1
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,89,215 // mulps %xmm7,%xmm10
- .byte 65,15,88,218 // addps %xmm10,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hue_sse41
-.globl _sk_hue_sse41
-FUNCTION(_sk_hue_sse41)
-_sk_hue_sse41:
- .byte 15,41,124,36,152 // movaps %xmm7,-0x68(%rsp)
- .byte 68,15,40,246 // movaps %xmm6,%xmm14
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,41,84,36,232 // movaps %xmm2,-0x18(%rsp)
- .byte 15,41,76,36,216 // movaps %xmm1,-0x28(%rsp)
- .byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,41,84,36,200 // movaps %xmm10,-0x38(%rsp)
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,234 // movaps %xmm2,%xmm13
- .byte 69,15,89,232 // mulps %xmm8,%xmm13
- .byte 68,15,40,205 // movaps %xmm5,%xmm9
- .byte 68,15,40,221 // movaps %xmm5,%xmm11
- .byte 15,41,108,36,184 // movaps %xmm5,-0x48(%rsp)
- .byte 69,15,95,222 // maxps %xmm14,%xmm11
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 68,15,40,230 // movaps %xmm6,%xmm12
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 65,15,95,211 // maxps %xmm11,%xmm2
- .byte 65,15,40,230 // movaps %xmm14,%xmm4
- .byte 15,41,100,36,168 // movaps %xmm4,-0x58(%rsp)
- .byte 68,15,93,204 // minps %xmm4,%xmm9
- .byte 65,15,93,249 // minps %xmm9,%xmm7
- .byte 15,92,215 // subps %xmm7,%xmm2
- .byte 15,40,249 // movaps %xmm1,%xmm7
- .byte 65,15,93,253 // minps %xmm13,%xmm7
- .byte 65,15,40,218 // movaps %xmm10,%xmm3
- .byte 15,93,223 // minps %xmm7,%xmm3
- .byte 15,40,249 // movaps %xmm1,%xmm7
- .byte 65,15,95,253 // maxps %xmm13,%xmm7
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 15,95,199 // maxps %xmm7,%xmm0
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 68,15,92,211 // subps %xmm3,%xmm10
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 68,15,92,235 // subps %xmm3,%xmm13
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 68,15,94,208 // divps %xmm0,%xmm10
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,94,200 // divps %xmm0,%xmm1
- .byte 68,15,89,234 // mulps %xmm2,%xmm13
- .byte 68,15,94,232 // divps %xmm0,%xmm13
- .byte 15,194,195,4 // cmpneqps %xmm3,%xmm0
- .byte 68,15,84,208 // andps %xmm0,%xmm10
- .byte 15,84,200 // andps %xmm0,%xmm1
- .byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 15,40,5,130,244,1,0 // movaps 0x1f482(%rip),%xmm0 # 3cf90 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
- .byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,21,135,244,1,0 // movaps 0x1f487(%rip),%xmm2 # 3cfa0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
- .byte 15,89,250 // mulps %xmm2,%xmm7
- .byte 65,15,88,252 // addps %xmm12,%xmm7
- .byte 68,15,40,53,136,244,1,0 // movaps 0x1f488(%rip),%xmm14 # 3cfb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
- .byte 68,15,40,252 // movaps %xmm4,%xmm15
- .byte 69,15,89,254 // mulps %xmm14,%xmm15
- .byte 68,15,88,255 // addps %xmm7,%xmm15
- .byte 65,15,40,218 // movaps %xmm10,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,40,249 // movaps %xmm1,%xmm7
- .byte 15,89,250 // mulps %xmm2,%xmm7
- .byte 15,88,251 // addps %xmm3,%xmm7
- .byte 65,15,40,221 // movaps %xmm13,%xmm3
- .byte 65,15,89,222 // mulps %xmm14,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 68,15,92,251 // subps %xmm3,%xmm15
- .byte 69,15,88,215 // addps %xmm15,%xmm10
- .byte 65,15,88,207 // addps %xmm15,%xmm1
- .byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 65,15,93,223 // minps %xmm15,%xmm3
- .byte 65,15,40,250 // movaps %xmm10,%xmm7
- .byte 15,93,251 // minps %xmm3,%xmm7
- .byte 65,15,89,194 // mulps %xmm10,%xmm0
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 69,15,89,247 // mulps %xmm15,%xmm14
- .byte 68,15,88,242 // addps %xmm2,%xmm14
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,194,207,2 // cmpleps %xmm7,%xmm9
- .byte 65,15,40,222 // movaps %xmm14,%xmm3
- .byte 15,92,223 // subps %xmm7,%xmm3
- .byte 69,15,40,234 // movaps %xmm10,%xmm13
- .byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 69,15,89,238 // mulps %xmm14,%xmm13
- .byte 68,15,94,235 // divps %xmm3,%xmm13
- .byte 69,15,88,238 // addps %xmm14,%xmm13
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,69,15,56,20,234 // blendvps %xmm0,%xmm10,%xmm13
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 65,15,95,199 // maxps %xmm15,%xmm0
- .byte 68,15,95,208 // maxps %xmm0,%xmm10
- .byte 65,15,40,248 // movaps %xmm8,%xmm7
- .byte 15,40,108,36,152 // movaps -0x68(%rsp),%xmm5
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,40,231 // movaps %xmm7,%xmm4
- .byte 65,15,194,226,1 // cmpltps %xmm10,%xmm4
- .byte 65,15,40,213 // movaps %xmm13,%xmm2
- .byte 65,15,92,214 // subps %xmm14,%xmm2
- .byte 68,15,40,223 // movaps %xmm7,%xmm11
- .byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 65,15,89,211 // mulps %xmm11,%xmm2
- .byte 69,15,92,214 // subps %xmm14,%xmm10
- .byte 65,15,94,210 // divps %xmm10,%xmm2
- .byte 65,15,88,214 // addps %xmm14,%xmm2
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 102,68,15,56,20,234 // blendvps %xmm0,%xmm2,%xmm13
- .byte 68,15,40,225 // movaps %xmm1,%xmm12
- .byte 69,15,92,230 // subps %xmm14,%xmm12
- .byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 68,15,94,227 // divps %xmm3,%xmm12
- .byte 69,15,88,230 // addps %xmm14,%xmm12
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,68,15,56,20,225 // blendvps %xmm0,%xmm1,%xmm12
- .byte 65,15,40,204 // movaps %xmm12,%xmm1
- .byte 65,15,92,206 // subps %xmm14,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 65,15,94,202 // divps %xmm10,%xmm1
- .byte 65,15,88,206 // addps %xmm14,%xmm1
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 102,68,15,56,20,225 // blendvps %xmm0,%xmm1,%xmm12
- .byte 65,15,40,207 // movaps %xmm15,%xmm1
- .byte 65,15,92,206 // subps %xmm14,%xmm1
- .byte 65,15,89,206 // mulps %xmm14,%xmm1
- .byte 15,94,203 // divps %xmm3,%xmm1
- .byte 65,15,88,206 // addps %xmm14,%xmm1
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,65,15,56,20,207 // blendvps %xmm0,%xmm15,%xmm1
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 65,15,92,214 // subps %xmm14,%xmm2
- .byte 65,15,89,211 // mulps %xmm11,%xmm2
- .byte 65,15,94,210 // divps %xmm10,%xmm2
- .byte 65,15,88,214 // addps %xmm14,%xmm2
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,40,13,156,242,1,0 // movaps 0x1f29c(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,40,225 // movaps %xmm9,%xmm4
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,92,36,216 // movaps -0x28(%rsp),%xmm3
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,89,100,36,232 // mulps -0x18(%rsp),%xmm4
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,88,197 // addps %xmm5,%xmm8
- .byte 68,15,40,213 // movaps %xmm5,%xmm10
- .byte 68,15,92,199 // subps %xmm7,%xmm8
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 68,15,95,234 // maxps %xmm2,%xmm13
- .byte 68,15,95,226 // maxps %xmm2,%xmm12
- .byte 15,95,202 // maxps %xmm2,%xmm1
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 65,15,88,197 // addps %xmm13,%xmm0
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 15,40,108,36,184 // movaps -0x48(%rsp),%xmm5
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,92,36,168 // movaps -0x58(%rsp),%xmm3
- .byte 68,15,89,203 // mulps %xmm3,%xmm9
- .byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 65,15,40,216 // movaps %xmm8,%xmm3
- .byte 65,15,40,250 // movaps %xmm10,%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_saturation_sse41
-.globl _sk_saturation_sse41
-FUNCTION(_sk_saturation_sse41)
-_sk_saturation_sse41:
- .byte 68,15,40,206 // movaps %xmm6,%xmm9
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,41,76,36,216 // movaps %xmm1,-0x28(%rsp)
- .byte 15,41,68,36,200 // movaps %xmm0,-0x38(%rsp)
- .byte 68,15,40,212 // movaps %xmm4,%xmm10
- .byte 68,15,89,213 // mulps %xmm5,%xmm10
- .byte 68,15,40,220 // movaps %xmm4,%xmm11
- .byte 68,15,89,222 // mulps %xmm6,%xmm11
- .byte 68,15,40,196 // movaps %xmm4,%xmm8
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 69,15,40,241 // movaps %xmm9,%xmm14
- .byte 68,15,41,116,36,184 // movaps %xmm14,-0x48(%rsp)
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 68,15,40,202 // movaps %xmm2,%xmm9
- .byte 68,15,41,76,36,232 // movaps %xmm9,-0x18(%rsp)
- .byte 65,15,95,217 // maxps %xmm9,%xmm3
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,95,211 // maxps %xmm3,%xmm2
- .byte 68,15,40,225 // movaps %xmm1,%xmm12
- .byte 69,15,93,225 // minps %xmm9,%xmm12
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 65,15,93,220 // minps %xmm12,%xmm3
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 68,15,41,100,36,168 // movaps %xmm12,-0x58(%rsp)
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 65,15,40,218 // movaps %xmm10,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 65,15,40,250 // movaps %xmm10,%xmm7
- .byte 15,95,248 // maxps %xmm0,%xmm7
- .byte 15,92,251 // subps %xmm3,%xmm7
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 68,15,92,211 // subps %xmm3,%xmm10
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 68,15,94,215 // divps %xmm7,%xmm10
- .byte 68,15,92,219 // subps %xmm3,%xmm11
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 68,15,94,223 // divps %xmm7,%xmm11
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,89,194 // mulps %xmm2,%xmm8
- .byte 68,15,94,199 // divps %xmm7,%xmm8
- .byte 15,194,248,4 // cmpneqps %xmm0,%xmm7
- .byte 68,15,84,215 // andps %xmm7,%xmm10
- .byte 68,15,84,223 // andps %xmm7,%xmm11
- .byte 68,15,84,199 // andps %xmm7,%xmm8
- .byte 15,40,21,198,241,1,0 // movaps 0x1f1c6(%rip),%xmm2 # 3cf90 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
- .byte 15,40,221 // movaps %xmm5,%xmm3
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,40,13,201,241,1,0 // movaps 0x1f1c9(%rip),%xmm1 # 3cfa0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 15,88,251 // addps %xmm3,%xmm7
- .byte 68,15,40,45,200,241,1,0 // movaps 0x1f1c8(%rip),%xmm13 # 3cfb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
- .byte 69,15,89,245 // mulps %xmm13,%xmm14
- .byte 68,15,88,247 // addps %xmm7,%xmm14
- .byte 65,15,40,218 // movaps %xmm10,%xmm3
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 65,15,40,251 // movaps %xmm11,%xmm7
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 15,88,251 // addps %xmm3,%xmm7
- .byte 65,15,40,216 // movaps %xmm8,%xmm3
- .byte 65,15,89,221 // mulps %xmm13,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,89,244 // mulps %xmm4,%xmm14
- .byte 68,15,92,243 // subps %xmm3,%xmm14
- .byte 69,15,88,214 // addps %xmm14,%xmm10
- .byte 69,15,88,222 // addps %xmm14,%xmm11
- .byte 69,15,88,240 // addps %xmm8,%xmm14
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 65,15,93,198 // minps %xmm14,%xmm0
- .byte 65,15,40,218 // movaps %xmm10,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 65,15,89,210 // mulps %xmm10,%xmm2
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 69,15,89,238 // mulps %xmm14,%xmm13
- .byte 68,15,88,233 // addps %xmm1,%xmm13
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,194,203,2 // cmpleps %xmm3,%xmm9
- .byte 65,15,40,253 // movaps %xmm13,%xmm7
- .byte 15,92,251 // subps %xmm3,%xmm7
- .byte 69,15,40,250 // movaps %xmm10,%xmm15
- .byte 69,15,92,253 // subps %xmm13,%xmm15
- .byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,94,255 // divps %xmm7,%xmm15
- .byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,69,15,56,20,250 // blendvps %xmm0,%xmm10,%xmm15
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 65,15,95,198 // maxps %xmm14,%xmm0
- .byte 68,15,95,208 // maxps %xmm0,%xmm10
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 69,15,194,194,1 // cmpltps %xmm10,%xmm8
- .byte 65,15,40,223 // movaps %xmm15,%xmm3
- .byte 65,15,92,221 // subps %xmm13,%xmm3
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 65,15,92,205 // subps %xmm13,%xmm1
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 69,15,92,213 // subps %xmm13,%xmm10
- .byte 65,15,94,218 // divps %xmm10,%xmm3
- .byte 65,15,88,221 // addps %xmm13,%xmm3
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 102,68,15,56,20,251 // blendvps %xmm0,%xmm3,%xmm15
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 69,15,89,229 // mulps %xmm13,%xmm12
- .byte 68,15,94,231 // divps %xmm7,%xmm12
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,69,15,56,20,227 // blendvps %xmm0,%xmm11,%xmm12
- .byte 65,15,40,220 // movaps %xmm12,%xmm3
- .byte 65,15,92,221 // subps %xmm13,%xmm3
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 65,15,94,218 // divps %xmm10,%xmm3
- .byte 65,15,88,221 // addps %xmm13,%xmm3
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 102,68,15,56,20,227 // blendvps %xmm0,%xmm3,%xmm12
- .byte 69,15,40,222 // movaps %xmm14,%xmm11
- .byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 69,15,89,221 // mulps %xmm13,%xmm11
- .byte 68,15,94,223 // divps %xmm7,%xmm11
- .byte 69,15,88,221 // addps %xmm13,%xmm11
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,69,15,56,20,222 // blendvps %xmm0,%xmm14,%xmm11
- .byte 65,15,40,251 // movaps %xmm11,%xmm7
- .byte 65,15,92,253 // subps %xmm13,%xmm7
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 65,15,94,250 // divps %xmm10,%xmm7
- .byte 65,15,88,253 // addps %xmm13,%xmm7
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 102,68,15,56,20,223 // blendvps %xmm0,%xmm7,%xmm11
- .byte 68,15,40,13,222,239,1,0 // movaps 0x1efde(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 68,15,92,204 // subps %xmm4,%xmm9
- .byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7
- .byte 15,88,231 // addps %xmm7,%xmm4
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 68,15,95,248 // maxps %xmm0,%xmm15
- .byte 68,15,95,224 // maxps %xmm0,%xmm12
- .byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 68,15,92,199 // subps %xmm7,%xmm8
- .byte 15,40,68,36,200 // movaps -0x38(%rsp),%xmm0
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,84,36,216 // movaps -0x28(%rsp),%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 68,15,89,68,36,232 // mulps -0x18(%rsp),%xmm8
- .byte 15,40,84,36,184 // movaps -0x48(%rsp),%xmm2
- .byte 68,15,89,202 // mulps %xmm2,%xmm9
- .byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 69,15,88,203 // addps %xmm11,%xmm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_color_sse41
-.globl _sk_color_sse41
-FUNCTION(_sk_color_sse41)
-_sk_color_sse41:
- .byte 68,15,40,230 // movaps %xmm6,%xmm12
- .byte 68,15,41,100,36,200 // movaps %xmm12,-0x38(%rsp)
- .byte 68,15,40,221 // movaps %xmm5,%xmm11
- .byte 68,15,41,92,36,216 // movaps %xmm11,-0x28(%rsp)
- .byte 68,15,40,212 // movaps %xmm4,%xmm10
- .byte 68,15,41,84,36,232 // movaps %xmm10,-0x18(%rsp)
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,41,84,36,184 // movaps %xmm2,-0x48(%rsp)
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 69,15,40,240 // movaps %xmm8,%xmm14
- .byte 15,40,231 // movaps %xmm7,%xmm4
- .byte 68,15,89,244 // mulps %xmm4,%xmm14
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,40,13,153,239,1,0 // movaps 0x1ef99(%rip),%xmm9 # 3cf90 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
- .byte 65,15,40,250 // movaps %xmm10,%xmm7
- .byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 68,15,40,21,153,239,1,0 // movaps 0x1ef99(%rip),%xmm10 # 3cfa0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
- .byte 65,15,40,219 // movaps %xmm11,%xmm3
- .byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,40,29,150,239,1,0 // movaps 0x1ef96(%rip),%xmm11 # 3cfb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
- .byte 69,15,40,236 // movaps %xmm12,%xmm13
- .byte 69,15,89,235 // mulps %xmm11,%xmm13
- .byte 68,15,88,235 // addps %xmm3,%xmm13
- .byte 65,15,40,222 // movaps %xmm14,%xmm3
- .byte 65,15,89,217 // mulps %xmm9,%xmm3
- .byte 15,40,249 // movaps %xmm1,%xmm7
- .byte 65,15,89,250 // mulps %xmm10,%xmm7
- .byte 15,88,251 // addps %xmm3,%xmm7
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 65,15,89,219 // mulps %xmm11,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 68,15,89,238 // mulps %xmm6,%xmm13
- .byte 68,15,92,235 // subps %xmm3,%xmm13
- .byte 69,15,88,245 // addps %xmm13,%xmm14
- .byte 65,15,88,205 // addps %xmm13,%xmm1
- .byte 68,15,88,232 // addps %xmm0,%xmm13
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 65,15,93,197 // minps %xmm13,%xmm0
- .byte 65,15,40,222 // movaps %xmm14,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 69,15,89,206 // mulps %xmm14,%xmm9
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 69,15,88,209 // addps %xmm9,%xmm10
- .byte 69,15,89,221 // mulps %xmm13,%xmm11
- .byte 69,15,88,218 // addps %xmm10,%xmm11
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,194,203,2 // cmpleps %xmm3,%xmm9
- .byte 69,15,40,230 // movaps %xmm14,%xmm12
- .byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 65,15,40,251 // movaps %xmm11,%xmm7
- .byte 15,92,251 // subps %xmm3,%xmm7
- .byte 68,15,94,231 // divps %xmm7,%xmm12
- .byte 69,15,88,227 // addps %xmm11,%xmm12
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,69,15,56,20,230 // blendvps %xmm0,%xmm14,%xmm12
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 65,15,95,197 // maxps %xmm13,%xmm0
- .byte 65,15,40,214 // movaps %xmm14,%xmm2
- .byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 68,15,194,210,1 // cmpltps %xmm2,%xmm10
- .byte 69,15,40,244 // movaps %xmm12,%xmm14
- .byte 69,15,92,243 // subps %xmm11,%xmm14
- .byte 68,15,40,251 // movaps %xmm3,%xmm15
- .byte 69,15,92,251 // subps %xmm11,%xmm15
- .byte 69,15,89,247 // mulps %xmm15,%xmm14
- .byte 65,15,92,211 // subps %xmm11,%xmm2
- .byte 68,15,94,242 // divps %xmm2,%xmm14
- .byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 102,69,15,56,20,230 // blendvps %xmm0,%xmm14,%xmm12
- .byte 68,15,40,241 // movaps %xmm1,%xmm14
- .byte 69,15,92,243 // subps %xmm11,%xmm14
- .byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,94,247 // divps %xmm7,%xmm14
- .byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,68,15,56,20,241 // blendvps %xmm0,%xmm1,%xmm14
- .byte 65,15,40,206 // movaps %xmm14,%xmm1
- .byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 65,15,89,207 // mulps %xmm15,%xmm1
- .byte 15,94,202 // divps %xmm2,%xmm1
- .byte 65,15,88,203 // addps %xmm11,%xmm1
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 102,68,15,56,20,241 // blendvps %xmm0,%xmm1,%xmm14
- .byte 65,15,40,205 // movaps %xmm13,%xmm1
- .byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 15,94,207 // divps %xmm7,%xmm1
- .byte 65,15,88,203 // addps %xmm11,%xmm1
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,65,15,56,20,205 // blendvps %xmm0,%xmm13,%xmm1
- .byte 15,40,249 // movaps %xmm1,%xmm7
- .byte 65,15,92,251 // subps %xmm11,%xmm7
- .byte 65,15,89,255 // mulps %xmm15,%xmm7
- .byte 15,94,250 // divps %xmm2,%xmm7
- .byte 65,15,88,251 // addps %xmm11,%xmm7
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 102,15,56,20,207 // blendvps %xmm0,%xmm7,%xmm1
- .byte 68,15,40,13,162,237,1,0 // movaps 0x1eda2(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,89,68,36,184 // mulps -0x48(%rsp),%xmm0
- .byte 68,15,92,206 // subps %xmm6,%xmm9
- .byte 15,88,244 // addps %xmm4,%xmm6
- .byte 15,40,252 // movaps %xmm4,%xmm7
- .byte 15,92,243 // subps %xmm3,%xmm6
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 68,15,95,226 // maxps %xmm2,%xmm12
- .byte 68,15,95,242 // maxps %xmm2,%xmm14
- .byte 15,95,202 // maxps %xmm2,%xmm1
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 15,40,100,36,232 // movaps -0x18(%rsp),%xmm4
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 68,15,88,194 // addps %xmm2,%xmm8
- .byte 69,15,88,196 // addps %xmm12,%xmm8
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 15,40,116,36,216 // movaps -0x28(%rsp),%xmm6
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 68,15,40,213 // movaps %xmm5,%xmm10
- .byte 68,15,88,210 // addps %xmm2,%xmm10
- .byte 69,15,88,214 // addps %xmm14,%xmm10
- .byte 15,40,84,36,200 // movaps -0x38(%rsp),%xmm2
- .byte 68,15,89,202 // mulps %xmm2,%xmm9
- .byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_luminosity_sse41
-.globl _sk_luminosity_sse41
-FUNCTION(_sk_luminosity_sse41)
-_sk_luminosity_sse41:
- .byte 15,41,116,36,200 // movaps %xmm6,-0x38(%rsp)
- .byte 15,41,108,36,232 // movaps %xmm5,-0x18(%rsp)
- .byte 68,15,40,196 // movaps %xmm4,%xmm8
- .byte 68,15,41,68,36,216 // movaps %xmm8,-0x28(%rsp)
- .byte 15,41,84,36,184 // movaps %xmm2,-0x48(%rsp)
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 68,15,40,219 // movaps %xmm3,%xmm11
- .byte 69,15,89,216 // mulps %xmm8,%xmm11
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,5,106,237,1,0 // movaps 0x1ed6a(%rip),%xmm8 # 3cf90 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 68,15,40,21,110,237,1,0 // movaps 0x1ed6e(%rip),%xmm10 # 3cfa0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 65,15,89,234 // mulps %xmm10,%xmm5
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 68,15,40,37,108,237,1,0 // movaps 0x1ed6c(%rip),%xmm12 # 3cfb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
- .byte 68,15,40,242 // movaps %xmm2,%xmm14
- .byte 69,15,89,244 // mulps %xmm12,%xmm14
- .byte 68,15,88,245 // addps %xmm5,%xmm14
- .byte 65,15,40,235 // movaps %xmm11,%xmm5
- .byte 65,15,89,232 // mulps %xmm8,%xmm5
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 65,15,89,210 // mulps %xmm10,%xmm2
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 65,15,89,236 // mulps %xmm12,%xmm5
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 68,15,89,247 // mulps %xmm7,%xmm14
- .byte 68,15,92,245 // subps %xmm5,%xmm14
- .byte 69,15,88,222 // addps %xmm14,%xmm11
- .byte 69,15,88,206 // addps %xmm14,%xmm9
- .byte 68,15,88,240 // addps %xmm0,%xmm14
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,93,198 // minps %xmm14,%xmm0
- .byte 65,15,40,235 // movaps %xmm11,%xmm5
- .byte 15,93,232 // minps %xmm0,%xmm5
- .byte 69,15,89,195 // mulps %xmm11,%xmm8
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,208 // addps %xmm8,%xmm10
- .byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 69,15,88,226 // addps %xmm10,%xmm12
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 68,15,194,213,2 // cmpleps %xmm5,%xmm10
- .byte 69,15,40,235 // movaps %xmm11,%xmm13
- .byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 65,15,40,244 // movaps %xmm12,%xmm6
- .byte 15,92,245 // subps %xmm5,%xmm6
- .byte 68,15,94,238 // divps %xmm6,%xmm13
- .byte 69,15,88,236 // addps %xmm12,%xmm13
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 102,69,15,56,20,235 // blendvps %xmm0,%xmm11,%xmm13
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,95,198 // maxps %xmm14,%xmm0
- .byte 65,15,40,211 // movaps %xmm11,%xmm2
- .byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 68,15,40,221 // movaps %xmm5,%xmm11
- .byte 68,15,194,218,1 // cmpltps %xmm2,%xmm11
- .byte 69,15,40,197 // movaps %xmm13,%xmm8
- .byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,40,253 // movaps %xmm5,%xmm15
- .byte 69,15,92,252 // subps %xmm12,%xmm15
- .byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 65,15,92,212 // subps %xmm12,%xmm2
- .byte 68,15,94,194 // divps %xmm2,%xmm8
- .byte 69,15,88,196 // addps %xmm12,%xmm8
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 102,69,15,56,20,232 // blendvps %xmm0,%xmm8,%xmm13
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,94,198 // divps %xmm6,%xmm8
- .byte 69,15,88,196 // addps %xmm12,%xmm8
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 69,15,89,207 // mulps %xmm15,%xmm9
- .byte 68,15,94,202 // divps %xmm2,%xmm9
- .byte 69,15,88,204 // addps %xmm12,%xmm9
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
- .byte 69,15,40,206 // movaps %xmm14,%xmm9
- .byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 69,15,89,204 // mulps %xmm12,%xmm9
- .byte 68,15,94,206 // divps %xmm6,%xmm9
- .byte 69,15,88,204 // addps %xmm12,%xmm9
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 102,69,15,56,20,206 // blendvps %xmm0,%xmm14,%xmm9
- .byte 65,15,40,241 // movaps %xmm9,%xmm6
- .byte 65,15,92,244 // subps %xmm12,%xmm6
- .byte 65,15,89,247 // mulps %xmm15,%xmm6
- .byte 15,94,242 // divps %xmm2,%xmm6
- .byte 65,15,88,244 // addps %xmm12,%xmm6
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 102,68,15,56,20,206 // blendvps %xmm0,%xmm6,%xmm9
- .byte 15,40,5,114,235,1,0 // movaps 0x1eb72(%rip),%xmm0 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,92,215 // subps %xmm7,%xmm2
- .byte 15,89,226 // mulps %xmm2,%xmm4
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,89,84,36,184 // mulps -0x48(%rsp),%xmm2
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 15,92,221 // subps %xmm5,%xmm3
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 68,15,95,237 // maxps %xmm5,%xmm13
- .byte 68,15,95,197 // maxps %xmm5,%xmm8
- .byte 68,15,95,205 // maxps %xmm5,%xmm9
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 68,15,40,84,36,216 // movaps -0x28(%rsp),%xmm10
- .byte 65,15,89,234 // mulps %xmm10,%xmm5
- .byte 15,88,229 // addps %xmm5,%xmm4
- .byte 65,15,88,229 // addps %xmm13,%xmm4
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,40,108,36,232 // movaps -0x18(%rsp),%xmm5
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 15,40,116,36,200 // movaps -0x38(%rsp),%xmm6
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 65,15,40,226 // movaps %xmm10,%xmm4
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_rgba_8888_sse41
-.globl _sk_srcover_rgba_8888_sse41
-FUNCTION(_sk_srcover_rgba_8888_sse41)
-_sk_srcover_rgba_8888_sse41:
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,0,1,0,0 // jne 1e52a <_sk_srcover_rgba_8888_sse41+0x11f>
- .byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,133,235,1,0 // movdqa 0x1eb85(%rip),%xmm4 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,15,219,224 // pand %xmm0,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,56,0,45,129,235,1,0 // pshufb 0x1eb81(%rip),%xmm5 # 3cfd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,56,0,53,129,235,1,0 // pshufb 0x1eb81(%rip),%xmm6 # 3cfe0 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 102,15,114,208,24 // psrld $0x18,%xmm0
- .byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,154,234,1,0 // movaps 0x1ea9a(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,110,235,1,0 // movaps 0x1eb6e(%rip),%xmm12 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 69,15,89,204 // mulps %xmm12,%xmm9
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 65,15,89,204 // mulps %xmm12,%xmm1
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,89,214 // mulps %xmm6,%xmm10
- .byte 68,15,88,210 // addps %xmm2,%xmm10
- .byte 65,15,89,220 // mulps %xmm12,%xmm3
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 68,15,88,195 // addps %xmm3,%xmm8
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 65,15,93,204 // minps %xmm12,%xmm1
- .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 65,15,95,209 // maxps %xmm9,%xmm2
- .byte 65,15,93,212 // minps %xmm12,%xmm2
- .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
- .byte 102,15,114,242,8 // pslld $0x8,%xmm2
- .byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,15,87,201 // xorpd %xmm1,%xmm1
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,93,204 // minps %xmm12,%xmm1
- .byte 102,15,91,217 // cvtps2dq %xmm1,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 69,15,95,216 // maxps %xmm8,%xmm11
- .byte 69,15,93,220 // minps %xmm12,%xmm11
- .byte 102,65,15,91,203 // cvtps2dq %xmm11,%xmm1
- .byte 102,15,114,241,24 // pslld $0x18,%xmm1
- .byte 102,15,235,203 // por %xmm3,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,75 // jne 1e55f <_sk_srcover_rgba_8888_sse41+0x154>
- .byte 243,65,15,127,12,144 // movdqu %xmm1,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,40,216 // movaps %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,78 // je 1e580 <_sk_srcover_rgba_8888_sse41+0x175>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 60,2 // cmp $0x2,%al
- .byte 116,20 // je 1e54e <_sk_srcover_rgba_8888_sse41+0x143>
- .byte 60,3 // cmp $0x3,%al
- .byte 15,133,238,254,255,255 // jne 1e430 <_sk_srcover_rgba_8888_sse41+0x25>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
- .byte 102,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm0
- .byte 233,209,254,255,255 // jmpq 1e430 <_sk_srcover_rgba_8888_sse41+0x25>
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,36 // je 1e58b <_sk_srcover_rgba_8888_sse41+0x180>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 1e578 <_sk_srcover_rgba_8888_sse41+0x16d>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,171 // jne 1e51a <_sk_srcover_rgba_8888_sse41+0x10f>
- .byte 102,65,15,58,22,76,144,8,2 // pextrd $0x2,%xmm1,0x8(%r8,%rdx,4)
- .byte 102,65,15,214,12,144 // movq %xmm1,(%r8,%rdx,4)
- .byte 235,154 // jmp 1e51a <_sk_srcover_rgba_8888_sse41+0x10f>
- .byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
- .byte 233,165,254,255,255 // jmpq 1e430 <_sk_srcover_rgba_8888_sse41+0x25>
- .byte 102,65,15,126,12,144 // movd %xmm1,(%r8,%rdx,4)
- .byte 235,135 // jmp 1e51a <_sk_srcover_rgba_8888_sse41+0x10f>
-
-HIDDEN _sk_srcover_bgra_8888_sse41
-.globl _sk_srcover_bgra_8888_sse41
-FUNCTION(_sk_srcover_bgra_8888_sse41)
-_sk_srcover_bgra_8888_sse41:
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,0,1,0,0 // jne 1e6b2 <_sk_srcover_bgra_8888_sse41+0x11f>
- .byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,253,233,1,0 // movdqa 0x1e9fd(%rip),%xmm4 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,15,219,224 // pand %xmm0,%xmm4
- .byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,56,0,37,249,233,1,0 // pshufb 0x1e9f9(%rip),%xmm4 # 3cfd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
- .byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,56,0,37,249,233,1,0 // pshufb 0x1e9f9(%rip),%xmm4 # 3cfe0 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 102,15,114,208,24 // psrld $0x18,%xmm0
- .byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,18,233,1,0 // movaps 0x1e912(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,230,233,1,0 // movaps 0x1e9e6(%rip),%xmm12 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 69,15,89,204 // mulps %xmm12,%xmm9
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 65,15,89,204 // mulps %xmm12,%xmm1
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,89,214 // mulps %xmm6,%xmm10
- .byte 68,15,88,210 // addps %xmm2,%xmm10
- .byte 65,15,89,220 // mulps %xmm12,%xmm3
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 68,15,88,195 // addps %xmm3,%xmm8
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,93,204 // minps %xmm12,%xmm1
- .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 65,15,95,209 // maxps %xmm9,%xmm2
- .byte 65,15,93,212 // minps %xmm12,%xmm2
- .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
- .byte 102,15,114,242,8 // pslld $0x8,%xmm2
- .byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,15,87,201 // xorpd %xmm1,%xmm1
- .byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 65,15,93,204 // minps %xmm12,%xmm1
- .byte 102,15,91,217 // cvtps2dq %xmm1,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 69,15,95,216 // maxps %xmm8,%xmm11
- .byte 69,15,93,220 // minps %xmm12,%xmm11
- .byte 102,65,15,91,203 // cvtps2dq %xmm11,%xmm1
- .byte 102,15,114,241,24 // pslld $0x18,%xmm1
- .byte 102,15,235,203 // por %xmm3,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,75 // jne 1e6e7 <_sk_srcover_bgra_8888_sse41+0x154>
- .byte 243,65,15,127,12,144 // movdqu %xmm1,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,40,216 // movaps %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,78 // je 1e708 <_sk_srcover_bgra_8888_sse41+0x175>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 60,2 // cmp $0x2,%al
- .byte 116,20 // je 1e6d6 <_sk_srcover_bgra_8888_sse41+0x143>
- .byte 60,3 // cmp $0x3,%al
- .byte 15,133,238,254,255,255 // jne 1e5b8 <_sk_srcover_bgra_8888_sse41+0x25>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
- .byte 102,15,58,14,196,15 // pblendw $0xf,%xmm4,%xmm0
- .byte 233,209,254,255,255 // jmpq 1e5b8 <_sk_srcover_bgra_8888_sse41+0x25>
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,36 // je 1e713 <_sk_srcover_bgra_8888_sse41+0x180>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 1e700 <_sk_srcover_bgra_8888_sse41+0x16d>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,171 // jne 1e6a2 <_sk_srcover_bgra_8888_sse41+0x10f>
- .byte 102,65,15,58,22,76,144,8,2 // pextrd $0x2,%xmm1,0x8(%r8,%rdx,4)
- .byte 102,65,15,214,12,144 // movq %xmm1,(%r8,%rdx,4)
- .byte 235,154 // jmp 1e6a2 <_sk_srcover_bgra_8888_sse41+0x10f>
- .byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
- .byte 233,165,254,255,255 // jmpq 1e5b8 <_sk_srcover_bgra_8888_sse41+0x25>
- .byte 102,65,15,126,12,144 // movd %xmm1,(%r8,%rdx,4)
- .byte 235,135 // jmp 1e6a2 <_sk_srcover_bgra_8888_sse41+0x10f>
-
-HIDDEN _sk_clamp_0_sse41
-.globl _sk_clamp_0_sse41
-FUNCTION(_sk_clamp_0_sse41)
-_sk_clamp_0_sse41:
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 65,15,95,200 // maxps %xmm8,%xmm1
- .byte 65,15,95,208 // maxps %xmm8,%xmm2
- .byte 65,15,95,216 // maxps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_1_sse41
-.globl _sk_clamp_1_sse41
-FUNCTION(_sk_clamp_1_sse41)
-_sk_clamp_1_sse41:
- .byte 68,15,40,5,213,231,1,0 // movaps 0x1e7d5(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 65,15,93,208 // minps %xmm8,%xmm2
- .byte 65,15,93,216 // minps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_sse41
-.globl _sk_clamp_a_sse41
-FUNCTION(_sk_clamp_a_sse41)
-_sk_clamp_a_sse41:
- .byte 15,93,29,186,231,1,0 // minps 0x1e7ba(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,93,195 // minps %xmm3,%xmm0
- .byte 15,93,203 // minps %xmm3,%xmm1
- .byte 15,93,211 // minps %xmm3,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_dst_sse41
-.globl _sk_clamp_a_dst_sse41
-FUNCTION(_sk_clamp_a_dst_sse41)
-_sk_clamp_a_dst_sse41:
- .byte 15,93,61,166,231,1,0 // minps 0x1e7a6(%rip),%xmm7 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,93,231 // minps %xmm7,%xmm4
- .byte 15,93,239 // minps %xmm7,%xmm5
- .byte 15,93,247 // minps %xmm7,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_set_rgb_sse41
-.globl _sk_set_rgb_sse41
-FUNCTION(_sk_set_rgb_sse41)
-_sk_set_rgb_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_swap_rb_sse41
-.globl _sk_swap_rb_sse41
-FUNCTION(_sk_swap_rb_sse41)
-_sk_swap_rb_sse41:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_invert_sse41
-.globl _sk_invert_sse41
-FUNCTION(_sk_invert_sse41)
-_sk_invert_sse41:
- .byte 68,15,40,5,98,231,1,0 // movaps 0x1e762(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,92,200 // subps %xmm0,%xmm9
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,92,209 // subps %xmm1,%xmm10
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,92,218 // subps %xmm2,%xmm11
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 65,15,40,211 // movaps %xmm11,%xmm2
- .byte 65,15,40,216 // movaps %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_src_dst_sse41
-.globl _sk_move_src_dst_sse41
-FUNCTION(_sk_move_src_dst_sse41)
-_sk_move_src_dst_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_dst_src_sse41
-.globl _sk_move_dst_src_sse41
-FUNCTION(_sk_move_dst_src_sse41)
-_sk_move_dst_src_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_sse41
-.globl _sk_premul_sse41
-FUNCTION(_sk_premul_sse41)
-_sk_premul_sse41:
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_dst_sse41
-.globl _sk_premul_dst_sse41
-FUNCTION(_sk_premul_dst_sse41)
-_sk_premul_dst_sse41:
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_unpremul_sse41
-.globl _sk_unpremul_sse41
-FUNCTION(_sk_unpremul_sse41)
-_sk_unpremul_sse41:
- .byte 68,15,40,5,240,230,1,0 // movaps 0x1e6f0(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,94,195 // divps %xmm3,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,13,207,231,1,0,1 // cmpltps 0x1e7cf(%rip),%xmm9 # 3d000 <_sk_srcover_bgra_8888_sse2_lowp+0xdb4>
- .byte 69,15,84,200 // andps %xmm8,%xmm9
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_sse41
-.globl _sk_force_opaque_sse41
-FUNCTION(_sk_force_opaque_sse41)
-_sk_force_opaque_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,194,230,1,0 // movaps 0x1e6c2(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_dst_sse41
-.globl _sk_force_opaque_dst_sse41
-FUNCTION(_sk_force_opaque_dst_sse41)
-_sk_force_opaque_dst_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,183,230,1,0 // movaps 0x1e6b7(%rip),%xmm7 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_from_srgb_sse41
-.globl _sk_from_srgb_sse41
-FUNCTION(_sk_from_srgb_sse41)
-_sk_from_srgb_sse41:
- .byte 68,15,40,29,173,231,1,0 // movaps 0x1e7ad(%rip),%xmm11 # 3d010 <_sk_srcover_bgra_8888_sse2_lowp+0xdc4>
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,40,37,21,231,1,0 // movaps 0x1e715(%rip),%xmm12 # 3cf90 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,149,231,1,0 // movaps 0x1e795(%rip),%xmm13 # 3d020 <_sk_srcover_bgra_8888_sse2_lowp+0xdd4>
- .byte 69,15,88,197 // addps %xmm13,%xmm8
- .byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 68,15,40,53,149,231,1,0 // movaps 0x1e795(%rip),%xmm14 # 3d030 <_sk_srcover_bgra_8888_sse2_lowp+0xde4>
- .byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 68,15,40,61,153,231,1,0 // movaps 0x1e799(%rip),%xmm15 # 3d040 <_sk_srcover_bgra_8888_sse2_lowp+0xdf4>
- .byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
- .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 69,15,89,211 // mulps %xmm11,%xmm10
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,89,204 // mulps %xmm12,%xmm9
- .byte 69,15,88,205 // addps %xmm13,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 69,15,88,206 // addps %xmm14,%xmm9
- .byte 65,15,194,207,1 // cmpltps %xmm15,%xmm1
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 102,69,15,56,20,202 // blendvps %xmm0,%xmm10,%xmm9
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 68,15,40,210 // movaps %xmm2,%xmm10
- .byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,89,226 // mulps %xmm2,%xmm12
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 69,15,89,212 // mulps %xmm12,%xmm10
- .byte 69,15,88,214 // addps %xmm14,%xmm10
- .byte 65,15,194,215,1 // cmpltps %xmm15,%xmm2
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_from_srgb_dst_sse41
-.globl _sk_from_srgb_dst_sse41
-FUNCTION(_sk_from_srgb_dst_sse41)
-_sk_from_srgb_dst_sse41:
- .byte 68,15,40,204 // movaps %xmm4,%xmm9
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,29,228,230,1,0 // movaps 0x1e6e4(%rip),%xmm11 # 3d010 <_sk_srcover_bgra_8888_sse2_lowp+0xdc4>
- .byte 69,15,40,209 // movaps %xmm9,%xmm10
- .byte 69,15,89,211 // mulps %xmm11,%xmm10
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,77,230,1,0 // movaps 0x1e64d(%rip),%xmm12 # 3cf90 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
- .byte 65,15,89,228 // mulps %xmm12,%xmm4
- .byte 68,15,40,45,209,230,1,0 // movaps 0x1e6d1(%rip),%xmm13 # 3d020 <_sk_srcover_bgra_8888_sse2_lowp+0xdd4>
- .byte 65,15,88,229 // addps %xmm13,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 68,15,40,53,210,230,1,0 // movaps 0x1e6d2(%rip),%xmm14 # 3d030 <_sk_srcover_bgra_8888_sse2_lowp+0xde4>
- .byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 68,15,40,61,214,230,1,0 // movaps 0x1e6d6(%rip),%xmm15 # 3d040 <_sk_srcover_bgra_8888_sse2_lowp+0xdf4>
- .byte 69,15,194,207,1 // cmpltps %xmm15,%xmm9
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,65,15,56,20,226 // blendvps %xmm0,%xmm10,%xmm4
- .byte 68,15,40,213 // movaps %xmm5,%xmm10
- .byte 69,15,89,211 // mulps %xmm11,%xmm10
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,205 // movaps %xmm5,%xmm9
- .byte 69,15,89,204 // mulps %xmm12,%xmm9
- .byte 69,15,88,205 // addps %xmm13,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 69,15,88,206 // addps %xmm14,%xmm9
- .byte 65,15,194,239,1 // cmpltps %xmm15,%xmm5
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 102,69,15,56,20,202 // blendvps %xmm0,%xmm10,%xmm9
- .byte 68,15,89,222 // mulps %xmm6,%xmm11
- .byte 68,15,40,214 // movaps %xmm6,%xmm10
- .byte 69,15,89,210 // mulps %xmm10,%xmm10
- .byte 68,15,89,230 // mulps %xmm6,%xmm12
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 69,15,89,212 // mulps %xmm12,%xmm10
- .byte 69,15,88,214 // addps %xmm14,%xmm10
- .byte 65,15,194,247,1 // cmpltps %xmm15,%xmm6
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 65,15,40,233 // movaps %xmm9,%xmm5
- .byte 65,15,40,242 // movaps %xmm10,%xmm6
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_to_srgb_sse41
-.globl _sk_to_srgb_sse41
-FUNCTION(_sk_to_srgb_sse41)
-_sk_to_srgb_sse41:
- .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 68,15,82,192 // rsqrtps %xmm0,%xmm8
- .byte 68,15,40,29,74,230,1,0 // movaps 0x1e64a(%rip),%xmm11 # 3d050 <_sk_srcover_bgra_8888_sse2_lowp+0xe04>
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 68,15,40,37,74,230,1,0 // movaps 0x1e64a(%rip),%xmm12 # 3d060 <_sk_srcover_bgra_8888_sse2_lowp+0xe14>
- .byte 69,15,40,248 // movaps %xmm8,%xmm15
- .byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,40,21,74,230,1,0 // movaps 0x1e64a(%rip),%xmm10 # 3d070 <_sk_srcover_bgra_8888_sse2_lowp+0xe24>
- .byte 69,15,88,250 // addps %xmm10,%xmm15
- .byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 68,15,40,45,74,230,1,0 // movaps 0x1e64a(%rip),%xmm13 # 3d080 <_sk_srcover_bgra_8888_sse2_lowp+0xe34>
- .byte 69,15,88,253 // addps %xmm13,%xmm15
- .byte 68,15,40,53,78,230,1,0 // movaps 0x1e64e(%rip),%xmm14 # 3d090 <_sk_srcover_bgra_8888_sse2_lowp+0xe44>
- .byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 69,15,83,192 // rcpps %xmm8,%xmm8
- .byte 69,15,89,199 // mulps %xmm15,%xmm8
- .byte 68,15,40,61,74,230,1,0 // movaps 0x1e64a(%rip),%xmm15 # 3d0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe54>
- .byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
- .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
- .byte 68,15,82,202 // rsqrtps %xmm2,%xmm9
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 65,15,88,197 // addps %xmm13,%xmm0
- .byte 69,15,88,206 // addps %xmm14,%xmm9
- .byte 69,15,83,201 // rcpps %xmm9,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 65,15,194,215,1 // cmpltps %xmm15,%xmm2
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 102,68,15,56,20,201 // blendvps %xmm0,%xmm1,%xmm9
- .byte 15,82,195 // rsqrtps %xmm3,%xmm0
- .byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 69,15,88,226 // addps %xmm10,%xmm12
- .byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 65,15,88,198 // addps %xmm14,%xmm0
- .byte 68,15,83,208 // rcpps %xmm0,%xmm10
- .byte 69,15,89,212 // mulps %xmm12,%xmm10
- .byte 68,15,89,219 // mulps %xmm3,%xmm11
- .byte 65,15,194,223,1 // cmpltps %xmm15,%xmm3
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,40,247 // movaps %xmm7,%xmm6
- .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_rgb_to_hsl_sse41
-.globl _sk_rgb_to_hsl_sse41
-FUNCTION(_sk_rgb_to_hsl_sse41)
-_sk_rgb_to_hsl_sse41:
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 15,95,194 // maxps %xmm2,%xmm0
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 15,93,194 // minps %xmm2,%xmm0
- .byte 69,15,40,224 // movaps %xmm8,%xmm12
- .byte 68,15,93,224 // minps %xmm0,%xmm12
- .byte 65,15,40,203 // movaps %xmm11,%xmm1
- .byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,40,53,241,227,1,0 // movaps 0x1e3f1(%rip),%xmm14 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,94,241 // divps %xmm1,%xmm14
- .byte 69,15,40,211 // movaps %xmm11,%xmm10
- .byte 69,15,194,208,0 // cmpeqps %xmm8,%xmm10
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 15,92,194 // subps %xmm2,%xmm0
- .byte 65,15,89,198 // mulps %xmm14,%xmm0
- .byte 69,15,40,249 // movaps %xmm9,%xmm15
- .byte 68,15,194,250,1 // cmpltps %xmm2,%xmm15
- .byte 68,15,84,61,104,229,1,0 // andps 0x1e568(%rip),%xmm15 # 3d0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe64>
- .byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 65,15,194,193,0 // cmpeqps %xmm9,%xmm0
- .byte 65,15,92,208 // subps %xmm8,%xmm2
- .byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 68,15,40,45,91,229,1,0 // movaps 0x1e55b(%rip),%xmm13 # 3d0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe74>
- .byte 65,15,88,213 // addps %xmm13,%xmm2
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 69,15,89,198 // mulps %xmm14,%xmm8
- .byte 68,15,88,5,87,229,1,0 // addps 0x1e557(%rip),%xmm8 # 3d0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe84>
- .byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 102,69,15,56,20,199 // blendvps %xmm0,%xmm15,%xmm8
- .byte 68,15,89,5,79,229,1,0 // mulps 0x1e54f(%rip),%xmm8 # 3d0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe94>
- .byte 69,15,40,203 // movaps %xmm11,%xmm9
- .byte 69,15,194,204,4 // cmpneqps %xmm12,%xmm9
- .byte 69,15,84,193 // andps %xmm9,%xmm8
- .byte 69,15,92,235 // subps %xmm11,%xmm13
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 15,40,5,83,227,1,0 // movaps 0x1e353(%rip),%xmm0 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 65,15,40,211 // movaps %xmm11,%xmm2
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,194,194,1 // cmpltps %xmm2,%xmm0
- .byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 102,69,15,56,20,221 // blendvps %xmm0,%xmm13,%xmm11
- .byte 65,15,94,203 // divps %xmm11,%xmm1
- .byte 65,15,84,201 // andps %xmm9,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hsl_to_rgb_sse41
-.globl _sk_hsl_to_rgb_sse41
-FUNCTION(_sk_hsl_to_rgb_sse41)
-_sk_hsl_to_rgb_sse41:
- .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp)
- .byte 15,41,108,36,200 // movaps %xmm5,-0x38(%rsp)
- .byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
- .byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
- .byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,40,13,9,227,1,0 // movaps 0x1e309(%rip),%xmm9 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 15,194,194,2 // cmpleps %xmm2,%xmm0
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,234 // mulps %xmm2,%xmm5
- .byte 15,92,221 // subps %xmm5,%xmm3
- .byte 102,15,56,20,235 // blendvps %xmm0,%xmm3,%xmm5
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 15,41,84,36,152 // movaps %xmm2,-0x68(%rsp)
- .byte 69,15,88,192 // addps %xmm8,%xmm8
- .byte 68,15,92,197 // subps %xmm5,%xmm8
- .byte 68,15,40,53,196,228,1,0 // movaps 0x1e4c4(%rip),%xmm14 # 3d0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xea4>
- .byte 69,15,88,242 // addps %xmm10,%xmm14
- .byte 102,65,15,58,8,198,1 // roundps $0x1,%xmm14,%xmm0
- .byte 68,15,92,240 // subps %xmm0,%xmm14
- .byte 68,15,40,29,189,228,1,0 // movaps 0x1e4bd(%rip),%xmm11 # 3d100 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 65,15,92,240 // subps %xmm8,%xmm6
- .byte 15,40,61,86,228,1,0 // movaps 0x1e456(%rip),%xmm7 # 3d0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe64>
- .byte 69,15,40,238 // movaps %xmm14,%xmm13
- .byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 15,40,29,103,228,1,0 // movaps 0x1e467(%rip),%xmm3 # 3d0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe84>
- .byte 68,15,40,227 // movaps %xmm3,%xmm12
- .byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,89,230 // mulps %xmm6,%xmm12
- .byte 69,15,88,224 // addps %xmm8,%xmm12
- .byte 102,69,15,56,20,224 // blendvps %xmm0,%xmm8,%xmm12
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
- .byte 68,15,40,253 // movaps %xmm5,%xmm15
- .byte 102,69,15,56,20,252 // blendvps %xmm0,%xmm12,%xmm15
- .byte 68,15,40,37,70,228,1,0 // movaps 0x1e446(%rip),%xmm12 # 3d0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe94>
- .byte 65,15,40,196 // movaps %xmm12,%xmm0
- .byte 65,15,194,198,2 // cmpleps %xmm14,%xmm0
- .byte 68,15,89,238 // mulps %xmm6,%xmm13
- .byte 69,15,88,232 // addps %xmm8,%xmm13
- .byte 102,69,15,56,20,239 // blendvps %xmm0,%xmm15,%xmm13
- .byte 69,15,87,246 // xorps %xmm14,%xmm14
- .byte 68,15,194,241,0 // cmpeqps %xmm1,%xmm14
- .byte 65,15,40,198 // movaps %xmm14,%xmm0
- .byte 102,68,15,56,20,234 // blendvps %xmm0,%xmm2,%xmm13
- .byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0
- .byte 69,15,40,250 // movaps %xmm10,%xmm15
- .byte 68,15,92,248 // subps %xmm0,%xmm15
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 65,15,194,199,2 // cmpleps %xmm15,%xmm0
- .byte 65,15,40,207 // movaps %xmm15,%xmm1
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,92,209 // subps %xmm1,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 102,65,15,56,20,208 // blendvps %xmm0,%xmm8,%xmm2
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,194,199,2 // cmpleps %xmm15,%xmm0
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 102,15,56,20,226 // blendvps %xmm0,%xmm2,%xmm4
- .byte 65,15,40,196 // movaps %xmm12,%xmm0
- .byte 65,15,194,199,2 // cmpleps %xmm15,%xmm0
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 102,15,56,20,204 // blendvps %xmm0,%xmm4,%xmm1
- .byte 65,15,40,198 // movaps %xmm14,%xmm0
- .byte 15,40,84,36,152 // movaps -0x68(%rsp),%xmm2
- .byte 102,15,56,20,202 // blendvps %xmm0,%xmm2,%xmm1
- .byte 68,15,88,21,222,227,1,0 // addps 0x1e3de(%rip),%xmm10 # 3d110 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
- .byte 102,65,15,58,8,194,1 // roundps $0x1,%xmm10,%xmm0
- .byte 68,15,92,208 // subps %xmm0,%xmm10
- .byte 69,15,194,218,2 // cmpleps %xmm10,%xmm11
- .byte 65,15,89,250 // mulps %xmm10,%xmm7
- .byte 15,92,223 // subps %xmm7,%xmm3
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 65,15,88,216 // addps %xmm8,%xmm3
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 102,65,15,56,20,216 // blendvps %xmm0,%xmm8,%xmm3
- .byte 69,15,194,202,2 // cmpleps %xmm10,%xmm9
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,15,56,20,235 // blendvps %xmm0,%xmm3,%xmm5
- .byte 69,15,194,226,2 // cmpleps %xmm10,%xmm12
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 68,15,88,199 // addps %xmm7,%xmm8
- .byte 65,15,40,196 // movaps %xmm12,%xmm0
- .byte 102,68,15,56,20,197 // blendvps %xmm0,%xmm5,%xmm8
- .byte 65,15,40,198 // movaps %xmm14,%xmm0
- .byte 102,68,15,56,20,194 // blendvps %xmm0,%xmm2,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,197 // movaps %xmm13,%xmm0
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 15,40,92,36,168 // movaps -0x58(%rsp),%xmm3
- .byte 15,40,100,36,184 // movaps -0x48(%rsp),%xmm4
- .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5
- .byte 15,40,116,36,216 // movaps -0x28(%rsp),%xmm6
- .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_1_float_sse41
-.globl _sk_scale_1_float_sse41
-FUNCTION(_sk_scale_1_float_sse41)
-_sk_scale_1_float_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_u8_sse41
-.globl _sk_scale_u8_sse41
-FUNCTION(_sk_scale_u8_sse41)
-_sk_scale_u8_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,52 // jne 1ee13 <_sk_scale_u8_sse41+0x46>
- .byte 102,69,15,56,49,4,16 // pmovzxbd (%r8,%rdx,1),%xmm8
- .byte 102,68,15,219,5,209,225,1,0 // pand 0x1e1d1(%rip),%xmm8 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,37,227,1,0 // mulps 0x1e325(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,216 // movaps %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,55 // je 1ee52 <_sk_scale_u8_sse41+0x85>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 60,2 // cmp $0x2,%al
- .byte 116,21 // je 1ee39 <_sk_scale_u8_sse41+0x6c>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,190 // jne 1ede6 <_sk_scale_u8_sse41+0x19>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
- .byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 235,148 // jmp 1ede6 <_sk_scale_u8_sse41+0x19>
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,136 // jmp 1ede6 <_sk_scale_u8_sse41+0x19>
-
-HIDDEN _sk_scale_565_sse41
-.globl _sk_scale_565_sse41
-FUNCTION(_sk_scale_565_sse41)
-_sk_scale_565_sse41:
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,159,0,0,0 // jne 1ef1b <_sk_scale_565_sse41+0xbd>
- .byte 102,69,15,56,51,28,80 // pmovzxwd (%r8,%rdx,2),%xmm11
- .byte 102,15,111,5,165,226,1,0 // movdqa 0x1e2a5(%rip),%xmm0 # 3d130 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,65,15,219,195 // pand %xmm11,%xmm0
- .byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,164,226,1,0 // mulps 0x1e2a4(%rip),%xmm9 # 3d140 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
- .byte 102,15,111,5,172,226,1,0 // movdqa 0x1e2ac(%rip),%xmm0 # 3d150 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,65,15,219,195 // pand %xmm11,%xmm0
- .byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
- .byte 68,15,89,21,171,226,1,0 // mulps 0x1e2ab(%rip),%xmm10 # 3d160 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
- .byte 102,68,15,219,29,178,226,1,0 // pand 0x1e2b2(%rip),%xmm11 # 3d170 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
- .byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
- .byte 68,15,89,29,182,226,1,0 // mulps 0x1e2b6(%rip),%xmm11 # 3d180 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 69,15,40,226 // movaps %xmm10,%xmm12
- .byte 69,15,93,227 // minps %xmm11,%xmm12
- .byte 69,15,40,233 // movaps %xmm9,%xmm13
- .byte 69,15,93,236 // minps %xmm12,%xmm13
- .byte 69,15,40,242 // movaps %xmm10,%xmm14
- .byte 69,15,95,243 // maxps %xmm11,%xmm14
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 69,15,95,230 // maxps %xmm14,%xmm12
- .byte 102,69,15,56,20,229 // blendvps %xmm0,%xmm13,%xmm12
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 65,15,40,211 // movaps %xmm11,%xmm2
- .byte 65,15,40,220 // movaps %xmm12,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,56 // je 1ef5b <_sk_scale_565_sse41+0xfd>
- .byte 102,69,15,239,219 // pxor %xmm11,%xmm11
- .byte 60,2 // cmp $0x2,%al
- .byte 116,24 // je 1ef44 <_sk_scale_565_sse41+0xe6>
- .byte 60,3 // cmp $0x3,%al
- .byte 15,133,79,255,255,255 // jne 1ee83 <_sk_scale_565_sse41+0x25>
- .byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,68,15,112,216,69 // pshufd $0x45,%xmm0,%xmm11
- .byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
- .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
- .byte 102,68,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm11
- .byte 233,40,255,255,255 // jmpq 1ee83 <_sk_scale_565_sse41+0x25>
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,68,15,110,216 // movd %eax,%xmm11
- .byte 233,25,255,255,255 // jmpq 1ee83 <_sk_scale_565_sse41+0x25>
-
-HIDDEN _sk_lerp_1_float_sse41
-.globl _sk_lerp_1_float_sse41
-FUNCTION(_sk_lerp_1_float_sse41)
-_sk_lerp_1_float_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 15,92,223 // subps %xmm7,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lerp_u8_sse41
-.globl _sk_lerp_u8_sse41
-FUNCTION(_sk_lerp_u8_sse41)
-_sk_lerp_u8_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,72 // jne 1effc <_sk_lerp_u8_sse41+0x5a>
- .byte 102,69,15,56,49,4,16 // pmovzxbd (%r8,%rdx,1),%xmm8
- .byte 102,68,15,219,5,252,223,1,0 // pand 0x1dffc(%rip),%xmm8 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,80,225,1,0 // mulps 0x1e150(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 15,92,223 // subps %xmm7,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,55 // je 1f03b <_sk_lerp_u8_sse41+0x99>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 60,2 // cmp $0x2,%al
- .byte 116,21 // je 1f022 <_sk_lerp_u8_sse41+0x80>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,170 // jne 1efbb <_sk_lerp_u8_sse41+0x19>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 102,69,15,56,49,201 // pmovzxbd %xmm9,%xmm9
- .byte 102,69,15,58,14,193,15 // pblendw $0xf,%xmm9,%xmm8
- .byte 235,128 // jmp 1efbb <_sk_lerp_u8_sse41+0x19>
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,113,255,255,255 // jmpq 1efbb <_sk_lerp_u8_sse41+0x19>
-
-HIDDEN _sk_lerp_565_sse41
-.globl _sk_lerp_565_sse41
-FUNCTION(_sk_lerp_565_sse41)
-_sk_lerp_565_sse41:
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,165,0,0,0 // jne 1f10d <_sk_lerp_565_sse41+0xc3>
- .byte 102,69,15,56,51,20,80 // pmovzxwd (%r8,%rdx,2),%xmm10
- .byte 102,15,111,5,185,224,1,0 // movdqa 0x1e0b9(%rip),%xmm0 # 3d130 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,65,15,219,194 // pand %xmm10,%xmm0
- .byte 68,15,91,200 // cvtdq2ps %xmm0,%xmm9
- .byte 68,15,89,13,184,224,1,0 // mulps 0x1e0b8(%rip),%xmm9 # 3d140 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
- .byte 102,15,111,5,192,224,1,0 // movdqa 0x1e0c0(%rip),%xmm0 # 3d150 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,65,15,219,194 // pand %xmm10,%xmm0
- .byte 68,15,91,216 // cvtdq2ps %xmm0,%xmm11
- .byte 68,15,89,29,191,224,1,0 // mulps 0x1e0bf(%rip),%xmm11 # 3d160 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
- .byte 102,68,15,219,21,198,224,1,0 // pand 0x1e0c6(%rip),%xmm10 # 3d170 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
- .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,202,224,1,0 // mulps 0x1e0ca(%rip),%xmm10 # 3d180 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,194,199,1 // cmpltps %xmm7,%xmm0
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 69,15,93,218 // minps %xmm10,%xmm11
- .byte 69,15,40,233 // movaps %xmm9,%xmm13
- .byte 68,15,92,196 // subps %xmm4,%xmm8
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 69,15,93,203 // minps %xmm11,%xmm9
- .byte 69,15,95,226 // maxps %xmm10,%xmm12
- .byte 69,15,95,236 // maxps %xmm12,%xmm13
- .byte 102,69,15,56,20,233 // blendvps %xmm0,%xmm9,%xmm13
- .byte 68,15,88,196 // addps %xmm4,%xmm8
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 65,15,89,210 // mulps %xmm10,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 15,92,223 // subps %xmm7,%xmm3
- .byte 65,15,89,221 // mulps %xmm13,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,56 // je 1f14d <_sk_lerp_565_sse41+0x103>
- .byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 60,2 // cmp $0x2,%al
- .byte 116,24 // je 1f136 <_sk_lerp_565_sse41+0xec>
- .byte 60,3 // cmp $0x3,%al
- .byte 15,133,73,255,255,255 // jne 1f06f <_sk_lerp_565_sse41+0x25>
- .byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,68,15,112,208,69 // pshufd $0x45,%xmm0,%xmm10
- .byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
- .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
- .byte 102,68,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm10
- .byte 233,34,255,255,255 // jmpq 1f06f <_sk_lerp_565_sse41+0x25>
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,19,255,255,255 // jmpq 1f06f <_sk_lerp_565_sse41+0x25>
-
-HIDDEN _sk_load_tables_sse41
-.globl _sk_load_tables_sse41
-FUNCTION(_sk_load_tables_sse41)
-_sk_load_tables_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,20,1,0,0 // jne 1f27e <_sk_load_tables_sse41+0x122>
- .byte 243,69,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm8
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 102,15,111,5,69,222,1,0 // movdqa 0x1de45(%rip),%xmm0 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,65,15,219,192 // pand %xmm8,%xmm0
- .byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
- .byte 102,73,15,126,193 // movq %xmm0,%r9
- .byte 69,15,182,209 // movzbl %r9b,%r10d
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 69,15,182,216 // movzbl %r8b,%r11d
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 72,139,88,8 // mov 0x8(%rax),%rbx
- .byte 76,139,112,16 // mov 0x10(%rax),%r14
- .byte 243,66,15,16,4,147 // movss (%rbx,%r10,4),%xmm0
- .byte 102,66,15,58,33,4,11,16 // insertps $0x10,(%rbx,%r9,1),%xmm0
- .byte 102,66,15,58,33,4,155,32 // insertps $0x20,(%rbx,%r11,4),%xmm0
- .byte 102,66,15,58,33,4,3,48 // insertps $0x30,(%rbx,%r8,1),%xmm0
- .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,56,0,13,0,222,1,0 // pshufb 0x1de00(%rip),%xmm1 # 3cfd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
- .byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 68,15,182,203 // movzbl %bl,%r9d
- .byte 72,193,235,30 // shr $0x1e,%rbx
- .byte 69,15,182,208 // movzbl %r8b,%r10d
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 243,67,15,16,12,142 // movss (%r14,%r9,4),%xmm1
- .byte 102,65,15,58,33,12,30,16 // insertps $0x10,(%r14,%rbx,1),%xmm1
- .byte 243,67,15,16,20,150 // movss (%r14,%r10,4),%xmm2
- .byte 102,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm1
- .byte 243,67,15,16,20,6 // movss (%r14,%r8,1),%xmm2
- .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
- .byte 76,139,64,24 // mov 0x18(%rax),%r8
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,56,0,21,188,221,1,0 // pshufb 0x1ddbc(%rip),%xmm2 # 3cfe0 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
- .byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 68,15,182,200 // movzbl %al,%r9d
- .byte 72,193,232,30 // shr $0x1e,%rax
- .byte 68,15,182,211 // movzbl %bl,%r10d
- .byte 72,193,235,30 // shr $0x1e,%rbx
- .byte 243,67,15,16,20,136 // movss (%r8,%r9,4),%xmm2
- .byte 102,65,15,58,33,20,0,16 // insertps $0x10,(%r8,%rax,1),%xmm2
- .byte 243,67,15,16,28,144 // movss (%r8,%r10,4),%xmm3
- .byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2
- .byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3
- .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
- .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
- .byte 65,15,91,216 // cvtdq2ps %xmm8,%xmm3
- .byte 15,89,29,169,222,1,0 // mulps 0x1dea9(%rip),%xmm3 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,3 // and $0x3,%r9b
- .byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,52 // je 1f2bf <_sk_load_tables_sse41+0x163>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 1f2ad <_sk_load_tables_sse41+0x151>
- .byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,208,254,255,255 // jne 1f170 <_sk_load_tables_sse41+0x14>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
- .byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
- .byte 102,68,15,58,14,192,15 // pblendw $0xf,%xmm0,%xmm8
- .byte 233,177,254,255,255 // jmpq 1f170 <_sk_load_tables_sse41+0x14>
- .byte 102,69,15,110,4,144 // movd (%r8,%rdx,4),%xmm8
- .byte 233,166,254,255,255 // jmpq 1f170 <_sk_load_tables_sse41+0x14>
-
-HIDDEN _sk_load_tables_u16_be_sse41
-.globl _sk_load_tables_u16_be_sse41
-FUNCTION(_sk_load_tables_u16_be_sse41)
-_sk_load_tables_u16_be_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,95,1,0,0 // jne 1f43f <_sk_load_tables_u16_be_sse41+0x175>
- .byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
- .byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 102,68,15,40,200 // movapd %xmm0,%xmm9
- .byte 102,68,15,97,201 // punpcklwd %xmm1,%xmm9
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,68,15,111,5,123,222,1,0 // movdqa 0x1de7b(%rip),%xmm8 # 3d190 <_sk_srcover_bgra_8888_sse2_lowp+0xf44>
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,65,15,219,192 // pand %xmm8,%xmm0
- .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
- .byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
- .byte 102,73,15,126,193 // movq %xmm0,%r9
- .byte 69,15,182,209 // movzbl %r9b,%r10d
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 69,15,182,216 // movzbl %r8b,%r11d
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 72,139,88,8 // mov 0x8(%rax),%rbx
- .byte 76,139,112,16 // mov 0x10(%rax),%r14
- .byte 243,66,15,16,4,147 // movss (%rbx,%r10,4),%xmm0
- .byte 102,66,15,58,33,4,11,16 // insertps $0x10,(%rbx,%r9,1),%xmm0
- .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2
- .byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
- .byte 243,66,15,16,20,3 // movss (%rbx,%r8,1),%xmm2
- .byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
- .byte 102,15,56,0,13,42,222,1,0 // pshufb 0x1de2a(%rip),%xmm1 # 3d1a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf54>
- .byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
- .byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 68,15,182,203 // movzbl %bl,%r9d
- .byte 72,193,235,30 // shr $0x1e,%rbx
- .byte 69,15,182,208 // movzbl %r8b,%r10d
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 243,67,15,16,12,142 // movss (%r14,%r9,4),%xmm1
- .byte 102,65,15,58,33,12,30,16 // insertps $0x10,(%r14,%rbx,1),%xmm1
- .byte 243,67,15,16,20,150 // movss (%r14,%r10,4),%xmm2
- .byte 102,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm1
- .byte 243,67,15,16,20,6 // movss (%r14,%r8,1),%xmm2
- .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
- .byte 76,139,64,24 // mov 0x18(%rax),%r8
- .byte 102,69,15,219,193 // pand %xmm9,%xmm8
- .byte 102,65,15,56,51,208 // pmovzxwd %xmm8,%xmm2
- .byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 68,15,182,200 // movzbl %al,%r9d
- .byte 72,193,232,30 // shr $0x1e,%rax
- .byte 68,15,182,211 // movzbl %bl,%r10d
- .byte 72,193,235,30 // shr $0x1e,%rbx
- .byte 243,67,15,16,20,136 // movss (%r8,%r9,4),%xmm2
- .byte 102,65,15,58,33,20,0,16 // insertps $0x10,(%r8,%rax,1),%xmm2
- .byte 243,67,15,16,28,144 // movss (%r8,%r10,4),%xmm3
- .byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2
- .byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3
- .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
- .byte 102,65,15,112,217,78 // pshufd $0x4e,%xmm9,%xmm3
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,65,15,235,216 // por %xmm8,%xmm3
- .byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,120,221,1,0 // mulps 0x1dd78(%rip),%xmm3 # 3d1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 255,224 // jmpq *%rax
- .byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 1f458 <_sk_load_tables_u16_be_sse41+0x18e>
- .byte 243,15,126,192 // movq %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,149,254,255,255 // jmpq 1f2ed <_sk_load_tables_u16_be_sse41+0x23>
- .byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,128,254,255,255 // jb 1f2ed <_sk_load_tables_u16_be_sse41+0x23>
- .byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,116,254,255,255 // jmpq 1f2ed <_sk_load_tables_u16_be_sse41+0x23>
-
-HIDDEN _sk_load_tables_rgb_u16_be_sse41
-.globl _sk_load_tables_rgb_u16_be_sse41
-FUNCTION(_sk_load_tables_rgb_u16_be_sse41)
-_sk_load_tables_rgb_u16_be_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,79,1,0,0 // jne 1f5da <_sk_load_tables_rgb_u16_be_sse41+0x161>
- .byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
- .byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
- .byte 102,15,115,217,4 // psrldq $0x4,%xmm1
- .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
- .byte 102,65,15,115,217,6 // psrldq $0x6,%xmm9
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,115,216,6 // psrldq $0x6,%xmm0
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
- .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,68,15,111,5,193,220,1,0 // movdqa 0x1dcc1(%rip),%xmm8 # 3d190 <_sk_srcover_bgra_8888_sse2_lowp+0xf44>
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,65,15,219,192 // pand %xmm8,%xmm0
- .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
- .byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
- .byte 102,73,15,126,193 // movq %xmm0,%r9
- .byte 69,15,182,209 // movzbl %r9b,%r10d
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 69,15,182,216 // movzbl %r8b,%r11d
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 72,139,88,8 // mov 0x8(%rax),%rbx
- .byte 76,139,112,16 // mov 0x10(%rax),%r14
- .byte 243,66,15,16,4,147 // movss (%rbx,%r10,4),%xmm0
- .byte 102,66,15,58,33,4,11,16 // insertps $0x10,(%rbx,%r9,1),%xmm0
- .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3
- .byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
- .byte 243,66,15,16,28,3 // movss (%rbx,%r8,1),%xmm3
- .byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,15,56,0,13,112,220,1,0 // pshufb 0x1dc70(%rip),%xmm1 # 3d1a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf54>
- .byte 102,15,56,51,201 // pmovzxwd %xmm1,%xmm1
- .byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 68,15,182,203 // movzbl %bl,%r9d
- .byte 72,193,235,30 // shr $0x1e,%rbx
- .byte 69,15,182,208 // movzbl %r8b,%r10d
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 243,67,15,16,12,142 // movss (%r14,%r9,4),%xmm1
- .byte 102,65,15,58,33,12,30,16 // insertps $0x10,(%r14,%rbx,1),%xmm1
- .byte 243,67,15,16,28,150 // movss (%r14,%r10,4),%xmm3
- .byte 102,15,58,33,203,32 // insertps $0x20,%xmm3,%xmm1
- .byte 243,67,15,16,28,6 // movss (%r14,%r8,1),%xmm3
- .byte 102,15,58,33,203,48 // insertps $0x30,%xmm3,%xmm1
- .byte 76,139,64,24 // mov 0x18(%rax),%r8
- .byte 102,65,15,105,209 // punpckhwd %xmm9,%xmm2
- .byte 102,65,15,219,208 // pand %xmm8,%xmm2
- .byte 102,15,56,51,210 // pmovzxwd %xmm2,%xmm2
- .byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 68,15,182,200 // movzbl %al,%r9d
- .byte 72,193,232,30 // shr $0x1e,%rax
- .byte 68,15,182,211 // movzbl %bl,%r10d
- .byte 72,193,235,30 // shr $0x1e,%rbx
- .byte 243,67,15,16,20,136 // movss (%r8,%r9,4),%xmm2
- .byte 102,65,15,58,33,20,0,16 // insertps $0x10,(%r8,%rax,1),%xmm2
- .byte 243,67,15,16,28,144 // movss (%r8,%r10,4),%xmm3
- .byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2
- .byte 243,65,15,16,28,24 // movss (%r8,%rbx,1),%xmm3
- .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,59,217,1,0 // movaps 0x1d93b(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 255,224 // jmpq *%rax
- .byte 102,67,15,110,20,72 // movd (%r8,%r9,2),%xmm2
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 1f600 <_sk_load_tables_rgb_u16_be_sse41+0x187>
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 233,177,254,255,255 // jmpq 1f4b1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
- .byte 102,71,15,110,76,72,6 // movd 0x6(%r8,%r9,2),%xmm9
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,71,15,196,76,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm9
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 1f631 <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
- .byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,128,254,255,255 // jmpq 1f4b1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,119,254,255,255 // jmpq 1f4b1 <_sk_load_tables_rgb_u16_be_sse41+0x38>
-
-HIDDEN _sk_byte_tables_sse41
-.globl _sk_byte_tables_sse41
-FUNCTION(_sk_byte_tables_sse41)
-_sk_byte_tables_sse41:
- .byte 85 // push %rbp
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,13,188,216,1,0 // movaps 0x1d8bc(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,217 // minps %xmm9,%xmm11
- .byte 68,15,40,21,144,217,1,0 // movaps 0x1d990(%rip),%xmm10 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 69,15,89,218 // mulps %xmm10,%xmm11
- .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
- .byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 77,137,194 // mov %r8,%r10
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,73,15,126,192 // movq %xmm0,%r8
- .byte 69,137,195 // mov %r8d,%r11d
- .byte 77,137,198 // mov %r8,%r14
- .byte 73,193,238,32 // shr $0x20,%r14
- .byte 72,139,24 // mov (%rax),%rbx
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 70,15,182,52,51 // movzbl (%rbx,%r14,1),%r14d
- .byte 66,15,182,44,27 // movzbl (%rbx,%r11,1),%ebp
- .byte 102,15,110,197 // movd %ebp,%xmm0
- .byte 102,65,15,58,32,198,1 // pinsrb $0x1,%r14d,%xmm0
- .byte 66,15,182,44,11 // movzbl (%rbx,%r9,1),%ebp
- .byte 102,15,58,32,197,2 // pinsrb $0x2,%ebp,%xmm0
- .byte 66,15,182,44,19 // movzbl (%rbx,%r10,1),%ebp
- .byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
- .byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,85,218,1,0 // movaps 0x1da55(%rip),%xmm11 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,195 // mulps %xmm11,%xmm0
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,225 // minps %xmm9,%xmm12
- .byte 69,15,89,226 // mulps %xmm10,%xmm12
- .byte 102,65,15,91,204 // cvtps2dq %xmm12,%xmm1
- .byte 102,72,15,58,22,205,1 // pextrq $0x1,%xmm1,%rbp
- .byte 65,137,233 // mov %ebp,%r9d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 65,137,218 // mov %ebx,%r10d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,15,182,28,24 // movzbl (%r8,%rbx,1),%r11d
- .byte 67,15,182,28,16 // movzbl (%r8,%r10,1),%ebx
- .byte 102,15,110,203 // movd %ebx,%xmm1
- .byte 102,65,15,58,32,203,1 // pinsrb $0x1,%r11d,%xmm1
- .byte 67,15,182,28,8 // movzbl (%r8,%r9,1),%ebx
- .byte 102,15,58,32,203,2 // pinsrb $0x2,%ebx,%xmm1
- .byte 65,15,182,44,40 // movzbl (%r8,%rbp,1),%ebp
- .byte 102,15,58,32,205,3 // pinsrb $0x3,%ebp,%xmm1
- .byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,226 // maxps %xmm2,%xmm12
- .byte 69,15,93,225 // minps %xmm9,%xmm12
- .byte 69,15,89,226 // mulps %xmm10,%xmm12
- .byte 102,65,15,91,212 // cvtps2dq %xmm12,%xmm2
- .byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
- .byte 65,137,216 // mov %ebx,%r8d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,72,15,126,213 // movq %xmm2,%rbp
- .byte 65,137,234 // mov %ebp,%r10d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 69,15,182,28,41 // movzbl (%r9,%rbp,1),%r11d
- .byte 67,15,182,44,17 // movzbl (%r9,%r10,1),%ebp
- .byte 102,15,110,213 // movd %ebp,%xmm2
- .byte 102,65,15,58,32,211,1 // pinsrb $0x1,%r11d,%xmm2
- .byte 67,15,182,44,1 // movzbl (%r9,%r8,1),%ebp
- .byte 102,15,58,32,213,2 // pinsrb $0x2,%ebp,%xmm2
- .byte 65,15,182,44,25 // movzbl (%r9,%rbx,1),%ebp
- .byte 102,15,58,32,213,3 // pinsrb $0x3,%ebp,%xmm2
- .byte 102,15,56,49,210 // pmovzxbd %xmm2,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,211 // mulps %xmm11,%xmm2
- .byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 69,15,93,193 // minps %xmm9,%xmm8
- .byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 102,65,15,91,216 // cvtps2dq %xmm8,%xmm3
- .byte 102,72,15,58,22,221,1 // pextrq $0x1,%xmm3,%rbp
- .byte 65,137,232 // mov %ebp,%r8d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 102,72,15,126,219 // movq %xmm3,%rbx
- .byte 65,137,217 // mov %ebx,%r9d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 68,15,182,20,24 // movzbl (%rax,%rbx,1),%r10d
- .byte 66,15,182,28,8 // movzbl (%rax,%r9,1),%ebx
- .byte 102,15,110,219 // movd %ebx,%xmm3
- .byte 102,65,15,58,32,218,1 // pinsrb $0x1,%r10d,%xmm3
- .byte 66,15,182,28,0 // movzbl (%rax,%r8,1),%ebx
- .byte 102,15,58,32,219,2 // pinsrb $0x2,%ebx,%xmm3
- .byte 15,182,4,40 // movzbl (%rax,%rbp,1),%eax
- .byte 102,15,58,32,216,3 // pinsrb $0x3,%eax,%xmm3
- .byte 102,15,56,49,219 // pmovzxbd %xmm3,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 65,15,89,219 // mulps %xmm11,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_byte_tables_rgb_sse41
-.globl _sk_byte_tables_rgb_sse41
-FUNCTION(_sk_byte_tables_rgb_sse41)
-_sk_byte_tables_rgb_sse41:
- .byte 85 // push %rbp
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,24 // mov 0x18(%rax),%r8d
- .byte 65,255,200 // dec %r8d
- .byte 102,69,15,110,192 // movd %r8d,%xmm8
- .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,21,212,214,1,0 // movaps 0x1d6d4(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,218 // minps %xmm10,%xmm11
- .byte 69,15,89,216 // mulps %xmm8,%xmm11
- .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
- .byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 77,137,194 // mov %r8,%r10
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,73,15,126,192 // movq %xmm0,%r8
- .byte 69,137,195 // mov %r8d,%r11d
- .byte 77,137,198 // mov %r8,%r14
- .byte 73,193,238,32 // shr $0x20,%r14
- .byte 72,139,24 // mov (%rax),%rbx
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 70,15,182,52,51 // movzbl (%rbx,%r14,1),%r14d
- .byte 66,15,182,44,27 // movzbl (%rbx,%r11,1),%ebp
- .byte 102,15,110,197 // movd %ebp,%xmm0
- .byte 102,65,15,58,32,198,1 // pinsrb $0x1,%r14d,%xmm0
- .byte 66,15,182,44,11 // movzbl (%rbx,%r9,1),%ebp
- .byte 102,15,58,32,197,2 // pinsrb $0x2,%ebp,%xmm0
- .byte 66,15,182,44,19 // movzbl (%rbx,%r10,1),%ebp
- .byte 102,15,58,32,197,3 // pinsrb $0x3,%ebp,%xmm0
- .byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,117,216,1,0 // movaps 0x1d875(%rip),%xmm11 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,195 // mulps %xmm11,%xmm0
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,224 // mulps %xmm8,%xmm12
- .byte 102,65,15,91,204 // cvtps2dq %xmm12,%xmm1
- .byte 102,72,15,58,22,205,1 // pextrq $0x1,%xmm1,%rbp
- .byte 65,137,233 // mov %ebp,%r9d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 65,137,218 // mov %ebx,%r10d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,15,182,28,24 // movzbl (%r8,%rbx,1),%r11d
- .byte 67,15,182,28,16 // movzbl (%r8,%r10,1),%ebx
- .byte 102,15,110,203 // movd %ebx,%xmm1
- .byte 102,65,15,58,32,203,1 // pinsrb $0x1,%r11d,%xmm1
- .byte 67,15,182,28,8 // movzbl (%r8,%r9,1),%ebx
- .byte 102,15,58,32,203,2 // pinsrb $0x2,%ebx,%xmm1
- .byte 65,15,182,44,40 // movzbl (%r8,%rbp,1),%ebp
- .byte 102,15,58,32,205,3 // pinsrb $0x3,%ebp,%xmm1
- .byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 72,139,64,16 // mov 0x10(%rax),%rax
- .byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 102,65,15,91,209 // cvtps2dq %xmm9,%xmm2
- .byte 102,72,15,58,22,213,1 // pextrq $0x1,%xmm2,%rbp
- .byte 65,137,232 // mov %ebp,%r8d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 102,72,15,126,211 // movq %xmm2,%rbx
- .byte 65,137,217 // mov %ebx,%r9d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 68,15,182,20,24 // movzbl (%rax,%rbx,1),%r10d
- .byte 66,15,182,28,8 // movzbl (%rax,%r9,1),%ebx
- .byte 102,15,110,211 // movd %ebx,%xmm2
- .byte 102,65,15,58,32,210,1 // pinsrb $0x1,%r10d,%xmm2
- .byte 66,15,182,28,0 // movzbl (%rax,%r8,1),%ebx
- .byte 102,15,58,32,211,2 // pinsrb $0x2,%ebx,%xmm2
- .byte 15,182,4,40 // movzbl (%rax,%rbp,1),%eax
- .byte 102,15,58,32,208,3 // pinsrb $0x3,%eax,%xmm2
- .byte 102,15,56,49,210 // pmovzxbd %xmm2,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,211 // mulps %xmm11,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_r_sse41
-.globl _sk_table_r_sse41
-FUNCTION(_sk_table_r_sse41)
-_sk_table_r_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,13,101,213,1,0 // minps 0x1d565(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 102,65,15,91,193 // cvtps2dq %xmm9,%xmm0
- .byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,194 // movq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 243,67,15,16,4,152 // movss (%r8,%r11,4),%xmm0
- .byte 102,67,15,58,33,4,144,16 // insertps $0x10,(%r8,%r10,4),%xmm0
- .byte 243,71,15,16,4,136 // movss (%r8,%r9,4),%xmm8
- .byte 102,65,15,58,33,192,32 // insertps $0x20,%xmm8,%xmm0
- .byte 243,69,15,16,4,128 // movss (%r8,%rax,4),%xmm8
- .byte 102,65,15,58,33,192,48 // insertps $0x30,%xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_g_sse41
-.globl _sk_table_g_sse41
-FUNCTION(_sk_table_g_sse41)
-_sk_table_g_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,201 // maxps %xmm1,%xmm9
- .byte 68,15,93,13,237,212,1,0 // minps 0x1d4ed(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 102,65,15,91,201 // cvtps2dq %xmm9,%xmm1
- .byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 243,67,15,16,12,152 // movss (%r8,%r11,4),%xmm1
- .byte 102,67,15,58,33,12,144,16 // insertps $0x10,(%r8,%r10,4),%xmm1
- .byte 243,71,15,16,4,136 // movss (%r8,%r9,4),%xmm8
- .byte 102,65,15,58,33,200,32 // insertps $0x20,%xmm8,%xmm1
- .byte 243,69,15,16,4,128 // movss (%r8,%rax,4),%xmm8
- .byte 102,65,15,58,33,200,48 // insertps $0x30,%xmm8,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_b_sse41
-.globl _sk_table_b_sse41
-FUNCTION(_sk_table_b_sse41)
-_sk_table_b_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,93,13,117,212,1,0 // minps 0x1d475(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 102,65,15,91,209 // cvtps2dq %xmm9,%xmm2
- .byte 102,72,15,58,22,208,1 // pextrq $0x1,%xmm2,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,210 // movq %xmm2,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 243,67,15,16,20,152 // movss (%r8,%r11,4),%xmm2
- .byte 102,67,15,58,33,20,144,16 // insertps $0x10,(%r8,%r10,4),%xmm2
- .byte 243,71,15,16,4,136 // movss (%r8,%r9,4),%xmm8
- .byte 102,65,15,58,33,208,32 // insertps $0x20,%xmm8,%xmm2
- .byte 243,69,15,16,4,128 // movss (%r8,%rax,4),%xmm8
- .byte 102,65,15,58,33,208,48 // insertps $0x30,%xmm8,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_a_sse41
-.globl _sk_table_a_sse41
-FUNCTION(_sk_table_a_sse41)
-_sk_table_a_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,203 // maxps %xmm3,%xmm9
- .byte 68,15,93,13,253,211,1,0 // minps 0x1d3fd(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 102,65,15,91,217 // cvtps2dq %xmm9,%xmm3
- .byte 102,72,15,58,22,216,1 // pextrq $0x1,%xmm3,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,218 // movq %xmm3,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 243,67,15,16,28,152 // movss (%r8,%r11,4),%xmm3
- .byte 102,67,15,58,33,28,144,16 // insertps $0x10,(%r8,%r10,4),%xmm3
- .byte 243,71,15,16,4,136 // movss (%r8,%r9,4),%xmm8
- .byte 102,65,15,58,33,216,32 // insertps $0x20,%xmm8,%xmm3
- .byte 243,69,15,16,4,128 // movss (%r8,%rax,4),%xmm8
- .byte 102,65,15,58,33,216,48 // insertps $0x30,%xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_r_sse41
-.globl _sk_parametric_r_sse41
-FUNCTION(_sk_parametric_r_sse41)
-_sk_parametric_r_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,16 // movss 0x10(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,16,72,12 // movss 0xc(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 65,15,194,192,2 // cmpleps %xmm8,%xmm0
- .byte 243,68,15,16,64,24 // movss 0x18(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 243,68,15,16,32 // movss (%rax),%xmm12
- .byte 243,68,15,16,64,8 // movss 0x8(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,88,208 // addps %xmm8,%xmm10
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 69,15,91,194 // cvtdq2ps %xmm10,%xmm8
- .byte 68,15,89,5,246,213,1,0 // mulps 0x1d5f6(%rip),%xmm8 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 68,15,40,45,254,213,1,0 // movaps 0x1d5fe(%rip),%xmm13 # 3d1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,34,211,1,0 // orps 0x1d322(%rip),%xmm13 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,88,5,250,213,1,0 // addps 0x1d5fa(%rip),%xmm8 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 68,15,40,53,2,214,1,0 // movaps 0x1d602(%rip),%xmm14 # 3d1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 69,15,89,245 // mulps %xmm13,%xmm14
- .byte 69,15,92,198 // subps %xmm14,%xmm8
- .byte 68,15,88,45,2,214,1,0 // addps 0x1d602(%rip),%xmm13 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 68,15,40,53,10,214,1,0 // movaps 0x1d60a(%rip),%xmm14 # 3d210 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 69,15,94,245 // divps %xmm13,%xmm14
- .byte 69,15,92,198 // subps %xmm14,%xmm8
- .byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 102,69,15,58,8,224,1 // roundps $0x1,%xmm8,%xmm12
- .byte 69,15,40,232 // movaps %xmm8,%xmm13
- .byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,5,247,213,1,0 // addps 0x1d5f7(%rip),%xmm8 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 68,15,40,37,255,213,1,0 // movaps 0x1d5ff(%rip),%xmm12 # 3d230 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
- .byte 69,15,89,229 // mulps %xmm13,%xmm12
- .byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,40,37,255,213,1,0 // movaps 0x1d5ff(%rip),%xmm12 # 3d240 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
- .byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,40,45,3,214,1,0 // movaps 0x1d603(%rip),%xmm13 # 3d250 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
- .byte 69,15,94,236 // divps %xmm12,%xmm13
- .byte 69,15,88,232 // addps %xmm8,%xmm13
- .byte 68,15,89,45,3,214,1,0 // mulps 0x1d603(%rip),%xmm13 # 3d260 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
- .byte 102,69,15,91,197 // cvtps2dq %xmm13,%xmm8
- .byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
- .byte 69,15,84,208 // andps %xmm8,%xmm10
- .byte 243,68,15,16,64,20 // movss 0x14(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,88,194 // addps %xmm10,%xmm8
- .byte 102,69,15,56,20,193 // blendvps %xmm0,%xmm9,%xmm8
- .byte 69,15,95,195 // maxps %xmm11,%xmm8
- .byte 68,15,93,5,132,210,1,0 // minps 0x1d284(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_g_sse41
-.globl _sk_parametric_g_sse41
-FUNCTION(_sk_parametric_g_sse41)
-_sk_parametric_g_sse41:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,88,16 // movss 0x10(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,72,12 // movss 0xc(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 65,15,194,195,2 // cmpleps %xmm11,%xmm0
- .byte 243,15,16,72,24 // movss 0x18(%rax),%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 243,68,15,16,32 // movss (%rax),%xmm12
- .byte 243,15,16,72,8 // movss 0x8(%rax),%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 68,15,88,209 // addps %xmm1,%xmm10
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,193,212,1,0 // mulps 0x1d4c1(%rip),%xmm14 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 68,15,40,45,201,212,1,0 // movaps 0x1d4c9(%rip),%xmm13 # 3d1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,237,209,1,0 // orps 0x1d1ed(%rip),%xmm13 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,88,53,197,212,1,0 // addps 0x1d4c5(%rip),%xmm14 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 15,40,13,206,212,1,0 // movaps 0x1d4ce(%rip),%xmm1 # 3d1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 65,15,89,205 // mulps %xmm13,%xmm1
- .byte 68,15,92,241 // subps %xmm1,%xmm14
- .byte 68,15,88,45,206,212,1,0 // addps 0x1d4ce(%rip),%xmm13 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 15,40,13,215,212,1,0 // movaps 0x1d4d7(%rip),%xmm1 # 3d210 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 65,15,94,205 // divps %xmm13,%xmm1
- .byte 68,15,92,241 // subps %xmm1,%xmm14
- .byte 69,15,89,244 // mulps %xmm12,%xmm14
- .byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
- .byte 69,15,40,238 // movaps %xmm14,%xmm13
- .byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,196,212,1,0 // addps 0x1d4c4(%rip),%xmm14 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 15,40,13,205,212,1,0 // movaps 0x1d4cd(%rip),%xmm1 # 3d230 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
- .byte 65,15,89,205 // mulps %xmm13,%xmm1
- .byte 68,15,92,241 // subps %xmm1,%xmm14
- .byte 68,15,40,37,205,212,1,0 // movaps 0x1d4cd(%rip),%xmm12 # 3d240 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
- .byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,13,210,212,1,0 // movaps 0x1d4d2(%rip),%xmm1 # 3d250 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
- .byte 65,15,94,204 // divps %xmm12,%xmm1
- .byte 65,15,88,206 // addps %xmm14,%xmm1
- .byte 15,89,13,211,212,1,0 // mulps 0x1d4d3(%rip),%xmm1 # 3d260 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
- .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
- .byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
- .byte 68,15,84,209 // andps %xmm1,%xmm10
- .byte 243,15,16,72,20 // movss 0x14(%rax),%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 102,65,15,56,20,201 // blendvps %xmm0,%xmm9,%xmm1
- .byte 65,15,95,203 // maxps %xmm11,%xmm1
- .byte 15,93,13,88,209,1,0 // minps 0x1d158(%rip),%xmm1 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_b_sse41
-.globl _sk_parametric_b_sse41
-FUNCTION(_sk_parametric_b_sse41)
-_sk_parametric_b_sse41:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,88,16 // movss 0x10(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,72,12 // movss 0xc(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,202 // mulps %xmm2,%xmm9
- .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 65,15,194,195,2 // cmpleps %xmm11,%xmm0
- .byte 243,15,16,80,24 // movss 0x18(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 68,15,88,202 // addps %xmm2,%xmm9
- .byte 243,68,15,16,32 // movss (%rax),%xmm12
- .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 68,15,88,210 // addps %xmm2,%xmm10
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,149,211,1,0 // mulps 0x1d395(%rip),%xmm14 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 68,15,40,45,157,211,1,0 // movaps 0x1d39d(%rip),%xmm13 # 3d1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,193,208,1,0 // orps 0x1d0c1(%rip),%xmm13 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,88,53,153,211,1,0 // addps 0x1d399(%rip),%xmm14 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 15,40,21,162,211,1,0 // movaps 0x1d3a2(%rip),%xmm2 # 3d1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,92,242 // subps %xmm2,%xmm14
- .byte 68,15,88,45,162,211,1,0 // addps 0x1d3a2(%rip),%xmm13 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 15,40,21,171,211,1,0 // movaps 0x1d3ab(%rip),%xmm2 # 3d210 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 65,15,94,213 // divps %xmm13,%xmm2
- .byte 68,15,92,242 // subps %xmm2,%xmm14
- .byte 69,15,89,244 // mulps %xmm12,%xmm14
- .byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
- .byte 69,15,40,238 // movaps %xmm14,%xmm13
- .byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,152,211,1,0 // addps 0x1d398(%rip),%xmm14 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 15,40,21,161,211,1,0 // movaps 0x1d3a1(%rip),%xmm2 # 3d230 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
- .byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,92,242 // subps %xmm2,%xmm14
- .byte 68,15,40,37,161,211,1,0 // movaps 0x1d3a1(%rip),%xmm12 # 3d240 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
- .byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,21,166,211,1,0 // movaps 0x1d3a6(%rip),%xmm2 # 3d250 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
- .byte 65,15,94,212 // divps %xmm12,%xmm2
- .byte 65,15,88,214 // addps %xmm14,%xmm2
- .byte 15,89,21,167,211,1,0 // mulps 0x1d3a7(%rip),%xmm2 # 3d260 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
- .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
- .byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
- .byte 68,15,84,210 // andps %xmm2,%xmm10
- .byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 65,15,88,210 // addps %xmm10,%xmm2
- .byte 102,65,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm2
- .byte 65,15,95,211 // maxps %xmm11,%xmm2
- .byte 15,93,21,44,208,1,0 // minps 0x1d02c(%rip),%xmm2 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_a_sse41
-.globl _sk_parametric_a_sse41
-FUNCTION(_sk_parametric_a_sse41)
-_sk_parametric_a_sse41:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,88,16 // movss 0x10(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,72,12 // movss 0xc(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,203 // mulps %xmm3,%xmm9
- .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 65,15,194,195,2 // cmpleps %xmm11,%xmm0
- .byte 243,15,16,88,24 // movss 0x18(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 68,15,88,203 // addps %xmm3,%xmm9
- .byte 243,68,15,16,32 // movss (%rax),%xmm12
- .byte 243,15,16,88,8 // movss 0x8(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 68,15,88,211 // addps %xmm3,%xmm10
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 69,15,91,242 // cvtdq2ps %xmm10,%xmm14
- .byte 68,15,89,53,105,210,1,0 // mulps 0x1d269(%rip),%xmm14 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 68,15,40,45,113,210,1,0 // movaps 0x1d271(%rip),%xmm13 # 3d1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 69,15,84,234 // andps %xmm10,%xmm13
- .byte 68,15,86,45,149,207,1,0 // orps 0x1cf95(%rip),%xmm13 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,88,53,109,210,1,0 // addps 0x1d26d(%rip),%xmm14 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 15,40,29,118,210,1,0 // movaps 0x1d276(%rip),%xmm3 # 3d1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 65,15,89,221 // mulps %xmm13,%xmm3
- .byte 68,15,92,243 // subps %xmm3,%xmm14
- .byte 68,15,88,45,118,210,1,0 // addps 0x1d276(%rip),%xmm13 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 15,40,29,127,210,1,0 // movaps 0x1d27f(%rip),%xmm3 # 3d210 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 65,15,94,221 // divps %xmm13,%xmm3
- .byte 68,15,92,243 // subps %xmm3,%xmm14
- .byte 69,15,89,244 // mulps %xmm12,%xmm14
- .byte 102,69,15,58,8,230,1 // roundps $0x1,%xmm14,%xmm12
- .byte 69,15,40,238 // movaps %xmm14,%xmm13
- .byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 68,15,88,53,108,210,1,0 // addps 0x1d26c(%rip),%xmm14 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 15,40,29,117,210,1,0 // movaps 0x1d275(%rip),%xmm3 # 3d230 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
- .byte 65,15,89,221 // mulps %xmm13,%xmm3
- .byte 68,15,92,243 // subps %xmm3,%xmm14
- .byte 68,15,40,37,117,210,1,0 // movaps 0x1d275(%rip),%xmm12 # 3d240 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
- .byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 15,40,29,122,210,1,0 // movaps 0x1d27a(%rip),%xmm3 # 3d250 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
- .byte 65,15,94,220 // divps %xmm12,%xmm3
- .byte 65,15,88,222 // addps %xmm14,%xmm3
- .byte 15,89,29,123,210,1,0 // mulps 0x1d27b(%rip),%xmm3 # 3d260 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
- .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
- .byte 69,15,194,211,4 // cmpneqps %xmm11,%xmm10
- .byte 68,15,84,211 // andps %xmm3,%xmm10
- .byte 243,15,16,88,20 // movss 0x14(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,88,218 // addps %xmm10,%xmm3
- .byte 102,65,15,56,20,217 // blendvps %xmm0,%xmm9,%xmm3
- .byte 65,15,95,219 // maxps %xmm11,%xmm3
- .byte 15,93,29,0,207,1,0 // minps 0x1cf00(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gamma_sse41
-.globl _sk_gamma_sse41
-FUNCTION(_sk_gamma_sse41)
-_sk_gamma_sse41:
- .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp)
- .byte 15,41,108,36,200 // movaps %xmm5,-0x38(%rsp)
- .byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
- .byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
- .byte 68,15,40,226 // movaps %xmm2,%xmm12
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 15,40,5,122,209,1,0 // movaps 0x1d17a(%rip),%xmm0 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 68,15,40,5,124,209,1,0 // movaps 0x1d17c(%rip),%xmm8 # 3d1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,158,206,1,0 // orps 0x1ce9e(%rip),%xmm0 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,88,53,119,209,1,0 // addps 0x1d177(%rip),%xmm6 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 68,15,40,29,127,209,1,0 // movaps 0x1d17f(%rip),%xmm11 # 3d1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 15,92,241 // subps %xmm1,%xmm6
- .byte 68,15,40,61,125,209,1,0 // movaps 0x1d17d(%rip),%xmm15 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,53,129,209,1,0 // movaps 0x1d181(%rip),%xmm14 # 3d210 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 65,15,40,206 // movaps %xmm14,%xmm1
- .byte 15,94,200 // divps %xmm0,%xmm1
- .byte 15,92,241 // subps %xmm1,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,16 // movss (%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 102,15,58,8,198,1 // roundps $0x1,%xmm6,%xmm0
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,53,103,209,1,0 // addps 0x1d167(%rip),%xmm6 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 15,40,29,128,209,1,0 // movaps 0x1d180(%rip),%xmm3 # 3d240 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,92,201 // subps %xmm1,%xmm9
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,94,209,1,0 // movaps 0x1d15e(%rip),%xmm1 # 3d230 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,92,240 // subps %xmm0,%xmm6
- .byte 68,15,40,45,112,209,1,0 // movaps 0x1d170(%rip),%xmm13 # 3d250 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
- .byte 65,15,40,197 // movaps %xmm13,%xmm0
- .byte 65,15,94,193 // divps %xmm9,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 68,15,40,13,109,209,1,0 // movaps 0x1d16d(%rip),%xmm9 # 3d260 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,194,230,4 // cmpneqps %xmm6,%xmm4
- .byte 15,84,224 // andps %xmm0,%xmm4
- .byte 65,15,91,194 // cvtdq2ps %xmm10,%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 65,15,40,250 // movaps %xmm10,%xmm7
- .byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,53,229,205,1,0 // movaps 0x1cde5(%rip),%xmm6 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,86,254 // orps %xmm6,%xmm7
- .byte 15,88,5,187,208,1,0 // addps 0x1d0bb(%rip),%xmm0 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 15,40,239 // movaps %xmm7,%xmm5
- .byte 65,15,89,235 // mulps %xmm11,%xmm5
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 65,15,88,255 // addps %xmm15,%xmm7
- .byte 65,15,40,238 // movaps %xmm14,%xmm5
- .byte 15,94,239 // divps %xmm7,%xmm5
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 102,15,58,8,232,1 // roundps $0x1,%xmm0,%xmm5
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,92,253 // subps %xmm5,%xmm7
- .byte 68,15,40,61,204,208,1,0 // movaps 0x1d0cc(%rip),%xmm15 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 15,92,199 // subps %xmm7,%xmm0
- .byte 65,15,40,253 // movaps %xmm13,%xmm7
- .byte 15,94,253 // divps %xmm5,%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 102,15,91,199 // cvtps2dq %xmm7,%xmm0
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
- .byte 68,15,84,208 // andps %xmm0,%xmm10
- .byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,51,208,1,0 // mulps 0x1d033(%rip),%xmm0 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 69,15,84,196 // andps %xmm12,%xmm8
- .byte 68,15,86,198 // orps %xmm6,%xmm8
- .byte 15,88,5,68,208,1,0 // addps 0x1d044(%rip),%xmm0 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 69,15,89,216 // mulps %xmm8,%xmm11
- .byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,84,208,1,0 // addps 0x1d054(%rip),%xmm8 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 69,15,94,240 // divps %xmm8,%xmm14
- .byte 65,15,92,198 // subps %xmm14,%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 102,15,58,8,208,1 // roundps $0x1,%xmm0,%xmm2
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,92,234 // subps %xmm2,%xmm5
- .byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,92,221 // subps %xmm5,%xmm3
- .byte 68,15,94,235 // divps %xmm3,%xmm13
- .byte 68,15,88,232 // addps %xmm0,%xmm13
- .byte 69,15,89,233 // mulps %xmm9,%xmm13
- .byte 68,15,194,231,4 // cmpneqps %xmm7,%xmm12
- .byte 102,65,15,91,197 // cvtps2dq %xmm13,%xmm0
- .byte 68,15,84,224 // andps %xmm0,%xmm12
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 65,15,40,212 // movaps %xmm12,%xmm2
- .byte 15,40,92,36,168 // movaps -0x58(%rsp),%xmm3
- .byte 15,40,100,36,184 // movaps -0x48(%rsp),%xmm4
- .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5
- .byte 15,40,116,36,216 // movaps -0x28(%rsp),%xmm6
- .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gamma_dst_sse41
-.globl _sk_gamma_dst_sse41
-FUNCTION(_sk_gamma_dst_sse41)
-_sk_gamma_dst_sse41:
- .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 68,15,40,230 // movaps %xmm6,%xmm12
- .byte 68,15,40,213 // movaps %xmm5,%xmm10
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,41,92,36,216 // movaps %xmm3,-0x28(%rsp)
- .byte 15,41,84,36,200 // movaps %xmm2,-0x38(%rsp)
- .byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp)
- .byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp)
- .byte 15,91,221 // cvtdq2ps %xmm5,%xmm3
- .byte 15,40,5,128,207,1,0 // movaps 0x1cf80(%rip),%xmm0 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,5,130,207,1,0 // movaps 0x1cf82(%rip),%xmm8 # 3d1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,164,204,1,0 // orps 0x1cca4(%rip),%xmm0 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,88,29,125,207,1,0 // addps 0x1cf7d(%rip),%xmm3 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 68,15,40,29,133,207,1,0 // movaps 0x1cf85(%rip),%xmm11 # 3d1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 15,92,217 // subps %xmm1,%xmm3
- .byte 68,15,40,61,131,207,1,0 // movaps 0x1cf83(%rip),%xmm15 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,53,135,207,1,0 // movaps 0x1cf87(%rip),%xmm14 # 3d210 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 65,15,40,206 // movaps %xmm14,%xmm1
- .byte 15,94,200 // divps %xmm0,%xmm1
- .byte 15,92,217 // subps %xmm1,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,16 // movss (%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 102,15,58,8,195,1 // roundps $0x1,%xmm3,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,29,109,207,1,0 // addps 0x1cf6d(%rip),%xmm3 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 15,40,37,134,207,1,0 // movaps 0x1cf86(%rip),%xmm4 # 3d240 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
- .byte 68,15,40,204 // movaps %xmm4,%xmm9
- .byte 68,15,92,201 // subps %xmm1,%xmm9
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,100,207,1,0 // movaps 0x1cf64(%rip),%xmm1 # 3d230 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 68,15,40,45,118,207,1,0 // movaps 0x1cf76(%rip),%xmm13 # 3d250 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
- .byte 65,15,40,197 // movaps %xmm13,%xmm0
- .byte 65,15,94,193 // divps %xmm9,%xmm0
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 68,15,40,13,115,207,1,0 // movaps 0x1cf73(%rip),%xmm9 # 3d260 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,194,235,4 // cmpneqps %xmm3,%xmm5
- .byte 15,84,232 // andps %xmm0,%xmm5
- .byte 65,15,91,194 // cvtdq2ps %xmm10,%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 65,15,40,250 // movaps %xmm10,%xmm7
- .byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,29,235,203,1,0 // movaps 0x1cbeb(%rip),%xmm3 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,86,251 // orps %xmm3,%xmm7
- .byte 15,88,5,193,206,1,0 // addps 0x1cec1(%rip),%xmm0 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 15,40,247 // movaps %xmm7,%xmm6
- .byte 65,15,89,243 // mulps %xmm11,%xmm6
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 65,15,88,255 // addps %xmm15,%xmm7
- .byte 65,15,40,246 // movaps %xmm14,%xmm6
- .byte 15,94,247 // divps %xmm7,%xmm6
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 102,15,58,8,240,1 // roundps $0x1,%xmm0,%xmm6
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,92,254 // subps %xmm6,%xmm7
- .byte 68,15,40,61,210,206,1,0 // movaps 0x1ced2(%rip),%xmm15 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 15,92,199 // subps %xmm7,%xmm0
- .byte 65,15,40,253 // movaps %xmm13,%xmm7
- .byte 15,94,254 // divps %xmm6,%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 102,15,91,199 // cvtps2dq %xmm7,%xmm0
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
- .byte 68,15,84,208 // andps %xmm0,%xmm10
- .byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,57,206,1,0 // mulps 0x1ce39(%rip),%xmm0 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 69,15,84,196 // andps %xmm12,%xmm8
- .byte 68,15,86,195 // orps %xmm3,%xmm8
- .byte 15,88,5,74,206,1,0 // addps 0x1ce4a(%rip),%xmm0 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 69,15,89,216 // mulps %xmm8,%xmm11
- .byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,90,206,1,0 // addps 0x1ce5a(%rip),%xmm8 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 69,15,94,240 // divps %xmm8,%xmm14
- .byte 65,15,92,198 // subps %xmm14,%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 102,15,58,8,208,1 // roundps $0x1,%xmm0,%xmm2
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,92,242 // subps %xmm2,%xmm6
- .byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,92,230 // subps %xmm6,%xmm4
- .byte 68,15,94,236 // divps %xmm4,%xmm13
- .byte 68,15,88,232 // addps %xmm0,%xmm13
- .byte 69,15,89,233 // mulps %xmm9,%xmm13
- .byte 68,15,194,231,4 // cmpneqps %xmm7,%xmm12
- .byte 102,65,15,91,197 // cvtps2dq %xmm13,%xmm0
- .byte 68,15,84,224 // andps %xmm0,%xmm12
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,68,36,168 // movaps -0x58(%rsp),%xmm0
- .byte 15,40,76,36,184 // movaps -0x48(%rsp),%xmm1
- .byte 15,40,84,36,200 // movaps -0x38(%rsp),%xmm2
- .byte 15,40,92,36,216 // movaps -0x28(%rsp),%xmm3
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 65,15,40,234 // movaps %xmm10,%xmm5
- .byte 65,15,40,244 // movaps %xmm12,%xmm6
- .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lab_to_xyz_sse41
-.globl _sk_lab_to_xyz_sse41
-FUNCTION(_sk_lab_to_xyz_sse41)
-_sk_lab_to_xyz_sse41:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,89,5,88,206,1,0 // mulps 0x1ce58(%rip),%xmm8 # 3d270 <_sk_srcover_bgra_8888_sse2_lowp+0x1024>
- .byte 68,15,40,13,208,203,1,0 // movaps 0x1cbd0(%rip),%xmm9 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 15,40,5,85,206,1,0 // movaps 0x1ce55(%rip),%xmm0 # 3d280 <_sk_srcover_bgra_8888_sse2_lowp+0x1034>
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 68,15,88,5,83,206,1,0 // addps 0x1ce53(%rip),%xmm8 # 3d290 <_sk_srcover_bgra_8888_sse2_lowp+0x1044>
- .byte 68,15,89,5,91,206,1,0 // mulps 0x1ce5b(%rip),%xmm8 # 3d2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1054>
- .byte 15,89,13,100,206,1,0 // mulps 0x1ce64(%rip),%xmm1 # 3d2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1064>
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 15,89,21,105,206,1,0 // mulps 0x1ce69(%rip),%xmm2 # 3d2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1074>
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,92,210 // subps %xmm2,%xmm10
- .byte 68,15,40,217 // movaps %xmm1,%xmm11
- .byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,40,13,93,206,1,0 // movaps 0x1ce5d(%rip),%xmm9 # 3d2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1084>
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 15,40,21,93,206,1,0 // movaps 0x1ce5d(%rip),%xmm2 # 3d2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1094>
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 68,15,40,37,98,206,1,0 // movaps 0x1ce62(%rip),%xmm12 # 3d2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x10a4>
- .byte 65,15,89,204 // mulps %xmm12,%xmm1
- .byte 102,65,15,56,20,203 // blendvps %xmm0,%xmm11,%xmm1
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 69,15,89,216 // mulps %xmm8,%xmm11
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 68,15,88,194 // addps %xmm2,%xmm8
- .byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 102,69,15,56,20,195 // blendvps %xmm0,%xmm11,%xmm8
- .byte 69,15,40,218 // movaps %xmm10,%xmm11
- .byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 69,15,89,218 // mulps %xmm10,%xmm11
- .byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 65,15,88,210 // addps %xmm10,%xmm2
- .byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,65,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm2
- .byte 15,89,13,27,206,1,0 // mulps 0x1ce1b(%rip),%xmm1 # 3d300 <_sk_srcover_bgra_8888_sse2_lowp+0x10b4>
- .byte 15,89,21,36,206,1,0 // mulps 0x1ce24(%rip),%xmm2 # 3d310 <_sk_srcover_bgra_8888_sse2_lowp+0x10c4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_a8_sse41
-.globl _sk_load_a8_sse41
-FUNCTION(_sk_load_a8_sse41)
-_sk_load_a8_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 20530 <_sk_load_a8_sse41+0x39>
- .byte 102,65,15,56,49,4,16 // pmovzxbd (%r8,%rdx,1),%xmm0
- .byte 102,15,219,5,168,202,1,0 // pand 0x1caa8(%rip),%xmm0 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,254,203,1,0 // mulps 0x1cbfe(%rip),%xmm3 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,49 // je 20569 <_sk_load_a8_sse41+0x72>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 20553 <_sk_load_a8_sse41+0x5c>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,204 // jne 20510 <_sk_load_a8_sse41+0x19>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
- .byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,167 // jmp 20510 <_sk_load_a8_sse41+0x19>
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,156 // jmp 20510 <_sk_load_a8_sse41+0x19>
-
-HIDDEN _sk_load_a8_dst_sse41
-.globl _sk_load_a8_dst_sse41
-FUNCTION(_sk_load_a8_dst_sse41)
-_sk_load_a8_dst_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,39 // jne 205ad <_sk_load_a8_dst_sse41+0x39>
- .byte 102,65,15,56,49,36,16 // pmovzxbd (%r8,%rdx,1),%xmm4
- .byte 102,15,219,37,43,202,1,0 // pand 0x1ca2b(%rip),%xmm4 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,129,203,1,0 // mulps 0x1cb81(%rip),%xmm7 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,49 // je 205e6 <_sk_load_a8_dst_sse41+0x72>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 205d0 <_sk_load_a8_dst_sse41+0x5c>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,204 // jne 2058d <_sk_load_a8_dst_sse41+0x19>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,232 // movd %eax,%xmm5
- .byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
- .byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,167 // jmp 2058d <_sk_load_a8_dst_sse41+0x19>
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,156 // jmp 2058d <_sk_load_a8_dst_sse41+0x19>
-
-HIDDEN _sk_gather_a8_sse41
-.globl _sk_gather_a8_sse41
-FUNCTION(_sk_gather_a8_sse41)
-_sk_gather_a8_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,80,12 // movss 0xc(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,202 // minps %xmm2,%xmm9
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,56,64,200 // pmulld %xmm0,%xmm1
- .byte 243,65,15,91,193 // cvttps2dq %xmm9,%xmm0
- .byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,194 // movq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 71,15,182,28,24 // movzbl (%r8,%r11,1),%r11d
- .byte 102,65,15,110,195 // movd %r11d,%xmm0
- .byte 102,65,15,58,32,194,1 // pinsrb $0x1,%r10d,%xmm0
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 102,65,15,58,32,193,2 // pinsrb $0x2,%r9d,%xmm0
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
- .byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
- .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,130,202,1,0 // mulps 0x1ca82(%rip),%xmm3 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_a8_sse41
-.globl _sk_store_a8_sse41
-FUNCTION(_sk_store_a8_sse41)
-_sk_store_a8_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 68,15,93,5,71,200,1,0 // minps 0x1c847(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,89,5,31,201,1,0 // mulps 0x1c91f(%rip),%xmm8 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
- .byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 206f3 <_sk_store_a8_sse41+0x47>
- .byte 102,68,15,126,192 // movd %xmm8,%eax
- .byte 65,137,4,16 // mov %eax,(%r8,%rdx,1)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,56,49,192 // pmovzxbd %xmm8,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 20726 <_sk_store_a8_sse41+0x7a>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 20712 <_sk_store_a8_sse41+0x66>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,230 // jne 206ef <_sk_store_a8_sse41+0x43>
- .byte 102,69,15,58,20,68,16,2,8 // pextrb $0x8,%xmm8,0x2(%r8,%rdx,1)
- .byte 102,68,15,56,0,5,4,204,1,0 // pshufb 0x1cc04(%rip),%xmm8 # 3d320 <_sk_srcover_bgra_8888_sse2_lowp+0x10d4>
- .byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,201 // jmp 206ef <_sk_store_a8_sse41+0x43>
- .byte 102,69,15,58,20,4,16,0 // pextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,191 // jmp 206ef <_sk_store_a8_sse41+0x43>
-
-HIDDEN _sk_load_g8_sse41
-.globl _sk_load_g8_sse41
-FUNCTION(_sk_load_g8_sse41)
-_sk_load_g8_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 2076c <_sk_load_g8_sse41+0x3c>
- .byte 102,65,15,56,49,4,16 // pmovzxbd (%r8,%rdx,1),%xmm0
- .byte 102,15,219,5,111,200,1,0 // pand 0x1c86f(%rip),%xmm0 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,197,201,1,0 // mulps 0x1c9c5(%rip),%xmm0 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,172,199,1,0 // movaps 0x1c7ac(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,49 // je 207a5 <_sk_load_g8_sse41+0x75>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 2078f <_sk_load_g8_sse41+0x5f>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,201 // jne 20749 <_sk_load_g8_sse41+0x19>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 102,15,56,49,201 // pmovzxbd %xmm1,%xmm1
- .byte 102,15,58,14,193,15 // pblendw $0xf,%xmm1,%xmm0
- .byte 235,164 // jmp 20749 <_sk_load_g8_sse41+0x19>
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,153 // jmp 20749 <_sk_load_g8_sse41+0x19>
-
-HIDDEN _sk_load_g8_dst_sse41
-.globl _sk_load_g8_dst_sse41
-FUNCTION(_sk_load_g8_dst_sse41)
-_sk_load_g8_dst_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,42 // jne 207ec <_sk_load_g8_dst_sse41+0x3c>
- .byte 102,65,15,56,49,36,16 // pmovzxbd (%r8,%rdx,1),%xmm4
- .byte 102,15,219,37,239,199,1,0 // pand 0x1c7ef(%rip),%xmm4 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,69,201,1,0 // mulps 0x1c945(%rip),%xmm4 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,44,199,1,0 // movaps 0x1c72c(%rip),%xmm7 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,49 // je 20825 <_sk_load_g8_dst_sse41+0x75>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 2080f <_sk_load_g8_dst_sse41+0x5f>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,201 // jne 207c9 <_sk_load_g8_dst_sse41+0x19>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,232 // movd %eax,%xmm5
- .byte 102,15,56,49,237 // pmovzxbd %xmm5,%xmm5
- .byte 102,15,58,14,229,15 // pblendw $0xf,%xmm5,%xmm4
- .byte 235,164 // jmp 207c9 <_sk_load_g8_dst_sse41+0x19>
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,153 // jmp 207c9 <_sk_load_g8_dst_sse41+0x19>
-
-HIDDEN _sk_gather_g8_sse41
-.globl _sk_gather_g8_sse41
-FUNCTION(_sk_gather_g8_sse41)
-_sk_gather_g8_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,80,12 // movss 0xc(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,202 // minps %xmm2,%xmm9
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,56,64,200 // pmulld %xmm0,%xmm1
- .byte 243,65,15,91,193 // cvttps2dq %xmm9,%xmm0
- .byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,194 // movq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 71,15,182,28,24 // movzbl (%r8,%r11,1),%r11d
- .byte 102,65,15,110,195 // movd %r11d,%xmm0
- .byte 102,65,15,58,32,194,1 // pinsrb $0x1,%r10d,%xmm0
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 102,65,15,58,32,193,2 // pinsrb $0x2,%r9d,%xmm0
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 102,15,58,32,192,3 // pinsrb $0x3,%eax,%xmm0
- .byte 102,15,56,49,192 // pmovzxbd %xmm0,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,67,200,1,0 // mulps 0x1c843(%rip),%xmm0 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,42,198,1,0 // movaps 0x1c62a(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_565_sse41
-.globl _sk_load_565_sse41
-FUNCTION(_sk_load_565_sse41)
-_sk_load_565_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 20953 <_sk_load_565_sse41+0x65>
- .byte 102,65,15,56,51,20,80 // pmovzxwd (%r8,%rdx,2),%xmm2
- .byte 102,15,111,5,30,200,1,0 // movdqa 0x1c81e(%rip),%xmm0 # 3d130 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,32,200,1,0 // mulps 0x1c820(%rip),%xmm0 # 3d140 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
- .byte 102,15,111,13,40,200,1,0 // movdqa 0x1c828(%rip),%xmm1 # 3d150 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,42,200,1,0 // mulps 0x1c82a(%rip),%xmm1 # 3d160 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
- .byte 102,15,219,21,50,200,1,0 // pand 0x1c832(%rip),%xmm2 # 3d170 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,56,200,1,0 // mulps 0x1c838(%rip),%xmm2 # 3d180 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,191,197,1,0 // movaps 0x1c5bf(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,46 // je 20989 <_sk_load_565_sse41+0x9b>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 20976 <_sk_load_565_sse41+0x88>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,163 // jne 2090a <_sk_load_565_sse41+0x1c>
- .byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
- .byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
- .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
- .byte 102,15,58,14,208,15 // pblendw $0xf,%xmm0,%xmm2
- .byte 235,129 // jmp 2090a <_sk_load_565_sse41+0x1c>
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,115,255,255,255 // jmpq 2090a <_sk_load_565_sse41+0x1c>
-
-HIDDEN _sk_load_565_dst_sse41
-.globl _sk_load_565_dst_sse41
-FUNCTION(_sk_load_565_dst_sse41)
-_sk_load_565_dst_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,80 // jne 209fc <_sk_load_565_dst_sse41+0x65>
- .byte 102,65,15,56,51,52,80 // pmovzxwd (%r8,%rdx,2),%xmm6
- .byte 102,15,111,37,117,199,1,0 // movdqa 0x1c775(%rip),%xmm4 # 3d130 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,119,199,1,0 // mulps 0x1c777(%rip),%xmm4 # 3d140 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
- .byte 102,15,111,45,127,199,1,0 // movdqa 0x1c77f(%rip),%xmm5 # 3d150 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,15,219,238 // pand %xmm6,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,129,199,1,0 // mulps 0x1c781(%rip),%xmm5 # 3d160 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
- .byte 102,15,219,53,137,199,1,0 // pand 0x1c789(%rip),%xmm6 # 3d170 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,143,199,1,0 // mulps 0x1c78f(%rip),%xmm6 # 3d180 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,22,197,1,0 // movaps 0x1c516(%rip),%xmm7 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,46 // je 20a32 <_sk_load_565_dst_sse41+0x9b>
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 20a1f <_sk_load_565_dst_sse41+0x88>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,163 // jne 209b3 <_sk_load_565_dst_sse41+0x1c>
- .byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
- .byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
- .byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
- .byte 102,15,58,14,244,15 // pblendw $0xf,%xmm4,%xmm6
- .byte 235,129 // jmp 209b3 <_sk_load_565_dst_sse41+0x1c>
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,115,255,255,255 // jmpq 209b3 <_sk_load_565_dst_sse41+0x1c>
-
-HIDDEN _sk_gather_565_sse41
-.globl _sk_gather_565_sse41
-FUNCTION(_sk_gather_565_sse41)
-_sk_gather_565_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,80,12 // movss 0xc(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,202 // minps %xmm2,%xmm9
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,56,64,200 // pmulld %xmm0,%xmm1
- .byte 243,65,15,91,193 // cvttps2dq %xmm9,%xmm0
- .byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,194 // movq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,183,20,80 // movzwl (%r8,%r10,2),%r10d
- .byte 71,15,183,28,88 // movzwl (%r8,%r11,2),%r11d
- .byte 102,65,15,110,195 // movd %r11d,%xmm0
- .byte 102,65,15,196,194,1 // pinsrw $0x1,%r10d,%xmm0
- .byte 71,15,183,12,72 // movzwl (%r8,%r9,2),%r9d
- .byte 102,65,15,196,193,2 // pinsrw $0x2,%r9d,%xmm0
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
- .byte 102,15,56,51,208 // pmovzxwd %xmm0,%xmm2
- .byte 102,15,111,5,72,198,1,0 // movdqa 0x1c648(%rip),%xmm0 # 3d130 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,74,198,1,0 // mulps 0x1c64a(%rip),%xmm0 # 3d140 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
- .byte 102,15,111,13,82,198,1,0 // movdqa 0x1c652(%rip),%xmm1 # 3d150 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,84,198,1,0 // mulps 0x1c654(%rip),%xmm1 # 3d160 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
- .byte 102,15,219,21,92,198,1,0 // pand 0x1c65c(%rip),%xmm2 # 3d170 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,98,198,1,0 // mulps 0x1c662(%rip),%xmm2 # 3d180 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,233,195,1,0 // movaps 0x1c3e9(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_565_sse41
-.globl _sk_store_565_sse41
-FUNCTION(_sk_store_565_sse41)
-_sk_store_565_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,195,195,1,0 // movaps 0x1c3c3(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,215,199,1,0 // movaps 0x1c7d7(%rip),%xmm11 # 3d330 <_sk_srcover_bgra_8888_sse2_lowp+0x10e4>
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 68,15,89,37,196,199,1,0 // mulps 0x1c7c4(%rip),%xmm12 # 3d340 <_sk_srcover_bgra_8888_sse2_lowp+0x10f4>
- .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
- .byte 102,65,15,114,244,5 // pslld $0x5,%xmm12
- .byte 68,15,95,194 // maxps %xmm2,%xmm8
- .byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 69,15,89,195 // mulps %xmm11,%xmm8
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,69,15,86,193 // orpd %xmm9,%xmm8
- .byte 102,69,15,86,196 // orpd %xmm12,%xmm8
- .byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 20bb7 <_sk_store_565_sse41+0x8e>
- .byte 102,69,15,214,4,80 // movq %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,56,51,192 // pmovzxwd %xmm8,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,31 // je 20be4 <_sk_store_565_sse41+0xbb>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 20bd6 <_sk_store_565_sse41+0xad>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,230 // jne 20bb3 <_sk_store_565_sse41+0x8a>
- .byte 102,69,15,58,21,68,80,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rdx,2)
- .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
- .byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,207 // jmp 20bb3 <_sk_store_565_sse41+0x8a>
- .byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,197 // jmp 20bb3 <_sk_store_565_sse41+0x8a>
-
-HIDDEN _sk_load_4444_sse41
-.globl _sk_load_4444_sse41
-FUNCTION(_sk_load_4444_sse41)
-_sk_load_4444_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 20c62 <_sk_load_4444_sse41+0x74>
- .byte 102,65,15,56,51,28,80 // pmovzxwd (%r8,%rdx,2),%xmm3
- .byte 102,15,111,5,62,199,1,0 // movdqa 0x1c73e(%rip),%xmm0 # 3d350 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,64,199,1,0 // mulps 0x1c740(%rip),%xmm0 # 3d360 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
- .byte 102,15,111,13,72,199,1,0 // movdqa 0x1c748(%rip),%xmm1 # 3d370 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
- .byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,74,199,1,0 // mulps 0x1c74a(%rip),%xmm1 # 3d380 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
- .byte 102,15,111,21,82,199,1,0 // movdqa 0x1c752(%rip),%xmm2 # 3d390 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
- .byte 102,15,219,211 // pand %xmm3,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,84,199,1,0 // mulps 0x1c754(%rip),%xmm2 # 3d3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
- .byte 102,15,219,29,92,199,1,0 // pand 0x1c75c(%rip),%xmm3 # 3d3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,98,199,1,0 // mulps 0x1c762(%rip),%xmm3 # 3d3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1174>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,49 // je 20c9b <_sk_load_4444_sse41+0xad>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 20c85 <_sk_load_4444_sse41+0x97>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,148 // jne 20c0a <_sk_load_4444_sse41+0x1c>
- .byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
- .byte 102,15,56,51,192 // pmovzxwd %xmm0,%xmm0
- .byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,111,255,255,255 // jmpq 20c0a <_sk_load_4444_sse41+0x1c>
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,97,255,255,255 // jmpq 20c0a <_sk_load_4444_sse41+0x1c>
-
-HIDDEN _sk_load_4444_dst_sse41
-.globl _sk_load_4444_dst_sse41
-FUNCTION(_sk_load_4444_dst_sse41)
-_sk_load_4444_dst_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,95 // jne 20d1d <_sk_load_4444_dst_sse41+0x74>
- .byte 102,65,15,56,51,60,80 // pmovzxwd (%r8,%rdx,2),%xmm7
- .byte 102,15,111,37,131,198,1,0 // movdqa 0x1c683(%rip),%xmm4 # 3d350 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
- .byte 102,15,219,231 // pand %xmm7,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,133,198,1,0 // mulps 0x1c685(%rip),%xmm4 # 3d360 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
- .byte 102,15,111,45,141,198,1,0 // movdqa 0x1c68d(%rip),%xmm5 # 3d370 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
- .byte 102,15,219,239 // pand %xmm7,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,143,198,1,0 // mulps 0x1c68f(%rip),%xmm5 # 3d380 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
- .byte 102,15,111,53,151,198,1,0 // movdqa 0x1c697(%rip),%xmm6 # 3d390 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
- .byte 102,15,219,247 // pand %xmm7,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,153,198,1,0 // mulps 0x1c699(%rip),%xmm6 # 3d3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
- .byte 102,15,219,61,161,198,1,0 // pand 0x1c6a1(%rip),%xmm7 # 3d3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
- .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,167,198,1,0 // mulps 0x1c6a7(%rip),%xmm7 # 3d3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1174>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,49 // je 20d56 <_sk_load_4444_dst_sse41+0xad>
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 20d40 <_sk_load_4444_dst_sse41+0x97>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,148 // jne 20cc5 <_sk_load_4444_dst_sse41+0x1c>
- .byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
- .byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
- .byte 102,15,56,51,228 // pmovzxwd %xmm4,%xmm4
- .byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,111,255,255,255 // jmpq 20cc5 <_sk_load_4444_dst_sse41+0x1c>
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,97,255,255,255 // jmpq 20cc5 <_sk_load_4444_dst_sse41+0x1c>
-
-HIDDEN _sk_gather_4444_sse41
-.globl _sk_gather_4444_sse41
-FUNCTION(_sk_gather_4444_sse41)
-_sk_gather_4444_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,80,12 // movss 0xc(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,202 // minps %xmm2,%xmm9
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,56,64,200 // pmulld %xmm0,%xmm1
- .byte 243,65,15,91,193 // cvttps2dq %xmm9,%xmm0
- .byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,72,15,58,22,192,1 // pextrq $0x1,%xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,194 // movq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,183,20,80 // movzwl (%r8,%r10,2),%r10d
- .byte 71,15,183,28,88 // movzwl (%r8,%r11,2),%r11d
- .byte 102,65,15,110,195 // movd %r11d,%xmm0
- .byte 102,65,15,196,194,1 // pinsrw $0x1,%r10d,%xmm0
- .byte 71,15,183,12,72 // movzwl (%r8,%r9,2),%r9d
- .byte 102,65,15,196,193,2 // pinsrw $0x2,%r9d,%xmm0
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 102,15,196,192,3 // pinsrw $0x3,%eax,%xmm0
- .byte 102,15,56,51,216 // pmovzxwd %xmm0,%xmm3
- .byte 102,15,111,5,68,197,1,0 // movdqa 0x1c544(%rip),%xmm0 # 3d350 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,70,197,1,0 // mulps 0x1c546(%rip),%xmm0 # 3d360 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
- .byte 102,15,111,13,78,197,1,0 // movdqa 0x1c54e(%rip),%xmm1 # 3d370 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
- .byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,80,197,1,0 // mulps 0x1c550(%rip),%xmm1 # 3d380 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
- .byte 102,15,111,21,88,197,1,0 // movdqa 0x1c558(%rip),%xmm2 # 3d390 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
- .byte 102,15,219,211 // pand %xmm3,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,90,197,1,0 // mulps 0x1c55a(%rip),%xmm2 # 3d3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
- .byte 102,15,219,29,98,197,1,0 // pand 0x1c562(%rip),%xmm3 # 3d3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,104,197,1,0 // mulps 0x1c568(%rip),%xmm3 # 3d3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1174>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_4444_sse41
-.globl _sk_store_4444_sse41
-FUNCTION(_sk_store_4444_sse41)
-_sk_store_4444_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,144,192,1,0 // movaps 0x1c090(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,68,197,1,0 // movaps 0x1c544(%rip),%xmm11 # 3d3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1184>
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,65,15,114,241,12 // pslld $0xc,%xmm9
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
- .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12
- .byte 102,69,15,235,225 // por %xmm9,%xmm12
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,65,15,114,241,4 // pslld $0x4,%xmm9
- .byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 69,15,89,195 // mulps %xmm11,%xmm8
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,69,15,86,193 // orpd %xmm9,%xmm8
- .byte 102,69,15,86,196 // orpd %xmm12,%xmm8
- .byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 20f07 <_sk_store_4444_sse41+0xab>
- .byte 102,69,15,214,4,80 // movq %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,56,51,192 // pmovzxwd %xmm8,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,31 // je 20f34 <_sk_store_4444_sse41+0xd8>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 20f26 <_sk_store_4444_sse41+0xca>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,230 // jne 20f03 <_sk_store_4444_sse41+0xa7>
- .byte 102,69,15,58,21,68,80,4,4 // pextrw $0x4,%xmm8,0x4(%r8,%rdx,2)
- .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
- .byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,207 // jmp 20f03 <_sk_store_4444_sse41+0xa7>
- .byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,197 // jmp 20f03 <_sk_store_4444_sse41+0xa7>
-
-HIDDEN _sk_load_8888_sse41
-.globl _sk_load_8888_sse41
-FUNCTION(_sk_load_8888_sse41)
-_sk_load_8888_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 20fad <_sk_load_8888_sse41+0x6f>
- .byte 243,65,15,111,28,144 // movdqu (%r8,%rdx,4),%xmm3
- .byte 102,15,111,5,94,192,1,0 // movdqa 0x1c05e(%rip),%xmm0 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,175,193,1,0 // movaps 0x1c1af(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,78,192,1,0 // pshufb 0x1c04e(%rip),%xmm1 # 3cfd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,74,192,1,0 // pshufb 0x1c04a(%rip),%xmm2 # 3cfe0 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,41 // je 20fde <_sk_load_8888_sse41+0xa0>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 20fcd <_sk_load_8888_sse41+0x8f>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,153 // jne 20f5a <_sk_load_8888_sse41+0x1c>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
- .byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,124,255,255,255 // jmpq 20f5a <_sk_load_8888_sse41+0x1c>
- .byte 102,65,15,110,28,144 // movd (%r8,%rdx,4),%xmm3
- .byte 233,113,255,255,255 // jmpq 20f5a <_sk_load_8888_sse41+0x1c>
-
-HIDDEN _sk_load_8888_dst_sse41
-.globl _sk_load_8888_dst_sse41
-FUNCTION(_sk_load_8888_dst_sse41)
-_sk_load_8888_dst_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 21058 <_sk_load_8888_dst_sse41+0x6f>
- .byte 243,65,15,111,60,144 // movdqu (%r8,%rdx,4),%xmm7
- .byte 102,15,111,37,179,191,1,0 // movdqa 0x1bfb3(%rip),%xmm4 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,15,219,231 // pand %xmm7,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,4,193,1,0 // movaps 0x1c104(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,224 // mulps %xmm8,%xmm4
- .byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,56,0,45,163,191,1,0 // pshufb 0x1bfa3(%rip),%xmm5 # 3cfd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 65,15,89,232 // mulps %xmm8,%xmm5
- .byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,56,0,53,159,191,1,0 // pshufb 0x1bf9f(%rip),%xmm6 # 3cfe0 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 65,15,89,240 // mulps %xmm8,%xmm6
- .byte 102,15,114,215,24 // psrld $0x18,%xmm7
- .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 65,15,89,248 // mulps %xmm8,%xmm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,41 // je 21089 <_sk_load_8888_dst_sse41+0xa0>
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 21078 <_sk_load_8888_dst_sse41+0x8f>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,153 // jne 21005 <_sk_load_8888_dst_sse41+0x1c>
- .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
- .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
- .byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
- .byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,124,255,255,255 // jmpq 21005 <_sk_load_8888_dst_sse41+0x1c>
- .byte 102,65,15,110,60,144 // movd (%r8,%rdx,4),%xmm7
- .byte 233,113,255,255,255 // jmpq 21005 <_sk_load_8888_dst_sse41+0x1c>
-
-HIDDEN _sk_gather_8888_sse41
-.globl _sk_gather_8888_sse41
-FUNCTION(_sk_gather_8888_sse41)
-_sk_gather_8888_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,80,12 // movss 0xc(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,202 // minps %xmm2,%xmm9
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,56,64,200 // pmulld %xmm0,%xmm1
- .byte 243,65,15,91,193 // cvttps2dq %xmm9,%xmm0
- .byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,58,22,194,1 // pextrq $0x1,%xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,67,15,110,28,136 // movd (%r8,%r9,4),%xmm3
- .byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
- .byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
- .byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,149,190,1,0 // movdqa 0x1be95(%rip),%xmm0 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,230,191,1,0 // movaps 0x1bfe6(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,56,0,13,133,190,1,0 // pshufb 0x1be85(%rip),%xmm1 # 3cfd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,56,0,21,129,190,1,0 // pshufb 0x1be81(%rip),%xmm2 # 3cfe0 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_8888_sse41
-.globl _sk_store_8888_sse41
-FUNCTION(_sk_store_8888_sse41)
-_sk_store_8888_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,117,189,1,0 // movaps 0x1bd75(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,73,190,1,0 // movaps 0x1be49(%rip),%xmm11 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
- .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12
- .byte 102,69,15,235,225 // por %xmm9,%xmm12
- .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9
- .byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 69,15,89,195 // mulps %xmm11,%xmm8
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,65,15,114,240,24 // pslld $0x18,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 102,69,15,235,196 // por %xmm12,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 2121c <_sk_store_8888_sse41+0xa6>
- .byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,25 // je 2123d <_sk_store_8888_sse41+0xc7>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 21235 <_sk_store_8888_sse41+0xbf>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,236 // jne 21218 <_sk_store_8888_sse41+0xa2>
- .byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,219 // jmp 21218 <_sk_store_8888_sse41+0xa2>
- .byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,211 // jmp 21218 <_sk_store_8888_sse41+0xa2>
-
-HIDDEN _sk_load_bgra_sse41
-.globl _sk_load_bgra_sse41
-FUNCTION(_sk_load_bgra_sse41)
-_sk_load_bgra_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 212b4 <_sk_load_bgra_sse41+0x6f>
- .byte 243,65,15,111,28,144 // movdqu (%r8,%rdx,4),%xmm3
- .byte 102,15,111,5,87,189,1,0 // movdqa 0x1bd57(%rip),%xmm0 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,168,190,1,0 // movaps 0x1bea8(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,71,189,1,0 // pshufb 0x1bd47(%rip),%xmm0 # 3cfd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,67,189,1,0 // pshufb 0x1bd43(%rip),%xmm0 # 3cfe0 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,41 // je 212e5 <_sk_load_bgra_sse41+0xa0>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 212d4 <_sk_load_bgra_sse41+0x8f>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,153 // jne 21261 <_sk_load_bgra_sse41+0x1c>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
- .byte 102,15,58,14,216,15 // pblendw $0xf,%xmm0,%xmm3
- .byte 233,124,255,255,255 // jmpq 21261 <_sk_load_bgra_sse41+0x1c>
- .byte 102,65,15,110,28,144 // movd (%r8,%rdx,4),%xmm3
- .byte 233,113,255,255,255 // jmpq 21261 <_sk_load_bgra_sse41+0x1c>
-
-HIDDEN _sk_load_bgra_dst_sse41
-.globl _sk_load_bgra_dst_sse41
-FUNCTION(_sk_load_bgra_dst_sse41)
-_sk_load_bgra_dst_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,89 // jne 2135f <_sk_load_bgra_dst_sse41+0x6f>
- .byte 243,65,15,111,60,144 // movdqu (%r8,%rdx,4),%xmm7
- .byte 102,15,111,37,172,188,1,0 // movdqa 0x1bcac(%rip),%xmm4 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,15,219,231 // pand %xmm7,%xmm4
- .byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 68,15,40,5,253,189,1,0 // movaps 0x1bdfd(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,240 // mulps %xmm8,%xmm6
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,156,188,1,0 // pshufb 0x1bc9c(%rip),%xmm4 # 3cfd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
- .byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
- .byte 65,15,89,232 // mulps %xmm8,%xmm5
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,56,0,37,152,188,1,0 // pshufb 0x1bc98(%rip),%xmm4 # 3cfe0 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 65,15,89,224 // mulps %xmm8,%xmm4
- .byte 102,15,114,215,24 // psrld $0x18,%xmm7
- .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 65,15,89,248 // mulps %xmm8,%xmm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,41 // je 21390 <_sk_load_bgra_dst_sse41+0xa0>
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 2137f <_sk_load_bgra_dst_sse41+0x8f>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,153 // jne 2130c <_sk_load_bgra_dst_sse41+0x1c>
- .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
- .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
- .byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
- .byte 102,15,58,14,252,15 // pblendw $0xf,%xmm4,%xmm7
- .byte 233,124,255,255,255 // jmpq 2130c <_sk_load_bgra_dst_sse41+0x1c>
- .byte 102,65,15,110,60,144 // movd (%r8,%rdx,4),%xmm7
- .byte 233,113,255,255,255 // jmpq 2130c <_sk_load_bgra_dst_sse41+0x1c>
-
-HIDDEN _sk_gather_bgra_sse41
-.globl _sk_gather_bgra_sse41
-FUNCTION(_sk_gather_bgra_sse41)
-_sk_gather_bgra_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,80,12 // movss 0xc(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,202 // minps %xmm2,%xmm9
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,56,64,200 // pmulld %xmm0,%xmm1
- .byte 243,65,15,91,193 // cvttps2dq %xmm9,%xmm0
- .byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,58,22,194,1 // pextrq $0x1,%xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,67,15,110,28,136 // movd (%r8,%r9,4),%xmm3
- .byte 102,65,15,58,34,28,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm3
- .byte 102,67,15,58,34,28,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm3
- .byte 102,67,15,58,34,28,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm3
- .byte 102,15,111,5,142,187,1,0 // movdqa 0x1bb8e(%rip),%xmm0 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 68,15,40,5,223,188,1,0 // movaps 0x1bcdf(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,126,187,1,0 // pshufb 0x1bb7e(%rip),%xmm0 # 3cfd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,56,0,5,122,187,1,0 // pshufb 0x1bb7a(%rip),%xmm0 # 3cfe0 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_bgra_sse41
-.globl _sk_store_bgra_sse41
-FUNCTION(_sk_store_bgra_sse41)
-_sk_store_bgra_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,40,21,110,186,1,0 // movaps 0x1ba6e(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,66,187,1,0 // movaps 0x1bb42(%rip),%xmm11 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
- .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12
- .byte 102,69,15,235,225 // por %xmm9,%xmm12
- .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 69,15,89,195 // mulps %xmm11,%xmm8
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,65,15,114,240,24 // pslld $0x18,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 102,69,15,235,196 // por %xmm12,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 21523 <_sk_store_bgra_sse41+0xa6>
- .byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,25 // je 21544 <_sk_store_bgra_sse41+0xc7>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 2153c <_sk_store_bgra_sse41+0xbf>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,236 // jne 2151f <_sk_store_bgra_sse41+0xa2>
- .byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,219 // jmp 2151f <_sk_store_bgra_sse41+0xa2>
- .byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,211 // jmp 2151f <_sk_store_bgra_sse41+0xa2>
-
-HIDDEN _sk_load_1010102_sse41
-.globl _sk_load_1010102_sse41
-FUNCTION(_sk_load_1010102_sse41)
-_sk_load_1010102_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 215c7 <_sk_load_1010102_sse41+0x7b>
- .byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
- .byte 102,15,111,21,112,190,1,0 // movdqa 0x1be70(%rip),%xmm2 # 3d3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,108,190,1,0 // movaps 0x1be6c(%rip),%xmm8 # 3d3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,15,114,209,10 // psrld $0xa,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,15,114,211,20 // psrld $0x14,%xmm3
- .byte 102,15,219,218 // pand %xmm2,%xmm3
- .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,65,15,114,209,30 // psrld $0x1e,%xmm9
- .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,45,187,1,0 // mulps 0x1bb2d(%rip),%xmm3 # 3d0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xea4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,44 // je 215fb <_sk_load_1010102_sse41+0xaf>
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 215e9 <_sk_load_1010102_sse41+0x9d>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,140 // jne 21568 <_sk_load_1010102_sse41+0x1c>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
- .byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
- .byte 102,68,15,58,14,200,15 // pblendw $0xf,%xmm0,%xmm9
- .byte 233,109,255,255,255 // jmpq 21568 <_sk_load_1010102_sse41+0x1c>
- .byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,98,255,255,255 // jmpq 21568 <_sk_load_1010102_sse41+0x1c>
-
-HIDDEN _sk_load_1010102_dst_sse41
-.globl _sk_load_1010102_dst_sse41
-FUNCTION(_sk_load_1010102_dst_sse41)
-_sk_load_1010102_dst_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 21681 <_sk_load_1010102_dst_sse41+0x7b>
- .byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
- .byte 102,15,111,53,182,189,1,0 // movdqa 0x1bdb6(%rip),%xmm6 # 3d3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
- .byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
- .byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,178,189,1,0 // movaps 0x1bdb2(%rip),%xmm8 # 3d3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
- .byte 65,15,89,224 // mulps %xmm8,%xmm4
- .byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
- .byte 102,15,114,213,10 // psrld $0xa,%xmm5
- .byte 102,15,219,238 // pand %xmm6,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 65,15,89,232 // mulps %xmm8,%xmm5
- .byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
- .byte 102,15,114,215,20 // psrld $0x14,%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
- .byte 65,15,89,240 // mulps %xmm8,%xmm6
- .byte 102,65,15,114,209,30 // psrld $0x1e,%xmm9
- .byte 65,15,91,249 // cvtdq2ps %xmm9,%xmm7
- .byte 15,89,61,115,186,1,0 // mulps 0x1ba73(%rip),%xmm7 # 3d0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xea4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,44 // je 216b5 <_sk_load_1010102_dst_sse41+0xaf>
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 216a3 <_sk_load_1010102_dst_sse41+0x9d>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,140 // jne 21622 <_sk_load_1010102_dst_sse41+0x1c>
- .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
- .byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
- .byte 102,68,15,58,14,204,15 // pblendw $0xf,%xmm4,%xmm9
- .byte 233,109,255,255,255 // jmpq 21622 <_sk_load_1010102_dst_sse41+0x1c>
- .byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,98,255,255,255 // jmpq 21622 <_sk_load_1010102_dst_sse41+0x1c>
-
-HIDDEN _sk_gather_1010102_sse41
-.globl _sk_gather_1010102_sse41
-FUNCTION(_sk_gather_1010102_sse41)
-_sk_gather_1010102_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,80,12 // movss 0xc(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,202 // minps %xmm2,%xmm9
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,56,64,200 // pmulld %xmm0,%xmm1
- .byte 243,65,15,91,193 // cvttps2dq %xmm9,%xmm0
- .byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,58,22,194,1 // pextrq $0x1,%xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,71,15,110,12,136 // movd (%r8,%r9,4),%xmm9
- .byte 102,69,15,58,34,12,128,1 // pinsrd $0x1,(%r8,%rax,4),%xmm9
- .byte 102,71,15,58,34,12,152,2 // pinsrd $0x2,(%r8,%r11,4),%xmm9
- .byte 102,71,15,58,34,12,144,3 // pinsrd $0x3,(%r8,%r10,4),%xmm9
- .byte 102,15,111,21,137,188,1,0 // movdqa 0x1bc89(%rip),%xmm2 # 3d3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,133,188,1,0 // movaps 0x1bc85(%rip),%xmm8 # 3d3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,15,114,209,10 // psrld $0xa,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,15,114,211,20 // psrld $0x14,%xmm3
- .byte 102,15,219,218 // pand %xmm2,%xmm3
- .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,65,15,114,209,30 // psrld $0x1e,%xmm9
- .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,70,185,1,0 // mulps 0x1b946(%rip),%xmm3 # 3d0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xea4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_1010102_sse41
-.globl _sk_store_1010102_sse41
-FUNCTION(_sk_store_1010102_sse41)
-_sk_store_1010102_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,61,183,1,0 // movaps 0x1b73d(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,33,188,1,0 // movaps 0x1bc21(%rip),%xmm11 # 3d400 <_sk_srcover_bgra_8888_sse2_lowp+0x11b4>
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
- .byte 102,65,15,114,244,10 // pslld $0xa,%xmm12
- .byte 102,69,15,235,225 // por %xmm9,%xmm12
- .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9
- .byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,65,15,114,241,20 // pslld $0x14,%xmm9
- .byte 102,69,15,235,204 // por %xmm12,%xmm9
- .byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 68,15,89,5,215,187,1,0 // mulps 0x1bbd7(%rip),%xmm8 # 3d410 <_sk_srcover_bgra_8888_sse2_lowp+0x11c4>
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,65,15,114,240,30 // pslld $0x1e,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 21858 <_sk_store_1010102_sse41+0xaa>
- .byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,25 // je 21879 <_sk_store_1010102_sse41+0xcb>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,13 // je 21871 <_sk_store_1010102_sse41+0xc3>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,236 // jne 21854 <_sk_store_1010102_sse41+0xa6>
- .byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,219 // jmp 21854 <_sk_store_1010102_sse41+0xa6>
- .byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,211 // jmp 21854 <_sk_store_1010102_sse41+0xa6>
-
-HIDDEN _sk_load_f16_sse41
-.globl _sk_load_f16_sse41
-FUNCTION(_sk_load_f16_sse41)
-_sk_load_f16_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 219df <_sk_load_f16_sse41+0x15e>
- .byte 102,65,15,16,4,208 // movupd (%r8,%rdx,8),%xmm0
- .byte 243,65,15,111,76,208,16 // movdqu 0x10(%r8,%rdx,8),%xmm1
- .byte 102,68,15,40,200 // movapd %xmm0,%xmm9
- .byte 102,68,15,97,201 // punpcklwd %xmm1,%xmm9
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
- .byte 102,68,15,97,224 // punpcklwd %xmm0,%xmm12
- .byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,76,187,1,0 // movdqa 0x1bb4c(%rip),%xmm8 # 3d420 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,74,187,1,0 // movdqa 0x1bb4a(%rip),%xmm10 # 3d430 <_sk_srcover_bgra_8888_sse2_lowp+0x11e4>
- .byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,77,187,1,0 // movdqa 0x1bb4d(%rip),%xmm3 # 3d440 <_sk_srcover_bgra_8888_sse2_lowp+0x11f4>
- .byte 102,15,114,241,16 // pslld $0x10,%xmm1
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
- .byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
- .byte 102,15,114,242,13 // pslld $0xd,%xmm2
- .byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,57,187,1,0 // movdqa 0x1bb39(%rip),%xmm11 # 3d450 <_sk_srcover_bgra_8888_sse2_lowp+0x1204>
- .byte 102,65,15,254,211 // paddd %xmm11,%xmm2
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
- .byte 102,15,56,51,209 // pmovzxwd %xmm1,%xmm2
- .byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
- .byte 102,69,15,219,224 // pand %xmm8,%xmm12
- .byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,56,63,203 // pmaxud %xmm3,%xmm1
- .byte 102,15,118,202 // pcmpeqd %xmm2,%xmm1
- .byte 102,15,114,242,13 // pslld $0xd,%xmm2
- .byte 102,65,15,235,212 // por %xmm12,%xmm2
- .byte 102,65,15,254,211 // paddd %xmm11,%xmm2
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 102,69,15,56,51,225 // pmovzxwd %xmm9,%xmm12
- .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13
- .byte 102,69,15,219,232 // pand %xmm8,%xmm13
- .byte 102,69,15,219,226 // pand %xmm10,%xmm12
- .byte 102,65,15,114,245,16 // pslld $0x10,%xmm13
- .byte 102,65,15,111,212 // movdqa %xmm12,%xmm2
- .byte 102,15,56,63,211 // pmaxud %xmm3,%xmm2
- .byte 102,65,15,118,212 // pcmpeqd %xmm12,%xmm2
- .byte 102,65,15,114,244,13 // pslld $0xd,%xmm12
- .byte 102,69,15,235,229 // por %xmm13,%xmm12
- .byte 102,69,15,254,227 // paddd %xmm11,%xmm12
- .byte 102,65,15,219,212 // pand %xmm12,%xmm2
- .byte 102,69,15,112,201,238 // pshufd $0xee,%xmm9,%xmm9
- .byte 102,69,15,56,51,201 // pmovzxwd %xmm9,%xmm9
- .byte 102,69,15,219,193 // pand %xmm9,%xmm8
- .byte 102,69,15,219,202 // pand %xmm10,%xmm9
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,56,63,217 // pmaxud %xmm9,%xmm3
- .byte 102,65,15,118,217 // pcmpeqd %xmm9,%xmm3
- .byte 102,65,15,114,241,13 // pslld $0xd,%xmm9
- .byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,69,15,254,203 // paddd %xmm11,%xmm9
- .byte 102,65,15,219,217 // pand %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 242,65,15,16,4,208 // movsd (%r8,%rdx,8),%xmm0
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 219f8 <_sk_load_f16_sse41+0x177>
- .byte 243,15,126,192 // movq %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,176,254,255,255 // jmpq 218a8 <_sk_load_f16_sse41+0x27>
- .byte 102,65,15,22,68,208,8 // movhpd 0x8(%r8,%rdx,8),%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 218a8 <_sk_load_f16_sse41+0x27>
- .byte 243,65,15,126,76,208,16 // movq 0x10(%r8,%rdx,8),%xmm1
- .byte 233,143,254,255,255 // jmpq 218a8 <_sk_load_f16_sse41+0x27>
-
-HIDDEN _sk_load_f16_dst_sse41
-.globl _sk_load_f16_dst_sse41
-FUNCTION(_sk_load_f16_dst_sse41)
-_sk_load_f16_dst_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,68,1,0,0 // jne 21b77 <_sk_load_f16_dst_sse41+0x15e>
- .byte 102,65,15,16,36,208 // movupd (%r8,%rdx,8),%xmm4
- .byte 243,65,15,111,108,208,16 // movdqu 0x10(%r8,%rdx,8),%xmm5
- .byte 102,68,15,40,204 // movapd %xmm4,%xmm9
- .byte 102,68,15,97,205 // punpcklwd %xmm5,%xmm9
- .byte 102,15,105,229 // punpckhwd %xmm5,%xmm4
- .byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
- .byte 102,68,15,97,228 // punpcklwd %xmm4,%xmm12
- .byte 102,68,15,105,204 // punpckhwd %xmm4,%xmm9
- .byte 102,65,15,56,51,244 // pmovzxwd %xmm12,%xmm6
- .byte 102,68,15,111,5,180,185,1,0 // movdqa 0x1b9b4(%rip),%xmm8 # 3d420 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,65,15,219,232 // pand %xmm8,%xmm5
- .byte 102,68,15,111,21,178,185,1,0 // movdqa 0x1b9b2(%rip),%xmm10 # 3d430 <_sk_srcover_bgra_8888_sse2_lowp+0x11e4>
- .byte 102,65,15,219,242 // pand %xmm10,%xmm6
- .byte 102,15,111,61,181,185,1,0 // movdqa 0x1b9b5(%rip),%xmm7 # 3d440 <_sk_srcover_bgra_8888_sse2_lowp+0x11f4>
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,111,230 // movdqa %xmm6,%xmm4
- .byte 102,15,56,63,231 // pmaxud %xmm7,%xmm4
- .byte 102,15,118,230 // pcmpeqd %xmm6,%xmm4
- .byte 102,15,114,246,13 // pslld $0xd,%xmm6
- .byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 102,68,15,111,29,161,185,1,0 // movdqa 0x1b9a1(%rip),%xmm11 # 3d450 <_sk_srcover_bgra_8888_sse2_lowp+0x1204>
- .byte 102,65,15,254,243 // paddd %xmm11,%xmm6
- .byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 102,65,15,112,236,238 // pshufd $0xee,%xmm12,%xmm5
- .byte 102,15,56,51,245 // pmovzxwd %xmm5,%xmm6
- .byte 102,68,15,111,230 // movdqa %xmm6,%xmm12
- .byte 102,69,15,219,224 // pand %xmm8,%xmm12
- .byte 102,65,15,219,242 // pand %xmm10,%xmm6
- .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,15,56,63,239 // pmaxud %xmm7,%xmm5
- .byte 102,15,118,238 // pcmpeqd %xmm6,%xmm5
- .byte 102,15,114,246,13 // pslld $0xd,%xmm6
- .byte 102,65,15,235,244 // por %xmm12,%xmm6
- .byte 102,65,15,254,243 // paddd %xmm11,%xmm6
- .byte 102,15,219,238 // pand %xmm6,%xmm5
- .byte 102,69,15,56,51,225 // pmovzxwd %xmm9,%xmm12
- .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13
- .byte 102,69,15,219,232 // pand %xmm8,%xmm13
- .byte 102,69,15,219,226 // pand %xmm10,%xmm12
- .byte 102,65,15,114,245,16 // pslld $0x10,%xmm13
- .byte 102,65,15,111,244 // movdqa %xmm12,%xmm6
- .byte 102,15,56,63,247 // pmaxud %xmm7,%xmm6
- .byte 102,65,15,118,244 // pcmpeqd %xmm12,%xmm6
- .byte 102,65,15,114,244,13 // pslld $0xd,%xmm12
- .byte 102,69,15,235,229 // por %xmm13,%xmm12
- .byte 102,69,15,254,227 // paddd %xmm11,%xmm12
- .byte 102,65,15,219,244 // pand %xmm12,%xmm6
- .byte 102,69,15,112,201,238 // pshufd $0xee,%xmm9,%xmm9
- .byte 102,69,15,56,51,201 // pmovzxwd %xmm9,%xmm9
- .byte 102,69,15,219,193 // pand %xmm9,%xmm8
- .byte 102,69,15,219,202 // pand %xmm10,%xmm9
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,56,63,249 // pmaxud %xmm9,%xmm7
- .byte 102,65,15,118,249 // pcmpeqd %xmm9,%xmm7
- .byte 102,65,15,114,241,13 // pslld $0xd,%xmm9
- .byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,69,15,254,203 // paddd %xmm11,%xmm9
- .byte 102,65,15,219,249 // pand %xmm9,%xmm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 242,65,15,16,36,208 // movsd (%r8,%rdx,8),%xmm4
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 21b90 <_sk_load_f16_dst_sse41+0x177>
- .byte 243,15,126,228 // movq %xmm4,%xmm4
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,176,254,255,255 // jmpq 21a40 <_sk_load_f16_dst_sse41+0x27>
- .byte 102,65,15,22,100,208,8 // movhpd 0x8(%r8,%rdx,8),%xmm4
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,155,254,255,255 // jb 21a40 <_sk_load_f16_dst_sse41+0x27>
- .byte 243,65,15,126,108,208,16 // movq 0x10(%r8,%rdx,8),%xmm5
- .byte 233,143,254,255,255 // jmpq 21a40 <_sk_load_f16_dst_sse41+0x27>
-
-HIDDEN _sk_gather_f16_sse41
-.globl _sk_gather_f16_sse41
-FUNCTION(_sk_gather_f16_sse41)
-_sk_gather_f16_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,80,12 // movss 0xc(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,202 // minps %xmm2,%xmm9
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,56,64,200 // pmulld %xmm0,%xmm1
- .byte 243,65,15,91,193 // cvttps2dq %xmm9,%xmm0
- .byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,58,22,194,1 // pextrq $0x1,%xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 243,67,15,126,4,208 // movq (%r8,%r10,8),%xmm0
- .byte 243,67,15,126,12,216 // movq (%r8,%r11,8),%xmm1
- .byte 102,15,108,200 // punpcklqdq %xmm0,%xmm1
- .byte 243,65,15,126,4,192 // movq (%r8,%rax,8),%xmm0
- .byte 243,67,15,126,20,200 // movq (%r8,%r9,8),%xmm2
- .byte 102,15,108,208 // punpcklqdq %xmm0,%xmm2
- .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
- .byte 102,68,15,97,201 // punpcklwd %xmm1,%xmm9
- .byte 102,15,105,209 // punpckhwd %xmm1,%xmm2
- .byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
- .byte 102,68,15,97,226 // punpcklwd %xmm2,%xmm12
- .byte 102,68,15,105,202 // punpckhwd %xmm2,%xmm9
- .byte 102,65,15,56,51,212 // pmovzxwd %xmm12,%xmm2
- .byte 102,68,15,111,5,178,183,1,0 // movdqa 0x1b7b2(%rip),%xmm8 # 3d420 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,68,15,111,21,176,183,1,0 // movdqa 0x1b7b0(%rip),%xmm10 # 3d430 <_sk_srcover_bgra_8888_sse2_lowp+0x11e4>
- .byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,15,111,29,179,183,1,0 // movdqa 0x1b7b3(%rip),%xmm3 # 3d440 <_sk_srcover_bgra_8888_sse2_lowp+0x11f4>
- .byte 102,15,114,241,16 // pslld $0x10,%xmm1
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,56,63,195 // pmaxud %xmm3,%xmm0
- .byte 102,15,118,194 // pcmpeqd %xmm2,%xmm0
- .byte 102,15,114,242,13 // pslld $0xd,%xmm2
- .byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,68,15,111,29,159,183,1,0 // movdqa 0x1b79f(%rip),%xmm11 # 3d450 <_sk_srcover_bgra_8888_sse2_lowp+0x1204>
- .byte 102,65,15,254,211 // paddd %xmm11,%xmm2
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 102,65,15,112,204,238 // pshufd $0xee,%xmm12,%xmm1
- .byte 102,15,56,51,209 // pmovzxwd %xmm1,%xmm2
- .byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
- .byte 102,69,15,219,224 // pand %xmm8,%xmm12
- .byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,56,63,203 // pmaxud %xmm3,%xmm1
- .byte 102,15,118,202 // pcmpeqd %xmm2,%xmm1
- .byte 102,15,114,242,13 // pslld $0xd,%xmm2
- .byte 102,65,15,235,212 // por %xmm12,%xmm2
- .byte 102,65,15,254,211 // paddd %xmm11,%xmm2
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 102,69,15,56,51,225 // pmovzxwd %xmm9,%xmm12
- .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13
- .byte 102,69,15,219,232 // pand %xmm8,%xmm13
- .byte 102,69,15,219,226 // pand %xmm10,%xmm12
- .byte 102,65,15,114,245,16 // pslld $0x10,%xmm13
- .byte 102,65,15,111,212 // movdqa %xmm12,%xmm2
- .byte 102,15,56,63,211 // pmaxud %xmm3,%xmm2
- .byte 102,65,15,118,212 // pcmpeqd %xmm12,%xmm2
- .byte 102,65,15,114,244,13 // pslld $0xd,%xmm12
- .byte 102,69,15,235,229 // por %xmm13,%xmm12
- .byte 102,69,15,254,227 // paddd %xmm11,%xmm12
- .byte 102,65,15,219,212 // pand %xmm12,%xmm2
- .byte 102,69,15,112,201,238 // pshufd $0xee,%xmm9,%xmm9
- .byte 102,69,15,56,51,201 // pmovzxwd %xmm9,%xmm9
- .byte 102,69,15,219,193 // pand %xmm9,%xmm8
- .byte 102,69,15,219,202 // pand %xmm10,%xmm9
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,56,63,217 // pmaxud %xmm9,%xmm3
- .byte 102,65,15,118,217 // pcmpeqd %xmm9,%xmm3
- .byte 102,65,15,114,241,13 // pslld $0xd,%xmm9
- .byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,69,15,254,203 // paddd %xmm11,%xmm9
- .byte 102,65,15,219,217 // pand %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_f16_sse41
-.globl _sk_store_f16_sse41
-FUNCTION(_sk_store_f16_sse41)
-_sk_store_f16_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 102,68,15,111,13,205,182,1,0 // movdqa 0x1b6cd(%rip),%xmm9 # 3d460 <_sk_srcover_bgra_8888_sse2_lowp+0x1214>
- .byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
- .byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,202,182,1,0 // movdqa 0x1b6ca(%rip),%xmm11 # 3d470 <_sk_srcover_bgra_8888_sse2_lowp+0x1224>
- .byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
- .byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,68,15,111,21,199,182,1,0 // movdqa 0x1b6c7(%rip),%xmm10 # 3d480 <_sk_srcover_bgra_8888_sse2_lowp+0x1234>
- .byte 102,65,15,114,212,16 // psrld $0x10,%xmm12
- .byte 102,69,15,111,197 // movdqa %xmm13,%xmm8
- .byte 102,69,15,56,63,194 // pmaxud %xmm10,%xmm8
- .byte 102,69,15,118,197 // pcmpeqd %xmm13,%xmm8
- .byte 102,65,15,114,213,13 // psrld $0xd,%xmm13
- .byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,68,15,111,37,173,182,1,0 // movdqa 0x1b6ad(%rip),%xmm12 # 3d490 <_sk_srcover_bgra_8888_sse2_lowp+0x1244>
- .byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,69,15,219,197 // pand %xmm13,%xmm8
- .byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
- .byte 102,68,15,111,233 // movdqa %xmm1,%xmm13
- .byte 102,69,15,219,233 // pand %xmm9,%xmm13
- .byte 102,68,15,111,241 // movdqa %xmm1,%xmm14
- .byte 102,69,15,219,243 // pand %xmm11,%xmm14
- .byte 102,65,15,114,213,16 // psrld $0x10,%xmm13
- .byte 102,69,15,111,254 // movdqa %xmm14,%xmm15
- .byte 102,69,15,56,63,250 // pmaxud %xmm10,%xmm15
- .byte 102,69,15,118,254 // pcmpeqd %xmm14,%xmm15
- .byte 102,65,15,114,214,13 // psrld $0xd,%xmm14
- .byte 102,69,15,254,245 // paddd %xmm13,%xmm14
- .byte 102,69,15,254,244 // paddd %xmm12,%xmm14
- .byte 102,69,15,219,254 // pand %xmm14,%xmm15
- .byte 102,68,15,56,43,248 // packusdw %xmm0,%xmm15
- .byte 102,69,15,97,199 // punpcklwd %xmm15,%xmm8
- .byte 102,68,15,111,242 // movdqa %xmm2,%xmm14
- .byte 102,69,15,219,241 // pand %xmm9,%xmm14
- .byte 102,68,15,111,250 // movdqa %xmm2,%xmm15
- .byte 102,69,15,219,251 // pand %xmm11,%xmm15
- .byte 102,65,15,114,214,16 // psrld $0x10,%xmm14
- .byte 102,69,15,111,239 // movdqa %xmm15,%xmm13
- .byte 102,69,15,56,63,234 // pmaxud %xmm10,%xmm13
- .byte 102,69,15,118,239 // pcmpeqd %xmm15,%xmm13
- .byte 102,65,15,114,215,13 // psrld $0xd,%xmm15
- .byte 102,69,15,254,254 // paddd %xmm14,%xmm15
- .byte 102,69,15,254,252 // paddd %xmm12,%xmm15
- .byte 102,69,15,219,239 // pand %xmm15,%xmm13
- .byte 102,68,15,56,43,232 // packusdw %xmm0,%xmm13
- .byte 102,68,15,219,203 // pand %xmm3,%xmm9
- .byte 102,68,15,219,219 // pand %xmm3,%xmm11
- .byte 102,65,15,114,209,16 // psrld $0x10,%xmm9
- .byte 102,69,15,56,63,211 // pmaxud %xmm11,%xmm10
- .byte 102,69,15,118,211 // pcmpeqd %xmm11,%xmm10
- .byte 102,65,15,114,211,13 // psrld $0xd,%xmm11
- .byte 102,69,15,254,217 // paddd %xmm9,%xmm11
- .byte 102,69,15,254,220 // paddd %xmm12,%xmm11
- .byte 102,69,15,219,211 // pand %xmm11,%xmm10
- .byte 102,68,15,56,43,208 // packusdw %xmm0,%xmm10
- .byte 102,69,15,97,234 // punpcklwd %xmm10,%xmm13
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,69,15,98,205 // punpckldq %xmm13,%xmm9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 21ee1 <_sk_store_f16_sse41+0x168>
- .byte 69,15,17,12,208 // movups %xmm9,(%r8,%rdx,8)
- .byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
- .byte 243,69,15,127,68,208,16 // movdqu %xmm8,0x10(%r8,%rdx,8)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,214,12,208 // movq %xmm9,(%r8,%rdx,8)
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 21edd <_sk_store_f16_sse41+0x164>
- .byte 102,69,15,23,76,208,8 // movhpd %xmm9,0x8(%r8,%rdx,8)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 21edd <_sk_store_f16_sse41+0x164>
- .byte 102,69,15,106,197 // punpckhdq %xmm13,%xmm8
- .byte 102,69,15,214,68,208,16 // movq %xmm8,0x10(%r8,%rdx,8)
- .byte 235,213 // jmp 21edd <_sk_store_f16_sse41+0x164>
-
-HIDDEN _sk_load_u16_be_sse41
-.globl _sk_load_u16_be_sse41
-FUNCTION(_sk_load_u16_be_sse41)
-_sk_load_u16_be_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 77,1,201 // add %r9,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,185,0,0,0 // jne 21fe2 <_sk_load_u16_be_sse41+0xda>
- .byte 102,67,15,16,4,65 // movupd (%r9,%r8,2),%xmm0
- .byte 243,67,15,111,76,65,16 // movdqu 0x10(%r9,%r8,2),%xmm1
- .byte 102,15,40,208 // movapd %xmm0,%xmm2
- .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,113,240,8 // psllw $0x8,%xmm0
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,59,178,1,0 // movaps 0x1b23b(%rip),%xmm8 # 3d1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,113,241,8 // psllw $0x8,%xmm1
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,235,217 // por %xmm1,%xmm3
- .byte 102,15,56,51,203 // pmovzxwd %xmm3,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
- .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,65,15,235,209 // por %xmm9,%xmm2
- .byte 102,15,56,51,210 // pmovzxwd %xmm2,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
- .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,65,15,235,217 // por %xmm9,%xmm3
- .byte 102,15,56,51,219 // pmovzxwd %xmm3,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 242,67,15,16,4,65 // movsd (%r9,%r8,2),%xmm0
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 21ffb <_sk_load_u16_be_sse41+0xf3>
- .byte 243,15,126,192 // movq %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,59,255,255,255 // jmpq 21f36 <_sk_load_u16_be_sse41+0x2e>
- .byte 102,67,15,22,68,65,8 // movhpd 0x8(%r9,%r8,2),%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,38,255,255,255 // jb 21f36 <_sk_load_u16_be_sse41+0x2e>
- .byte 243,67,15,126,76,65,16 // movq 0x10(%r9,%r8,2),%xmm1
- .byte 233,26,255,255,255 // jmpq 21f36 <_sk_load_u16_be_sse41+0x2e>
-
-HIDDEN _sk_load_rgb_u16_be_sse41
-.globl _sk_load_rgb_u16_be_sse41
-FUNCTION(_sk_load_rgb_u16_be_sse41)
-_sk_load_rgb_u16_be_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,82 // lea (%rdx,%rdx,2),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 77,1,201 // add %r9,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,170,0,0,0 // jne 220e3 <_sk_load_rgb_u16_be_sse41+0xc7>
- .byte 243,67,15,111,20,65 // movdqu (%r9,%r8,2),%xmm2
- .byte 243,67,15,111,92,65,8 // movdqu 0x8(%r9,%r8,2),%xmm3
- .byte 102,15,115,219,4 // psrldq $0x4,%xmm3
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,115,216,6 // psrldq $0x6,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,115,217,6 // psrldq $0x6,%xmm1
- .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
- .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,113,240,8 // psllw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,15,56,51,193 // pmovzxwd %xmm1,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,24,177,1,0 // movaps 0x1b118(%rip),%xmm8 # 3d1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,113,241,8 // psllw $0x8,%xmm1
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,235,217 // por %xmm1,%xmm3
- .byte 102,15,56,51,203 // pmovzxwd %xmm3,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,235,211 // por %xmm3,%xmm2
- .byte 102,15,56,51,210 // pmovzxwd %xmm2,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,47,174,1,0 // movaps 0x1ae2f(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 255,224 // jmpq *%rax
- .byte 102,67,15,110,20,65 // movd (%r9,%r8,2),%xmm2
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,67,15,196,84,65,4,2 // pinsrw $0x2,0x4(%r9,%r8,2),%xmm2
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 22108 <_sk_load_rgb_u16_be_sse41+0xec>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,85,255,255,255 // jmpq 2205d <_sk_load_rgb_u16_be_sse41+0x41>
- .byte 102,67,15,110,68,65,6 // movd 0x6(%r9,%r8,2),%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,67,15,196,68,65,10,2 // pinsrw $0x2,0xa(%r9,%r8,2),%xmm0
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 22139 <_sk_load_rgb_u16_be_sse41+0x11d>
- .byte 102,67,15,110,92,65,12 // movd 0xc(%r9,%r8,2),%xmm3
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,67,15,196,92,65,16,2 // pinsrw $0x2,0x10(%r9,%r8,2),%xmm3
- .byte 233,36,255,255,255 // jmpq 2205d <_sk_load_rgb_u16_be_sse41+0x41>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,27,255,255,255 // jmpq 2205d <_sk_load_rgb_u16_be_sse41+0x41>
-
-HIDDEN _sk_store_u16_be_sse41
-.globl _sk_store_u16_be_sse41
-FUNCTION(_sk_store_u16_be_sse41)
-_sk_store_u16_be_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 77,1,201 // add %r9,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,40,21,162,173,1,0 // movaps 0x1ada2(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 68,15,40,29,38,179,1,0 // movaps 0x1b326(%rip),%xmm11 # 3d4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1254>
- .byte 69,15,89,195 // mulps %xmm11,%xmm8
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,68,15,56,43,192 // packusdw %xmm0,%xmm8
- .byte 102,69,15,111,224 // movdqa %xmm8,%xmm12
- .byte 102,65,15,113,244,8 // psllw $0x8,%xmm12
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,69,15,235,196 // por %xmm12,%xmm8
- .byte 102,69,15,239,228 // pxor %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
- .byte 102,68,15,56,43,224 // packusdw %xmm0,%xmm12
- .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13
- .byte 102,65,15,113,245,8 // psllw $0x8,%xmm13
- .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
- .byte 102,69,15,235,229 // por %xmm13,%xmm12
- .byte 102,69,15,97,196 // punpcklwd %xmm12,%xmm8
- .byte 102,69,15,239,228 // pxor %xmm12,%xmm12
- .byte 68,15,95,226 // maxps %xmm2,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
- .byte 102,68,15,56,43,224 // packusdw %xmm0,%xmm12
- .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13
- .byte 102,65,15,113,245,8 // psllw $0x8,%xmm13
- .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
- .byte 102,69,15,235,229 // por %xmm13,%xmm12
- .byte 68,15,95,203 // maxps %xmm3,%xmm9
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,68,15,56,43,200 // packusdw %xmm0,%xmm9
- .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
- .byte 102,65,15,113,242,8 // psllw $0x8,%xmm10
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,69,15,235,202 // por %xmm10,%xmm9
- .byte 102,69,15,97,225 // punpcklwd %xmm9,%xmm12
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,69,15,98,204 // punpckldq %xmm12,%xmm9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 2225e <_sk_store_u16_be_sse41+0x11c>
- .byte 71,15,17,12,65 // movups %xmm9,(%r9,%r8,2)
- .byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
- .byte 243,71,15,127,68,65,16 // movdqu %xmm8,0x10(%r9,%r8,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,71,15,214,12,65 // movq %xmm9,(%r9,%r8,2)
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 2225a <_sk_store_u16_be_sse41+0x118>
- .byte 102,71,15,23,76,65,8 // movhpd %xmm9,0x8(%r9,%r8,2)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 2225a <_sk_store_u16_be_sse41+0x118>
- .byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
- .byte 102,71,15,214,68,65,16 // movq %xmm8,0x10(%r9,%r8,2)
- .byte 235,213 // jmp 2225a <_sk_store_u16_be_sse41+0x118>
-
-HIDDEN _sk_load_f32_sse41
-.globl _sk_load_f32_sse41
-FUNCTION(_sk_load_f32_sse41)
-_sk_load_f32_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,137,208 // mov %rdx,%rax
- .byte 72,193,224,4 // shl $0x4,%rax
- .byte 70,15,16,4,8 // movups (%rax,%r9,1),%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 222f1 <_sk_load_f32_sse41+0x6c>
- .byte 67,15,16,68,129,16 // movups 0x10(%r9,%r8,4),%xmm0
- .byte 67,15,16,92,129,32 // movups 0x20(%r9,%r8,4),%xmm3
- .byte 71,15,16,76,129,48 // movups 0x30(%r9,%r8,4),%xmm9
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 15,20,208 // unpcklps %xmm0,%xmm2
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 65,15,20,201 // unpcklps %xmm9,%xmm1
- .byte 68,15,21,192 // unpckhps %xmm0,%xmm8
- .byte 65,15,21,217 // unpckhps %xmm9,%xmm3
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
- .byte 15,18,202 // movhlps %xmm2,%xmm1
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 65,15,18,216 // movhlps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 22303 <_sk_load_f32_sse41+0x7e>
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 222c1 <_sk_load_f32_sse41+0x3c>
- .byte 67,15,16,68,129,16 // movups 0x10(%r9,%r8,4),%xmm0
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 22317 <_sk_load_f32_sse41+0x92>
- .byte 67,15,16,92,129,32 // movups 0x20(%r9,%r8,4),%xmm3
- .byte 235,170 // jmp 222c1 <_sk_load_f32_sse41+0x3c>
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 222c1 <_sk_load_f32_sse41+0x3c>
-
-HIDDEN _sk_load_f32_dst_sse41
-.globl _sk_load_f32_dst_sse41
-FUNCTION(_sk_load_f32_dst_sse41)
-_sk_load_f32_dst_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,137,208 // mov %rdx,%rax
- .byte 72,193,224,4 // shl $0x4,%rax
- .byte 70,15,16,4,8 // movups (%rax,%r9,1),%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 22388 <_sk_load_f32_dst_sse41+0x6c>
- .byte 67,15,16,100,129,16 // movups 0x10(%r9,%r8,4),%xmm4
- .byte 67,15,16,124,129,32 // movups 0x20(%r9,%r8,4),%xmm7
- .byte 71,15,16,76,129,48 // movups 0x30(%r9,%r8,4),%xmm9
- .byte 65,15,40,240 // movaps %xmm8,%xmm6
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 15,40,239 // movaps %xmm7,%xmm5
- .byte 65,15,20,233 // unpcklps %xmm9,%xmm5
- .byte 68,15,21,196 // unpckhps %xmm4,%xmm8
- .byte 65,15,21,249 // unpckhps %xmm9,%xmm7
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 102,15,20,229 // unpcklpd %xmm5,%xmm4
- .byte 15,18,238 // movhlps %xmm6,%xmm5
- .byte 65,15,40,240 // movaps %xmm8,%xmm6
- .byte 102,15,20,247 // unpcklpd %xmm7,%xmm6
- .byte 65,15,18,248 // movhlps %xmm8,%xmm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 2239a <_sk_load_f32_dst_sse41+0x7e>
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 22358 <_sk_load_f32_dst_sse41+0x3c>
- .byte 67,15,16,100,129,16 // movups 0x10(%r9,%r8,4),%xmm4
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 223ae <_sk_load_f32_dst_sse41+0x92>
- .byte 67,15,16,124,129,32 // movups 0x20(%r9,%r8,4),%xmm7
- .byte 235,170 // jmp 22358 <_sk_load_f32_dst_sse41+0x3c>
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 22358 <_sk_load_f32_dst_sse41+0x3c>
-
-HIDDEN _sk_store_f32_sse41
-.globl _sk_store_f32_sse41
-FUNCTION(_sk_store_f32_sse41)
-_sk_store_f32_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,137,208 // mov %rdx,%rax
- .byte 72,193,224,4 // shl $0x4,%rax
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,20,201 // unpcklps %xmm1,%xmm9
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 68,15,20,195 // unpcklps %xmm3,%xmm8
- .byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,21,209 // unpckhps %xmm1,%xmm10
- .byte 68,15,40,218 // movaps %xmm2,%xmm11
- .byte 68,15,21,219 // unpckhps %xmm3,%xmm11
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 102,69,15,20,224 // unpcklpd %xmm8,%xmm12
- .byte 69,15,18,193 // movhlps %xmm9,%xmm8
- .byte 69,15,40,202 // movaps %xmm10,%xmm9
- .byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
- .byte 102,70,15,17,36,8 // movupd %xmm12,(%rax,%r9,1)
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 22431 <_sk_store_f32_sse41+0x7e>
- .byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
- .byte 71,15,17,68,129,16 // movups %xmm8,0x10(%r9,%r8,4)
- .byte 102,71,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%r8,4)
- .byte 102,71,15,17,84,129,48 // movupd %xmm10,0x30(%r9,%r8,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 2242d <_sk_store_f32_sse41+0x7a>
- .byte 71,15,17,68,129,16 // movups %xmm8,0x10(%r9,%r8,4)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 2242d <_sk_store_f32_sse41+0x7a>
- .byte 102,71,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%r8,4)
- .byte 235,225 // jmp 2242d <_sk_store_f32_sse41+0x7a>
-
-HIDDEN _sk_repeat_x_sse41
-.globl _sk_repeat_x_sse41
-FUNCTION(_sk_repeat_x_sse41)
-_sk_repeat_x_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_repeat_y_sse41
-.globl _sk_repeat_y_sse41
-FUNCTION(_sk_repeat_y_sse41)
-_sk_repeat_y_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 65,15,92,200 // subps %xmm8,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_x_sse41
-.globl _sk_mirror_x_sse41
-FUNCTION(_sk_mirror_x_sse41)
-_sk_mirror_x_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 65,15,92,194 // subps %xmm10,%xmm0
- .byte 243,69,15,88,192 // addss %xmm8,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,35,160,1,0 // mulss 0x1a023(%rip),%xmm9 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 65,15,92,194 // subps %xmm10,%xmm0
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,92,192 // subps %xmm0,%xmm8
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_y_sse41
-.globl _sk_mirror_y_sse41
-FUNCTION(_sk_mirror_y_sse41)
-_sk_mirror_y_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 65,15,92,202 // subps %xmm10,%xmm1
- .byte 243,69,15,88,192 // addss %xmm8,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,202,159,1,0 // mulss 0x19fca(%rip),%xmm9 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 65,15,92,201 // subps %xmm9,%xmm1
- .byte 65,15,92,202 // subps %xmm10,%xmm1
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,92,193 // subps %xmm1,%xmm8
- .byte 65,15,84,200 // andps %xmm8,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_x_1_sse41
-.globl _sk_clamp_x_1_sse41
-FUNCTION(_sk_clamp_x_1_sse41)
-_sk_clamp_x_1_sse41:
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,166,169,1,0 // minps 0x1a9a6(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_repeat_x_1_sse41
-.globl _sk_repeat_x_1_sse41
-FUNCTION(_sk_repeat_x_1_sse41)
-_sk_repeat_x_1_sse41:
- .byte 102,68,15,58,8,192,1 // roundps $0x1,%xmm0,%xmm8
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,131,169,1,0 // minps 0x1a983(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_x_1_sse41
-.globl _sk_mirror_x_1_sse41
-FUNCTION(_sk_mirror_x_1_sse41)
-_sk_mirror_x_1_sse41:
- .byte 68,15,40,5,211,169,1,0 // movaps 0x1a9d3(%rip),%xmm8 # 3cf70 <_sk_srcover_bgra_8888_sse2_lowp+0xd24>
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,13,87,169,1,0 // movaps 0x1a957(%rip),%xmm9 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
- .byte 69,15,88,201 // addps %xmm9,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,92,200 // subps %xmm0,%xmm9
- .byte 68,15,84,200 // andps %xmm0,%xmm9
- .byte 69,15,95,193 // maxps %xmm9,%xmm8
- .byte 68,15,93,5,52,169,1,0 // minps 0x1a934(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_sse41
-.globl _sk_decal_x_sse41
-FUNCTION(_sk_decal_x_sse41)
-_sk_decal_x_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
- .byte 243,68,15,16,72,64 // movss 0x40(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 69,15,84,208 // andps %xmm8,%xmm10
- .byte 68,15,17,16 // movups %xmm10,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_y_sse41
-.globl _sk_decal_y_sse41
-FUNCTION(_sk_decal_y_sse41)
-_sk_decal_y_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,194,193,2 // cmpleps %xmm1,%xmm8
- .byte 243,68,15,16,72,68 // movss 0x44(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 69,15,84,208 // andps %xmm8,%xmm10
- .byte 68,15,17,16 // movups %xmm10,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_and_y_sse41
-.globl _sk_decal_x_and_y_sse41
-FUNCTION(_sk_decal_x_and_y_sse41)
-_sk_decal_x_and_y_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,194,200,2 // cmpleps %xmm0,%xmm9
- .byte 243,68,15,16,80,64 // movss 0x40(%rax),%xmm10
- .byte 243,68,15,16,88,68 // movss 0x44(%rax),%xmm11
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 68,15,40,224 // movaps %xmm0,%xmm12
- .byte 69,15,194,226,1 // cmpltps %xmm10,%xmm12
- .byte 68,15,194,193,2 // cmpleps %xmm1,%xmm8
- .byte 69,15,84,193 // andps %xmm9,%xmm8
- .byte 69,15,84,196 // andps %xmm12,%xmm8
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 69,15,84,200 // andps %xmm8,%xmm9
- .byte 68,15,17,8 // movups %xmm9,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_check_decal_mask_sse41
-.globl _sk_check_decal_mask_sse41
-FUNCTION(_sk_check_decal_mask_sse41)
-_sk_check_decal_mask_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,16,0 // movups (%rax),%xmm8
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 65,15,84,200 // andps %xmm8,%xmm1
- .byte 65,15,84,208 // andps %xmm8,%xmm2
- .byte 65,15,84,216 // andps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_luminance_to_alpha_sse41
-.globl _sk_luminance_to_alpha_sse41
-FUNCTION(_sk_luminance_to_alpha_sse41)
-_sk_luminance_to_alpha_sse41:
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,2,174,1,0 // mulps 0x1ae02(%rip),%xmm0 # 3d4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1264>
- .byte 15,89,13,11,174,1,0 // mulps 0x1ae0b(%rip),%xmm1 # 3d4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1274>
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,17,174,1,0 // mulps 0x1ae11(%rip),%xmm3 # 3d4d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1284>
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_translate_sse41
-.globl _sk_matrix_translate_sse41
-FUNCTION(_sk_matrix_translate_sse41)
-_sk_matrix_translate_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 65,15,88,201 // addps %xmm9,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_scale_translate_sse41
-.globl _sk_matrix_scale_translate_sse41
-FUNCTION(_sk_matrix_scale_translate_sse41)
-_sk_matrix_scale_translate_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_2x3_sse41
-.globl _sk_matrix_2x3_sse41
-FUNCTION(_sk_matrix_2x3_sse41)
-_sk_matrix_2x3_sse41:
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,16 // movss 0x10(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,68,15,16,80,12 // movss 0xc(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_3x4_sse41
-.globl _sk_matrix_3x4_sse41
-FUNCTION(_sk_matrix_3x4_sse41)
-_sk_matrix_3x4_sse41:
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,68,15,16,80,12 // movss 0xc(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,24 // movss 0x18(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,36 // movss 0x24(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,28 // movss 0x1c(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,40 // movss 0x28(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,32 // movss 0x20(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 243,68,15,16,104,44 // movss 0x2c(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 68,15,89,226 // mulps %xmm2,%xmm12
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 69,15,89,217 // mulps %xmm9,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_4x5_sse41
-.globl _sk_matrix_4x5_sse41
-FUNCTION(_sk_matrix_4x5_sse41)
-_sk_matrix_4x5_sse41:
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,32 // movss 0x20(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,48 // movss 0x30(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 243,68,15,16,104,64 // movss 0x40(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,68,15,16,80,20 // movss 0x14(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,36 // movss 0x24(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,52 // movss 0x34(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 243,68,15,16,104,68 // movss 0x44(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,24 // movss 0x18(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,40 // movss 0x28(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 243,68,15,16,104,56 // movss 0x38(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 243,68,15,16,112,72 // movss 0x48(%rax),%xmm14
- .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 69,15,88,238 // addps %xmm14,%xmm13
- .byte 68,15,89,226 // mulps %xmm2,%xmm12
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 69,15,89,217 // mulps %xmm9,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 243,68,15,16,88,12 // movss 0xc(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,28 // movss 0x1c(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 243,68,15,16,104,44 // movss 0x2c(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 243,68,15,16,112,60 // movss 0x3c(%rax),%xmm14
- .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14
- .byte 243,68,15,16,120,76 // movss 0x4c(%rax),%xmm15
- .byte 69,15,198,255,0 // shufps $0x0,%xmm15,%xmm15
- .byte 68,15,89,243 // mulps %xmm3,%xmm14
- .byte 69,15,88,247 // addps %xmm15,%xmm14
- .byte 68,15,89,234 // mulps %xmm2,%xmm13
- .byte 69,15,88,238 // addps %xmm14,%xmm13
- .byte 69,15,89,225 // mulps %xmm9,%xmm12
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 69,15,89,216 // mulps %xmm8,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,40,219 // movaps %xmm11,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_4x3_sse41
-.globl _sk_matrix_4x3_sse41
-FUNCTION(_sk_matrix_4x3_sse41)
-_sk_matrix_4x3_sse41:
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,15,16,80,16 // movss 0x10(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,88,32 // movss 0x20(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,88,36 // movss 0x24(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,88,24 // movss 0x18(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 243,68,15,16,80,40 // movss 0x28(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 65,15,89,217 // mulps %xmm9,%xmm3
- .byte 65,15,88,218 // addps %xmm10,%xmm3
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 243,68,15,16,80,28 // movss 0x1c(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,44 // movss 0x2c(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 65,15,88,218 // addps %xmm10,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_perspective_sse41
-.globl _sk_matrix_perspective_sse41
-FUNCTION(_sk_matrix_perspective_sse41)
-_sk_matrix_perspective_sse41:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 243,68,15,16,72,12 // movss 0xc(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 243,68,15,16,80,24 // movss 0x18(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,28 // movss 0x1c(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,32 // movss 0x20(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,83,202 // rcpps %xmm10,%xmm1
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_gradient_sse41
-.globl _sk_evenly_spaced_gradient_sse41
-FUNCTION(_sk_evenly_spaced_gradient_sse41)
-_sk_evenly_spaced_gradient_sse41:
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,139,24 // mov (%rax),%rbx
- .byte 76,139,112,8 // mov 0x8(%rax),%r14
- .byte 72,255,203 // dec %rbx
- .byte 120,7 // js 22b5f <_sk_evenly_spaced_gradient_sse41+0x18>
- .byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 22b74 <_sk_evenly_spaced_gradient_sse41+0x2d>
- .byte 73,137,216 // mov %rbx,%r8
- .byte 73,209,232 // shr %r8
- .byte 131,227,1 // and $0x1,%ebx
- .byte 76,9,195 // or %r8,%rbx
- .byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 243,15,88,201 // addss %xmm1,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 243,71,15,16,4,158 // movss (%r14,%r11,4),%xmm8
- .byte 102,71,15,58,33,4,150,16 // insertps $0x10,(%r14,%r10,4),%xmm8
- .byte 243,67,15,16,12,142 // movss (%r14,%r9,4),%xmm1
- .byte 102,68,15,58,33,193,32 // insertps $0x20,%xmm1,%xmm8
- .byte 243,67,15,16,12,134 // movss (%r14,%r8,4),%xmm1
- .byte 102,68,15,58,33,193,48 // insertps $0x30,%xmm1,%xmm8
- .byte 72,139,88,40 // mov 0x28(%rax),%rbx
- .byte 243,70,15,16,12,155 // movss (%rbx,%r11,4),%xmm9
- .byte 102,70,15,58,33,12,147,16 // insertps $0x10,(%rbx,%r10,4),%xmm9
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 102,68,15,58,33,201,32 // insertps $0x20,%xmm1,%xmm9
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 102,68,15,58,33,201,48 // insertps $0x30,%xmm1,%xmm9
- .byte 72,139,88,16 // mov 0x10(%rax),%rbx
- .byte 243,66,15,16,12,155 // movss (%rbx,%r11,4),%xmm1
- .byte 102,66,15,58,33,12,147,16 // insertps $0x10,(%rbx,%r10,4),%xmm1
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 102,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm1
- .byte 243,66,15,16,20,131 // movss (%rbx,%r8,4),%xmm2
- .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
- .byte 72,139,88,48 // mov 0x30(%rax),%rbx
- .byte 243,70,15,16,20,155 // movss (%rbx,%r11,4),%xmm10
- .byte 102,70,15,58,33,20,147,16 // insertps $0x10,(%rbx,%r10,4),%xmm10
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 102,68,15,58,33,210,32 // insertps $0x20,%xmm2,%xmm10
- .byte 243,66,15,16,20,131 // movss (%rbx,%r8,4),%xmm2
- .byte 102,68,15,58,33,210,48 // insertps $0x30,%xmm2,%xmm10
- .byte 72,139,88,24 // mov 0x18(%rax),%rbx
- .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2
- .byte 102,66,15,58,33,20,147,16 // insertps $0x10,(%rbx,%r10,4),%xmm2
- .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3
- .byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
- .byte 72,139,88,56 // mov 0x38(%rax),%rbx
- .byte 243,70,15,16,28,155 // movss (%rbx,%r11,4),%xmm11
- .byte 102,70,15,58,33,28,147,16 // insertps $0x10,(%rbx,%r10,4),%xmm11
- .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3
- .byte 102,68,15,58,33,219,32 // insertps $0x20,%xmm3,%xmm11
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 102,68,15,58,33,219,48 // insertps $0x30,%xmm3,%xmm11
- .byte 72,139,88,32 // mov 0x20(%rax),%rbx
- .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3
- .byte 102,66,15,58,33,28,147,16 // insertps $0x10,(%rbx,%r10,4),%xmm3
- .byte 243,70,15,16,36,139 // movss (%rbx,%r9,4),%xmm12
- .byte 102,65,15,58,33,220,32 // insertps $0x20,%xmm12,%xmm3
- .byte 243,70,15,16,36,131 // movss (%rbx,%r8,4),%xmm12
- .byte 102,65,15,58,33,220,48 // insertps $0x30,%xmm12,%xmm3
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 243,70,15,16,36,152 // movss (%rax,%r11,4),%xmm12
- .byte 102,70,15,58,33,36,144,16 // insertps $0x10,(%rax,%r10,4),%xmm12
- .byte 243,70,15,16,44,136 // movss (%rax,%r9,4),%xmm13
- .byte 102,69,15,58,33,229,32 // insertps $0x20,%xmm13,%xmm12
- .byte 243,70,15,16,44,128 // movss (%rax,%r8,4),%xmm13
- .byte 102,69,15,58,33,229,48 // insertps $0x30,%xmm13,%xmm12
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 69,15,88,193 // addps %xmm9,%xmm8
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 65,15,88,211 // addps %xmm11,%xmm2
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gradient_sse41
-.globl _sk_gradient_sse41
-FUNCTION(_sk_gradient_sse41)
-_sk_gradient_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 22d51 <_sk_gradient_sse41+0x38>
- .byte 76,139,72,72 // mov 0x48(%rax),%r9
- .byte 73,255,200 // dec %r8
- .byte 73,131,193,4 // add $0x4,%r9
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 243,65,15,16,17 // movss (%r9),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,194,208,2 // cmpleps %xmm0,%xmm2
- .byte 102,15,250,202 // psubd %xmm2,%xmm1
- .byte 73,131,193,4 // add $0x4,%r9
- .byte 73,255,200 // dec %r8
- .byte 117,230 // jne 22d37 <_sk_gradient_sse41+0x1e>
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 72,139,88,8 // mov 0x8(%rax),%rbx
- .byte 76,139,112,16 // mov 0x10(%rax),%r14
- .byte 243,70,15,16,4,155 // movss (%rbx,%r11,4),%xmm8
- .byte 102,70,15,58,33,4,147,16 // insertps $0x10,(%rbx,%r10,4),%xmm8
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 102,68,15,58,33,193,32 // insertps $0x20,%xmm1,%xmm8
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 102,68,15,58,33,193,48 // insertps $0x30,%xmm1,%xmm8
- .byte 72,139,88,40 // mov 0x28(%rax),%rbx
- .byte 243,70,15,16,12,155 // movss (%rbx,%r11,4),%xmm9
- .byte 102,70,15,58,33,12,147,16 // insertps $0x10,(%rbx,%r10,4),%xmm9
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 102,68,15,58,33,201,32 // insertps $0x20,%xmm1,%xmm9
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 102,68,15,58,33,201,48 // insertps $0x30,%xmm1,%xmm9
- .byte 243,67,15,16,12,158 // movss (%r14,%r11,4),%xmm1
- .byte 102,67,15,58,33,12,150,16 // insertps $0x10,(%r14,%r10,4),%xmm1
- .byte 243,67,15,16,20,142 // movss (%r14,%r9,4),%xmm2
- .byte 102,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm1
- .byte 243,67,15,16,20,134 // movss (%r14,%r8,4),%xmm2
- .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
- .byte 72,139,88,48 // mov 0x30(%rax),%rbx
- .byte 243,70,15,16,20,155 // movss (%rbx,%r11,4),%xmm10
- .byte 102,70,15,58,33,20,147,16 // insertps $0x10,(%rbx,%r10,4),%xmm10
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 102,68,15,58,33,210,32 // insertps $0x20,%xmm2,%xmm10
- .byte 243,66,15,16,20,131 // movss (%rbx,%r8,4),%xmm2
- .byte 102,68,15,58,33,210,48 // insertps $0x30,%xmm2,%xmm10
- .byte 72,139,88,24 // mov 0x18(%rax),%rbx
- .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2
- .byte 102,66,15,58,33,20,147,16 // insertps $0x10,(%rbx,%r10,4),%xmm2
- .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3
- .byte 102,15,58,33,211,32 // insertps $0x20,%xmm3,%xmm2
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 102,15,58,33,211,48 // insertps $0x30,%xmm3,%xmm2
- .byte 72,139,88,56 // mov 0x38(%rax),%rbx
- .byte 243,70,15,16,28,155 // movss (%rbx,%r11,4),%xmm11
- .byte 102,70,15,58,33,28,147,16 // insertps $0x10,(%rbx,%r10,4),%xmm11
- .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3
- .byte 102,68,15,58,33,219,32 // insertps $0x20,%xmm3,%xmm11
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 102,68,15,58,33,219,48 // insertps $0x30,%xmm3,%xmm11
- .byte 72,139,88,32 // mov 0x20(%rax),%rbx
- .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3
- .byte 102,66,15,58,33,28,147,16 // insertps $0x10,(%rbx,%r10,4),%xmm3
- .byte 243,70,15,16,36,139 // movss (%rbx,%r9,4),%xmm12
- .byte 102,65,15,58,33,220,32 // insertps $0x20,%xmm12,%xmm3
- .byte 243,70,15,16,36,131 // movss (%rbx,%r8,4),%xmm12
- .byte 102,65,15,58,33,220,48 // insertps $0x30,%xmm12,%xmm3
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 243,70,15,16,36,152 // movss (%rax,%r11,4),%xmm12
- .byte 102,70,15,58,33,36,144,16 // insertps $0x10,(%rax,%r10,4),%xmm12
- .byte 243,70,15,16,44,136 // movss (%rax,%r9,4),%xmm13
- .byte 102,69,15,58,33,229,32 // insertps $0x20,%xmm13,%xmm12
- .byte 243,70,15,16,44,128 // movss (%rax,%r8,4),%xmm13
- .byte 102,69,15,58,33,229,48 // insertps $0x30,%xmm13,%xmm12
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 69,15,88,193 // addps %xmm9,%xmm8
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 65,15,88,211 // addps %xmm11,%xmm2
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_2_stop_gradient_sse41
-.globl _sk_evenly_spaced_2_stop_gradient_sse41
-FUNCTION(_sk_evenly_spaced_2_stop_gradient_sse41)
-_sk_evenly_spaced_2_stop_gradient_sse41:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,15,16,80,16 // movss 0x10(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,88,24 // movss 0x18(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 243,68,15,16,72,28 // movss 0x1c(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 65,15,88,217 // addps %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_unit_angle_sse41
-.globl _sk_xy_to_unit_angle_sse41
-FUNCTION(_sk_xy_to_unit_angle_sse41)
-_sk_xy_to_unit_angle_sse41:
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 68,15,92,217 // subps %xmm1,%xmm11
- .byte 68,15,84,217 // andps %xmm1,%xmm11
- .byte 68,15,40,224 // movaps %xmm0,%xmm12
- .byte 69,15,93,227 // minps %xmm11,%xmm12
- .byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 69,15,95,211 // maxps %xmm11,%xmm10
- .byte 69,15,94,226 // divps %xmm10,%xmm12
- .byte 69,15,40,236 // movaps %xmm12,%xmm13
- .byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,40,21,59,165,1,0 // movaps 0x1a53b(%rip),%xmm10 # 3d4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
- .byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,63,165,1,0 // addps 0x1a53f(%rip),%xmm10 # 3d4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12a4>
- .byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,67,165,1,0 // addps 0x1a543(%rip),%xmm10 # 3d500 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
- .byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,21,71,165,1,0 // addps 0x1a547(%rip),%xmm10 # 3d510 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
- .byte 69,15,89,212 // mulps %xmm12,%xmm10
- .byte 65,15,194,195,1 // cmpltps %xmm11,%xmm0
- .byte 68,15,40,29,70,165,1,0 // movaps 0x1a546(%rip),%xmm11 # 3d520 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
- .byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
- .byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 68,15,40,29,15,159,1,0 // movaps 0x19f0f(%rip),%xmm11 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,69,15,56,20,211 // blendvps %xmm0,%xmm11,%xmm10
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0
- .byte 68,15,40,13,1,159,1,0 // movaps 0x19f01(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,202 // subps %xmm10,%xmm9
- .byte 102,69,15,56,20,209 // blendvps %xmm0,%xmm9,%xmm10
- .byte 69,15,194,194,7 // cmpordps %xmm10,%xmm8
- .byte 69,15,84,194 // andps %xmm10,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_radius_sse41
-.globl _sk_xy_to_radius_sse41
-FUNCTION(_sk_xy_to_radius_sse41)
-_sk_xy_to_radius_sse41:
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,88,192 // addps %xmm0,%xmm8
- .byte 65,15,81,192 // sqrtps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_negate_x_sse41
-.globl _sk_negate_x_sse41
-FUNCTION(_sk_negate_x_sse41)
-_sk_negate_x_sse41:
- .byte 15,87,5,24,164,1,0 // xorps 0x1a418(%rip),%xmm0 # 3d460 <_sk_srcover_bgra_8888_sse2_lowp+0x1214>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_strip_sse41
-.globl _sk_xy_to_2pt_conical_strip_sse41
-FUNCTION(_sk_xy_to_2pt_conical_strip_sse41)
-_sk_xy_to_2pt_conical_strip_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,64 // movss 0x40(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 69,15,81,192 // sqrtps %xmm8,%xmm8
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_focal_on_circle_sse41
-.globl _sk_xy_to_2pt_conical_focal_on_circle_sse41
-FUNCTION(_sk_xy_to_2pt_conical_focal_on_circle_sse41)
-_sk_xy_to_2pt_conical_focal_on_circle_sse41:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,94,192 // divps %xmm0,%xmm8
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_well_behaved_sse41
-.globl _sk_xy_to_2pt_conical_well_behaved_sse41
-FUNCTION(_sk_xy_to_2pt_conical_well_behaved_sse41)
-_sk_xy_to_2pt_conical_well_behaved_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,64 // movss 0x40(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 65,15,81,193 // sqrtps %xmm9,%xmm0
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_greater_sse41
-.globl _sk_xy_to_2pt_conical_greater_sse41
-FUNCTION(_sk_xy_to_2pt_conical_greater_sse41)
-_sk_xy_to_2pt_conical_greater_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,64 // movss 0x40(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 15,81,192 // sqrtps %xmm0,%xmm0
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_smaller_sse41
-.globl _sk_xy_to_2pt_conical_smaller_sse41
-FUNCTION(_sk_xy_to_2pt_conical_smaller_sse41)
-_sk_xy_to_2pt_conical_smaller_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,64 // movss 0x40(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 15,81,192 // sqrtps %xmm0,%xmm0
- .byte 15,87,5,90,163,1,0 // xorps 0x1a35a(%rip),%xmm0 # 3d460 <_sk_srcover_bgra_8888_sse2_lowp+0x1214>
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_alter_2pt_conical_compensate_focal_sse41
-.globl _sk_alter_2pt_conical_compensate_focal_sse41
-FUNCTION(_sk_alter_2pt_conical_compensate_focal_sse41)
-_sk_alter_2pt_conical_compensate_focal_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,68 // movss 0x44(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_alter_2pt_conical_unswap_sse41
-.globl _sk_alter_2pt_conical_unswap_sse41
-FUNCTION(_sk_alter_2pt_conical_unswap_sse41)
-_sk_alter_2pt_conical_unswap_sse41:
- .byte 68,15,40,5,229,157,1,0 // movaps 0x19de5(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,192 // subps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mask_2pt_conical_nan_sse41
-.globl _sk_mask_2pt_conical_nan_sse41
-FUNCTION(_sk_mask_2pt_conical_nan_sse41)
-_sk_mask_2pt_conical_nan_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,194,192,7 // cmpordps %xmm0,%xmm8
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 68,15,17,0 // movups %xmm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mask_2pt_conical_degenerates_sse41
-.globl _sk_mask_2pt_conical_degenerates_sse41
-FUNCTION(_sk_mask_2pt_conical_degenerates_sse41)
-_sk_mask_2pt_conical_degenerates_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 69,15,95,193 // maxps %xmm9,%xmm8
- .byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,17,8 // movups %xmm9,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_apply_vector_mask_sse41
-.globl _sk_apply_vector_mask_sse41
-FUNCTION(_sk_apply_vector_mask_sse41)
-_sk_apply_vector_mask_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,16,0 // movups (%rax),%xmm8
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 65,15,84,200 // andps %xmm8,%xmm1
- .byte 65,15,84,208 // andps %xmm8,%xmm2
- .byte 65,15,84,216 // andps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_save_xy_sse41
-.globl _sk_save_xy_sse41
-FUNCTION(_sk_save_xy_sse41)
-_sk_save_xy_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,111,157,1,0 // movaps 0x19d6f(%rip),%xmm8 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,17,0 // movups %xmm0,(%rax)
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 102,69,15,58,8,209,1 // roundps $0x1,%xmm9,%xmm10
- .byte 69,15,92,202 // subps %xmm10,%xmm9
- .byte 68,15,88,193 // addps %xmm1,%xmm8
- .byte 102,69,15,58,8,208,1 // roundps $0x1,%xmm8,%xmm10
- .byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 15,17,72,64 // movups %xmm1,0x40(%rax)
- .byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
- .byte 68,15,17,128,192,0,0,0 // movups %xmm8,0xc0(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_accumulate_sse41
-.globl _sk_accumulate_sse41
-FUNCTION(_sk_accumulate_sse41)
-_sk_accumulate_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,16,128,0,1,0,0 // movups 0x100(%rax),%xmm8
- .byte 68,15,16,136,64,1,0,0 // movups 0x140(%rax),%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 65,15,88,224 // addps %xmm8,%xmm4
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 68,15,89,193 // mulps %xmm1,%xmm8
- .byte 65,15,88,232 // addps %xmm8,%xmm5
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 68,15,89,194 // mulps %xmm2,%xmm8
- .byte 65,15,88,240 // addps %xmm8,%xmm6
- .byte 68,15,89,203 // mulps %xmm3,%xmm9
- .byte 65,15,88,249 // addps %xmm9,%xmm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_nx_sse41
-.globl _sk_bilinear_nx_sse41
-FUNCTION(_sk_bilinear_nx_sse41)
-_sk_bilinear_nx_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,8,163,1,0 // addps 0x1a308(%rip),%xmm0 # 3d530 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
- .byte 68,15,40,13,224,156,1,0 // movaps 0x19ce0(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_px_sse41
-.globl _sk_bilinear_px_sse41
-FUNCTION(_sk_bilinear_px_sse41)
-_sk_bilinear_px_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,172,156,1,0 // addps 0x19cac(%rip),%xmm0 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_ny_sse41
-.globl _sk_bilinear_ny_sse41
-FUNCTION(_sk_bilinear_ny_sse41)
-_sk_bilinear_ny_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,72,64 // movups 0x40(%rax),%xmm1
- .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,187,162,1,0 // addps 0x1a2bb(%rip),%xmm1 # 3d530 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
- .byte 68,15,40,13,147,156,1,0 // movaps 0x19c93(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_py_sse41
-.globl _sk_bilinear_py_sse41
-FUNCTION(_sk_bilinear_py_sse41)
-_sk_bilinear_py_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,72,64 // movups 0x40(%rax),%xmm1
- .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,94,156,1,0 // addps 0x19c5e(%rip),%xmm1 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n3x_sse41
-.globl _sk_bicubic_n3x_sse41
-FUNCTION(_sk_bicubic_n3x_sse41)
-_sk_bicubic_n3x_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,126,162,1,0 // addps 0x1a27e(%rip),%xmm0 # 3d540 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
- .byte 68,15,40,13,70,156,1,0 // movaps 0x19c46(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,114,162,1,0 // mulps 0x1a272(%rip),%xmm9 # 3d550 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
- .byte 68,15,88,13,42,158,1,0 // addps 0x19e2a(%rip),%xmm9 # 3d110 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n1x_sse41
-.globl _sk_bicubic_n1x_sse41
-FUNCTION(_sk_bicubic_n1x_sse41)
-_sk_bicubic_n1x_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,38,162,1,0 // addps 0x1a226(%rip),%xmm0 # 3d530 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
- .byte 68,15,40,13,254,155,1,0 // movaps 0x19bfe(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,66,162,1,0 // movaps 0x1a242(%rip),%xmm8 # 3d560 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,70,162,1,0 // addps 0x1a246(%rip),%xmm8 # 3d570 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,202,155,1,0 // addps 0x19bca(%rip),%xmm8 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,62,162,1,0 // addps 0x1a23e(%rip),%xmm8 # 3d580 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
- .byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p1x_sse41
-.globl _sk_bicubic_p1x_sse41
-FUNCTION(_sk_bicubic_p1x_sse41)
-_sk_bicubic_p1x_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,168,155,1,0 // movaps 0x19ba8(%rip),%xmm8 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,241,161,1,0 // movaps 0x1a1f1(%rip),%xmm10 # 3d560 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,245,161,1,0 // addps 0x1a1f5(%rip),%xmm10 # 3d570 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,208 // addps %xmm8,%xmm10
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,241,161,1,0 // addps 0x1a1f1(%rip),%xmm10 # 3d580 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
- .byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p3x_sse41
-.globl _sk_bicubic_p3x_sse41
-FUNCTION(_sk_bicubic_p3x_sse41)
-_sk_bicubic_p3x_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,193,161,1,0 // addps 0x1a1c1(%rip),%xmm0 # 3d570 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,145,161,1,0 // mulps 0x1a191(%rip),%xmm8 # 3d550 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
- .byte 68,15,88,5,73,157,1,0 // addps 0x19d49(%rip),%xmm8 # 3d110 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n3y_sse41
-.globl _sk_bicubic_n3y_sse41
-FUNCTION(_sk_bicubic_n3y_sse41)
-_sk_bicubic_n3y_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,72,64 // movups 0x40(%rax),%xmm1
- .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,84,161,1,0 // addps 0x1a154(%rip),%xmm1 # 3d540 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
- .byte 68,15,40,13,28,155,1,0 // movaps 0x19b1c(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,72,161,1,0 // mulps 0x1a148(%rip),%xmm9 # 3d550 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
- .byte 68,15,88,13,0,157,1,0 // addps 0x19d00(%rip),%xmm9 # 3d110 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n1y_sse41
-.globl _sk_bicubic_n1y_sse41
-FUNCTION(_sk_bicubic_n1y_sse41)
-_sk_bicubic_n1y_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,72,64 // movups 0x40(%rax),%xmm1
- .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,251,160,1,0 // addps 0x1a0fb(%rip),%xmm1 # 3d530 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
- .byte 68,15,40,13,211,154,1,0 // movaps 0x19ad3(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,23,161,1,0 // movaps 0x1a117(%rip),%xmm8 # 3d560 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,27,161,1,0 // addps 0x1a11b(%rip),%xmm8 # 3d570 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,159,154,1,0 // addps 0x19a9f(%rip),%xmm8 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,19,161,1,0 // addps 0x1a113(%rip),%xmm8 # 3d580 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
- .byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p1y_sse41
-.globl _sk_bicubic_p1y_sse41
-FUNCTION(_sk_bicubic_p1y_sse41)
-_sk_bicubic_p1y_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,125,154,1,0 // movaps 0x19a7d(%rip),%xmm8 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,16,72,64 // movups 0x40(%rax),%xmm1
- .byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,197,160,1,0 // movaps 0x1a0c5(%rip),%xmm10 # 3d560 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,201,160,1,0 // addps 0x1a0c9(%rip),%xmm10 # 3d570 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,208 // addps %xmm8,%xmm10
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,197,160,1,0 // addps 0x1a0c5(%rip),%xmm10 # 3d580 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
- .byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p3y_sse41
-.globl _sk_bicubic_p3y_sse41
-FUNCTION(_sk_bicubic_p3y_sse41)
-_sk_bicubic_p3y_sse41:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,72,64 // movups 0x40(%rax),%xmm1
- .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,148,160,1,0 // addps 0x1a094(%rip),%xmm1 # 3d570 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,100,160,1,0 // mulps 0x1a064(%rip),%xmm8 # 3d550 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
- .byte 68,15,88,5,28,156,1,0 // addps 0x19c1c(%rip),%xmm8 # 3d110 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_callback_sse41
-.globl _sk_callback_sse41
-FUNCTION(_sk_callback_sse41)
-_sk_callback_sse41:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,72 // sub $0x48,%rsp
- .byte 15,41,125,144 // movaps %xmm7,-0x70(%rbp)
- .byte 15,41,117,160 // movaps %xmm6,-0x60(%rbp)
- .byte 15,41,109,176 // movaps %xmm5,-0x50(%rbp)
- .byte 15,41,101,192 // movaps %xmm4,-0x40(%rbp)
- .byte 73,137,206 // mov %rcx,%r14
- .byte 73,137,215 // mov %rdx,%r15
- .byte 73,137,253 // mov %rdi,%r13
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,137,195 // mov %rax,%rbx
- .byte 73,137,244 // mov %rsi,%r12
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,20,225 // unpcklps %xmm1,%xmm4
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 15,21,193 // unpckhps %xmm1,%xmm0
- .byte 15,21,211 // unpckhps %xmm3,%xmm2
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 15,18,236 // movhlps %xmm4,%xmm5
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 102,15,20,218 // unpcklpd %xmm2,%xmm3
- .byte 102,15,17,75,8 // movupd %xmm1,0x8(%rbx)
- .byte 15,18,208 // movhlps %xmm0,%xmm2
- .byte 15,17,107,24 // movups %xmm5,0x18(%rbx)
- .byte 102,15,17,91,40 // movupd %xmm3,0x28(%rbx)
- .byte 15,17,83,56 // movups %xmm2,0x38(%rbx)
- .byte 77,133,237 // test %r13,%r13
- .byte 190,4,0,0,0 // mov $0x4,%esi
- .byte 65,15,69,245 // cmovne %r13d,%esi
- .byte 72,137,223 // mov %rbx,%rdi
- .byte 255,19 // callq *(%rbx)
- .byte 72,139,131,8,1,0,0 // mov 0x108(%rbx),%rax
- .byte 15,16,32 // movups (%rax),%xmm4
- .byte 15,16,64,16 // movups 0x10(%rax),%xmm0
- .byte 15,16,88,32 // movups 0x20(%rax),%xmm3
- .byte 15,16,80,48 // movups 0x30(%rax),%xmm2
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,20,202 // unpcklps %xmm2,%xmm1
- .byte 15,21,224 // unpckhps %xmm0,%xmm4
- .byte 15,21,218 // unpckhps %xmm2,%xmm3
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
- .byte 15,18,205 // movhlps %xmm5,%xmm1
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 15,18,220 // movhlps %xmm4,%xmm3
- .byte 76,137,230 // mov %r12,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,137,239 // mov %r13,%rdi
- .byte 76,137,250 // mov %r15,%rdx
- .byte 76,137,241 // mov %r14,%rcx
- .byte 15,40,101,192 // movaps -0x40(%rbp),%xmm4
- .byte 15,40,109,176 // movaps -0x50(%rbp),%xmm5
- .byte 15,40,117,160 // movaps -0x60(%rbp),%xmm6
- .byte 15,40,125,144 // movaps -0x70(%rbp),%xmm7
- .byte 72,131,196,72 // add $0x48,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clut_3D_sse41
-.globl _sk_clut_3D_sse41
-FUNCTION(_sk_clut_3D_sse41)
-_sk_clut_3D_sse41:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,56 // sub $0x38,%rsp
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%rsp)
- .byte 15,41,116,36,16 // movaps %xmm6,0x10(%rsp)
- .byte 15,41,44,36 // movaps %xmm5,(%rsp)
- .byte 15,41,100,36,240 // movaps %xmm4,-0x10(%rsp)
- .byte 15,41,92,36,224 // movaps %xmm3,-0x20(%rsp)
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 72,137,76,36,136 // mov %rcx,-0x78(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,16 // mov 0x10(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 102,65,15,110,193 // movd %r9d,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,41,68,36,208 // movaps %xmm0,-0x30(%rsp)
- .byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6
- .byte 15,40,37,79,159,1,0 // movaps 0x19f4f(%rip),%xmm4 # 3d590 <_sk_srcover_bgra_8888_sse2_lowp+0x1344>
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp)
- .byte 102,65,15,110,208 // movd %r8d,%xmm2
- .byte 102,68,15,112,202,0 // pshufd $0x0,%xmm2,%xmm9
- .byte 68,139,64,12 // mov 0xc(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 102,65,15,110,233 // movd %r9d,%xmm5
- .byte 102,15,112,237,0 // pshufd $0x0,%xmm5,%xmm5
- .byte 15,91,253 // cvtdq2ps %xmm5,%xmm7
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 15,41,124,36,144 // movaps %xmm7,-0x70(%rsp)
- .byte 243,15,91,239 // cvttps2dq %xmm7,%xmm5
- .byte 102,15,127,108,36,160 // movdqa %xmm5,-0x60(%rsp)
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 243,68,15,91,209 // cvttps2dq %xmm1,%xmm10
- .byte 102,69,15,56,64,209 // pmulld %xmm9,%xmm10
- .byte 102,68,15,56,64,205 // pmulld %xmm5,%xmm9
- .byte 102,65,15,110,192 // movd %r8d,%xmm0
- .byte 102,15,56,64,194 // pmulld %xmm2,%xmm0
- .byte 68,139,64,8 // mov 0x8(%rax),%r8d
- .byte 65,255,200 // dec %r8d
- .byte 102,65,15,110,200 // movd %r8d,%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 68,15,91,217 // cvtdq2ps %xmm1,%xmm11
- .byte 68,15,89,219 // mulps %xmm3,%xmm11
- .byte 102,65,15,111,209 // movdqa %xmm9,%xmm2
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,15,127,108,36,192 // movdqa %xmm5,-0x40(%rsp)
- .byte 102,15,254,213 // paddd %xmm5,%xmm2
- .byte 102,68,15,112,192,0 // pshufd $0x0,%xmm0,%xmm8
- .byte 65,15,88,227 // addps %xmm11,%xmm4
- .byte 243,68,15,91,244 // cvttps2dq %xmm4,%xmm14
- .byte 102,69,15,56,64,240 // pmulld %xmm8,%xmm14
- .byte 243,65,15,91,195 // cvttps2dq %xmm11,%xmm0
- .byte 102,68,15,56,64,192 // pmulld %xmm0,%xmm8
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,68,15,111,37,166,158,1,0 // movdqa 0x19ea6(%rip),%xmm12 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,65,15,56,64,220 // pmulld %xmm12,%xmm3
- .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,250,204 // psubd %xmm4,%xmm1
- .byte 102,69,15,118,237 // pcmpeqd %xmm13,%xmm13
- .byte 102,73,15,58,22,200,1 // pextrq $0x1,%xmm1,%r8
- .byte 102,73,15,126,201 // movq %xmm1,%r9
- .byte 72,139,0 // mov (%rax),%rax
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,195 // mov %r8d,%r11d
- .byte 243,66,15,16,12,144 // movss (%rax,%r10,4),%xmm1
- .byte 102,66,15,58,33,12,136,16 // insertps $0x10,(%rax,%r9,4),%xmm1
- .byte 243,66,15,16,36,152 // movss (%rax,%r11,4),%xmm4
- .byte 102,15,58,33,204,32 // insertps $0x20,%xmm4,%xmm1
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,36,128 // movss (%rax,%r8,4),%xmm4
- .byte 102,15,58,33,204,48 // insertps $0x30,%xmm4,%xmm1
- .byte 102,65,15,126,216 // movd %xmm3,%r8d
- .byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
- .byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
- .byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,15,111,37,202,151,1,0 // movdqa 0x197ca(%rip),%xmm4 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,15,254,220 // paddd %xmm4,%xmm3
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
- .byte 102,72,15,126,219 // movq %xmm3,%rbx
- .byte 65,137,223 // mov %ebx,%r15d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,244 // mov %r14d,%r12d
- .byte 243,66,15,16,36,184 // movss (%rax,%r15,4),%xmm4
- .byte 102,15,58,33,36,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm4
- .byte 243,66,15,16,28,160 // movss (%rax,%r12,4),%xmm3
- .byte 102,15,58,33,227,32 // insertps $0x20,%xmm3,%xmm4
- .byte 73,193,238,32 // shr $0x20,%r14
- .byte 243,66,15,16,28,176 // movss (%rax,%r14,4),%xmm3
- .byte 102,15,58,33,227,48 // insertps $0x30,%xmm3,%xmm4
- .byte 102,65,15,254,214 // paddd %xmm14,%xmm2
- .byte 102,65,15,56,64,212 // pmulld %xmm12,%xmm2
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,65,15,250,221 // psubd %xmm13,%xmm3
- .byte 102,69,15,118,255 // pcmpeqd %xmm15,%xmm15
- .byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
- .byte 102,72,15,126,219 // movq %xmm3,%rbx
- .byte 65,137,223 // mov %ebx,%r15d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,244 // mov %r14d,%r12d
- .byte 243,66,15,16,28,184 // movss (%rax,%r15,4),%xmm3
- .byte 102,15,58,33,28,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm3
- .byte 243,66,15,16,52,160 // movss (%rax,%r12,4),%xmm6
- .byte 102,15,58,33,222,32 // insertps $0x20,%xmm6,%xmm3
- .byte 73,193,238,32 // shr $0x20,%r14
- .byte 243,66,15,16,52,176 // movss (%rax,%r14,4),%xmm6
- .byte 102,15,58,33,222,48 // insertps $0x30,%xmm6,%xmm3
- .byte 102,65,15,126,213 // movd %xmm2,%r13d
- .byte 102,65,15,58,22,214,1 // pextrd $0x1,%xmm2,%r14d
- .byte 102,65,15,58,22,215,2 // pextrd $0x2,%xmm2,%r15d
- .byte 102,65,15,58,22,212,3 // pextrd $0x3,%xmm2,%r12d
- .byte 102,15,254,215 // paddd %xmm7,%xmm2
- .byte 102,68,15,111,239 // movdqa %xmm7,%xmm13
- .byte 102,72,15,58,22,211,1 // pextrq $0x1,%xmm2,%rbx
- .byte 102,72,15,126,213 // movq %xmm2,%rbp
- .byte 137,233 // mov %ebp,%ecx
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 243,15,16,60,136 // movss (%rax,%rcx,4),%xmm7
- .byte 102,15,58,33,60,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm7
- .byte 137,217 // mov %ebx,%ecx
- .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2
- .byte 102,15,58,33,250,32 // insertps $0x20,%xmm2,%xmm7
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2
- .byte 102,15,58,33,250,48 // insertps $0x30,%xmm2,%xmm7
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,92,216 // subps %xmm0,%xmm11
- .byte 243,66,15,16,20,128 // movss (%rax,%r8,4),%xmm2
- .byte 102,66,15,58,33,20,136,16 // insertps $0x10,(%rax,%r9,4),%xmm2
- .byte 102,66,15,58,33,20,144,32 // insertps $0x20,(%rax,%r10,4),%xmm2
- .byte 102,66,15,58,33,20,152,48 // insertps $0x30,(%rax,%r11,4),%xmm2
- .byte 243,66,15,16,4,168 // movss (%rax,%r13,4),%xmm0
- .byte 102,66,15,58,33,4,176,16 // insertps $0x10,(%rax,%r14,4),%xmm0
- .byte 102,66,15,58,33,4,184,32 // insertps $0x20,(%rax,%r15,4),%xmm0
- .byte 102,66,15,58,33,4,160,48 // insertps $0x30,(%rax,%r12,4),%xmm0
- .byte 15,92,194 // subps %xmm2,%xmm0
- .byte 65,15,89,195 // mulps %xmm11,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,92,217 // subps %xmm1,%xmm3
- .byte 65,15,89,219 // mulps %xmm11,%xmm3
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 15,92,252 // subps %xmm4,%xmm7
- .byte 65,15,89,251 // mulps %xmm11,%xmm7
- .byte 15,88,252 // addps %xmm4,%xmm7
- .byte 102,65,15,111,226 // movdqa %xmm10,%xmm4
- .byte 102,15,254,229 // paddd %xmm5,%xmm4
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,65,15,254,200 // paddd %xmm8,%xmm1
- .byte 102,65,15,56,64,204 // pmulld %xmm12,%xmm1
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 102,15,58,22,205,1 // pextrd $0x1,%xmm1,%ebp
- .byte 102,65,15,58,22,200,2 // pextrd $0x2,%xmm1,%r8d
- .byte 102,15,58,22,203,3 // pextrd $0x3,%xmm1,%ebx
- .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2
- .byte 102,15,58,33,20,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm2
- .byte 102,66,15,58,33,20,128,32 // insertps $0x20,(%rax,%r8,4),%xmm2
- .byte 243,15,16,52,152 // movss (%rax,%rbx,4),%xmm6
- .byte 102,15,58,33,214,48 // insertps $0x30,%xmm6,%xmm2
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,65,15,250,247 // psubd %xmm15,%xmm6
- .byte 102,69,15,118,255 // pcmpeqd %xmm15,%xmm15
- .byte 102,72,15,58,22,241,1 // pextrq $0x1,%xmm6,%rcx
- .byte 102,72,15,126,245 // movq %xmm6,%rbp
- .byte 65,137,232 // mov %ebp,%r8d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 137,203 // mov %ecx,%ebx
- .byte 243,66,15,16,52,128 // movss (%rax,%r8,4),%xmm6
- .byte 102,15,58,33,52,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm6
- .byte 243,15,16,44,152 // movss (%rax,%rbx,4),%xmm5
- .byte 102,15,58,33,245,32 // insertps $0x20,%xmm5,%xmm6
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,44,136 // movss (%rax,%rcx,4),%xmm5
- .byte 102,15,58,33,245,48 // insertps $0x30,%xmm5,%xmm6
- .byte 102,65,15,254,205 // paddd %xmm13,%xmm1
- .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
- .byte 102,72,15,126,205 // movq %xmm1,%rbp
- .byte 65,137,232 // mov %ebp,%r8d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 137,203 // mov %ecx,%ebx
- .byte 243,66,15,16,12,128 // movss (%rax,%r8,4),%xmm1
- .byte 102,15,58,33,12,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm1
- .byte 243,15,16,44,152 // movss (%rax,%rbx,4),%xmm5
- .byte 102,15,58,33,205,32 // insertps $0x20,%xmm5,%xmm1
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,44,136 // movss (%rax,%rcx,4),%xmm5
- .byte 102,15,58,33,205,48 // insertps $0x30,%xmm5,%xmm1
- .byte 102,65,15,254,230 // paddd %xmm14,%xmm4
- .byte 102,65,15,56,64,228 // pmulld %xmm12,%xmm4
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,65,15,250,239 // psubd %xmm15,%xmm5
- .byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx
- .byte 102,72,15,126,237 // movq %xmm5,%rbp
- .byte 65,137,232 // mov %ebp,%r8d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 137,203 // mov %ecx,%ebx
- .byte 243,70,15,16,36,128 // movss (%rax,%r8,4),%xmm12
- .byte 102,68,15,58,33,36,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm12
- .byte 243,15,16,44,152 // movss (%rax,%rbx,4),%xmm5
- .byte 102,68,15,58,33,229,32 // insertps $0x20,%xmm5,%xmm12
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,44,136 // movss (%rax,%rcx,4),%xmm5
- .byte 102,68,15,58,33,229,48 // insertps $0x30,%xmm5,%xmm12
- .byte 102,65,15,126,224 // movd %xmm4,%r8d
- .byte 102,65,15,58,22,227,1 // pextrd $0x1,%xmm4,%r11d
- .byte 102,65,15,58,22,226,2 // pextrd $0x2,%xmm4,%r10d
- .byte 102,65,15,58,22,225,3 // pextrd $0x3,%xmm4,%r9d
- .byte 102,65,15,254,229 // paddd %xmm13,%xmm4
- .byte 102,72,15,58,22,225,1 // pextrq $0x1,%xmm4,%rcx
- .byte 102,72,15,126,227 // movq %xmm4,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 137,205 // mov %ecx,%ebp
- .byte 243,70,15,16,60,176 // movss (%rax,%r14,4),%xmm15
- .byte 102,68,15,58,33,60,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm15
- .byte 243,15,16,36,168 // movss (%rax,%rbp,4),%xmm4
- .byte 102,68,15,58,33,252,32 // insertps $0x20,%xmm4,%xmm15
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
- .byte 102,68,15,58,33,252,48 // insertps $0x30,%xmm4,%xmm15
- .byte 243,66,15,16,36,128 // movss (%rax,%r8,4),%xmm4
- .byte 102,66,15,58,33,36,152,16 // insertps $0x10,(%rax,%r11,4),%xmm4
- .byte 102,66,15,58,33,36,144,32 // insertps $0x20,(%rax,%r10,4),%xmm4
- .byte 102,66,15,58,33,36,136,48 // insertps $0x30,(%rax,%r9,4),%xmm4
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 65,15,89,227 // mulps %xmm11,%xmm4
- .byte 15,88,226 // addps %xmm2,%xmm4
- .byte 68,15,92,230 // subps %xmm6,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 68,15,88,230 // addps %xmm6,%xmm12
- .byte 68,15,92,249 // subps %xmm1,%xmm15
- .byte 69,15,89,251 // mulps %xmm11,%xmm15
- .byte 68,15,88,249 // addps %xmm1,%xmm15
- .byte 15,91,76,36,160 // cvtdq2ps -0x60(%rsp),%xmm1
- .byte 68,15,40,108,36,144 // movaps -0x70(%rsp),%xmm13
- .byte 68,15,92,233 // subps %xmm1,%xmm13
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 65,15,89,229 // mulps %xmm13,%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 68,15,92,227 // subps %xmm3,%xmm12
- .byte 69,15,89,229 // mulps %xmm13,%xmm12
- .byte 68,15,88,227 // addps %xmm3,%xmm12
- .byte 68,15,92,255 // subps %xmm7,%xmm15
- .byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,88,255 // addps %xmm7,%xmm15
- .byte 243,15,91,84,36,176 // cvttps2dq -0x50(%rsp),%xmm2
- .byte 102,68,15,254,202 // paddd %xmm2,%xmm9
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 102,15,111,45,181,154,1,0 // movdqa 0x19ab5(%rip),%xmm5 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,15,56,64,197 // pmulld %xmm5,%xmm0
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
- .byte 102,15,250,206 // psubd %xmm6,%xmm1
- .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
- .byte 102,72,15,126,205 // movq %xmm1,%rbp
- .byte 137,235 // mov %ebp,%ebx
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 65,137,200 // mov %ecx,%r8d
- .byte 243,15,16,12,152 // movss (%rax,%rbx,4),%xmm1
- .byte 102,15,58,33,12,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm1
- .byte 243,66,15,16,28,128 // movss (%rax,%r8,4),%xmm3
- .byte 102,15,58,33,203,32 // insertps $0x20,%xmm3,%xmm1
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,28,136 // movss (%rax,%rcx,4),%xmm3
- .byte 102,15,58,33,203,48 // insertps $0x30,%xmm3,%xmm1
- .byte 102,65,15,126,192 // movd %xmm0,%r8d
- .byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
- .byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
- .byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,61,230,147,1,0 // movdqa 0x193e6(%rip),%xmm7 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,15,254,199 // paddd %xmm7,%xmm0
- .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
- .byte 102,72,15,126,195 // movq %xmm0,%rbx
- .byte 137,221 // mov %ebx,%ebp
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 65,137,206 // mov %ecx,%r14d
- .byte 243,15,16,4,168 // movss (%rax,%rbp,4),%xmm0
- .byte 102,15,58,33,4,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm0
- .byte 243,66,15,16,28,176 // movss (%rax,%r14,4),%xmm3
- .byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,28,136 // movss (%rax,%rcx,4),%xmm3
- .byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,69,15,254,206 // paddd %xmm14,%xmm9
- .byte 102,68,15,56,64,205 // pmulld %xmm5,%xmm9
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,15,250,222 // psubd %xmm6,%xmm3
- .byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
- .byte 102,72,15,126,219 // movq %xmm3,%rbx
- .byte 137,221 // mov %ebx,%ebp
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 65,137,206 // mov %ecx,%r14d
- .byte 243,15,16,52,168 // movss (%rax,%rbp,4),%xmm6
- .byte 102,15,58,33,52,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm6
- .byte 243,66,15,16,28,176 // movss (%rax,%r14,4),%xmm3
- .byte 102,15,58,33,243,32 // insertps $0x20,%xmm3,%xmm6
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,28,136 // movss (%rax,%rcx,4),%xmm3
- .byte 102,15,58,33,243,48 // insertps $0x30,%xmm3,%xmm6
- .byte 102,69,15,126,205 // movd %xmm9,%r13d
- .byte 102,69,15,58,22,207,1 // pextrd $0x1,%xmm9,%r15d
- .byte 102,69,15,58,22,204,2 // pextrd $0x2,%xmm9,%r12d
- .byte 102,69,15,58,22,206,3 // pextrd $0x3,%xmm9,%r14d
- .byte 102,68,15,254,207 // paddd %xmm7,%xmm9
- .byte 102,76,15,58,22,203,1 // pextrq $0x1,%xmm9,%rbx
- .byte 102,76,15,126,205 // movq %xmm9,%rbp
- .byte 137,233 // mov %ebp,%ecx
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 243,15,16,60,136 // movss (%rax,%rcx,4),%xmm7
- .byte 102,15,58,33,60,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm7
- .byte 137,217 // mov %ebx,%ecx
- .byte 243,15,16,28,136 // movss (%rax,%rcx,4),%xmm3
- .byte 102,15,58,33,251,32 // insertps $0x20,%xmm3,%xmm7
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 243,15,16,28,152 // movss (%rax,%rbx,4),%xmm3
- .byte 102,15,58,33,251,48 // insertps $0x30,%xmm3,%xmm7
- .byte 243,66,15,16,44,128 // movss (%rax,%r8,4),%xmm5
- .byte 102,66,15,58,33,44,136,16 // insertps $0x10,(%rax,%r9,4),%xmm5
- .byte 102,66,15,58,33,44,144,32 // insertps $0x20,(%rax,%r10,4),%xmm5
- .byte 102,66,15,58,33,44,152,48 // insertps $0x30,(%rax,%r11,4),%xmm5
- .byte 243,66,15,16,28,168 // movss (%rax,%r13,4),%xmm3
- .byte 102,66,15,58,33,28,184,16 // insertps $0x10,(%rax,%r15,4),%xmm3
- .byte 102,66,15,58,33,28,160,32 // insertps $0x20,(%rax,%r12,4),%xmm3
- .byte 102,66,15,58,33,28,176,48 // insertps $0x30,(%rax,%r14,4),%xmm3
- .byte 15,92,221 // subps %xmm5,%xmm3
- .byte 65,15,89,219 // mulps %xmm11,%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,92,241 // subps %xmm1,%xmm6
- .byte 65,15,89,243 // mulps %xmm11,%xmm6
- .byte 15,88,241 // addps %xmm1,%xmm6
- .byte 15,92,248 // subps %xmm0,%xmm7
- .byte 65,15,89,251 // mulps %xmm11,%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 102,68,15,254,210 // paddd %xmm2,%xmm10
- .byte 102,69,15,254,194 // paddd %xmm10,%xmm8
- .byte 102,15,111,13,241,152,1,0 // movdqa 0x198f1(%rip),%xmm1 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,68,15,56,64,193 // pmulld %xmm1,%xmm8
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
- .byte 102,15,250,197 // psubd %xmm5,%xmm0
- .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
- .byte 102,72,15,126,197 // movq %xmm0,%rbp
- .byte 137,235 // mov %ebp,%ebx
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 65,137,200 // mov %ecx,%r8d
- .byte 243,68,15,16,12,152 // movss (%rax,%rbx,4),%xmm9
- .byte 102,68,15,58,33,12,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm9
- .byte 243,66,15,16,4,128 // movss (%rax,%r8,4),%xmm0
- .byte 102,68,15,58,33,200,32 // insertps $0x20,%xmm0,%xmm9
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0
- .byte 102,68,15,58,33,200,48 // insertps $0x30,%xmm0,%xmm9
- .byte 102,69,15,126,192 // movd %xmm8,%r8d
- .byte 102,69,15,58,22,193,1 // pextrd $0x1,%xmm8,%r9d
- .byte 102,69,15,58,22,194,2 // pextrd $0x2,%xmm8,%r10d
- .byte 102,69,15,58,22,195,3 // pextrd $0x3,%xmm8,%r11d
- .byte 102,15,111,21,28,146,1,0 // movdqa 0x1921c(%rip),%xmm2 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,68,15,254,194 // paddd %xmm2,%xmm8
- .byte 102,76,15,58,22,193,1 // pextrq $0x1,%xmm8,%rcx
- .byte 102,76,15,126,195 // movq %xmm8,%rbx
- .byte 137,221 // mov %ebx,%ebp
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 65,137,206 // mov %ecx,%r14d
- .byte 243,68,15,16,4,168 // movss (%rax,%rbp,4),%xmm8
- .byte 102,68,15,58,33,4,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm8
- .byte 243,66,15,16,4,176 // movss (%rax,%r14,4),%xmm0
- .byte 102,68,15,58,33,192,32 // insertps $0x20,%xmm0,%xmm8
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0
- .byte 102,68,15,58,33,192,48 // insertps $0x30,%xmm0,%xmm8
- .byte 102,69,15,254,214 // paddd %xmm14,%xmm10
- .byte 102,68,15,56,64,209 // pmulld %xmm1,%xmm10
- .byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
- .byte 102,15,250,197 // psubd %xmm5,%xmm0
- .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
- .byte 102,72,15,126,195 // movq %xmm0,%rbx
- .byte 137,221 // mov %ebx,%ebp
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 65,137,206 // mov %ecx,%r14d
- .byte 243,15,16,12,168 // movss (%rax,%rbp,4),%xmm1
- .byte 102,15,58,33,12,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm1
- .byte 243,66,15,16,4,176 // movss (%rax,%r14,4),%xmm0
- .byte 102,15,58,33,200,32 // insertps $0x20,%xmm0,%xmm1
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0
- .byte 102,15,58,33,200,48 // insertps $0x30,%xmm0,%xmm1
- .byte 102,69,15,126,213 // movd %xmm10,%r13d
- .byte 102,69,15,58,22,215,1 // pextrd $0x1,%xmm10,%r15d
- .byte 102,69,15,58,22,212,2 // pextrd $0x2,%xmm10,%r12d
- .byte 102,69,15,58,22,214,3 // pextrd $0x3,%xmm10,%r14d
- .byte 102,68,15,254,210 // paddd %xmm2,%xmm10
- .byte 102,76,15,58,22,211,1 // pextrq $0x1,%xmm10,%rbx
- .byte 102,76,15,126,213 // movq %xmm10,%rbp
- .byte 137,233 // mov %ebp,%ecx
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2
- .byte 102,15,58,33,20,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm2
- .byte 137,217 // mov %ebx,%ecx
- .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0
- .byte 102,15,58,33,208,32 // insertps $0x20,%xmm0,%xmm2
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 243,15,16,4,152 // movss (%rax,%rbx,4),%xmm0
- .byte 102,15,58,33,208,48 // insertps $0x30,%xmm0,%xmm2
- .byte 243,66,15,16,44,128 // movss (%rax,%r8,4),%xmm5
- .byte 102,66,15,58,33,44,136,16 // insertps $0x10,(%rax,%r9,4),%xmm5
- .byte 102,66,15,58,33,44,144,32 // insertps $0x20,(%rax,%r10,4),%xmm5
- .byte 102,66,15,58,33,44,152,48 // insertps $0x30,(%rax,%r11,4),%xmm5
- .byte 243,66,15,16,4,168 // movss (%rax,%r13,4),%xmm0
- .byte 102,66,15,58,33,4,184,16 // insertps $0x10,(%rax,%r15,4),%xmm0
- .byte 102,66,15,58,33,4,160,32 // insertps $0x20,(%rax,%r12,4),%xmm0
- .byte 102,66,15,58,33,4,176,48 // insertps $0x30,(%rax,%r14,4),%xmm0
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 65,15,89,195 // mulps %xmm11,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 65,15,92,201 // subps %xmm9,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 65,15,88,201 // addps %xmm9,%xmm1
- .byte 65,15,92,208 // subps %xmm8,%xmm2
- .byte 65,15,89,211 // mulps %xmm11,%xmm2
- .byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 65,15,89,197 // mulps %xmm13,%xmm0
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 65,15,89,205 // mulps %xmm13,%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,92,215 // subps %xmm7,%xmm2
- .byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,91,92,36,192 // cvtdq2ps -0x40(%rsp),%xmm3
- .byte 15,40,108,36,208 // movaps -0x30(%rsp),%xmm5
- .byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 65,15,92,215 // subps %xmm15,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 65,15,88,215 // addps %xmm15,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,139,76,36,136 // mov -0x78(%rsp),%rcx
- .byte 15,40,92,36,224 // movaps -0x20(%rsp),%xmm3
- .byte 15,40,100,36,240 // movaps -0x10(%rsp),%xmm4
- .byte 15,40,44,36 // movaps (%rsp),%xmm5
- .byte 15,40,116,36,16 // movaps 0x10(%rsp),%xmm6
- .byte 15,40,124,36,32 // movaps 0x20(%rsp),%xmm7
- .byte 72,131,196,56 // add $0x38,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clut_4D_sse41
-.globl _sk_clut_4D_sse41
-FUNCTION(_sk_clut_4D_sse41)
-_sk_clut_4D_sse41:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,129,236,136,0,0,0 // sub $0x88,%rsp
- .byte 15,41,124,36,112 // movaps %xmm7,0x70(%rsp)
- .byte 15,41,116,36,96 // movaps %xmm6,0x60(%rsp)
- .byte 15,41,108,36,80 // movaps %xmm5,0x50(%rsp)
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%rsp)
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 72,137,76,36,248 // mov %rcx,-0x8(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,20 // mov 0x14(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 102,65,15,110,201 // movd %r9d,%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,41,76,36,48 // movaps %xmm1,0x30(%rsp)
- .byte 243,15,91,249 // cvttps2dq %xmm1,%xmm7
- .byte 15,40,29,79,150,1,0 // movaps 0x1964f(%rip),%xmm3 # 3d590 <_sk_srcover_bgra_8888_sse2_lowp+0x1344>
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp)
- .byte 102,65,15,110,232 // movd %r8d,%xmm5
- .byte 102,68,15,112,237,0 // pshufd $0x0,%xmm5,%xmm13
- .byte 68,139,64,16 // mov 0x10(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 102,65,15,110,201 // movd %r9d,%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,41,76,36,224 // movaps %xmm1,-0x20(%rsp)
- .byte 243,15,91,209 // cvttps2dq %xmm1,%xmm2
- .byte 102,15,127,84,36,32 // movdqa %xmm2,0x20(%rsp)
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,65,15,56,64,205 // pmulld %xmm13,%xmm1
- .byte 102,15,127,76,36,144 // movdqa %xmm1,-0x70(%rsp)
- .byte 102,68,15,56,64,234 // pmulld %xmm2,%xmm13
- .byte 102,65,15,110,240 // movd %r8d,%xmm6
- .byte 102,15,56,64,245 // pmulld %xmm5,%xmm6
- .byte 68,139,64,12 // mov 0xc(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 102,65,15,110,201 // movd %r9d,%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 68,139,72,8 // mov 0x8(%rax),%r9d
- .byte 65,255,201 // dec %r9d
- .byte 102,65,15,110,201 // movd %r9d,%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 68,15,91,225 // cvtdq2ps %xmm1,%xmm12
- .byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 102,65,15,111,229 // movdqa %xmm13,%xmm4
- .byte 102,15,127,124,36,16 // movdqa %xmm7,0x10(%rsp)
- .byte 102,15,254,231 // paddd %xmm7,%xmm4
- .byte 102,65,15,110,232 // movd %r8d,%xmm5
- .byte 102,15,56,64,238 // pmulld %xmm6,%xmm5
- .byte 102,68,15,112,246,0 // pshufd $0x0,%xmm6,%xmm14
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 243,68,15,91,192 // cvttps2dq %xmm0,%xmm8
- .byte 102,69,15,56,64,198 // pmulld %xmm14,%xmm8
- .byte 102,68,15,127,68,36,208 // movdqa %xmm8,-0x30(%rsp)
- .byte 243,15,91,194 // cvttps2dq %xmm2,%xmm0
- .byte 102,15,127,68,36,128 // movdqa %xmm0,-0x80(%rsp)
- .byte 102,68,15,56,64,240 // pmulld %xmm0,%xmm14
- .byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
- .byte 102,15,254,204 // paddd %xmm4,%xmm1
- .byte 102,68,15,112,253,0 // pshufd $0x0,%xmm5,%xmm15
- .byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 243,68,15,91,203 // cvttps2dq %xmm3,%xmm9
- .byte 102,69,15,56,64,207 // pmulld %xmm15,%xmm9
- .byte 243,65,15,91,236 // cvttps2dq %xmm12,%xmm5
- .byte 102,68,15,56,64,253 // pmulld %xmm5,%xmm15
- .byte 102,65,15,111,223 // movdqa %xmm15,%xmm3
- .byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,29,78,149,1,0 // movdqa 0x1954e(%rip),%xmm11 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,65,15,56,64,219 // pmulld %xmm11,%xmm3
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,250,240 // psubd %xmm0,%xmm6
- .byte 102,73,15,58,22,240,1 // pextrq $0x1,%xmm6,%r8
- .byte 102,73,15,126,241 // movq %xmm6,%r9
- .byte 72,139,0 // mov (%rax),%rax
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 69,137,195 // mov %r8d,%r11d
- .byte 243,66,15,16,60,144 // movss (%rax,%r10,4),%xmm7
- .byte 102,66,15,58,33,60,136,16 // insertps $0x10,(%rax,%r9,4),%xmm7
- .byte 243,66,15,16,52,152 // movss (%rax,%r11,4),%xmm6
- .byte 102,15,58,33,254,32 // insertps $0x20,%xmm6,%xmm7
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,52,128 // movss (%rax,%r8,4),%xmm6
- .byte 102,15,58,33,254,48 // insertps $0x30,%xmm6,%xmm7
- .byte 102,65,15,126,216 // movd %xmm3,%r8d
- .byte 102,65,15,58,22,217,1 // pextrd $0x1,%xmm3,%r9d
- .byte 102,65,15,58,22,218,2 // pextrd $0x2,%xmm3,%r10d
- .byte 102,65,15,58,22,219,3 // pextrd $0x3,%xmm3,%r11d
- .byte 102,68,15,111,21,118,142,1,0 // movdqa 0x18e76(%rip),%xmm10 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,65,15,254,218 // paddd %xmm10,%xmm3
- .byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
- .byte 102,72,15,126,219 // movq %xmm3,%rbx
- .byte 65,137,223 // mov %ebx,%r15d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,244 // mov %r14d,%r12d
- .byte 243,66,15,16,4,184 // movss (%rax,%r15,4),%xmm0
- .byte 102,15,58,33,4,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm0
- .byte 243,66,15,16,28,160 // movss (%rax,%r12,4),%xmm3
- .byte 102,15,58,33,195,32 // insertps $0x20,%xmm3,%xmm0
- .byte 73,193,238,32 // shr $0x20,%r14
- .byte 243,66,15,16,28,176 // movss (%rax,%r14,4),%xmm3
- .byte 102,15,58,33,195,48 // insertps $0x30,%xmm3,%xmm0
- .byte 102,68,15,127,76,36,176 // movdqa %xmm9,-0x50(%rsp)
- .byte 102,65,15,254,201 // paddd %xmm9,%xmm1
- .byte 102,65,15,56,64,203 // pmulld %xmm11,%xmm1
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,250,29,132,148,1,0 // psubd 0x19484(%rip),%xmm3 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,73,15,58,22,222,1 // pextrq $0x1,%xmm3,%r14
- .byte 102,72,15,126,219 // movq %xmm3,%rbx
- .byte 65,137,223 // mov %ebx,%r15d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 69,137,244 // mov %r14d,%r12d
- .byte 243,66,15,16,28,184 // movss (%rax,%r15,4),%xmm3
- .byte 102,15,58,33,28,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm3
- .byte 243,66,15,16,52,160 // movss (%rax,%r12,4),%xmm6
- .byte 102,15,58,33,222,32 // insertps $0x20,%xmm6,%xmm3
- .byte 73,193,238,32 // shr $0x20,%r14
- .byte 243,66,15,16,52,176 // movss (%rax,%r14,4),%xmm6
- .byte 102,15,58,33,222,48 // insertps $0x30,%xmm6,%xmm3
- .byte 102,65,15,126,205 // movd %xmm1,%r13d
- .byte 102,65,15,58,22,206,1 // pextrd $0x1,%xmm1,%r14d
- .byte 102,65,15,58,22,207,2 // pextrd $0x2,%xmm1,%r15d
- .byte 102,65,15,58,22,204,3 // pextrd $0x3,%xmm1,%r12d
- .byte 102,65,15,254,202 // paddd %xmm10,%xmm1
- .byte 102,72,15,58,22,203,1 // pextrq $0x1,%xmm1,%rbx
- .byte 102,72,15,126,205 // movq %xmm1,%rbp
- .byte 137,233 // mov %ebp,%ecx
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 243,15,16,12,136 // movss (%rax,%rcx,4),%xmm1
- .byte 102,15,58,33,12,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm1
- .byte 137,217 // mov %ebx,%ecx
- .byte 243,15,16,52,136 // movss (%rax,%rcx,4),%xmm6
- .byte 102,15,58,33,206,32 // insertps $0x20,%xmm6,%xmm1
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 243,15,16,52,152 // movss (%rax,%rbx,4),%xmm6
- .byte 102,15,58,33,206,48 // insertps $0x30,%xmm6,%xmm1
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 68,15,92,229 // subps %xmm5,%xmm12
- .byte 243,66,15,16,44,128 // movss (%rax,%r8,4),%xmm5
- .byte 102,66,15,58,33,44,136,16 // insertps $0x10,(%rax,%r9,4),%xmm5
- .byte 102,66,15,58,33,44,144,32 // insertps $0x20,(%rax,%r10,4),%xmm5
- .byte 102,66,15,58,33,44,152,48 // insertps $0x30,(%rax,%r11,4),%xmm5
- .byte 243,66,15,16,52,168 // movss (%rax,%r13,4),%xmm6
- .byte 102,66,15,58,33,52,176,16 // insertps $0x10,(%rax,%r14,4),%xmm6
- .byte 102,66,15,58,33,52,184,32 // insertps $0x20,(%rax,%r15,4),%xmm6
- .byte 102,66,15,58,33,52,160,48 // insertps $0x30,(%rax,%r12,4),%xmm6
- .byte 15,92,245 // subps %xmm5,%xmm6
- .byte 65,15,89,244 // mulps %xmm12,%xmm6
- .byte 15,88,245 // addps %xmm5,%xmm6
- .byte 15,92,223 // subps %xmm7,%xmm3
- .byte 65,15,89,220 // mulps %xmm12,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 65,15,89,204 // mulps %xmm12,%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 102,65,15,254,224 // paddd %xmm8,%xmm4
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,68,15,127,124,36,192 // movdqa %xmm15,-0x40(%rsp)
- .byte 102,65,15,254,199 // paddd %xmm15,%xmm0
- .byte 102,65,15,56,64,195 // pmulld %xmm11,%xmm0
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,250,45,100,147,1,0 // psubd 0x19364(%rip),%xmm5 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx
- .byte 102,72,15,126,237 // movq %xmm5,%rbp
- .byte 65,137,232 // mov %ebp,%r8d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 137,203 // mov %ecx,%ebx
- .byte 243,66,15,16,60,128 // movss (%rax,%r8,4),%xmm7
- .byte 102,15,58,33,60,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm7
- .byte 243,15,16,44,152 // movss (%rax,%rbx,4),%xmm5
- .byte 102,15,58,33,253,32 // insertps $0x20,%xmm5,%xmm7
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,44,136 // movss (%rax,%rcx,4),%xmm5
- .byte 102,15,58,33,253,48 // insertps $0x30,%xmm5,%xmm7
- .byte 102,65,15,126,193 // movd %xmm0,%r9d
- .byte 102,65,15,58,22,195,1 // pextrd $0x1,%xmm0,%r11d
- .byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
- .byte 102,65,15,58,22,192,3 // pextrd $0x3,%xmm0,%r8d
- .byte 102,65,15,254,194 // paddd %xmm10,%xmm0
- .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
- .byte 102,72,15,126,195 // movq %xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 137,205 // mov %ecx,%ebp
- .byte 243,66,15,16,4,176 // movss (%rax,%r14,4),%xmm0
- .byte 102,15,58,33,4,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm0
- .byte 243,15,16,44,168 // movss (%rax,%rbp,4),%xmm5
- .byte 102,15,58,33,197,32 // insertps $0x20,%xmm5,%xmm0
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,44,136 // movss (%rax,%rcx,4),%xmm5
- .byte 102,15,58,33,197,48 // insertps $0x30,%xmm5,%xmm0
- .byte 102,65,15,254,225 // paddd %xmm9,%xmm4
- .byte 102,65,15,56,64,227 // pmulld %xmm11,%xmm4
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,65,15,250,232 // psubd %xmm8,%xmm5
- .byte 102,72,15,58,22,233,1 // pextrq $0x1,%xmm5,%rcx
- .byte 102,72,15,126,235 // movq %xmm5,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 137,205 // mov %ecx,%ebp
- .byte 243,70,15,16,4,176 // movss (%rax,%r14,4),%xmm8
- .byte 102,68,15,58,33,4,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm8
- .byte 243,15,16,44,168 // movss (%rax,%rbp,4),%xmm5
- .byte 102,68,15,58,33,197,32 // insertps $0x20,%xmm5,%xmm8
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,44,136 // movss (%rax,%rcx,4),%xmm5
- .byte 102,68,15,58,33,197,48 // insertps $0x30,%xmm5,%xmm8
- .byte 102,65,15,126,231 // movd %xmm4,%r15d
- .byte 102,65,15,58,22,228,1 // pextrd $0x1,%xmm4,%r12d
- .byte 102,65,15,58,22,229,2 // pextrd $0x2,%xmm4,%r13d
- .byte 102,65,15,58,22,230,3 // pextrd $0x3,%xmm4,%r14d
- .byte 102,65,15,254,226 // paddd %xmm10,%xmm4
- .byte 102,72,15,58,22,225,1 // pextrq $0x1,%xmm4,%rcx
- .byte 102,72,15,126,227 // movq %xmm4,%rbx
- .byte 137,221 // mov %ebx,%ebp
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 243,68,15,16,12,168 // movss (%rax,%rbp,4),%xmm9
- .byte 102,68,15,58,33,12,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm9
- .byte 137,203 // mov %ecx,%ebx
- .byte 243,15,16,36,152 // movss (%rax,%rbx,4),%xmm4
- .byte 102,68,15,58,33,204,32 // insertps $0x20,%xmm4,%xmm9
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
- .byte 102,68,15,58,33,204,48 // insertps $0x30,%xmm4,%xmm9
- .byte 243,66,15,16,36,136 // movss (%rax,%r9,4),%xmm4
- .byte 102,66,15,58,33,36,152,16 // insertps $0x10,(%rax,%r11,4),%xmm4
- .byte 102,66,15,58,33,36,144,32 // insertps $0x20,(%rax,%r10,4),%xmm4
- .byte 102,66,15,58,33,36,128,48 // insertps $0x30,(%rax,%r8,4),%xmm4
- .byte 243,66,15,16,44,184 // movss (%rax,%r15,4),%xmm5
- .byte 102,66,15,58,33,44,160,16 // insertps $0x10,(%rax,%r12,4),%xmm5
- .byte 102,66,15,58,33,44,168,32 // insertps $0x20,(%rax,%r13,4),%xmm5
- .byte 102,66,15,58,33,44,176,48 // insertps $0x30,(%rax,%r14,4),%xmm5
- .byte 15,92,236 // subps %xmm4,%xmm5
- .byte 65,15,89,236 // mulps %xmm12,%xmm5
- .byte 15,88,236 // addps %xmm4,%xmm5
- .byte 68,15,92,199 // subps %xmm7,%xmm8
- .byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,88,199 // addps %xmm7,%xmm8
- .byte 68,15,92,200 // subps %xmm0,%xmm9
- .byte 69,15,89,204 // mulps %xmm12,%xmm9
- .byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 15,91,68,36,128 // cvtdq2ps -0x80(%rsp),%xmm0
- .byte 15,92,208 // subps %xmm0,%xmm2
- .byte 15,41,84,36,128 // movaps %xmm2,-0x80(%rsp)
- .byte 15,92,238 // subps %xmm6,%xmm5
- .byte 15,89,234 // mulps %xmm2,%xmm5
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,89,194 // mulps %xmm2,%xmm8
- .byte 68,15,88,195 // addps %xmm3,%xmm8
- .byte 68,15,92,201 // subps %xmm1,%xmm9
- .byte 68,15,89,202 // mulps %xmm2,%xmm9
- .byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 102,15,111,68,36,144 // movdqa -0x70(%rsp),%xmm0
- .byte 102,15,254,68,36,16 // paddd 0x10(%rsp),%xmm0
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,65,15,254,206 // paddd %xmm14,%xmm1
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,65,15,254,223 // paddd %xmm15,%xmm3
- .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2
- .byte 102,15,56,64,218 // pmulld %xmm2,%xmm3
- .byte 102,15,126,217 // movd %xmm3,%ecx
- .byte 102,15,58,22,221,1 // pextrd $0x1,%xmm3,%ebp
- .byte 102,65,15,58,22,216,2 // pextrd $0x2,%xmm3,%r8d
- .byte 102,15,58,22,219,3 // pextrd $0x3,%xmm3,%ebx
- .byte 243,68,15,16,20,136 // movss (%rax,%rcx,4),%xmm10
- .byte 102,68,15,58,33,20,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm10
- .byte 102,70,15,58,33,20,128,32 // insertps $0x20,(%rax,%r8,4),%xmm10
- .byte 243,15,16,36,152 // movss (%rax,%rbx,4),%xmm4
- .byte 102,68,15,58,33,212,48 // insertps $0x30,%xmm4,%xmm10
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
- .byte 102,15,250,230 // psubd %xmm6,%xmm4
- .byte 102,72,15,58,22,225,1 // pextrq $0x1,%xmm4,%rcx
- .byte 102,72,15,126,229 // movq %xmm4,%rbp
- .byte 65,137,232 // mov %ebp,%r8d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 137,203 // mov %ecx,%ebx
- .byte 243,70,15,16,28,128 // movss (%rax,%r8,4),%xmm11
- .byte 102,68,15,58,33,28,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm11
- .byte 243,15,16,36,152 // movss (%rax,%rbx,4),%xmm4
- .byte 102,68,15,58,33,220,32 // insertps $0x20,%xmm4,%xmm11
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
- .byte 102,68,15,58,33,220,48 // insertps $0x30,%xmm4,%xmm11
- .byte 102,15,111,61,104,138,1,0 // movdqa 0x18a68(%rip),%xmm7 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,15,254,223 // paddd %xmm7,%xmm3
- .byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
- .byte 102,72,15,126,221 // movq %xmm3,%rbp
- .byte 65,137,232 // mov %ebp,%r8d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 137,203 // mov %ecx,%ebx
- .byte 243,66,15,16,36,128 // movss (%rax,%r8,4),%xmm4
- .byte 102,15,58,33,36,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm4
- .byte 243,15,16,28,152 // movss (%rax,%rbx,4),%xmm3
- .byte 102,15,58,33,227,32 // insertps $0x20,%xmm3,%xmm4
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,28,136 // movss (%rax,%rcx,4),%xmm3
- .byte 102,15,58,33,227,48 // insertps $0x30,%xmm3,%xmm4
- .byte 102,68,15,111,124,36,176 // movdqa -0x50(%rsp),%xmm15
- .byte 102,65,15,254,207 // paddd %xmm15,%xmm1
- .byte 102,15,56,64,202 // pmulld %xmm2,%xmm1
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,250,222 // psubd %xmm6,%xmm3
- .byte 102,72,15,58,22,217,1 // pextrq $0x1,%xmm3,%rcx
- .byte 102,72,15,126,221 // movq %xmm3,%rbp
- .byte 65,137,232 // mov %ebp,%r8d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 137,203 // mov %ecx,%ebx
- .byte 243,66,15,16,52,128 // movss (%rax,%r8,4),%xmm6
- .byte 102,15,58,33,52,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm6
- .byte 243,15,16,28,152 // movss (%rax,%rbx,4),%xmm3
- .byte 102,15,58,33,243,32 // insertps $0x20,%xmm3,%xmm6
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,28,136 // movss (%rax,%rcx,4),%xmm3
- .byte 102,15,58,33,243,48 // insertps $0x30,%xmm3,%xmm6
- .byte 102,65,15,126,201 // movd %xmm1,%r9d
- .byte 102,65,15,58,22,203,1 // pextrd $0x1,%xmm1,%r11d
- .byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
- .byte 102,65,15,58,22,200,3 // pextrd $0x3,%xmm1,%r8d
- .byte 102,15,254,207 // paddd %xmm7,%xmm1
- .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 137,205 // mov %ecx,%ebp
- .byte 243,66,15,16,60,176 // movss (%rax,%r14,4),%xmm7
- .byte 102,15,58,33,60,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm7
- .byte 243,15,16,12,168 // movss (%rax,%rbp,4),%xmm1
- .byte 102,15,58,33,249,32 // insertps $0x20,%xmm1,%xmm7
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,12,136 // movss (%rax,%rcx,4),%xmm1
- .byte 102,15,58,33,249,48 // insertps $0x30,%xmm1,%xmm7
- .byte 243,66,15,16,28,136 // movss (%rax,%r9,4),%xmm3
- .byte 102,66,15,58,33,28,152,16 // insertps $0x10,(%rax,%r11,4),%xmm3
- .byte 102,66,15,58,33,28,144,32 // insertps $0x20,(%rax,%r10,4),%xmm3
- .byte 102,66,15,58,33,28,128,48 // insertps $0x30,(%rax,%r8,4),%xmm3
- .byte 65,15,92,218 // subps %xmm10,%xmm3
- .byte 68,15,41,36,36 // movaps %xmm12,(%rsp)
- .byte 65,15,89,220 // mulps %xmm12,%xmm3
- .byte 65,15,88,218 // addps %xmm10,%xmm3
- .byte 65,15,92,243 // subps %xmm11,%xmm6
- .byte 65,15,89,244 // mulps %xmm12,%xmm6
- .byte 65,15,88,243 // addps %xmm11,%xmm6
- .byte 15,92,252 // subps %xmm4,%xmm7
- .byte 65,15,89,252 // mulps %xmm12,%xmm7
- .byte 15,88,252 // addps %xmm4,%xmm7
- .byte 102,15,254,68,36,208 // paddd -0x30(%rsp),%xmm0
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,254,76,36,192 // paddd -0x40(%rsp),%xmm1
- .byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
- .byte 102,65,15,56,64,203 // pmulld %xmm11,%xmm1
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,69,15,118,228 // pcmpeqd %xmm12,%xmm12
- .byte 102,65,15,250,228 // psubd %xmm12,%xmm4
- .byte 102,72,15,58,22,225,1 // pextrq $0x1,%xmm4,%rcx
- .byte 102,72,15,126,229 // movq %xmm4,%rbp
- .byte 65,137,232 // mov %ebp,%r8d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 137,203 // mov %ecx,%ebx
- .byte 243,66,15,16,36,128 // movss (%rax,%r8,4),%xmm4
- .byte 102,15,58,33,36,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm4
- .byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2
- .byte 102,15,58,33,226,32 // insertps $0x20,%xmm2,%xmm4
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2
- .byte 102,15,58,33,226,48 // insertps $0x30,%xmm2,%xmm4
- .byte 102,65,15,126,200 // movd %xmm1,%r8d
- .byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
- .byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
- .byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,68,15,111,21,172,136,1,0 // movdqa 0x188ac(%rip),%xmm10 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,65,15,254,202 // paddd %xmm10,%xmm1
- .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 137,205 // mov %ecx,%ebp
- .byte 243,66,15,16,12,176 // movss (%rax,%r14,4),%xmm1
- .byte 102,15,58,33,12,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm1
- .byte 243,15,16,20,168 // movss (%rax,%rbp,4),%xmm2
- .byte 102,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm1
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2
- .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
- .byte 102,65,15,254,199 // paddd %xmm15,%xmm0
- .byte 102,65,15,56,64,195 // pmulld %xmm11,%xmm0
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,65,15,250,212 // psubd %xmm12,%xmm2
- .byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
- .byte 102,72,15,126,211 // movq %xmm2,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 137,205 // mov %ecx,%ebp
- .byte 243,70,15,16,60,176 // movss (%rax,%r14,4),%xmm15
- .byte 102,68,15,58,33,60,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm15
- .byte 243,15,16,20,168 // movss (%rax,%rbp,4),%xmm2
- .byte 102,68,15,58,33,250,32 // insertps $0x20,%xmm2,%xmm15
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2
- .byte 102,68,15,58,33,250,48 // insertps $0x30,%xmm2,%xmm15
- .byte 102,65,15,126,199 // movd %xmm0,%r15d
- .byte 102,65,15,58,22,196,1 // pextrd $0x1,%xmm0,%r12d
- .byte 102,65,15,58,22,197,2 // pextrd $0x2,%xmm0,%r13d
- .byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d
- .byte 102,65,15,254,194 // paddd %xmm10,%xmm0
- .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
- .byte 102,72,15,126,195 // movq %xmm0,%rbx
- .byte 137,221 // mov %ebx,%ebp
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 243,68,15,16,28,168 // movss (%rax,%rbp,4),%xmm11
- .byte 102,68,15,58,33,28,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm11
- .byte 137,203 // mov %ecx,%ebx
- .byte 243,15,16,4,152 // movss (%rax,%rbx,4),%xmm0
- .byte 102,68,15,58,33,216,32 // insertps $0x20,%xmm0,%xmm11
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0
- .byte 102,68,15,58,33,216,48 // insertps $0x30,%xmm0,%xmm11
- .byte 243,66,15,16,4,128 // movss (%rax,%r8,4),%xmm0
- .byte 102,66,15,58,33,4,136,16 // insertps $0x10,(%rax,%r9,4),%xmm0
- .byte 102,66,15,58,33,4,144,32 // insertps $0x20,(%rax,%r10,4),%xmm0
- .byte 102,66,15,58,33,4,152,48 // insertps $0x30,(%rax,%r11,4),%xmm0
- .byte 243,70,15,16,20,184 // movss (%rax,%r15,4),%xmm10
- .byte 102,70,15,58,33,20,160,16 // insertps $0x10,(%rax,%r12,4),%xmm10
- .byte 102,70,15,58,33,20,168,32 // insertps $0x20,(%rax,%r13,4),%xmm10
- .byte 102,70,15,58,33,20,176,48 // insertps $0x30,(%rax,%r14,4),%xmm10
- .byte 68,15,92,208 // subps %xmm0,%xmm10
- .byte 68,15,40,36,36 // movaps (%rsp),%xmm12
- .byte 69,15,89,212 // mulps %xmm12,%xmm10
- .byte 68,15,88,208 // addps %xmm0,%xmm10
- .byte 68,15,92,252 // subps %xmm4,%xmm15
- .byte 69,15,89,252 // mulps %xmm12,%xmm15
- .byte 68,15,88,252 // addps %xmm4,%xmm15
- .byte 68,15,92,217 // subps %xmm1,%xmm11
- .byte 69,15,89,220 // mulps %xmm12,%xmm11
- .byte 68,15,88,217 // addps %xmm1,%xmm11
- .byte 68,15,92,211 // subps %xmm3,%xmm10
- .byte 15,40,68,36,128 // movaps -0x80(%rsp),%xmm0
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 68,15,88,211 // addps %xmm3,%xmm10
- .byte 68,15,92,254 // subps %xmm6,%xmm15
- .byte 68,15,89,248 // mulps %xmm0,%xmm15
- .byte 68,15,88,254 // addps %xmm6,%xmm15
- .byte 68,15,92,223 // subps %xmm7,%xmm11
- .byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,88,223 // addps %xmm7,%xmm11
- .byte 15,91,68,36,32 // cvtdq2ps 0x20(%rsp),%xmm0
- .byte 15,40,76,36,224 // movaps -0x20(%rsp),%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,41,76,36,224 // movaps %xmm1,-0x20(%rsp)
- .byte 68,15,92,213 // subps %xmm5,%xmm10
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 68,15,88,213 // addps %xmm5,%xmm10
- .byte 69,15,92,248 // subps %xmm8,%xmm15
- .byte 68,15,89,249 // mulps %xmm1,%xmm15
- .byte 69,15,88,248 // addps %xmm8,%xmm15
- .byte 69,15,92,217 // subps %xmm9,%xmm11
- .byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 69,15,88,217 // addps %xmm9,%xmm11
- .byte 243,15,91,68,36,160 // cvttps2dq -0x60(%rsp),%xmm0
- .byte 102,15,127,68,36,160 // movdqa %xmm0,-0x60(%rsp)
- .byte 102,68,15,254,232 // paddd %xmm0,%xmm13
- .byte 102,65,15,111,222 // movdqa %xmm14,%xmm3
- .byte 102,65,15,254,221 // paddd %xmm13,%xmm3
- .byte 102,15,111,124,36,192 // movdqa -0x40(%rsp),%xmm7
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,21,38,141,1,0 // movdqa 0x18d26(%rip),%xmm2 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,15,56,64,194 // pmulld %xmm2,%xmm0
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,65,15,250,200 // psubd %xmm8,%xmm1
- .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
- .byte 102,72,15,126,205 // movq %xmm1,%rbp
- .byte 137,235 // mov %ebp,%ebx
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 65,137,200 // mov %ecx,%r8d
- .byte 243,15,16,44,152 // movss (%rax,%rbx,4),%xmm5
- .byte 102,15,58,33,44,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm5
- .byte 243,66,15,16,12,128 // movss (%rax,%r8,4),%xmm1
- .byte 102,15,58,33,233,32 // insertps $0x20,%xmm1,%xmm5
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,12,136 // movss (%rax,%rcx,4),%xmm1
- .byte 102,15,58,33,233,48 // insertps $0x30,%xmm1,%xmm5
- .byte 102,65,15,126,192 // movd %xmm0,%r8d
- .byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
- .byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
- .byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,111,37,85,134,1,0 // movdqa 0x18655(%rip),%xmm4 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,15,254,196 // paddd %xmm4,%xmm0
- .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
- .byte 102,72,15,126,195 // movq %xmm0,%rbx
- .byte 137,221 // mov %ebx,%ebp
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 65,137,206 // mov %ecx,%r14d
- .byte 243,15,16,52,168 // movss (%rax,%rbp,4),%xmm6
- .byte 102,15,58,33,52,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm6
- .byte 243,66,15,16,4,176 // movss (%rax,%r14,4),%xmm0
- .byte 102,15,58,33,240,32 // insertps $0x20,%xmm0,%xmm6
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0
- .byte 102,15,58,33,240,48 // insertps $0x30,%xmm0,%xmm6
- .byte 102,68,15,111,76,36,176 // movdqa -0x50(%rsp),%xmm9
- .byte 102,65,15,254,217 // paddd %xmm9,%xmm3
- .byte 102,15,56,64,218 // pmulld %xmm2,%xmm3
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,65,15,250,192 // psubd %xmm8,%xmm0
- .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
- .byte 102,72,15,126,195 // movq %xmm0,%rbx
- .byte 137,221 // mov %ebx,%ebp
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 65,137,206 // mov %ecx,%r14d
- .byte 243,15,16,4,168 // movss (%rax,%rbp,4),%xmm0
- .byte 102,15,58,33,4,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm0
- .byte 243,66,15,16,12,176 // movss (%rax,%r14,4),%xmm1
- .byte 102,15,58,33,193,32 // insertps $0x20,%xmm1,%xmm0
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,12,136 // movss (%rax,%rcx,4),%xmm1
- .byte 102,15,58,33,193,48 // insertps $0x30,%xmm1,%xmm0
- .byte 102,65,15,126,221 // movd %xmm3,%r13d
- .byte 102,65,15,58,22,223,1 // pextrd $0x1,%xmm3,%r15d
- .byte 102,65,15,58,22,220,2 // pextrd $0x2,%xmm3,%r12d
- .byte 102,65,15,58,22,222,3 // pextrd $0x3,%xmm3,%r14d
- .byte 102,15,254,220 // paddd %xmm4,%xmm3
- .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 102,72,15,58,22,219,1 // pextrq $0x1,%xmm3,%rbx
- .byte 102,72,15,126,221 // movq %xmm3,%rbp
- .byte 137,233 // mov %ebp,%ecx
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 243,15,16,28,136 // movss (%rax,%rcx,4),%xmm3
- .byte 102,15,58,33,28,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm3
- .byte 137,217 // mov %ebx,%ecx
- .byte 243,15,16,12,136 // movss (%rax,%rcx,4),%xmm1
- .byte 102,15,58,33,217,32 // insertps $0x20,%xmm1,%xmm3
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 243,15,16,12,152 // movss (%rax,%rbx,4),%xmm1
- .byte 102,15,58,33,217,48 // insertps $0x30,%xmm1,%xmm3
- .byte 243,66,15,16,12,128 // movss (%rax,%r8,4),%xmm1
- .byte 102,66,15,58,33,12,136,16 // insertps $0x10,(%rax,%r9,4),%xmm1
- .byte 102,66,15,58,33,12,144,32 // insertps $0x20,(%rax,%r10,4),%xmm1
- .byte 102,66,15,58,33,12,152,48 // insertps $0x30,(%rax,%r11,4),%xmm1
- .byte 243,66,15,16,36,168 // movss (%rax,%r13,4),%xmm4
- .byte 102,66,15,58,33,36,184,16 // insertps $0x10,(%rax,%r15,4),%xmm4
- .byte 102,66,15,58,33,36,160,32 // insertps $0x20,(%rax,%r12,4),%xmm4
- .byte 102,66,15,58,33,36,176,48 // insertps $0x30,(%rax,%r14,4),%xmm4
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 65,15,89,228 // mulps %xmm12,%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,92,222 // subps %xmm6,%xmm3
- .byte 65,15,89,220 // mulps %xmm12,%xmm3
- .byte 15,88,222 // addps %xmm6,%xmm3
- .byte 102,68,15,254,108,36,208 // paddd -0x30(%rsp),%xmm13
- .byte 102,65,15,111,205 // movdqa %xmm13,%xmm1
- .byte 102,15,254,207 // paddd %xmm7,%xmm1
- .byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
- .byte 102,65,15,56,64,204 // pmulld %xmm12,%xmm1
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,250,21,81,139,1,0 // psubd 0x18b51(%rip),%xmm2 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
- .byte 102,72,15,126,213 // movq %xmm2,%rbp
- .byte 137,235 // mov %ebp,%ebx
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 65,137,200 // mov %ecx,%r8d
- .byte 243,15,16,44,152 // movss (%rax,%rbx,4),%xmm5
- .byte 102,15,58,33,44,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm5
- .byte 243,66,15,16,20,128 // movss (%rax,%r8,4),%xmm2
- .byte 102,15,58,33,234,32 // insertps $0x20,%xmm2,%xmm5
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2
- .byte 102,15,58,33,234,48 // insertps $0x30,%xmm2,%xmm5
- .byte 102,65,15,126,200 // movd %xmm1,%r8d
- .byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
- .byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
- .byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,65,15,254,200 // paddd %xmm8,%xmm1
- .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 137,221 // mov %ebx,%ebp
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 65,137,206 // mov %ecx,%r14d
- .byte 243,15,16,52,168 // movss (%rax,%rbp,4),%xmm6
- .byte 102,15,58,33,52,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm6
- .byte 243,66,15,16,12,176 // movss (%rax,%r14,4),%xmm1
- .byte 102,15,58,33,241,32 // insertps $0x20,%xmm1,%xmm6
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,12,136 // movss (%rax,%rcx,4),%xmm1
- .byte 102,15,58,33,241,48 // insertps $0x30,%xmm1,%xmm6
- .byte 102,69,15,254,233 // paddd %xmm9,%xmm13
- .byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
- .byte 102,69,15,56,64,236 // pmulld %xmm12,%xmm13
- .byte 102,65,15,111,205 // movdqa %xmm13,%xmm1
- .byte 102,15,250,13,157,138,1,0 // psubd 0x18a9d(%rip),%xmm1 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 137,221 // mov %ebx,%ebp
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 65,137,206 // mov %ecx,%r14d
- .byte 243,68,15,16,12,168 // movss (%rax,%rbp,4),%xmm9
- .byte 102,68,15,58,33,12,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm9
- .byte 243,66,15,16,12,176 // movss (%rax,%r14,4),%xmm1
- .byte 102,68,15,58,33,201,32 // insertps $0x20,%xmm1,%xmm9
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,12,136 // movss (%rax,%rcx,4),%xmm1
- .byte 102,68,15,58,33,201,48 // insertps $0x30,%xmm1,%xmm9
- .byte 102,69,15,126,237 // movd %xmm13,%r13d
- .byte 102,69,15,58,22,239,1 // pextrd $0x1,%xmm13,%r15d
- .byte 102,69,15,58,22,236,2 // pextrd $0x2,%xmm13,%r12d
- .byte 102,69,15,58,22,238,3 // pextrd $0x3,%xmm13,%r14d
- .byte 102,69,15,254,232 // paddd %xmm8,%xmm13
- .byte 102,76,15,58,22,235,1 // pextrq $0x1,%xmm13,%rbx
- .byte 102,76,15,126,237 // movq %xmm13,%rbp
- .byte 137,233 // mov %ebp,%ecx
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 243,68,15,16,4,136 // movss (%rax,%rcx,4),%xmm8
- .byte 102,68,15,58,33,4,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm8
- .byte 137,217 // mov %ebx,%ecx
- .byte 243,15,16,12,136 // movss (%rax,%rcx,4),%xmm1
- .byte 102,68,15,58,33,193,32 // insertps $0x20,%xmm1,%xmm8
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 243,15,16,12,152 // movss (%rax,%rbx,4),%xmm1
- .byte 102,68,15,58,33,193,48 // insertps $0x30,%xmm1,%xmm8
- .byte 243,66,15,16,12,128 // movss (%rax,%r8,4),%xmm1
- .byte 102,66,15,58,33,12,136,16 // insertps $0x10,(%rax,%r9,4),%xmm1
- .byte 102,66,15,58,33,12,144,32 // insertps $0x20,(%rax,%r10,4),%xmm1
- .byte 102,66,15,58,33,12,152,48 // insertps $0x30,(%rax,%r11,4),%xmm1
- .byte 243,70,15,16,36,168 // movss (%rax,%r13,4),%xmm12
- .byte 102,70,15,58,33,36,184,16 // insertps $0x10,(%rax,%r15,4),%xmm12
- .byte 102,70,15,58,33,36,160,32 // insertps $0x20,(%rax,%r12,4),%xmm12
- .byte 102,70,15,58,33,36,176,48 // insertps $0x30,(%rax,%r14,4),%xmm12
- .byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,40,44,36 // movaps (%rsp),%xmm13
- .byte 69,15,89,229 // mulps %xmm13,%xmm12
- .byte 68,15,88,225 // addps %xmm1,%xmm12
- .byte 68,15,92,205 // subps %xmm5,%xmm9
- .byte 69,15,89,205 // mulps %xmm13,%xmm9
- .byte 68,15,88,205 // addps %xmm5,%xmm9
- .byte 68,15,92,198 // subps %xmm6,%xmm8
- .byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,198 // addps %xmm6,%xmm8
- .byte 68,15,92,228 // subps %xmm4,%xmm12
- .byte 15,40,76,36,128 // movaps -0x80(%rsp),%xmm1
- .byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 68,15,88,228 // addps %xmm4,%xmm12
- .byte 68,15,92,200 // subps %xmm0,%xmm9
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,89,193 // mulps %xmm1,%xmm8
- .byte 68,15,88,195 // addps %xmm3,%xmm8
- .byte 102,15,111,68,36,144 // movdqa -0x70(%rsp),%xmm0
- .byte 102,15,254,68,36,160 // paddd -0x60(%rsp),%xmm0
- .byte 102,15,127,68,36,144 // movdqa %xmm0,-0x70(%rsp)
- .byte 102,68,15,254,240 // paddd %xmm0,%xmm14
- .byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
- .byte 102,15,111,108,36,192 // movdqa -0x40(%rsp),%xmm5
- .byte 102,15,254,205 // paddd %xmm5,%xmm1
- .byte 102,15,111,37,52,137,1,0 // movdqa 0x18934(%rip),%xmm4 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,15,56,64,204 // pmulld %xmm4,%xmm1
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
- .byte 102,15,250,198 // psubd %xmm6,%xmm0
- .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
- .byte 102,72,15,126,197 // movq %xmm0,%rbp
- .byte 137,235 // mov %ebp,%ebx
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 65,137,200 // mov %ecx,%r8d
- .byte 243,15,16,4,152 // movss (%rax,%rbx,4),%xmm0
- .byte 102,15,58,33,4,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm0
- .byte 243,66,15,16,20,128 // movss (%rax,%r8,4),%xmm2
- .byte 102,15,58,33,194,32 // insertps $0x20,%xmm2,%xmm0
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2
- .byte 102,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm0
- .byte 102,65,15,126,200 // movd %xmm1,%r8d
- .byte 102,65,15,58,22,201,1 // pextrd $0x1,%xmm1,%r9d
- .byte 102,65,15,58,22,202,2 // pextrd $0x2,%xmm1,%r10d
- .byte 102,65,15,58,22,203,3 // pextrd $0x3,%xmm1,%r11d
- .byte 102,15,111,29,101,130,1,0 // movdqa 0x18265(%rip),%xmm3 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,15,254,203 // paddd %xmm3,%xmm1
- .byte 102,72,15,58,22,201,1 // pextrq $0x1,%xmm1,%rcx
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 137,221 // mov %ebx,%ebp
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 65,137,206 // mov %ecx,%r14d
- .byte 243,15,16,12,168 // movss (%rax,%rbp,4),%xmm1
- .byte 102,15,58,33,12,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm1
- .byte 243,66,15,16,20,176 // movss (%rax,%r14,4),%xmm2
- .byte 102,15,58,33,202,32 // insertps $0x20,%xmm2,%xmm1
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2
- .byte 102,15,58,33,202,48 // insertps $0x30,%xmm2,%xmm1
- .byte 102,68,15,254,247 // paddd %xmm7,%xmm14
- .byte 102,68,15,56,64,244 // pmulld %xmm4,%xmm14
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,65,15,111,214 // movdqa %xmm14,%xmm2
- .byte 102,15,250,214 // psubd %xmm6,%xmm2
- .byte 102,72,15,58,22,209,1 // pextrq $0x1,%xmm2,%rcx
- .byte 102,72,15,126,211 // movq %xmm2,%rbx
- .byte 137,221 // mov %ebx,%ebp
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 65,137,206 // mov %ecx,%r14d
- .byte 243,15,16,52,168 // movss (%rax,%rbp,4),%xmm6
- .byte 102,15,58,33,52,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm6
- .byte 243,66,15,16,20,176 // movss (%rax,%r14,4),%xmm2
- .byte 102,15,58,33,242,32 // insertps $0x20,%xmm2,%xmm6
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2
- .byte 102,15,58,33,242,48 // insertps $0x30,%xmm2,%xmm6
- .byte 102,69,15,126,245 // movd %xmm14,%r13d
- .byte 102,69,15,58,22,247,1 // pextrd $0x1,%xmm14,%r15d
- .byte 102,69,15,58,22,244,2 // pextrd $0x2,%xmm14,%r12d
- .byte 102,69,15,58,22,246,3 // pextrd $0x3,%xmm14,%r14d
- .byte 102,68,15,254,243 // paddd %xmm3,%xmm14
- .byte 102,76,15,58,22,243,1 // pextrq $0x1,%xmm14,%rbx
- .byte 102,76,15,126,245 // movq %xmm14,%rbp
- .byte 137,233 // mov %ebp,%ecx
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 243,15,16,36,136 // movss (%rax,%rcx,4),%xmm4
- .byte 102,15,58,33,36,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm4
- .byte 137,217 // mov %ebx,%ecx
- .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2
- .byte 102,15,58,33,226,32 // insertps $0x20,%xmm2,%xmm4
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 243,15,16,20,152 // movss (%rax,%rbx,4),%xmm2
- .byte 102,15,58,33,226,48 // insertps $0x30,%xmm2,%xmm4
- .byte 243,66,15,16,20,128 // movss (%rax,%r8,4),%xmm2
- .byte 102,66,15,58,33,20,136,16 // insertps $0x10,(%rax,%r9,4),%xmm2
- .byte 102,66,15,58,33,20,144,32 // insertps $0x20,(%rax,%r10,4),%xmm2
- .byte 102,66,15,58,33,20,152,48 // insertps $0x30,(%rax,%r11,4),%xmm2
- .byte 243,66,15,16,28,168 // movss (%rax,%r13,4),%xmm3
- .byte 102,66,15,58,33,28,184,16 // insertps $0x10,(%rax,%r15,4),%xmm3
- .byte 102,66,15,58,33,28,160,32 // insertps $0x20,(%rax,%r12,4),%xmm3
- .byte 102,66,15,58,33,28,176,48 // insertps $0x30,(%rax,%r14,4),%xmm3
- .byte 15,92,218 // subps %xmm2,%xmm3
- .byte 65,15,89,221 // mulps %xmm13,%xmm3
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,92,240 // subps %xmm0,%xmm6
- .byte 65,15,89,245 // mulps %xmm13,%xmm6
- .byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 65,15,89,229 // mulps %xmm13,%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 102,15,111,68,36,144 // movdqa -0x70(%rsp),%xmm0
- .byte 102,15,254,68,36,208 // paddd -0x30(%rsp),%xmm0
- .byte 102,15,254,232 // paddd %xmm0,%xmm5
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,56,64,239 // pmulld %xmm7,%xmm5
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,101,135,1,0 // psubd 0x18765(%rip),%xmm0 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
- .byte 102,72,15,126,197 // movq %xmm0,%rbp
- .byte 137,235 // mov %ebp,%ebx
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 65,137,200 // mov %ecx,%r8d
- .byte 243,15,16,44,152 // movss (%rax,%rbx,4),%xmm5
- .byte 102,15,58,33,44,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm5
- .byte 243,66,15,16,4,128 // movss (%rax,%r8,4),%xmm0
- .byte 102,15,58,33,232,32 // insertps $0x20,%xmm0,%xmm5
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0
- .byte 102,15,58,33,232,48 // insertps $0x30,%xmm0,%xmm5
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,65,15,126,192 // movd %xmm0,%r8d
- .byte 102,65,15,58,22,193,1 // pextrd $0x1,%xmm0,%r9d
- .byte 102,65,15,58,22,194,2 // pextrd $0x2,%xmm0,%r10d
- .byte 102,65,15,58,22,195,3 // pextrd $0x3,%xmm0,%r11d
- .byte 102,15,254,5,147,128,1,0 // paddd 0x18093(%rip),%xmm0 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
- .byte 102,72,15,126,195 // movq %xmm0,%rbx
- .byte 137,221 // mov %ebx,%ebp
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 65,137,206 // mov %ecx,%r14d
- .byte 243,68,15,16,52,168 // movss (%rax,%rbp,4),%xmm14
- .byte 102,68,15,58,33,52,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm14
- .byte 243,66,15,16,4,176 // movss (%rax,%r14,4),%xmm0
- .byte 102,68,15,58,33,240,32 // insertps $0x20,%xmm0,%xmm14
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0
- .byte 102,68,15,58,33,240,48 // insertps $0x30,%xmm0,%xmm14
- .byte 102,15,254,84,36,176 // paddd -0x50(%rsp),%xmm2
- .byte 102,15,56,64,215 // pmulld %xmm7,%xmm2
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,250,5,172,134,1,0 // psubd 0x186ac(%rip),%xmm0 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,72,15,58,22,193,1 // pextrq $0x1,%xmm0,%rcx
- .byte 102,72,15,126,195 // movq %xmm0,%rbx
- .byte 137,221 // mov %ebx,%ebp
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 65,137,206 // mov %ecx,%r14d
- .byte 243,15,16,12,168 // movss (%rax,%rbp,4),%xmm1
- .byte 102,15,58,33,12,152,16 // insertps $0x10,(%rax,%rbx,4),%xmm1
- .byte 243,66,15,16,4,176 // movss (%rax,%r14,4),%xmm0
- .byte 102,15,58,33,200,32 // insertps $0x20,%xmm0,%xmm1
- .byte 72,193,233,32 // shr $0x20,%rcx
- .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0
- .byte 102,15,58,33,200,48 // insertps $0x30,%xmm0,%xmm1
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,65,15,126,197 // movd %xmm0,%r13d
- .byte 102,65,15,58,22,199,1 // pextrd $0x1,%xmm0,%r15d
- .byte 102,65,15,58,22,196,2 // pextrd $0x2,%xmm0,%r12d
- .byte 102,65,15,58,22,198,3 // pextrd $0x3,%xmm0,%r14d
- .byte 102,15,254,5,218,127,1,0 // paddd 0x17fda(%rip),%xmm0 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
- .byte 102,72,15,126,197 // movq %xmm0,%rbp
- .byte 137,233 // mov %ebp,%ecx
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 243,15,16,20,136 // movss (%rax,%rcx,4),%xmm2
- .byte 102,15,58,33,20,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm2
- .byte 137,217 // mov %ebx,%ecx
- .byte 243,15,16,4,136 // movss (%rax,%rcx,4),%xmm0
- .byte 102,15,58,33,208,32 // insertps $0x20,%xmm0,%xmm2
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 243,15,16,4,152 // movss (%rax,%rbx,4),%xmm0
- .byte 102,15,58,33,208,48 // insertps $0x30,%xmm0,%xmm2
- .byte 243,66,15,16,60,128 // movss (%rax,%r8,4),%xmm7
- .byte 102,66,15,58,33,60,136,16 // insertps $0x10,(%rax,%r9,4),%xmm7
- .byte 102,66,15,58,33,60,144,32 // insertps $0x20,(%rax,%r10,4),%xmm7
- .byte 102,66,15,58,33,60,152,48 // insertps $0x30,(%rax,%r11,4),%xmm7
- .byte 243,66,15,16,4,168 // movss (%rax,%r13,4),%xmm0
- .byte 102,66,15,58,33,4,184,16 // insertps $0x10,(%rax,%r15,4),%xmm0
- .byte 102,66,15,58,33,4,160,32 // insertps $0x20,(%rax,%r12,4),%xmm0
- .byte 102,66,15,58,33,4,176,48 // insertps $0x30,(%rax,%r14,4),%xmm0
- .byte 15,92,199 // subps %xmm7,%xmm0
- .byte 65,15,89,197 // mulps %xmm13,%xmm0
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 65,15,89,205 // mulps %xmm13,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 65,15,92,214 // subps %xmm14,%xmm2
- .byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 65,15,88,214 // addps %xmm14,%xmm2
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,40,108,36,128 // movaps -0x80(%rsp),%xmm5
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 65,15,92,196 // subps %xmm12,%xmm0
- .byte 15,40,92,36,224 // movaps -0x20(%rsp),%xmm3
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 65,15,92,201 // subps %xmm9,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 65,15,88,201 // addps %xmm9,%xmm1
- .byte 65,15,92,208 // subps %xmm8,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 15,91,92,36,16 // cvtdq2ps 0x10(%rsp),%xmm3
- .byte 15,40,100,36,48 // movaps 0x30(%rsp),%xmm4
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 65,15,92,194 // subps %xmm10,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 65,15,92,207 // subps %xmm15,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 65,15,88,207 // addps %xmm15,%xmm1
- .byte 65,15,92,211 // subps %xmm11,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 65,15,88,211 // addps %xmm11,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,151,126,1,0 // movaps 0x17e97(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 72,139,76,36,248 // mov -0x8(%rsp),%rcx
- .byte 15,40,100,36,64 // movaps 0x40(%rsp),%xmm4
- .byte 15,40,108,36,80 // movaps 0x50(%rsp),%xmm5
- .byte 15,40,116,36,96 // movaps 0x60(%rsp),%xmm6
- .byte 15,40,124,36,112 // movaps 0x70(%rsp),%xmm7
- .byte 72,129,196,136,0,0,0 // add $0x88,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gauss_a_to_rgba_sse41
-.globl _sk_gauss_a_to_rgba_sse41
-FUNCTION(_sk_gauss_a_to_rgba_sse41)
-_sk_gauss_a_to_rgba_sse41:
- .byte 15,40,5,20,133,1,0 // movaps 0x18514(%rip),%xmm0 # 3d5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1374>
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,26,133,1,0 // addps 0x1851a(%rip),%xmm0 # 3d5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1384>
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,32,133,1,0 // addps 0x18520(%rip),%xmm0 # 3d5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1394>
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,38,133,1,0 // addps 0x18526(%rip),%xmm0 # 3d5f0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,44,133,1,0 // addps 0x1852c(%rip),%xmm0 # 3d600 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilerp_clamp_8888_sse41
-.globl _sk_bilerp_clamp_8888_sse41
-FUNCTION(_sk_bilerp_clamp_8888_sse41)
-_sk_bilerp_clamp_8888_sse41:
- .byte 72,131,236,56 // sub $0x38,%rsp
- .byte 15,41,124,36,176 // movaps %xmm7,-0x50(%rsp)
- .byte 15,41,116,36,160 // movaps %xmm6,-0x60(%rsp)
- .byte 15,41,108,36,144 // movaps %xmm5,-0x70(%rsp)
- .byte 15,41,100,36,128 // movaps %xmm4,-0x80(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,254,125,1,0 // movaps 0x17dfe(%rip),%xmm3 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,88,211 // addps %xmm3,%xmm10
- .byte 102,65,15,58,8,210,1 // roundps $0x1,%xmm10,%xmm2
- .byte 68,15,92,210 // subps %xmm2,%xmm10
- .byte 15,41,12,36 // movaps %xmm1,(%rsp)
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 102,15,58,8,203,1 // roundps $0x1,%xmm3,%xmm1
- .byte 15,92,217 // subps %xmm1,%xmm3
- .byte 15,40,13,228,125,1,0 // movaps 0x17de4(%rip),%xmm1 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 65,15,92,210 // subps %xmm10,%xmm2
- .byte 15,41,84,36,32 // movaps %xmm2,0x20(%rsp)
- .byte 15,41,92,36,240 // movaps %xmm3,-0x10(%rsp)
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,41,76,36,192 // movaps %xmm1,-0x40(%rsp)
- .byte 243,68,15,16,112,12 // movss 0xc(%rax),%xmm14
- .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14
- .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1
- .byte 102,68,15,254,241 // paddd %xmm1,%xmm14
- .byte 243,15,16,80,16 // movss 0x10(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,15,254,209 // paddd %xmm1,%xmm2
- .byte 102,15,127,84,36,224 // movdqa %xmm2,-0x20(%rsp)
- .byte 76,139,0 // mov (%rax),%r8
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,127,76,36,208 // movdqa %xmm1,-0x30(%rsp)
- .byte 243,15,16,13,201,116,1,0 // movss 0x174c9(%rip),%xmm1 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,40,37,143,127,1,0 // movaps 0x17f8f(%rip),%xmm4 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,88,44,36 // addps (%rsp),%xmm5
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,95,205 // maxps %xmm5,%xmm1
- .byte 15,41,116,36,16 // movaps %xmm6,0x10(%rsp)
- .byte 15,46,53,207,116,1,0 // ucomiss 0x174cf(%rip),%xmm6 # 3c68c <_sk_srcover_bgra_8888_sse2_lowp+0x440>
- .byte 68,15,40,124,36,240 // movaps -0x10(%rsp),%xmm15
- .byte 119,6 // ja 251cb <_sk_bilerp_clamp_8888_sse41+0xea>
- .byte 68,15,40,124,36,192 // movaps -0x40(%rsp),%xmm15
- .byte 15,93,76,36,224 // minps -0x20(%rsp),%xmm1
- .byte 243,68,15,91,233 // cvttps2dq %xmm1,%xmm13
- .byte 102,68,15,56,64,108,36,208 // pmulld -0x30(%rsp),%xmm13
- .byte 243,15,16,45,107,116,1,0 // movss 0x1746b(%rip),%xmm5 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,95,241 // maxps %xmm1,%xmm6
- .byte 65,15,93,246 // minps %xmm14,%xmm6
- .byte 243,15,91,206 // cvttps2dq %xmm6,%xmm1
- .byte 102,65,15,254,205 // paddd %xmm13,%xmm1
- .byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,67,15,110,12,152 // movd (%r8,%r11,4),%xmm1
- .byte 102,67,15,58,34,12,144,1 // pinsrd $0x1,(%r8,%r10,4),%xmm1
- .byte 102,67,15,58,34,12,136,2 // pinsrd $0x2,(%r8,%r9,4),%xmm1
- .byte 102,65,15,58,34,12,128,3 // pinsrd $0x3,(%r8,%rax,4),%xmm1
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,219,53,122,125,1,0 // pand 0x17d7a(%rip),%xmm6 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 15,91,254 // cvtdq2ps %xmm6,%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,56,0,53,119,125,1,0 // pshufb 0x17d77(%rip),%xmm6 # 3cfd0 <_sk_srcover_bgra_8888_sse2_lowp+0xd84>
- .byte 68,15,91,230 // cvtdq2ps %xmm6,%xmm12
- .byte 68,15,89,228 // mulps %xmm4,%xmm12
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,56,0,53,114,125,1,0 // pshufb 0x17d72(%rip),%xmm6 # 3cfe0 <_sk_srcover_bgra_8888_sse2_lowp+0xd94>
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 102,15,114,209,24 // psrld $0x18,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,46,45,6,116,1,0 // ucomiss 0x17406(%rip),%xmm5 # 3c68c <_sk_srcover_bgra_8888_sse2_lowp+0x440>
- .byte 69,15,40,218 // movaps %xmm10,%xmm11
- .byte 119,6 // ja 25292 <_sk_bilerp_clamp_8888_sse41+0x1b1>
- .byte 68,15,40,92,36,32 // movaps 0x20(%rsp),%xmm11
- .byte 69,15,89,223 // mulps %xmm15,%xmm11
- .byte 65,15,89,251 // mulps %xmm11,%xmm7
- .byte 68,15,88,207 // addps %xmm7,%xmm9
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 69,15,88,196 // addps %xmm12,%xmm8
- .byte 65,15,89,243 // mulps %xmm11,%xmm6
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 65,15,88,219 // addps %xmm11,%xmm3
- .byte 243,15,88,45,63,114,1,0 // addss 0x1723f(%rip),%xmm5 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 243,15,16,13,51,114,1,0 // movss 0x17233(%rip),%xmm1 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 15,46,205 // ucomiss %xmm5,%xmm1
- .byte 15,131,23,255,255,255 // jae 251e5 <_sk_bilerp_clamp_8888_sse41+0x104>
- .byte 15,40,116,36,16 // movaps 0x10(%rsp),%xmm6
- .byte 243,15,88,53,33,114,1,0 // addss 0x17221(%rip),%xmm6 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 243,15,16,13,21,114,1,0 // movss 0x17215(%rip),%xmm1 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 15,46,206 // ucomiss %xmm6,%xmm1
- .byte 15,131,180,254,255,255 // jae 251a0 <_sk_bilerp_clamp_8888_sse41+0xbf>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,40,100,36,128 // movaps -0x80(%rsp),%xmm4
- .byte 15,40,108,36,144 // movaps -0x70(%rsp),%xmm5
- .byte 15,40,116,36,160 // movaps -0x60(%rsp),%xmm6
- .byte 15,40,124,36,176 // movaps -0x50(%rsp),%xmm7
- .byte 72,131,196,56 // add $0x38,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_start_pipeline_sse2
-.globl _sk_start_pipeline_sse2
-FUNCTION(_sk_start_pipeline_sse2)
-_sk_start_pipeline_sse2:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 73,137,215 // mov %rdx,%r15
- .byte 72,137,243 // mov %rsi,%rbx
- .byte 72,137,125,208 // mov %rdi,-0x30(%rbp)
- .byte 76,137,198 // mov %r8,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 73,137,197 // mov %rax,%r13
- .byte 73,137,246 // mov %rsi,%r14
- .byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
- .byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 253c6 <_sk_start_pipeline_sse2+0xb6>
- .byte 72,139,69,208 // mov -0x30(%rbp),%rax
- .byte 72,141,64,4 // lea 0x4(%rax),%rax
- .byte 72,137,69,200 // mov %rax,-0x38(%rbp)
- .byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 25394 <_sk_start_pipeline_sse2+0x84>
- .byte 76,139,101,208 // mov -0x30(%rbp),%r12
- .byte 49,255 // xor %edi,%edi
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 76,137,226 // mov %r12,%rdx
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 73,141,84,36,4 // lea 0x4(%r12),%rdx
- .byte 73,131,196,8 // add $0x8,%r12
- .byte 77,57,252 // cmp %r15,%r12
- .byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 2535d <_sk_start_pipeline_sse2+0x4d>
- .byte 76,137,255 // mov %r15,%rdi
- .byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 253bd <_sk_start_pipeline_sse2+0xad>
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 72,255,195 // inc %rbx
- .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 2534f <_sk_start_pipeline_sse2+0x3f>
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 195 // retq
-
-HIDDEN _sk_just_return_sse2
-.globl _sk_just_return_sse2
-FUNCTION(_sk_just_return_sse2)
-_sk_just_return_sse2:
- .byte 195 // retq
-
-HIDDEN _sk_seed_shader_sse2
-.globl _sk_seed_shader_sse2
-FUNCTION(_sk_seed_shader_sse2)
-_sk_seed_shader_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,110,194 // movd %edx,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 102,15,110,201 // movd %ecx,%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,13,3,123,1,0 // addps 0x17b03(%rip),%xmm1 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,21,10,123,1,0 // movaps 0x17b0a(%rip),%xmm2 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dither_sse2
-.globl _sk_dither_sse2
-FUNCTION(_sk_dither_sse2)
-_sk_dither_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,68,15,110,194 // movd %edx,%xmm8
- .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 102,68,15,254,5,179,122,1,0 // paddd 0x17ab3(%rip),%xmm8 # 3cee0 <_sk_srcover_bgra_8888_sse2_lowp+0xc94>
- .byte 102,68,15,110,201 // movd %ecx,%xmm9
- .byte 102,69,15,112,201,0 // pshufd $0x0,%xmm9,%xmm9
- .byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,21,218,122,1,0 // movdqa 0x17ada(%rip),%xmm10 # 3cf20 <_sk_srcover_bgra_8888_sse2_lowp+0xcd4>
- .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
- .byte 102,69,15,219,218 // pand %xmm10,%xmm11
- .byte 102,65,15,114,243,5 // pslld $0x5,%xmm11
- .byte 102,69,15,219,208 // pand %xmm8,%xmm10
- .byte 102,65,15,114,242,4 // pslld $0x4,%xmm10
- .byte 102,68,15,111,37,198,122,1,0 // movdqa 0x17ac6(%rip),%xmm12 # 3cf30 <_sk_srcover_bgra_8888_sse2_lowp+0xce4>
- .byte 102,68,15,111,45,205,122,1,0 // movdqa 0x17acd(%rip),%xmm13 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
- .byte 102,69,15,219,245 // pand %xmm13,%xmm14
- .byte 102,65,15,114,246,2 // pslld $0x2,%xmm14
- .byte 102,69,15,235,243 // por %xmm11,%xmm14
- .byte 102,69,15,219,232 // pand %xmm8,%xmm13
- .byte 102,69,15,254,237 // paddd %xmm13,%xmm13
- .byte 102,69,15,235,234 // por %xmm10,%xmm13
- .byte 102,69,15,219,204 // pand %xmm12,%xmm9
- .byte 102,65,15,114,209,1 // psrld $0x1,%xmm9
- .byte 102,69,15,219,196 // pand %xmm12,%xmm8
- .byte 102,65,15,114,208,2 // psrld $0x2,%xmm8
- .byte 102,69,15,235,197 // por %xmm13,%xmm8
- .byte 102,69,15,235,198 // por %xmm14,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,136,122,1,0 // mulps 0x17a88(%rip),%xmm8 # 3cf50 <_sk_srcover_bgra_8888_sse2_lowp+0xd04>
- .byte 68,15,88,5,144,122,1,0 // addps 0x17a90(%rip),%xmm8 # 3cf60 <_sk_srcover_bgra_8888_sse2_lowp+0xd14>
- .byte 243,68,15,16,16 // movss (%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,88,210 // addps %xmm2,%xmm10
- .byte 15,93,195 // minps %xmm3,%xmm0
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 15,93,203 // minps %xmm3,%xmm1
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 68,15,95,201 // maxps %xmm1,%xmm9
- .byte 68,15,93,211 // minps %xmm3,%xmm10
- .byte 65,15,95,210 // maxps %xmm10,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_uniform_color_sse2
-.globl _sk_uniform_color_sse2
-FUNCTION(_sk_uniform_color_sse2)
-_sk_uniform_color_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_black_color_sse2
-.globl _sk_black_color_sse2
-FUNCTION(_sk_black_color_sse2)
-_sk_black_color_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,198,121,1,0 // movaps 0x179c6(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_white_color_sse2
-.globl _sk_white_color_sse2
-FUNCTION(_sk_white_color_sse2)
-_sk_white_color_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,178,121,1,0 // movaps 0x179b2(%rip),%xmm0 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_rgba_sse2
-.globl _sk_load_rgba_sse2
-FUNCTION(_sk_load_rgba_sse2)
-_sk_load_rgba_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 15,16,72,16 // movups 0x10(%rax),%xmm1
- .byte 15,16,80,32 // movups 0x20(%rax),%xmm2
- .byte 15,16,88,48 // movups 0x30(%rax),%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_rgba_sse2
-.globl _sk_store_rgba_sse2
-FUNCTION(_sk_store_rgba_sse2)
-_sk_store_rgba_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,17,0 // movups %xmm0,(%rax)
- .byte 15,17,72,16 // movups %xmm1,0x10(%rax)
- .byte 15,17,80,32 // movups %xmm2,0x20(%rax)
- .byte 15,17,88,48 // movups %xmm3,0x30(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clear_sse2
-.globl _sk_clear_sse2
-FUNCTION(_sk_clear_sse2)
-_sk_clear_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcatop_sse2
-.globl _sk_srcatop_sse2
-FUNCTION(_sk_srcatop_sse2)
-_sk_srcatop_sse2:
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 68,15,40,5,98,121,1,0 // movaps 0x17962(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,204 // mulps %xmm4,%xmm9
- .byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 65,15,88,201 // addps %xmm9,%xmm1
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 65,15,88,216 // addps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstatop_sse2
-.globl _sk_dstatop_sse2
-FUNCTION(_sk_dstatop_sse2)
-_sk_dstatop_sse2:
- .byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,40,13,21,121,1,0 // movaps 0x17915(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,207 // subps %xmm7,%xmm9
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 68,15,89,197 // mulps %xmm5,%xmm8
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 68,15,89,198 // mulps %xmm6,%xmm8
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 68,15,89,203 // mulps %xmm3,%xmm9
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 65,15,88,217 // addps %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcin_sse2
-.globl _sk_srcin_sse2
-FUNCTION(_sk_srcin_sse2)
-_sk_srcin_sse2:
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstin_sse2
-.globl _sk_dstin_sse2
-FUNCTION(_sk_dstin_sse2)
-_sk_dstin_sse2:
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcout_sse2
-.globl _sk_srcout_sse2
-FUNCTION(_sk_srcout_sse2)
-_sk_srcout_sse2:
- .byte 68,15,40,5,169,120,1,0 // movaps 0x178a9(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,199 // subps %xmm7,%xmm8
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstout_sse2
-.globl _sk_dstout_sse2
-FUNCTION(_sk_dstout_sse2)
-_sk_dstout_sse2:
- .byte 68,15,40,5,137,120,1,0 // movaps 0x17889(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,216 // movaps %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_sse2
-.globl _sk_srcover_sse2
-FUNCTION(_sk_srcover_sse2)
-_sk_srcover_sse2:
- .byte 68,15,40,5,92,120,1,0 // movaps 0x1785c(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,204 // mulps %xmm4,%xmm9
- .byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 65,15,88,201 // addps %xmm9,%xmm1
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 65,15,88,216 // addps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstover_sse2
-.globl _sk_dstover_sse2
-FUNCTION(_sk_dstover_sse2)
-_sk_dstover_sse2:
- .byte 68,15,40,5,32,120,1,0 // movaps 0x17820(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,199 // subps %xmm7,%xmm8
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_modulate_sse2
-.globl _sk_modulate_sse2
-FUNCTION(_sk_modulate_sse2)
-_sk_modulate_sse2:
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_multiply_sse2
-.globl _sk_multiply_sse2
-FUNCTION(_sk_multiply_sse2)
-_sk_multiply_sse2:
- .byte 68,15,40,5,228,119,1,0 // movaps 0x177e4(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,92,207 // subps %xmm7,%xmm9
- .byte 69,15,40,209 // movaps %xmm9,%xmm10
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,89,220 // mulps %xmm4,%xmm11
- .byte 69,15,88,218 // addps %xmm10,%xmm11
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 65,15,88,195 // addps %xmm11,%xmm0
- .byte 69,15,40,209 // movaps %xmm9,%xmm10
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,89,221 // mulps %xmm5,%xmm11
- .byte 69,15,88,218 // addps %xmm10,%xmm11
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 65,15,88,203 // addps %xmm11,%xmm1
- .byte 69,15,40,209 // movaps %xmm9,%xmm10
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,89,222 // mulps %xmm6,%xmm11
- .byte 69,15,88,218 // addps %xmm10,%xmm11
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 65,15,88,211 // addps %xmm11,%xmm2
- .byte 68,15,89,203 // mulps %xmm3,%xmm9
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 69,15,88,193 // addps %xmm9,%xmm8
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 65,15,88,216 // addps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_plus__sse2
-.globl _sk_plus__sse2
-FUNCTION(_sk_plus__sse2)
-_sk_plus__sse2:
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,40,5,101,119,1,0 // movaps 0x17765(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 65,15,93,208 // minps %xmm8,%xmm2
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 65,15,93,216 // minps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_screen_sse2
-.globl _sk_screen_sse2
-FUNCTION(_sk_screen_sse2)
-_sk_screen_sse2:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 68,15,88,197 // addps %xmm5,%xmm8
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 68,15,92,193 // subps %xmm1,%xmm8
- .byte 68,15,40,202 // movaps %xmm2,%xmm9
- .byte 68,15,88,206 // addps %xmm6,%xmm9
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 68,15,92,202 // subps %xmm2,%xmm9
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 68,15,88,215 // addps %xmm7,%xmm10
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 68,15,92,211 // subps %xmm3,%xmm10
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 65,15,40,218 // movaps %xmm10,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xor__sse2
-.globl _sk_xor__sse2
-FUNCTION(_sk_xor__sse2)
-_sk_xor__sse2:
- .byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 15,40,29,241,118,1,0 // movaps 0x176f1(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,92,207 // subps %xmm7,%xmm9
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 65,15,92,216 // subps %xmm8,%xmm3
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 68,15,89,212 // mulps %xmm4,%xmm10
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 68,15,89,213 // mulps %xmm5,%xmm10
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 68,15,89,214 // mulps %xmm6,%xmm10
- .byte 65,15,88,210 // addps %xmm10,%xmm2
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 65,15,88,217 // addps %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_darken_sse2
-.globl _sk_darken_sse2
-FUNCTION(_sk_darken_sse2)
-_sk_darken_sse2:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,89,207 // mulps %xmm7,%xmm9
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,95,201 // maxps %xmm1,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 69,15,95,193 // maxps %xmm9,%xmm8
- .byte 65,15,92,200 // subps %xmm8,%xmm1
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 68,15,88,198 // addps %xmm6,%xmm8
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 65,15,95,209 // maxps %xmm9,%xmm2
- .byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,76,118,1,0 // movaps 0x1764c(%rip),%xmm2 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lighten_sse2
-.globl _sk_lighten_sse2
-FUNCTION(_sk_lighten_sse2)
-_sk_lighten_sse2:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,89,207 // mulps %xmm7,%xmm9
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,93,201 // minps %xmm1,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 69,15,93,193 // minps %xmm9,%xmm8
- .byte 65,15,92,200 // subps %xmm8,%xmm1
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 68,15,88,198 // addps %xmm6,%xmm8
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 65,15,93,209 // minps %xmm9,%xmm2
- .byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,225,117,1,0 // movaps 0x175e1(%rip),%xmm2 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_difference_sse2
-.globl _sk_difference_sse2
-FUNCTION(_sk_difference_sse2)
-_sk_difference_sse2:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 68,15,89,207 // mulps %xmm7,%xmm9
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 68,15,93,201 // minps %xmm1,%xmm9
- .byte 69,15,88,201 // addps %xmm9,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 69,15,93,193 // minps %xmm9,%xmm8
- .byte 69,15,88,192 // addps %xmm8,%xmm8
- .byte 65,15,92,200 // subps %xmm8,%xmm1
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 68,15,88,198 // addps %xmm6,%xmm8
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 65,15,93,209 // minps %xmm9,%xmm2
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,107,117,1,0 // movaps 0x1756b(%rip),%xmm2 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_exclusion_sse2
-.globl _sk_exclusion_sse2
-FUNCTION(_sk_exclusion_sse2)
-_sk_exclusion_sse2:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 68,15,89,197 // mulps %xmm5,%xmm8
- .byte 69,15,88,192 // addps %xmm8,%xmm8
- .byte 65,15,92,200 // subps %xmm8,%xmm1
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 68,15,88,198 // addps %xmm6,%xmm8
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 68,15,92,194 // subps %xmm2,%xmm8
- .byte 15,40,21,27,117,1,0 // movaps 0x1751b(%rip),%xmm2 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_colorburn_sse2
-.globl _sk_colorburn_sse2
-FUNCTION(_sk_colorburn_sse2)
-_sk_colorburn_sse2:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 68,15,40,13,254,116,1,0 // movaps 0x174fe(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,209 // movaps %xmm9,%xmm10
- .byte 68,15,92,215 // subps %xmm7,%xmm10
- .byte 69,15,40,218 // movaps %xmm10,%xmm11
- .byte 69,15,89,216 // mulps %xmm8,%xmm11
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 69,15,83,224 // rcpps %xmm8,%xmm12
- .byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 65,15,93,196 // minps %xmm12,%xmm0
- .byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 68,15,92,224 // subps %xmm0,%xmm12
- .byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 69,15,88,227 // addps %xmm11,%xmm12
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 68,15,92,203 // subps %xmm3,%xmm9
- .byte 69,15,40,233 // movaps %xmm9,%xmm13
- .byte 68,15,89,236 // mulps %xmm4,%xmm13
- .byte 69,15,194,195,0 // cmpeqps %xmm11,%xmm8
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 69,15,84,232 // andps %xmm8,%xmm13
- .byte 69,15,85,196 // andnps %xmm12,%xmm8
- .byte 68,15,40,228 // movaps %xmm4,%xmm12
- .byte 68,15,194,231,0 // cmpeqps %xmm7,%xmm12
- .byte 69,15,86,197 // orps %xmm13,%xmm8
- .byte 65,15,84,196 // andps %xmm12,%xmm0
- .byte 69,15,85,224 // andnps %xmm8,%xmm12
- .byte 65,15,86,196 // orps %xmm12,%xmm0
- .byte 69,15,40,194 // movaps %xmm10,%xmm8
- .byte 68,15,89,193 // mulps %xmm1,%xmm8
- .byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 68,15,92,229 // subps %xmm5,%xmm12
- .byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 68,15,83,233 // rcpps %xmm1,%xmm13
- .byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 69,15,93,229 // minps %xmm13,%xmm12
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 69,15,92,236 // subps %xmm12,%xmm13
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 68,15,89,229 // mulps %xmm5,%xmm12
- .byte 65,15,194,203,0 // cmpeqps %xmm11,%xmm1
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 69,15,88,232 // addps %xmm8,%xmm13
- .byte 69,15,88,236 // addps %xmm12,%xmm13
- .byte 68,15,84,225 // andps %xmm1,%xmm12
- .byte 65,15,85,205 // andnps %xmm13,%xmm1
- .byte 68,15,88,197 // addps %xmm5,%xmm8
- .byte 65,15,86,204 // orps %xmm12,%xmm1
- .byte 68,15,40,229 // movaps %xmm5,%xmm12
- .byte 68,15,194,231,0 // cmpeqps %xmm7,%xmm12
- .byte 69,15,84,196 // andps %xmm12,%xmm8
- .byte 68,15,85,225 // andnps %xmm1,%xmm12
- .byte 69,15,86,196 // orps %xmm12,%xmm8
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 68,15,194,218,0 // cmpeqps %xmm2,%xmm11
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,83,210 // rcpps %xmm2,%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,93,202 // minps %xmm2,%xmm1
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,92,209 // subps %xmm1,%xmm2
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 65,15,88,210 // addps %xmm10,%xmm2
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 65,15,84,203 // andps %xmm11,%xmm1
- .byte 68,15,85,218 // andnps %xmm2,%xmm11
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 68,15,86,217 // orps %xmm1,%xmm11
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,194,207,0 // cmpeqps %xmm7,%xmm1
- .byte 15,84,209 // andps %xmm1,%xmm2
- .byte 65,15,85,203 // andnps %xmm11,%xmm1
- .byte 15,86,209 // orps %xmm1,%xmm2
- .byte 68,15,89,207 // mulps %xmm7,%xmm9
- .byte 65,15,88,217 // addps %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_colordodge_sse2
-.globl _sk_colordodge_sse2
-FUNCTION(_sk_colordodge_sse2)
-_sk_colordodge_sse2:
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,40,21,166,115,1,0 // movaps 0x173a6(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,218 // movaps %xmm10,%xmm11
- .byte 68,15,92,223 // subps %xmm7,%xmm11
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 68,15,40,227 // movaps %xmm3,%xmm12
- .byte 68,15,89,228 // mulps %xmm4,%xmm12
- .byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 69,15,83,192 // rcpps %xmm8,%xmm8
- .byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 69,15,93,232 // minps %xmm8,%xmm13
- .byte 69,15,40,241 // movaps %xmm9,%xmm14
- .byte 68,15,194,243,0 // cmpeqps %xmm3,%xmm14
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 68,15,88,232 // addps %xmm0,%xmm13
- .byte 69,15,84,206 // andps %xmm14,%xmm9
- .byte 69,15,85,245 // andnps %xmm13,%xmm14
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,92,211 // subps %xmm3,%xmm10
- .byte 69,15,86,241 // orps %xmm9,%xmm14
- .byte 69,15,40,202 // movaps %xmm10,%xmm9
- .byte 68,15,89,204 // mulps %xmm4,%xmm9
- .byte 69,15,88,241 // addps %xmm9,%xmm14
- .byte 68,15,40,204 // movaps %xmm4,%xmm9
- .byte 69,15,194,200,0 // cmpeqps %xmm8,%xmm9
- .byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 69,15,85,206 // andnps %xmm14,%xmm9
- .byte 65,15,86,193 // orps %xmm9,%xmm0
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,40,235 // movaps %xmm3,%xmm13
- .byte 68,15,92,233 // subps %xmm1,%xmm13
- .byte 69,15,83,237 // rcpps %xmm13,%xmm13
- .byte 69,15,89,233 // mulps %xmm9,%xmm13
- .byte 69,15,40,203 // movaps %xmm11,%xmm9
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 69,15,93,229 // minps %xmm13,%xmm12
- .byte 68,15,40,233 // movaps %xmm1,%xmm13
- .byte 68,15,194,235,0 // cmpeqps %xmm3,%xmm13
- .byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 69,15,88,225 // addps %xmm9,%xmm12
- .byte 65,15,84,205 // andps %xmm13,%xmm1
- .byte 69,15,85,236 // andnps %xmm12,%xmm13
- .byte 68,15,86,233 // orps %xmm1,%xmm13
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 68,15,88,233 // addps %xmm1,%xmm13
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 65,15,194,200,0 // cmpeqps %xmm8,%xmm1
- .byte 68,15,84,201 // andps %xmm1,%xmm9
- .byte 65,15,85,205 // andnps %xmm13,%xmm1
- .byte 68,15,86,201 // orps %xmm1,%xmm9
- .byte 68,15,40,227 // movaps %xmm3,%xmm12
- .byte 68,15,89,230 // mulps %xmm6,%xmm12
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,92,202 // subps %xmm2,%xmm1
- .byte 68,15,83,233 // rcpps %xmm1,%xmm13
- .byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 69,15,93,229 // minps %xmm13,%xmm12
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,194,203,0 // cmpeqps %xmm3,%xmm1
- .byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 69,15,88,227 // addps %xmm11,%xmm12
- .byte 15,84,209 // andps %xmm1,%xmm2
- .byte 65,15,85,204 // andnps %xmm12,%xmm1
- .byte 15,86,202 // orps %xmm2,%xmm1
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 68,15,194,198,0 // cmpeqps %xmm6,%xmm8
- .byte 69,15,84,216 // andps %xmm8,%xmm11
- .byte 68,15,85,193 // andnps %xmm1,%xmm8
- .byte 69,15,86,195 // orps %xmm11,%xmm8
- .byte 68,15,89,215 // mulps %xmm7,%xmm10
- .byte 65,15,88,218 // addps %xmm10,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hardlight_sse2
-.globl _sk_hardlight_sse2
-FUNCTION(_sk_hardlight_sse2)
-_sk_hardlight_sse2:
- .byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 68,15,40,29,79,114,1,0 // movaps 0x1724f(%rip),%xmm11 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,211 // movaps %xmm11,%xmm10
- .byte 68,15,92,215 // subps %xmm7,%xmm10
- .byte 69,15,40,194 // movaps %xmm10,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 68,15,92,219 // subps %xmm3,%xmm11
- .byte 69,15,40,203 // movaps %xmm11,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 68,15,92,192 // subps %xmm0,%xmm8
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 68,15,40,247 // movaps %xmm7,%xmm14
- .byte 68,15,40,255 // movaps %xmm7,%xmm15
- .byte 68,15,92,253 // subps %xmm5,%xmm15
- .byte 69,15,89,248 // mulps %xmm8,%xmm15
- .byte 69,15,88,255 // addps %xmm15,%xmm15
- .byte 68,15,40,228 // movaps %xmm4,%xmm12
- .byte 69,15,92,231 // subps %xmm15,%xmm12
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 69,15,88,192 // addps %xmm8,%xmm8
- .byte 68,15,194,195,2 // cmpleps %xmm3,%xmm8
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 69,15,85,196 // andnps %xmm12,%xmm8
- .byte 68,15,86,192 // orps %xmm0,%xmm8
- .byte 69,15,40,251 // movaps %xmm11,%xmm15
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 68,15,89,223 // mulps %xmm7,%xmm11
- .byte 69,15,88,193 // addps %xmm9,%xmm8
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 68,15,89,254 // mulps %xmm6,%xmm15
- .byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,92,238 // subps %xmm6,%xmm13
- .byte 68,15,89,232 // mulps %xmm0,%xmm13
- .byte 69,15,88,237 // addps %xmm13,%xmm13
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 65,15,92,197 // subps %xmm13,%xmm0
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,88,201 // addps %xmm9,%xmm9
- .byte 68,15,194,203,2 // cmpleps %xmm3,%xmm9
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 65,15,84,201 // andps %xmm9,%xmm1
- .byte 68,15,85,200 // andnps %xmm0,%xmm9
- .byte 68,15,86,201 // orps %xmm1,%xmm9
- .byte 69,15,88,207 // addps %xmm15,%xmm9
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 68,15,40,108,36,232 // movaps -0x18(%rsp),%xmm13
- .byte 69,15,89,229 // mulps %xmm13,%xmm12
- .byte 69,15,88,226 // addps %xmm10,%xmm12
- .byte 68,15,40,210 // movaps %xmm2,%xmm10
- .byte 69,15,88,210 // addps %xmm10,%xmm10
- .byte 68,15,194,211,2 // cmpleps %xmm3,%xmm10
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,92,194 // subps %xmm2,%xmm0
- .byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,89,240 // mulps %xmm0,%xmm14
- .byte 69,15,88,246 // addps %xmm14,%xmm14
- .byte 65,15,92,230 // subps %xmm14,%xmm4
- .byte 65,15,84,210 // andps %xmm10,%xmm2
- .byte 68,15,85,212 // andnps %xmm4,%xmm10
- .byte 68,15,86,210 // orps %xmm2,%xmm10
- .byte 69,15,88,212 // addps %xmm12,%xmm10
- .byte 65,15,88,219 // addps %xmm11,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 65,15,40,245 // movaps %xmm13,%xmm6
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_overlay_sse2
-.globl _sk_overlay_sse2
-FUNCTION(_sk_overlay_sse2)
-_sk_overlay_sse2:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 68,15,40,13,13,113,1,0 // movaps 0x1710d(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,209 // movaps %xmm9,%xmm10
- .byte 68,15,92,215 // subps %xmm7,%xmm10
- .byte 69,15,40,218 // movaps %xmm10,%xmm11
- .byte 69,15,89,221 // mulps %xmm13,%xmm11
- .byte 68,15,92,203 // subps %xmm3,%xmm9
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 65,15,88,195 // addps %xmm11,%xmm0
- .byte 68,15,40,227 // movaps %xmm3,%xmm12
- .byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 68,15,89,236 // mulps %xmm4,%xmm13
- .byte 68,15,40,247 // movaps %xmm7,%xmm14
- .byte 68,15,92,244 // subps %xmm4,%xmm14
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,194,207,2 // cmpleps %xmm7,%xmm1
- .byte 69,15,88,237 // addps %xmm13,%xmm13
- .byte 68,15,40,219 // movaps %xmm3,%xmm11
- .byte 68,15,89,223 // mulps %xmm7,%xmm11
- .byte 69,15,89,244 // mulps %xmm12,%xmm14
- .byte 69,15,88,246 // addps %xmm14,%xmm14
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 69,15,92,230 // subps %xmm14,%xmm12
- .byte 68,15,84,233 // andps %xmm1,%xmm13
- .byte 65,15,85,204 // andnps %xmm12,%xmm1
- .byte 65,15,86,205 // orps %xmm13,%xmm1
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 69,15,40,226 // movaps %xmm10,%xmm12
- .byte 69,15,89,224 // mulps %xmm8,%xmm12
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 68,15,40,227 // movaps %xmm3,%xmm12
- .byte 69,15,92,224 // subps %xmm8,%xmm12
- .byte 68,15,89,197 // mulps %xmm5,%xmm8
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 68,15,92,237 // subps %xmm5,%xmm13
- .byte 68,15,40,245 // movaps %xmm5,%xmm14
- .byte 69,15,88,246 // addps %xmm14,%xmm14
- .byte 68,15,194,247,2 // cmpleps %xmm7,%xmm14
- .byte 69,15,88,192 // addps %xmm8,%xmm8
- .byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 69,15,88,237 // addps %xmm13,%xmm13
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 69,15,92,229 // subps %xmm13,%xmm12
- .byte 69,15,84,198 // andps %xmm14,%xmm8
- .byte 69,15,85,244 // andnps %xmm12,%xmm14
- .byte 69,15,86,240 // orps %xmm8,%xmm14
- .byte 65,15,88,206 // addps %xmm14,%xmm1
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 68,15,89,198 // mulps %xmm6,%xmm8
- .byte 69,15,88,194 // addps %xmm10,%xmm8
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 68,15,92,210 // subps %xmm2,%xmm10
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 68,15,92,230 // subps %xmm6,%xmm12
- .byte 68,15,40,238 // movaps %xmm6,%xmm13
- .byte 69,15,88,237 // addps %xmm13,%xmm13
- .byte 68,15,194,239,2 // cmpleps %xmm7,%xmm13
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 69,15,89,226 // mulps %xmm10,%xmm12
- .byte 69,15,88,228 // addps %xmm12,%xmm12
- .byte 69,15,92,220 // subps %xmm12,%xmm11
- .byte 65,15,84,213 // andps %xmm13,%xmm2
- .byte 69,15,85,235 // andnps %xmm11,%xmm13
- .byte 68,15,86,234 // orps %xmm2,%xmm13
- .byte 69,15,88,197 // addps %xmm13,%xmm8
- .byte 68,15,89,207 // mulps %xmm7,%xmm9
- .byte 65,15,88,217 // addps %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_softlight_sse2
-.globl _sk_softlight_sse2
-FUNCTION(_sk_softlight_sse2)
-_sk_softlight_sse2:
- .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp)
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,41,84,36,232 // movaps %xmm2,-0x18(%rsp)
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,194,231,1 // cmpltps %xmm7,%xmm12
- .byte 68,15,40,213 // movaps %xmm5,%xmm10
- .byte 68,15,94,215 // divps %xmm7,%xmm10
- .byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 68,15,40,13,186,111,1,0 // movaps 0x16fba(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,249 // movaps %xmm9,%xmm15
- .byte 69,15,92,250 // subps %xmm10,%xmm15
- .byte 69,15,40,218 // movaps %xmm10,%xmm11
- .byte 69,15,40,234 // movaps %xmm10,%xmm13
- .byte 65,15,82,194 // rsqrtps %xmm10,%xmm0
- .byte 15,83,200 // rcpps %xmm0,%xmm1
- .byte 65,15,92,202 // subps %xmm10,%xmm1
- .byte 69,15,88,210 // addps %xmm10,%xmm10
- .byte 69,15,88,210 // addps %xmm10,%xmm10
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 68,15,40,53,228,111,1,0 // movaps 0x16fe4(%rip),%xmm14 # 3cf70 <_sk_srcover_bgra_8888_sse2_lowp+0xd24>
- .byte 69,15,88,222 // addps %xmm14,%xmm11
- .byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,40,21,228,111,1,0 // movaps 0x16fe4(%rip),%xmm10 # 3cf80 <_sk_srcover_bgra_8888_sse2_lowp+0xd34>
- .byte 69,15,89,234 // mulps %xmm10,%xmm13
- .byte 69,15,88,235 // addps %xmm11,%xmm13
- .byte 15,88,228 // addps %xmm4,%xmm4
- .byte 15,88,228 // addps %xmm4,%xmm4
- .byte 15,194,231,2 // cmpleps %xmm7,%xmm4
- .byte 68,15,84,236 // andps %xmm4,%xmm13
- .byte 15,85,225 // andnps %xmm1,%xmm4
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 65,15,86,229 // orps %xmm13,%xmm4
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 68,15,89,249 // mulps %xmm1,%xmm15
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 69,15,40,217 // movaps %xmm9,%xmm11
- .byte 68,15,92,219 // subps %xmm3,%xmm11
- .byte 65,15,40,203 // movaps %xmm11,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 69,15,40,233 // movaps %xmm9,%xmm13
- .byte 68,15,92,239 // subps %xmm7,%xmm13
- .byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,193 // addps %xmm1,%xmm8
- .byte 68,15,88,251 // addps %xmm3,%xmm15
- .byte 68,15,89,253 // mulps %xmm5,%xmm15
- .byte 15,194,195,2 // cmpleps %xmm3,%xmm0
- .byte 68,15,84,248 // andps %xmm0,%xmm15
- .byte 15,85,196 // andnps %xmm4,%xmm0
- .byte 65,15,86,199 // orps %xmm15,%xmm0
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,198 // movaps %xmm6,%xmm8
- .byte 68,15,94,199 // divps %xmm7,%xmm8
- .byte 69,15,84,196 // andps %xmm12,%xmm8
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 65,15,88,206 // addps %xmm14,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 69,15,40,249 // movaps %xmm9,%xmm15
- .byte 69,15,92,248 // subps %xmm8,%xmm15
- .byte 65,15,82,224 // rsqrtps %xmm8,%xmm4
- .byte 15,83,228 // rcpps %xmm4,%xmm4
- .byte 65,15,92,224 // subps %xmm8,%xmm4
- .byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 68,15,88,193 // addps %xmm1,%xmm8
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,194,207,2 // cmpleps %xmm7,%xmm1
- .byte 68,15,84,193 // andps %xmm1,%xmm8
- .byte 15,85,204 // andnps %xmm4,%xmm1
- .byte 65,15,86,200 // orps %xmm8,%xmm1
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 69,15,88,192 // addps %xmm8,%xmm8
- .byte 65,15,40,224 // movaps %xmm8,%xmm4
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 68,15,89,252 // mulps %xmm4,%xmm15
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 65,15,40,227 // movaps %xmm11,%xmm4
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 68,15,88,251 // addps %xmm3,%xmm15
- .byte 68,15,89,254 // mulps %xmm6,%xmm15
- .byte 68,15,194,195,2 // cmpleps %xmm3,%xmm8
- .byte 69,15,84,248 // andps %xmm8,%xmm15
- .byte 68,15,85,193 // andnps %xmm1,%xmm8
- .byte 69,15,86,199 // orps %xmm15,%xmm8
- .byte 68,15,88,194 // addps %xmm2,%xmm8
- .byte 68,15,40,124,36,216 // movaps -0x28(%rsp),%xmm15
- .byte 65,15,40,207 // movaps %xmm15,%xmm1
- .byte 15,94,207 // divps %xmm7,%xmm1
- .byte 65,15,84,204 // andps %xmm12,%xmm1
- .byte 68,15,92,201 // subps %xmm1,%xmm9
- .byte 68,15,88,241 // addps %xmm1,%xmm14
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 15,82,209 // rsqrtps %xmm1,%xmm2
- .byte 15,83,210 // rcpps %xmm2,%xmm2
- .byte 15,92,209 // subps %xmm1,%xmm2
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 68,15,89,244 // mulps %xmm4,%xmm14
- .byte 69,15,88,214 // addps %xmm14,%xmm10
- .byte 65,15,40,207 // movaps %xmm15,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,194,207,2 // cmpleps %xmm7,%xmm1
- .byte 68,15,84,209 // andps %xmm1,%xmm10
- .byte 15,85,202 // andnps %xmm2,%xmm1
- .byte 15,40,84,36,232 // movaps -0x18(%rsp),%xmm2
- .byte 68,15,89,234 // mulps %xmm2,%xmm13
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 65,15,86,202 // orps %xmm10,%xmm1
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 68,15,89,204 // mulps %xmm4,%xmm9
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 65,15,40,227 // movaps %xmm11,%xmm4
- .byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 65,15,88,229 // addps %xmm13,%xmm4
- .byte 68,15,88,203 // addps %xmm3,%xmm9
- .byte 69,15,89,207 // mulps %xmm15,%xmm9
- .byte 69,15,40,215 // movaps %xmm15,%xmm10
- .byte 15,194,211,2 // cmpleps %xmm3,%xmm2
- .byte 68,15,84,202 // andps %xmm2,%xmm9
- .byte 15,85,209 // andnps %xmm1,%xmm2
- .byte 65,15,86,209 // orps %xmm9,%xmm2
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 68,15,89,223 // mulps %xmm7,%xmm11
- .byte 65,15,88,219 // addps %xmm11,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 65,15,40,242 // movaps %xmm10,%xmm6
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hue_sse2
-.globl _sk_hue_sse2
-FUNCTION(_sk_hue_sse2)
-_sk_hue_sse2:
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,89,203 // mulps %xmm3,%xmm9
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 68,15,40,225 // movaps %xmm1,%xmm12
- .byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 68,15,40,5,119,109,1,0 // movaps 0x16d77(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 68,15,92,217 // subps %xmm1,%xmm11
- .byte 65,15,89,195 // mulps %xmm11,%xmm0
- .byte 15,41,68,36,232 // movaps %xmm0,-0x18(%rsp)
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 68,15,41,100,36,216 // movaps %xmm12,-0x28(%rsp)
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 68,15,40,229 // movaps %xmm5,%xmm12
- .byte 68,15,40,237 // movaps %xmm5,%xmm13
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,41,68,36,200 // movaps %xmm0,-0x38(%rsp)
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 68,15,95,239 // maxps %xmm7,%xmm13
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 68,15,40,245 // movaps %xmm5,%xmm14
- .byte 68,15,40,253 // movaps %xmm5,%xmm15
- .byte 69,15,95,253 // maxps %xmm13,%xmm15
- .byte 68,15,93,231 // minps %xmm7,%xmm12
- .byte 69,15,93,244 // minps %xmm12,%xmm14
- .byte 69,15,92,254 // subps %xmm14,%xmm15
- .byte 69,15,40,226 // movaps %xmm10,%xmm12
- .byte 68,15,93,226 // minps %xmm2,%xmm12
- .byte 69,15,40,233 // movaps %xmm9,%xmm13
- .byte 69,15,93,236 // minps %xmm12,%xmm13
- .byte 69,15,40,226 // movaps %xmm10,%xmm12
- .byte 68,15,95,226 // maxps %xmm2,%xmm12
- .byte 69,15,40,241 // movaps %xmm9,%xmm14
- .byte 69,15,95,244 // maxps %xmm12,%xmm14
- .byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 69,15,92,205 // subps %xmm13,%xmm9
- .byte 69,15,92,213 // subps %xmm13,%xmm10
- .byte 65,15,92,213 // subps %xmm13,%xmm2
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,89,251 // mulps %xmm3,%xmm15
- .byte 69,15,89,207 // mulps %xmm15,%xmm9
- .byte 69,15,89,215 // mulps %xmm15,%xmm10
- .byte 65,15,89,215 // mulps %xmm15,%xmm2
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 69,15,94,206 // divps %xmm14,%xmm9
- .byte 69,15,94,214 // divps %xmm14,%xmm10
- .byte 65,15,94,214 // divps %xmm14,%xmm2
- .byte 69,15,194,244,4 // cmpneqps %xmm12,%xmm14
- .byte 69,15,84,206 // andps %xmm14,%xmm9
- .byte 69,15,84,214 // andps %xmm14,%xmm10
- .byte 65,15,84,214 // andps %xmm14,%xmm2
- .byte 68,15,40,61,52,109,1,0 // movaps 0x16d34(%rip),%xmm15 # 3cf90 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
- .byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 15,40,5,57,109,1,0 // movaps 0x16d39(%rip),%xmm0 # 3cfa0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,88,244 // addps %xmm4,%xmm6
- .byte 68,15,40,53,59,109,1,0 // movaps 0x16d3b(%rip),%xmm14 # 3cfb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
- .byte 68,15,40,239 // movaps %xmm7,%xmm13
- .byte 69,15,89,238 // mulps %xmm14,%xmm13
- .byte 68,15,88,238 // addps %xmm6,%xmm13
- .byte 65,15,40,225 // movaps %xmm9,%xmm4
- .byte 65,15,89,231 // mulps %xmm15,%xmm4
- .byte 65,15,40,242 // movaps %xmm10,%xmm6
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,88,244 // addps %xmm4,%xmm6
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 65,15,89,230 // mulps %xmm14,%xmm4
- .byte 15,88,230 // addps %xmm6,%xmm4
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 68,15,92,236 // subps %xmm4,%xmm13
- .byte 69,15,88,205 // addps %xmm13,%xmm9
- .byte 69,15,88,213 // addps %xmm13,%xmm10
- .byte 68,15,88,234 // addps %xmm2,%xmm13
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,93,213 // minps %xmm13,%xmm2
- .byte 65,15,40,241 // movaps %xmm9,%xmm6
- .byte 15,93,242 // minps %xmm2,%xmm6
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,95,213 // maxps %xmm13,%xmm2
- .byte 65,15,40,225 // movaps %xmm9,%xmm4
- .byte 15,95,226 // maxps %xmm2,%xmm4
- .byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 65,15,89,194 // mulps %xmm10,%xmm0
- .byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 69,15,89,245 // mulps %xmm13,%xmm14
- .byte 68,15,88,240 // addps %xmm0,%xmm14
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,194,214,2 // cmpleps %xmm6,%xmm2
- .byte 69,15,40,254 // movaps %xmm14,%xmm15
- .byte 68,15,92,254 // subps %xmm6,%xmm15
- .byte 65,15,40,241 // movaps %xmm9,%xmm6
- .byte 65,15,92,246 // subps %xmm14,%xmm6
- .byte 65,15,89,246 // mulps %xmm14,%xmm6
- .byte 65,15,94,247 // divps %xmm15,%xmm6
- .byte 65,15,88,246 // addps %xmm14,%xmm6
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,85,198 // andnps %xmm6,%xmm0
- .byte 68,15,84,202 // andps %xmm2,%xmm9
- .byte 68,15,86,200 // orps %xmm0,%xmm9
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp)
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 65,15,85,201 // andnps %xmm9,%xmm1
- .byte 69,15,92,206 // subps %xmm14,%xmm9
- .byte 65,15,92,246 // subps %xmm14,%xmm6
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 65,15,92,230 // subps %xmm14,%xmm4
- .byte 68,15,94,204 // divps %xmm4,%xmm9
- .byte 69,15,88,206 // addps %xmm14,%xmm9
- .byte 68,15,84,200 // andps %xmm0,%xmm9
- .byte 68,15,86,201 // orps %xmm1,%xmm9
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 65,15,92,206 // subps %xmm14,%xmm1
- .byte 65,15,89,206 // mulps %xmm14,%xmm1
- .byte 65,15,94,207 // divps %xmm15,%xmm1
- .byte 65,15,88,206 // addps %xmm14,%xmm1
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,85,217 // andnps %xmm1,%xmm3
- .byte 68,15,84,210 // andps %xmm2,%xmm10
- .byte 68,15,86,211 // orps %xmm3,%xmm10
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 65,15,85,202 // andnps %xmm10,%xmm1
- .byte 69,15,92,214 // subps %xmm14,%xmm10
- .byte 68,15,89,214 // mulps %xmm6,%xmm10
- .byte 68,15,94,212 // divps %xmm4,%xmm10
- .byte 69,15,88,214 // addps %xmm14,%xmm10
- .byte 68,15,84,208 // andps %xmm0,%xmm10
- .byte 68,15,86,209 // orps %xmm1,%xmm10
- .byte 65,15,40,205 // movaps %xmm13,%xmm1
- .byte 65,15,92,206 // subps %xmm14,%xmm1
- .byte 65,15,89,206 // mulps %xmm14,%xmm1
- .byte 65,15,94,207 // divps %xmm15,%xmm1
- .byte 65,15,88,206 // addps %xmm14,%xmm1
- .byte 68,15,84,234 // andps %xmm2,%xmm13
- .byte 15,85,209 // andnps %xmm1,%xmm2
- .byte 65,15,86,213 // orps %xmm13,%xmm2
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,85,202 // andnps %xmm2,%xmm1
- .byte 65,15,92,214 // subps %xmm14,%xmm2
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,94,212 // divps %xmm4,%xmm2
- .byte 65,15,88,214 // addps %xmm14,%xmm2
- .byte 15,84,208 // andps %xmm0,%xmm2
- .byte 15,86,209 // orps %xmm1,%xmm2
- .byte 69,15,95,204 // maxps %xmm12,%xmm9
- .byte 69,15,95,212 // maxps %xmm12,%xmm10
- .byte 65,15,95,212 // maxps %xmm12,%xmm2
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,76,36,232 // movaps -0x18(%rsp),%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 65,15,88,201 // addps %xmm9,%xmm1
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 65,15,40,216 // movaps %xmm8,%xmm3
- .byte 15,40,116,36,200 // movaps -0x38(%rsp),%xmm6
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 15,40,76,36,216 // movaps -0x28(%rsp),%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 69,15,88,195 // addps %xmm11,%xmm8
- .byte 68,15,88,194 // addps %xmm2,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,40,247 // movaps %xmm7,%xmm6
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 15,40,92,36,168 // movaps -0x58(%rsp),%xmm3
- .byte 15,40,124,36,184 // movaps -0x48(%rsp),%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_saturation_sse2
-.globl _sk_saturation_sse2
-FUNCTION(_sk_saturation_sse2)
-_sk_saturation_sse2:
- .byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 68,15,40,198 // movaps %xmm6,%xmm8
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 68,15,40,216 // movaps %xmm0,%xmm11
- .byte 68,15,40,215 // movaps %xmm7,%xmm10
- .byte 68,15,89,212 // mulps %xmm4,%xmm10
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 15,41,116,36,184 // movaps %xmm6,-0x48(%rsp)
- .byte 68,15,40,207 // movaps %xmm7,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 15,41,108,36,200 // movaps %xmm5,-0x38(%rsp)
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 69,15,40,232 // movaps %xmm8,%xmm13
- .byte 68,15,41,108,36,168 // movaps %xmm13,-0x58(%rsp)
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,41,100,36,216 // movaps %xmm4,-0x28(%rsp)
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,41,84,36,232 // movaps %xmm2,-0x18(%rsp)
- .byte 15,95,218 // maxps %xmm2,%xmm3
- .byte 65,15,40,203 // movaps %xmm11,%xmm1
- .byte 15,95,203 // maxps %xmm3,%xmm1
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,93,218 // minps %xmm2,%xmm3
- .byte 65,15,40,211 // movaps %xmm11,%xmm2
- .byte 15,93,211 // minps %xmm3,%xmm2
- .byte 15,92,202 // subps %xmm2,%xmm1
- .byte 65,15,89,204 // mulps %xmm12,%xmm1
- .byte 65,15,40,228 // movaps %xmm12,%xmm4
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 15,93,208 // minps %xmm0,%xmm2
- .byte 69,15,40,194 // movaps %xmm10,%xmm8
- .byte 68,15,93,194 // minps %xmm2,%xmm8
- .byte 65,15,40,209 // movaps %xmm9,%xmm2
- .byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 65,15,40,218 // movaps %xmm10,%xmm3
- .byte 15,95,218 // maxps %xmm2,%xmm3
- .byte 65,15,92,216 // subps %xmm8,%xmm3
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 69,15,92,208 // subps %xmm8,%xmm10
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 68,15,94,211 // divps %xmm3,%xmm10
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 68,15,94,203 // divps %xmm3,%xmm9
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,94,195 // divps %xmm3,%xmm0
- .byte 15,194,218,4 // cmpneqps %xmm2,%xmm3
- .byte 68,15,84,211 // andps %xmm3,%xmm10
- .byte 68,15,84,203 // andps %xmm3,%xmm9
- .byte 15,84,195 // andps %xmm3,%xmm0
- .byte 68,15,40,5,141,106,1,0 // movaps 0x16a8d(%rip),%xmm8 # 3cf90 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,40,13,143,106,1,0 // movaps 0x16a8f(%rip),%xmm1 # 3cfa0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
- .byte 15,40,221 // movaps %xmm5,%xmm3
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 68,15,40,37,142,106,1,0 // movaps 0x16a8e(%rip),%xmm12 # 3cfb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
- .byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,235 // addps %xmm3,%xmm13
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 65,15,40,217 // movaps %xmm9,%xmm3
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 68,15,92,234 // subps %xmm2,%xmm13
- .byte 69,15,88,213 // addps %xmm13,%xmm10
- .byte 69,15,88,205 // addps %xmm13,%xmm9
- .byte 68,15,88,232 // addps %xmm0,%xmm13
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,93,197 // minps %xmm13,%xmm0
- .byte 65,15,40,218 // movaps %xmm10,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,95,197 // maxps %xmm13,%xmm0
- .byte 69,15,40,242 // movaps %xmm10,%xmm14
- .byte 68,15,95,240 // maxps %xmm0,%xmm14
- .byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 69,15,89,229 // mulps %xmm13,%xmm12
- .byte 68,15,88,225 // addps %xmm1,%xmm12
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,194,211,2 // cmpleps %xmm3,%xmm2
- .byte 65,15,40,244 // movaps %xmm12,%xmm6
- .byte 15,92,243 // subps %xmm3,%xmm6
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 65,15,92,196 // subps %xmm12,%xmm0
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 15,94,198 // divps %xmm6,%xmm0
- .byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,85,200 // andnps %xmm0,%xmm1
- .byte 68,15,84,210 // andps %xmm2,%xmm10
- .byte 68,15,86,209 // orps %xmm1,%xmm10
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 68,15,40,5,67,105,1,0 // movaps 0x16943(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,40,224 // movaps %xmm8,%xmm4
- .byte 68,15,92,199 // subps %xmm7,%xmm8
- .byte 15,88,253 // addps %xmm5,%xmm7
- .byte 15,92,251 // subps %xmm3,%xmm7
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 65,15,194,222,1 // cmpltps %xmm14,%xmm3
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 65,15,85,194 // andnps %xmm10,%xmm0
- .byte 69,15,92,212 // subps %xmm12,%xmm10
- .byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 69,15,92,244 // subps %xmm12,%xmm14
- .byte 69,15,94,214 // divps %xmm14,%xmm10
- .byte 69,15,88,212 // addps %xmm12,%xmm10
- .byte 68,15,84,211 // andps %xmm3,%xmm10
- .byte 68,15,86,208 // orps %xmm0,%xmm10
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,92,196 // subps %xmm12,%xmm0
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 15,94,198 // divps %xmm6,%xmm0
- .byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 68,15,40,250 // movaps %xmm2,%xmm15
- .byte 68,15,85,248 // andnps %xmm0,%xmm15
- .byte 68,15,84,202 // andps %xmm2,%xmm9
- .byte 69,15,86,207 // orps %xmm15,%xmm9
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 65,15,85,193 // andnps %xmm9,%xmm0
- .byte 69,15,92,204 // subps %xmm12,%xmm9
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 69,15,94,206 // divps %xmm14,%xmm9
- .byte 69,15,88,204 // addps %xmm12,%xmm9
- .byte 68,15,84,203 // andps %xmm3,%xmm9
- .byte 68,15,86,200 // orps %xmm0,%xmm9
- .byte 65,15,40,197 // movaps %xmm13,%xmm0
- .byte 65,15,92,196 // subps %xmm12,%xmm0
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 15,94,198 // divps %xmm6,%xmm0
- .byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 68,15,84,234 // andps %xmm2,%xmm13
- .byte 15,85,208 // andnps %xmm0,%xmm2
- .byte 65,15,86,213 // orps %xmm13,%xmm2
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,85,194 // andnps %xmm2,%xmm0
- .byte 65,15,92,212 // subps %xmm12,%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 65,15,94,214 // divps %xmm14,%xmm2
- .byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 15,84,211 // andps %xmm3,%xmm2
- .byte 15,86,208 // orps %xmm0,%xmm2
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 68,15,95,208 // maxps %xmm0,%xmm10
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,40,92,36,184 // movaps -0x48(%rsp),%xmm3
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 68,15,40,229 // movaps %xmm5,%xmm12
- .byte 65,15,92,228 // subps %xmm12,%xmm4
- .byte 68,15,89,220 // mulps %xmm4,%xmm11
- .byte 68,15,88,216 // addps %xmm0,%xmm11
- .byte 69,15,88,218 // addps %xmm10,%xmm11
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,76,36,216 // movaps -0x28(%rsp),%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 65,15,88,201 // addps %xmm9,%xmm1
- .byte 15,89,100,36,232 // mulps -0x18(%rsp),%xmm4
- .byte 15,40,68,36,168 // movaps -0x58(%rsp),%xmm0
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 68,15,88,196 // addps %xmm4,%xmm8
- .byte 68,15,88,194 // addps %xmm2,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 65,15,40,252 // movaps %xmm12,%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_color_sse2
-.globl _sk_color_sse2
-FUNCTION(_sk_color_sse2)
-_sk_color_sse2:
- .byte 68,15,40,199 // movaps %xmm7,%xmm8
- .byte 68,15,40,230 // movaps %xmm6,%xmm12
- .byte 68,15,41,100,36,216 // movaps %xmm12,-0x28(%rsp)
- .byte 68,15,40,221 // movaps %xmm5,%xmm11
- .byte 68,15,41,92,36,232 // movaps %xmm11,-0x18(%rsp)
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 15,41,84,36,184 // movaps %xmm2,-0x48(%rsp)
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 68,15,40,207 // movaps %xmm7,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 68,15,40,213 // movaps %xmm5,%xmm10
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 68,15,40,45,81,104,1,0 // movaps 0x16851(%rip),%xmm13 # 3cf90 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
- .byte 68,15,40,198 // movaps %xmm6,%xmm8
- .byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,40,53,81,104,1,0 // movaps 0x16851(%rip),%xmm14 # 3cfa0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 65,15,89,198 // mulps %xmm14,%xmm0
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,29,77,104,1,0 // movaps 0x1684d(%rip),%xmm11 # 3cfb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 68,15,88,224 // addps %xmm0,%xmm12
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,89,197 // mulps %xmm13,%xmm0
- .byte 69,15,40,250 // movaps %xmm10,%xmm15
- .byte 69,15,89,254 // mulps %xmm14,%xmm15
- .byte 68,15,88,248 // addps %xmm0,%xmm15
- .byte 68,15,40,5,137,103,1,0 // movaps 0x16789(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,40,224 // movaps %xmm8,%xmm4
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,76,36,184 // movaps -0x48(%rsp),%xmm1
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 65,15,89,195 // mulps %xmm11,%xmm0
- .byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 68,15,92,224 // subps %xmm0,%xmm12
- .byte 69,15,88,204 // addps %xmm12,%xmm9
- .byte 69,15,88,212 // addps %xmm12,%xmm10
- .byte 68,15,88,225 // addps %xmm1,%xmm12
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 65,15,93,196 // minps %xmm12,%xmm0
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 15,93,200 // minps %xmm0,%xmm1
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 65,15,95,196 // maxps %xmm12,%xmm0
- .byte 69,15,40,249 // movaps %xmm9,%xmm15
- .byte 68,15,95,248 // maxps %xmm0,%xmm15
- .byte 69,15,89,233 // mulps %xmm9,%xmm13
- .byte 69,15,89,242 // mulps %xmm10,%xmm14
- .byte 69,15,88,245 // addps %xmm13,%xmm14
- .byte 69,15,89,220 // mulps %xmm12,%xmm11
- .byte 69,15,88,222 // addps %xmm14,%xmm11
- .byte 69,15,87,237 // xorps %xmm13,%xmm13
- .byte 68,15,194,233,2 // cmpleps %xmm1,%xmm13
- .byte 69,15,40,243 // movaps %xmm11,%xmm14
- .byte 68,15,92,241 // subps %xmm1,%xmm14
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 65,15,94,206 // divps %xmm14,%xmm1
- .byte 65,15,88,203 // addps %xmm11,%xmm1
- .byte 65,15,40,197 // movaps %xmm13,%xmm0
- .byte 15,85,193 // andnps %xmm1,%xmm0
- .byte 69,15,84,205 // andps %xmm13,%xmm9
- .byte 68,15,86,200 // orps %xmm0,%xmm9
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,41,84,36,200 // movaps %xmm2,-0x38(%rsp)
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,41,92,36,184 // movaps %xmm3,-0x48(%rsp)
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 65,15,85,201 // andnps %xmm9,%xmm1
- .byte 69,15,92,203 // subps %xmm11,%xmm9
- .byte 65,15,92,219 // subps %xmm11,%xmm3
- .byte 68,15,89,203 // mulps %xmm3,%xmm9
- .byte 69,15,92,251 // subps %xmm11,%xmm15
- .byte 69,15,94,207 // divps %xmm15,%xmm9
- .byte 69,15,88,203 // addps %xmm11,%xmm9
- .byte 68,15,84,200 // andps %xmm0,%xmm9
- .byte 68,15,86,201 // orps %xmm1,%xmm9
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 65,15,94,206 // divps %xmm14,%xmm1
- .byte 65,15,88,203 // addps %xmm11,%xmm1
- .byte 65,15,40,213 // movaps %xmm13,%xmm2
- .byte 15,85,209 // andnps %xmm1,%xmm2
- .byte 69,15,84,213 // andps %xmm13,%xmm10
- .byte 68,15,86,210 // orps %xmm2,%xmm10
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 65,15,85,202 // andnps %xmm10,%xmm1
- .byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 69,15,94,215 // divps %xmm15,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 68,15,84,208 // andps %xmm0,%xmm10
- .byte 68,15,86,209 // orps %xmm1,%xmm10
- .byte 65,15,40,204 // movaps %xmm12,%xmm1
- .byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 65,15,94,206 // divps %xmm14,%xmm1
- .byte 65,15,88,203 // addps %xmm11,%xmm1
- .byte 69,15,84,229 // andps %xmm13,%xmm12
- .byte 68,15,85,233 // andnps %xmm1,%xmm13
- .byte 69,15,86,236 // orps %xmm12,%xmm13
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 65,15,85,205 // andnps %xmm13,%xmm1
- .byte 69,15,92,235 // subps %xmm11,%xmm13
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 69,15,94,239 // divps %xmm15,%xmm13
- .byte 69,15,88,235 // addps %xmm11,%xmm13
- .byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 68,15,86,233 // orps %xmm1,%xmm13
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,95,208 // maxps %xmm0,%xmm10
- .byte 68,15,95,232 // maxps %xmm0,%xmm13
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 65,15,88,249 // addps %xmm9,%xmm7
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,40,84,36,232 // movaps -0x18(%rsp),%xmm2
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 65,15,88,234 // addps %xmm10,%xmm5
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,68,36,216 // movaps -0x28(%rsp),%xmm0
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 68,15,88,196 // addps %xmm4,%xmm8
- .byte 69,15,88,197 // addps %xmm13,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 15,40,92,36,184 // movaps -0x48(%rsp),%xmm3
- .byte 15,40,124,36,200 // movaps -0x38(%rsp),%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_luminosity_sse2
-.globl _sk_luminosity_sse2
-FUNCTION(_sk_luminosity_sse2)
-_sk_luminosity_sse2:
- .byte 68,15,40,215 // movaps %xmm7,%xmm10
- .byte 15,41,116,36,200 // movaps %xmm6,-0x38(%rsp)
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
- .byte 15,41,100,36,216 // movaps %xmm4,-0x28(%rsp)
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 68,15,40,205 // movaps %xmm5,%xmm9
- .byte 68,15,89,204 // mulps %xmm4,%xmm9
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 68,15,40,37,16,102,1,0 // movaps 0x16610(%rip),%xmm12 # 3cf90 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
- .byte 68,15,40,199 // movaps %xmm7,%xmm8
- .byte 69,15,89,196 // mulps %xmm12,%xmm8
- .byte 68,15,40,45,16,102,1,0 // movaps 0x16610(%rip),%xmm13 # 3cfa0 <_sk_srcover_bgra_8888_sse2_lowp+0xd54>
- .byte 68,15,40,241 // movaps %xmm1,%xmm14
- .byte 69,15,89,245 // mulps %xmm13,%xmm14
- .byte 69,15,88,240 // addps %xmm8,%xmm14
- .byte 68,15,40,29,12,102,1,0 // movaps 0x1660c(%rip),%xmm11 # 3cfb0 <_sk_srcover_bgra_8888_sse2_lowp+0xd64>
- .byte 68,15,40,5,100,101,1,0 // movaps 0x16564(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,248 // movaps %xmm8,%xmm15
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 68,15,92,248 // subps %xmm0,%xmm15
- .byte 65,15,89,255 // mulps %xmm15,%xmm7
- .byte 65,15,89,207 // mulps %xmm15,%xmm1
- .byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp)
- .byte 68,15,89,250 // mulps %xmm2,%xmm15
- .byte 65,15,89,211 // mulps %xmm11,%xmm2
- .byte 65,15,88,214 // addps %xmm14,%xmm2
- .byte 69,15,40,241 // movaps %xmm9,%xmm14
- .byte 69,15,89,244 // mulps %xmm12,%xmm14
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 69,15,88,214 // addps %xmm14,%xmm10
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,40,116,36,200 // movaps -0x38(%rsp),%xmm6
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 68,15,40,244 // movaps %xmm4,%xmm14
- .byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 69,15,88,242 // addps %xmm10,%xmm14
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 65,15,92,214 // subps %xmm14,%xmm2
- .byte 68,15,88,202 // addps %xmm2,%xmm9
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 68,15,93,210 // minps %xmm2,%xmm10
- .byte 65,15,40,225 // movaps %xmm9,%xmm4
- .byte 65,15,93,226 // minps %xmm10,%xmm4
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 68,15,95,210 // maxps %xmm2,%xmm10
- .byte 69,15,40,241 // movaps %xmm9,%xmm14
- .byte 69,15,95,242 // maxps %xmm10,%xmm14
- .byte 69,15,89,225 // mulps %xmm9,%xmm12
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 69,15,88,236 // addps %xmm12,%xmm13
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 69,15,88,221 // addps %xmm13,%xmm11
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,194,228,2 // cmpleps %xmm4,%xmm12
- .byte 69,15,40,211 // movaps %xmm11,%xmm10
- .byte 68,15,92,212 // subps %xmm4,%xmm10
- .byte 65,15,40,225 // movaps %xmm9,%xmm4
- .byte 65,15,92,227 // subps %xmm11,%xmm4
- .byte 65,15,89,227 // mulps %xmm11,%xmm4
- .byte 65,15,94,226 // divps %xmm10,%xmm4
- .byte 65,15,88,227 // addps %xmm11,%xmm4
- .byte 69,15,40,236 // movaps %xmm12,%xmm13
- .byte 68,15,85,236 // andnps %xmm4,%xmm13
- .byte 69,15,84,204 // andps %xmm12,%xmm9
- .byte 69,15,86,205 // orps %xmm13,%xmm9
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp)
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 68,15,92,197 // subps %xmm5,%xmm8
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,92,236 // subps %xmm4,%xmm5
- .byte 68,15,40,236 // movaps %xmm4,%xmm13
- .byte 65,15,194,230,1 // cmpltps %xmm14,%xmm4
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 65,15,85,193 // andnps %xmm9,%xmm0
- .byte 69,15,92,203 // subps %xmm11,%xmm9
- .byte 69,15,92,235 // subps %xmm11,%xmm13
- .byte 69,15,89,205 // mulps %xmm13,%xmm9
- .byte 69,15,92,243 // subps %xmm11,%xmm14
- .byte 69,15,94,206 // divps %xmm14,%xmm9
- .byte 69,15,88,203 // addps %xmm11,%xmm9
- .byte 68,15,84,204 // andps %xmm4,%xmm9
- .byte 68,15,86,200 // orps %xmm0,%xmm9
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 65,15,89,195 // mulps %xmm11,%xmm0
- .byte 65,15,94,194 // divps %xmm10,%xmm0
- .byte 65,15,88,195 // addps %xmm11,%xmm0
- .byte 65,15,40,204 // movaps %xmm12,%xmm1
- .byte 15,85,200 // andnps %xmm0,%xmm1
- .byte 65,15,84,220 // andps %xmm12,%xmm3
- .byte 15,86,217 // orps %xmm1,%xmm3
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,85,195 // andnps %xmm3,%xmm0
- .byte 65,15,92,219 // subps %xmm11,%xmm3
- .byte 65,15,89,221 // mulps %xmm13,%xmm3
- .byte 65,15,94,222 // divps %xmm14,%xmm3
- .byte 65,15,88,219 // addps %xmm11,%xmm3
- .byte 15,84,220 // andps %xmm4,%xmm3
- .byte 15,86,216 // orps %xmm0,%xmm3
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 65,15,89,195 // mulps %xmm11,%xmm0
- .byte 65,15,94,194 // divps %xmm10,%xmm0
- .byte 65,15,88,195 // addps %xmm11,%xmm0
- .byte 65,15,84,212 // andps %xmm12,%xmm2
- .byte 68,15,85,224 // andnps %xmm0,%xmm12
- .byte 68,15,86,226 // orps %xmm2,%xmm12
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 65,15,85,196 // andnps %xmm12,%xmm0
- .byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 69,15,89,229 // mulps %xmm13,%xmm12
- .byte 69,15,94,230 // divps %xmm14,%xmm12
- .byte 69,15,88,227 // addps %xmm11,%xmm12
- .byte 68,15,84,228 // andps %xmm4,%xmm12
- .byte 68,15,86,224 // orps %xmm0,%xmm12
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 68,15,95,224 // maxps %xmm0,%xmm12
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,40,100,36,216 // movaps -0x28(%rsp),%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 65,15,88,249 // addps %xmm9,%xmm7
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 68,15,40,84,36,232 // movaps -0x18(%rsp),%xmm10
- .byte 65,15,89,194 // mulps %xmm10,%xmm0
- .byte 15,40,76,36,184 // movaps -0x48(%rsp),%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 68,15,89,198 // mulps %xmm6,%xmm8
- .byte 69,15,88,199 // addps %xmm15,%xmm8
- .byte 69,15,88,196 // addps %xmm12,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 15,40,221 // movaps %xmm5,%xmm3
- .byte 65,15,40,234 // movaps %xmm10,%xmm5
- .byte 15,40,124,36,168 // movaps -0x58(%rsp),%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_rgba_8888_sse2
-.globl _sk_srcover_rgba_8888_sse2
-FUNCTION(_sk_srcover_rgba_8888_sse2)
-_sk_srcover_rgba_8888_sse2:
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,1,0,0 // jne 26cb6 <_sk_srcover_rgba_8888_sse2+0x123>
- .byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,53,253,99,1,0 // movdqa 0x163fd(%rip),%xmm6 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,114,213,8 // psrld $0x8,%xmm5
- .byte 102,15,219,238 // pand %xmm6,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,114,215,16 // psrld $0x10,%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
- .byte 102,15,114,208,24 // psrld $0x18,%xmm0
- .byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,14,99,1,0 // movaps 0x1630e(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,226,99,1,0 // movaps 0x163e2(%rip),%xmm12 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 69,15,89,204 // mulps %xmm12,%xmm9
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 65,15,89,204 // mulps %xmm12,%xmm1
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,89,214 // mulps %xmm6,%xmm10
- .byte 68,15,88,210 // addps %xmm2,%xmm10
- .byte 65,15,89,220 // mulps %xmm12,%xmm3
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 68,15,88,195 // addps %xmm3,%xmm8
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 65,15,93,204 // minps %xmm12,%xmm1
- .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 65,15,95,209 // maxps %xmm9,%xmm2
- .byte 65,15,93,212 // minps %xmm12,%xmm2
- .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
- .byte 102,15,114,242,8 // pslld $0x8,%xmm2
- .byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,15,87,201 // xorpd %xmm1,%xmm1
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,93,204 // minps %xmm12,%xmm1
- .byte 102,15,91,217 // cvtps2dq %xmm1,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 69,15,95,216 // maxps %xmm8,%xmm11
- .byte 69,15,93,220 // minps %xmm12,%xmm11
- .byte 102,65,15,91,203 // cvtps2dq %xmm11,%xmm1
- .byte 102,15,114,241,24 // pslld $0x18,%xmm1
- .byte 102,15,235,203 // por %xmm3,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,69 // jne 26ce5 <_sk_srcover_rgba_8888_sse2+0x152>
- .byte 243,65,15,127,12,144 // movdqu %xmm1,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,40,216 // movaps %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,75 // je 26d09 <_sk_srcover_rgba_8888_sse2+0x176>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 60,2 // cmp $0x2,%al
- .byte 116,20 // je 26cda <_sk_srcover_rgba_8888_sse2+0x147>
- .byte 60,3 // cmp $0x3,%al
- .byte 15,133,234,254,255,255 // jne 26bb8 <_sk_srcover_rgba_8888_sse2+0x25>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 102,65,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm0
- .byte 233,211,254,255,255 // jmpq 26bb8 <_sk_srcover_rgba_8888_sse2+0x25>
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,39 // je 26d14 <_sk_srcover_rgba_8888_sse2+0x181>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 26d01 <_sk_srcover_rgba_8888_sse2+0x16e>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,177 // jne 26ca6 <_sk_srcover_rgba_8888_sse2+0x113>
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,65,15,126,84,144,8 // movd %xmm2,0x8(%r8,%rdx,4)
- .byte 102,65,15,214,12,144 // movq %xmm1,(%r8,%rdx,4)
- .byte 235,157 // jmp 26ca6 <_sk_srcover_rgba_8888_sse2+0x113>
- .byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
- .byte 233,164,254,255,255 // jmpq 26bb8 <_sk_srcover_rgba_8888_sse2+0x25>
- .byte 102,65,15,126,12,144 // movd %xmm1,(%r8,%rdx,4)
- .byte 235,138 // jmp 26ca6 <_sk_srcover_rgba_8888_sse2+0x113>
-
-HIDDEN _sk_srcover_bgra_8888_sse2
-.globl _sk_srcover_bgra_8888_sse2
-FUNCTION(_sk_srcover_bgra_8888_sse2)
-_sk_srcover_bgra_8888_sse2:
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,4,1,0,0 // jne 26e3f <_sk_srcover_bgra_8888_sse2+0x123>
- .byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 72,133,255 // test %rdi,%rdi
- .byte 102,15,111,37,116,98,1,0 // movdqa 0x16274(%rip),%xmm4 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,114,213,8 // psrld $0x8,%xmm5
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,114,215,16 // psrld $0x10,%xmm7
- .byte 102,15,219,252 // pand %xmm4,%xmm7
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 15,91,231 // cvtdq2ps %xmm7,%xmm4
- .byte 102,15,114,208,24 // psrld $0x18,%xmm0
- .byte 15,91,248 // cvtdq2ps %xmm0,%xmm7
- .byte 68,15,40,5,133,97,1,0 // movaps 0x16185(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 68,15,40,37,89,98,1,0 // movaps 0x16259(%rip),%xmm12 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 69,15,89,204 // mulps %xmm12,%xmm9
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 65,15,89,204 // mulps %xmm12,%xmm1
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,89,205 // mulps %xmm5,%xmm9
- .byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 65,15,89,212 // mulps %xmm12,%xmm2
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,89,214 // mulps %xmm6,%xmm10
- .byte 68,15,88,210 // addps %xmm2,%xmm10
- .byte 65,15,89,220 // mulps %xmm12,%xmm3
- .byte 68,15,89,199 // mulps %xmm7,%xmm8
- .byte 68,15,88,195 // addps %xmm3,%xmm8
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,93,204 // minps %xmm12,%xmm1
- .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 65,15,95,209 // maxps %xmm9,%xmm2
- .byte 65,15,93,212 // minps %xmm12,%xmm2
- .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
- .byte 102,15,114,242,8 // pslld $0x8,%xmm2
- .byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,15,87,201 // xorpd %xmm1,%xmm1
- .byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 65,15,93,204 // minps %xmm12,%xmm1
- .byte 102,15,91,217 // cvtps2dq %xmm1,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 69,15,95,216 // maxps %xmm8,%xmm11
- .byte 69,15,93,220 // minps %xmm12,%xmm11
- .byte 102,65,15,91,203 // cvtps2dq %xmm11,%xmm1
- .byte 102,15,114,241,24 // pslld $0x18,%xmm1
- .byte 102,15,235,203 // por %xmm3,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 117,69 // jne 26e6e <_sk_srcover_bgra_8888_sse2+0x152>
- .byte 243,65,15,127,12,144 // movdqu %xmm1,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,40,216 // movaps %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,75 // je 26e92 <_sk_srcover_bgra_8888_sse2+0x176>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 60,2 // cmp $0x2,%al
- .byte 116,20 // je 26e63 <_sk_srcover_bgra_8888_sse2+0x147>
- .byte 60,3 // cmp $0x3,%al
- .byte 15,133,234,254,255,255 // jne 26d41 <_sk_srcover_bgra_8888_sse2+0x25>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 102,65,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm0
- .byte 233,211,254,255,255 // jmpq 26d41 <_sk_srcover_bgra_8888_sse2+0x25>
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,39 // je 26e9d <_sk_srcover_bgra_8888_sse2+0x181>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 26e8a <_sk_srcover_bgra_8888_sse2+0x16e>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,177 // jne 26e2f <_sk_srcover_bgra_8888_sse2+0x113>
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,65,15,126,84,144,8 // movd %xmm2,0x8(%r8,%rdx,4)
- .byte 102,65,15,214,12,144 // movq %xmm1,(%r8,%rdx,4)
- .byte 235,157 // jmp 26e2f <_sk_srcover_bgra_8888_sse2+0x113>
- .byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
- .byte 233,164,254,255,255 // jmpq 26d41 <_sk_srcover_bgra_8888_sse2+0x25>
- .byte 102,65,15,126,12,144 // movd %xmm1,(%r8,%rdx,4)
- .byte 235,138 // jmp 26e2f <_sk_srcover_bgra_8888_sse2+0x113>
-
-HIDDEN _sk_clamp_0_sse2
-.globl _sk_clamp_0_sse2
-FUNCTION(_sk_clamp_0_sse2)
-_sk_clamp_0_sse2:
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 65,15,95,200 // maxps %xmm8,%xmm1
- .byte 65,15,95,208 // maxps %xmm8,%xmm2
- .byte 65,15,95,216 // maxps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_1_sse2
-.globl _sk_clamp_1_sse2
-FUNCTION(_sk_clamp_1_sse2)
-_sk_clamp_1_sse2:
- .byte 68,15,40,5,75,96,1,0 // movaps 0x1604b(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 65,15,93,208 // minps %xmm8,%xmm2
- .byte 65,15,93,216 // minps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_sse2
-.globl _sk_clamp_a_sse2
-FUNCTION(_sk_clamp_a_sse2)
-_sk_clamp_a_sse2:
- .byte 15,93,29,48,96,1,0 // minps 0x16030(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,93,195 // minps %xmm3,%xmm0
- .byte 15,93,203 // minps %xmm3,%xmm1
- .byte 15,93,211 // minps %xmm3,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_dst_sse2
-.globl _sk_clamp_a_dst_sse2
-FUNCTION(_sk_clamp_a_dst_sse2)
-_sk_clamp_a_dst_sse2:
- .byte 15,93,61,28,96,1,0 // minps 0x1601c(%rip),%xmm7 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,93,231 // minps %xmm7,%xmm4
- .byte 15,93,239 // minps %xmm7,%xmm5
- .byte 15,93,247 // minps %xmm7,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_set_rgb_sse2
-.globl _sk_set_rgb_sse2
-FUNCTION(_sk_set_rgb_sse2)
-_sk_set_rgb_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_swap_rb_sse2
-.globl _sk_swap_rb_sse2
-FUNCTION(_sk_swap_rb_sse2)
-_sk_swap_rb_sse2:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_invert_sse2
-.globl _sk_invert_sse2
-FUNCTION(_sk_invert_sse2)
-_sk_invert_sse2:
- .byte 68,15,40,5,216,95,1,0 // movaps 0x15fd8(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,92,200 // subps %xmm0,%xmm9
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,92,209 // subps %xmm1,%xmm10
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,92,218 // subps %xmm2,%xmm11
- .byte 68,15,92,195 // subps %xmm3,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 65,15,40,211 // movaps %xmm11,%xmm2
- .byte 65,15,40,216 // movaps %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_src_dst_sse2
-.globl _sk_move_src_dst_sse2
-FUNCTION(_sk_move_src_dst_sse2)
-_sk_move_src_dst_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_dst_src_sse2
-.globl _sk_move_dst_src_sse2
-FUNCTION(_sk_move_dst_src_sse2)
-_sk_move_dst_src_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_sse2
-.globl _sk_premul_sse2
-FUNCTION(_sk_premul_sse2)
-_sk_premul_sse2:
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_dst_sse2
-.globl _sk_premul_dst_sse2
-FUNCTION(_sk_premul_dst_sse2)
-_sk_premul_dst_sse2:
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_unpremul_sse2
-.globl _sk_unpremul_sse2
-FUNCTION(_sk_unpremul_sse2)
-_sk_unpremul_sse2:
- .byte 68,15,40,5,102,95,1,0 // movaps 0x15f66(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,94,195 // divps %xmm3,%xmm8
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 68,15,194,13,69,96,1,0,1 // cmpltps 0x16045(%rip),%xmm9 # 3d000 <_sk_srcover_bgra_8888_sse2_lowp+0xdb4>
- .byte 69,15,84,200 // andps %xmm8,%xmm9
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_sse2
-.globl _sk_force_opaque_sse2
-FUNCTION(_sk_force_opaque_sse2)
-_sk_force_opaque_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,56,95,1,0 // movaps 0x15f38(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_dst_sse2
-.globl _sk_force_opaque_dst_sse2
-FUNCTION(_sk_force_opaque_dst_sse2)
-_sk_force_opaque_dst_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,45,95,1,0 // movaps 0x15f2d(%rip),%xmm7 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_from_srgb_sse2
-.globl _sk_from_srgb_sse2
-FUNCTION(_sk_from_srgb_sse2)
-_sk_from_srgb_sse2:
- .byte 68,15,40,5,35,96,1,0 // movaps 0x16023(%rip),%xmm8 # 3d010 <_sk_srcover_bgra_8888_sse2_lowp+0xdc4>
- .byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 69,15,89,232 // mulps %xmm8,%xmm13
- .byte 68,15,40,216 // movaps %xmm0,%xmm11
- .byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,139,95,1,0 // movaps 0x15f8b(%rip),%xmm9 # 3cf90 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
- .byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,11,96,1,0 // movaps 0x1600b(%rip),%xmm10 # 3d020 <_sk_srcover_bgra_8888_sse2_lowp+0xdd4>
- .byte 69,15,88,242 // addps %xmm10,%xmm14
- .byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,11,96,1,0 // movaps 0x1600b(%rip),%xmm11 # 3d030 <_sk_srcover_bgra_8888_sse2_lowp+0xde4>
- .byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,15,96,1,0 // movaps 0x1600f(%rip),%xmm12 # 3d040 <_sk_srcover_bgra_8888_sse2_lowp+0xdf4>
- .byte 65,15,194,196,1 // cmpltps %xmm12,%xmm0
- .byte 68,15,84,232 // andps %xmm0,%xmm13
- .byte 65,15,85,198 // andnps %xmm14,%xmm0
- .byte 65,15,86,197 // orps %xmm13,%xmm0
- .byte 68,15,40,233 // movaps %xmm1,%xmm13
- .byte 69,15,89,232 // mulps %xmm8,%xmm13
- .byte 68,15,40,241 // movaps %xmm1,%xmm14
- .byte 69,15,89,246 // mulps %xmm14,%xmm14
- .byte 68,15,40,249 // movaps %xmm1,%xmm15
- .byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 69,15,88,250 // addps %xmm10,%xmm15
- .byte 69,15,89,254 // mulps %xmm14,%xmm15
- .byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 65,15,194,204,1 // cmpltps %xmm12,%xmm1
- .byte 68,15,84,233 // andps %xmm1,%xmm13
- .byte 65,15,85,207 // andnps %xmm15,%xmm1
- .byte 65,15,86,205 // orps %xmm13,%xmm1
- .byte 68,15,89,194 // mulps %xmm2,%xmm8
- .byte 68,15,40,234 // movaps %xmm2,%xmm13
- .byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,89,202 // mulps %xmm2,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 69,15,89,205 // mulps %xmm13,%xmm9
- .byte 69,15,88,203 // addps %xmm11,%xmm9
- .byte 65,15,194,212,1 // cmpltps %xmm12,%xmm2
- .byte 68,15,84,194 // andps %xmm2,%xmm8
- .byte 65,15,85,209 // andnps %xmm9,%xmm2
- .byte 65,15,86,208 // orps %xmm8,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_from_srgb_dst_sse2
-.globl _sk_from_srgb_dst_sse2
-FUNCTION(_sk_from_srgb_dst_sse2)
-_sk_from_srgb_dst_sse2:
- .byte 68,15,40,5,96,95,1,0 // movaps 0x15f60(%rip),%xmm8 # 3d010 <_sk_srcover_bgra_8888_sse2_lowp+0xdc4>
- .byte 68,15,40,236 // movaps %xmm4,%xmm13
- .byte 69,15,89,232 // mulps %xmm8,%xmm13
- .byte 68,15,40,220 // movaps %xmm4,%xmm11
- .byte 69,15,89,219 // mulps %xmm11,%xmm11
- .byte 68,15,40,13,200,94,1,0 // movaps 0x15ec8(%rip),%xmm9 # 3cf90 <_sk_srcover_bgra_8888_sse2_lowp+0xd44>
- .byte 68,15,40,244 // movaps %xmm4,%xmm14
- .byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,40,21,72,95,1,0 // movaps 0x15f48(%rip),%xmm10 # 3d020 <_sk_srcover_bgra_8888_sse2_lowp+0xdd4>
- .byte 69,15,88,242 // addps %xmm10,%xmm14
- .byte 69,15,89,243 // mulps %xmm11,%xmm14
- .byte 68,15,40,29,72,95,1,0 // movaps 0x15f48(%rip),%xmm11 # 3d030 <_sk_srcover_bgra_8888_sse2_lowp+0xde4>
- .byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,40,37,76,95,1,0 // movaps 0x15f4c(%rip),%xmm12 # 3d040 <_sk_srcover_bgra_8888_sse2_lowp+0xdf4>
- .byte 65,15,194,228,1 // cmpltps %xmm12,%xmm4
- .byte 68,15,84,236 // andps %xmm4,%xmm13
- .byte 65,15,85,230 // andnps %xmm14,%xmm4
- .byte 65,15,86,229 // orps %xmm13,%xmm4
- .byte 68,15,40,237 // movaps %xmm5,%xmm13
- .byte 69,15,89,232 // mulps %xmm8,%xmm13
- .byte 68,15,40,245 // movaps %xmm5,%xmm14
- .byte 69,15,89,246 // mulps %xmm14,%xmm14
- .byte 68,15,40,253 // movaps %xmm5,%xmm15
- .byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 69,15,88,250 // addps %xmm10,%xmm15
- .byte 69,15,89,254 // mulps %xmm14,%xmm15
- .byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 65,15,194,236,1 // cmpltps %xmm12,%xmm5
- .byte 68,15,84,237 // andps %xmm5,%xmm13
- .byte 65,15,85,239 // andnps %xmm15,%xmm5
- .byte 65,15,86,237 // orps %xmm13,%xmm5
- .byte 68,15,89,198 // mulps %xmm6,%xmm8
- .byte 68,15,40,238 // movaps %xmm6,%xmm13
- .byte 69,15,89,237 // mulps %xmm13,%xmm13
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 69,15,89,205 // mulps %xmm13,%xmm9
- .byte 69,15,88,203 // addps %xmm11,%xmm9
- .byte 65,15,194,244,1 // cmpltps %xmm12,%xmm6
- .byte 68,15,84,198 // andps %xmm6,%xmm8
- .byte 65,15,85,241 // andnps %xmm9,%xmm6
- .byte 65,15,86,240 // orps %xmm8,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_to_srgb_sse2
-.globl _sk_to_srgb_sse2
-FUNCTION(_sk_to_srgb_sse2)
-_sk_to_srgb_sse2:
- .byte 68,15,82,232 // rsqrtps %xmm0,%xmm13
- .byte 68,15,40,5,217,94,1,0 // movaps 0x15ed9(%rip),%xmm8 # 3d050 <_sk_srcover_bgra_8888_sse2_lowp+0xe04>
- .byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 69,15,89,240 // mulps %xmm8,%xmm14
- .byte 68,15,40,13,217,94,1,0 // movaps 0x15ed9(%rip),%xmm9 # 3d060 <_sk_srcover_bgra_8888_sse2_lowp+0xe14>
- .byte 69,15,40,253 // movaps %xmm13,%xmm15
- .byte 69,15,89,249 // mulps %xmm9,%xmm15
- .byte 68,15,40,21,217,94,1,0 // movaps 0x15ed9(%rip),%xmm10 # 3d070 <_sk_srcover_bgra_8888_sse2_lowp+0xe24>
- .byte 69,15,88,250 // addps %xmm10,%xmm15
- .byte 69,15,89,253 // mulps %xmm13,%xmm15
- .byte 68,15,40,29,217,94,1,0 // movaps 0x15ed9(%rip),%xmm11 # 3d080 <_sk_srcover_bgra_8888_sse2_lowp+0xe34>
- .byte 69,15,88,251 // addps %xmm11,%xmm15
- .byte 68,15,40,37,221,94,1,0 // movaps 0x15edd(%rip),%xmm12 # 3d090 <_sk_srcover_bgra_8888_sse2_lowp+0xe44>
- .byte 69,15,88,236 // addps %xmm12,%xmm13
- .byte 69,15,83,237 // rcpps %xmm13,%xmm13
- .byte 69,15,89,239 // mulps %xmm15,%xmm13
- .byte 68,15,40,61,217,94,1,0 // movaps 0x15ed9(%rip),%xmm15 # 3d0a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe54>
- .byte 65,15,194,199,1 // cmpltps %xmm15,%xmm0
- .byte 68,15,84,240 // andps %xmm0,%xmm14
- .byte 65,15,85,197 // andnps %xmm13,%xmm0
- .byte 65,15,86,198 // orps %xmm14,%xmm0
- .byte 68,15,82,233 // rsqrtps %xmm1,%xmm13
- .byte 69,15,40,245 // movaps %xmm13,%xmm14
- .byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 69,15,88,242 // addps %xmm10,%xmm14
- .byte 69,15,89,245 // mulps %xmm13,%xmm14
- .byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 69,15,88,236 // addps %xmm12,%xmm13
- .byte 69,15,83,237 // rcpps %xmm13,%xmm13
- .byte 69,15,89,238 // mulps %xmm14,%xmm13
- .byte 68,15,40,241 // movaps %xmm1,%xmm14
- .byte 69,15,89,240 // mulps %xmm8,%xmm14
- .byte 65,15,194,207,1 // cmpltps %xmm15,%xmm1
- .byte 68,15,84,241 // andps %xmm1,%xmm14
- .byte 65,15,85,205 // andnps %xmm13,%xmm1
- .byte 65,15,86,206 // orps %xmm14,%xmm1
- .byte 68,15,82,234 // rsqrtps %xmm2,%xmm13
- .byte 69,15,89,205 // mulps %xmm13,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 69,15,89,205 // mulps %xmm13,%xmm9
- .byte 69,15,88,203 // addps %xmm11,%xmm9
- .byte 69,15,88,236 // addps %xmm12,%xmm13
- .byte 69,15,83,213 // rcpps %xmm13,%xmm10
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,89,194 // mulps %xmm2,%xmm8
- .byte 65,15,194,215,1 // cmpltps %xmm15,%xmm2
- .byte 68,15,84,194 // andps %xmm2,%xmm8
- .byte 65,15,85,210 // andnps %xmm10,%xmm2
- .byte 65,15,86,208 // orps %xmm8,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_rgb_to_hsl_sse2
-.globl _sk_rgb_to_hsl_sse2
-FUNCTION(_sk_rgb_to_hsl_sse2)
-_sk_rgb_to_hsl_sse2:
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 15,95,194 // maxps %xmm2,%xmm0
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 68,15,95,208 // maxps %xmm0,%xmm10
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 15,93,194 // minps %xmm2,%xmm0
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,93,216 // minps %xmm0,%xmm11
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 68,15,40,45,140,92,1,0 // movaps 0x15c8c(%rip),%xmm13 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,94,233 // divps %xmm1,%xmm13
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 65,15,194,192,0 // cmpeqps %xmm8,%xmm0
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 68,15,92,226 // subps %xmm2,%xmm12
- .byte 69,15,89,229 // mulps %xmm13,%xmm12
- .byte 69,15,40,241 // movaps %xmm9,%xmm14
- .byte 68,15,194,242,1 // cmpltps %xmm2,%xmm14
- .byte 68,15,84,53,2,94,1,0 // andps 0x15e02(%rip),%xmm14 # 3d0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe64>
- .byte 69,15,88,244 // addps %xmm12,%xmm14
- .byte 69,15,40,250 // movaps %xmm10,%xmm15
- .byte 69,15,194,249,0 // cmpeqps %xmm9,%xmm15
- .byte 65,15,92,208 // subps %xmm8,%xmm2
- .byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 68,15,40,37,245,93,1,0 // movaps 0x15df5(%rip),%xmm12 # 3d0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe74>
- .byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 69,15,89,197 // mulps %xmm13,%xmm8
- .byte 68,15,88,5,241,93,1,0 // addps 0x15df1(%rip),%xmm8 # 3d0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe84>
- .byte 65,15,84,215 // andps %xmm15,%xmm2
- .byte 69,15,85,248 // andnps %xmm8,%xmm15
- .byte 68,15,86,250 // orps %xmm2,%xmm15
- .byte 68,15,84,240 // andps %xmm0,%xmm14
- .byte 65,15,85,199 // andnps %xmm15,%xmm0
- .byte 65,15,86,198 // orps %xmm14,%xmm0
- .byte 15,89,5,226,93,1,0 // mulps 0x15de2(%rip),%xmm0 # 3d0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe94>
- .byte 69,15,40,194 // movaps %xmm10,%xmm8
- .byte 69,15,194,195,4 // cmpneqps %xmm11,%xmm8
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 69,15,92,226 // subps %xmm10,%xmm12
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 68,15,40,13,229,91,1,0 // movaps 0x15be5(%rip),%xmm9 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 68,15,194,202,1 // cmpltps %xmm2,%xmm9
- .byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 69,15,84,225 // andps %xmm9,%xmm12
- .byte 69,15,85,202 // andnps %xmm10,%xmm9
- .byte 69,15,86,204 // orps %xmm12,%xmm9
- .byte 65,15,94,201 // divps %xmm9,%xmm1
- .byte 65,15,84,200 // andps %xmm8,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hsl_to_rgb_sse2
-.globl _sk_hsl_to_rgb_sse2
-FUNCTION(_sk_hsl_to_rgb_sse2)
-_sk_hsl_to_rgb_sse2:
- .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp)
- .byte 15,41,108,36,200 // movaps %xmm5,-0x38(%rsp)
- .byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
- .byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
- .byte 68,15,40,218 // movaps %xmm2,%xmm11
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,13,148,91,1,0 // movaps 0x15b94(%rip),%xmm9 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 69,15,40,209 // movaps %xmm9,%xmm10
- .byte 69,15,194,211,2 // cmpleps %xmm11,%xmm10
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,194,217,0 // cmpeqps %xmm1,%xmm3
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 15,41,124,36,136 // movaps %xmm7,-0x78(%rsp)
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 65,15,84,194 // andps %xmm10,%xmm0
- .byte 68,15,85,209 // andnps %xmm1,%xmm10
- .byte 68,15,86,208 // orps %xmm0,%xmm10
- .byte 68,15,41,92,36,152 // movaps %xmm11,-0x68(%rsp)
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 69,15,88,219 // addps %xmm11,%xmm11
- .byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 15,40,5,61,93,1,0 // movaps 0x15d3d(%rip),%xmm0 # 3d0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xea4>
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 15,194,217,1 // cmpltps %xmm1,%xmm3
- .byte 15,84,29,69,91,1,0 // andps 0x15b45(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 68,15,40,45,39,93,1,0 // movaps 0x15d27(%rip),%xmm13 # 3d100 <_sk_srcover_bgra_8888_sse2_lowp+0xeb4>
- .byte 69,15,40,197 // movaps %xmm13,%xmm8
- .byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
- .byte 69,15,40,242 // movaps %xmm10,%xmm14
- .byte 69,15,92,243 // subps %xmm11,%xmm14
- .byte 65,15,40,217 // movaps %xmm9,%xmm3
- .byte 15,194,216,2 // cmpleps %xmm0,%xmm3
- .byte 15,40,21,231,92,1,0 // movaps 0x15ce7(%rip),%xmm2 # 3d0e0 <_sk_srcover_bgra_8888_sse2_lowp+0xe94>
- .byte 68,15,40,250 // movaps %xmm2,%xmm15
- .byte 68,15,194,248,2 // cmpleps %xmm0,%xmm15
- .byte 15,40,13,167,92,1,0 // movaps 0x15ca7(%rip),%xmm1 # 3d0b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe64>
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,45,189,92,1,0 // movaps 0x15cbd(%rip),%xmm5 # 3d0d0 <_sk_srcover_bgra_8888_sse2_lowp+0xe84>
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 65,15,89,230 // mulps %xmm14,%xmm4
- .byte 65,15,88,227 // addps %xmm11,%xmm4
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 69,15,84,224 // andps %xmm8,%xmm12
- .byte 68,15,85,196 // andnps %xmm4,%xmm8
- .byte 69,15,86,196 // orps %xmm12,%xmm8
- .byte 68,15,84,195 // andps %xmm3,%xmm8
- .byte 65,15,85,218 // andnps %xmm10,%xmm3
- .byte 65,15,86,216 // orps %xmm8,%xmm3
- .byte 65,15,89,198 // mulps %xmm14,%xmm0
- .byte 65,15,88,195 // addps %xmm11,%xmm0
- .byte 65,15,84,223 // andps %xmm15,%xmm3
- .byte 68,15,85,248 // andnps %xmm0,%xmm15
- .byte 68,15,86,251 // orps %xmm3,%xmm15
- .byte 68,15,40,199 // movaps %xmm7,%xmm8
- .byte 69,15,85,199 // andnps %xmm15,%xmm8
- .byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,162,90,1,0 // andps 0x15aa2(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 68,15,40,230 // movaps %xmm6,%xmm12
- .byte 68,15,92,224 // subps %xmm0,%xmm12
- .byte 69,15,40,253 // movaps %xmm13,%xmm15
- .byte 69,15,194,252,2 // cmpleps %xmm12,%xmm15
- .byte 65,15,40,225 // movaps %xmm9,%xmm4
- .byte 65,15,194,228,2 // cmpleps %xmm12,%xmm4
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 65,15,194,220,2 // cmpleps %xmm12,%xmm3
- .byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 65,15,92,196 // subps %xmm12,%xmm0
- .byte 65,15,89,198 // mulps %xmm14,%xmm0
- .byte 65,15,88,195 // addps %xmm11,%xmm0
- .byte 65,15,40,251 // movaps %xmm11,%xmm7
- .byte 65,15,84,255 // andps %xmm15,%xmm7
- .byte 68,15,85,248 // andnps %xmm0,%xmm15
- .byte 68,15,86,255 // orps %xmm7,%xmm15
- .byte 68,15,84,252 // andps %xmm4,%xmm15
- .byte 65,15,85,226 // andnps %xmm10,%xmm4
- .byte 65,15,86,231 // orps %xmm15,%xmm4
- .byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 69,15,88,227 // addps %xmm11,%xmm12
- .byte 15,84,227 // andps %xmm3,%xmm4
- .byte 65,15,85,220 // andnps %xmm12,%xmm3
- .byte 15,86,220 // orps %xmm4,%xmm3
- .byte 15,40,124,36,136 // movaps -0x78(%rsp),%xmm7
- .byte 15,40,231 // movaps %xmm7,%xmm4
- .byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,88,53,42,92,1,0 // addps 0x15c2a(%rip),%xmm6 # 3d110 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
- .byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,29,21,90,1,0 // andps 0x15a15(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,92,240 // subps %xmm0,%xmm6
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 65,15,89,238 // mulps %xmm14,%xmm5
- .byte 65,15,89,206 // mulps %xmm14,%xmm1
- .byte 65,15,88,235 // addps %xmm11,%xmm5
- .byte 65,15,88,203 // addps %xmm11,%xmm1
- .byte 68,15,194,238,2 // cmpleps %xmm6,%xmm13
- .byte 69,15,84,221 // andps %xmm13,%xmm11
- .byte 68,15,85,237 // andnps %xmm5,%xmm13
- .byte 69,15,86,235 // orps %xmm11,%xmm13
- .byte 68,15,194,206,2 // cmpleps %xmm6,%xmm9
- .byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 69,15,85,202 // andnps %xmm10,%xmm9
- .byte 69,15,86,205 // orps %xmm13,%xmm9
- .byte 15,194,214,2 // cmpleps %xmm6,%xmm2
- .byte 68,15,84,202 // andps %xmm2,%xmm9
- .byte 15,85,209 // andnps %xmm1,%xmm2
- .byte 65,15,86,209 // orps %xmm9,%xmm2
- .byte 15,40,68,36,152 // movaps -0x68(%rsp),%xmm0
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,84,193 // andps %xmm1,%xmm0
- .byte 15,85,202 // andnps %xmm2,%xmm1
- .byte 68,15,86,192 // orps %xmm0,%xmm8
- .byte 15,86,224 // orps %xmm0,%xmm4
- .byte 15,86,193 // orps %xmm1,%xmm0
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,40,92,36,168 // movaps -0x58(%rsp),%xmm3
- .byte 15,40,100,36,184 // movaps -0x48(%rsp),%xmm4
- .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5
- .byte 15,40,116,36,216 // movaps -0x28(%rsp),%xmm6
- .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_1_float_sse2
-.globl _sk_scale_1_float_sse2
-FUNCTION(_sk_scale_1_float_sse2)
-_sk_scale_1_float_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_u8_sse2
-.globl _sk_scale_u8_sse2
-FUNCTION(_sk_scale_u8_sse2)
-_sk_scale_u8_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,61 // jne 275f6 <_sk_scale_u8_sse2+0x4f>
- .byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
- .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,238,89,1,0 // pand 0x159ee(%rip),%xmm8 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,66,91,1,0 // mulps 0x15b42(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,216 // movaps %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,57 // je 27637 <_sk_scale_u8_sse2+0x90>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 60,2 // cmp $0x2,%al
- .byte 116,21 // je 2761c <_sk_scale_u8_sse2+0x75>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,190 // jne 275c9 <_sk_scale_u8_sse2+0x22>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
- .byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
- .byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 235,146 // jmp 275c9 <_sk_scale_u8_sse2+0x22>
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,134 // jmp 275c9 <_sk_scale_u8_sse2+0x22>
-
-HIDDEN _sk_scale_565_sse2
-.globl _sk_scale_565_sse2
-FUNCTION(_sk_scale_565_sse2)
-_sk_scale_565_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 27709 <_sk_scale_565_sse2+0xc6>
- .byte 243,69,15,126,20,80 // movq (%r8,%rdx,2),%xmm10
- .byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
- .byte 102,68,15,111,5,192,90,1,0 // movdqa 0x15ac0(%rip),%xmm8 # 3d130 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,69,15,219,194 // pand %xmm10,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,191,90,1,0 // mulps 0x15abf(%rip),%xmm8 # 3d140 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
- .byte 102,68,15,111,13,198,90,1,0 // movdqa 0x15ac6(%rip),%xmm9 # 3d150 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,69,15,219,202 // pand %xmm10,%xmm9
- .byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,197,90,1,0 // mulps 0x15ac5(%rip),%xmm9 # 3d160 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
- .byte 102,68,15,219,21,204,90,1,0 // pand 0x15acc(%rip),%xmm10 # 3d170 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
- .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 68,15,89,21,208,90,1,0 // mulps 0x15ad0(%rip),%xmm10 # 3d180 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
- .byte 68,15,40,219 // movaps %xmm3,%xmm11
- .byte 68,15,194,223,1 // cmpltps %xmm7,%xmm11
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,40,232 // movaps %xmm8,%xmm13
- .byte 69,15,93,236 // minps %xmm12,%xmm13
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 69,15,95,226 // maxps %xmm10,%xmm12
- .byte 69,15,40,240 // movaps %xmm8,%xmm14
- .byte 69,15,95,244 // maxps %xmm12,%xmm14
- .byte 69,15,84,235 // andps %xmm11,%xmm13
- .byte 69,15,85,222 // andnps %xmm14,%xmm11
- .byte 69,15,86,221 // orps %xmm13,%xmm11
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 68,15,89,219 // mulps %xmm3,%xmm11
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,40,219 // movaps %xmm11,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,56 // je 27749 <_sk_scale_565_sse2+0x106>
- .byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 60,2 // cmp $0x2,%al
- .byte 116,25 // je 27733 <_sk_scale_565_sse2+0xf0>
- .byte 60,3 // cmp $0x3,%al
- .byte 15,133,69,255,255,255 // jne 27667 <_sk_scale_565_sse2+0x24>
- .byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,112,208,69 // pshufd $0x45,%xmm8,%xmm10
- .byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8
- .byte 242,69,15,112,192,212 // pshuflw $0xd4,%xmm8,%xmm8
- .byte 242,69,15,16,208 // movsd %xmm8,%xmm10
- .byte 233,30,255,255,255 // jmpq 27667 <_sk_scale_565_sse2+0x24>
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,68,15,110,208 // movd %eax,%xmm10
- .byte 233,15,255,255,255 // jmpq 27667 <_sk_scale_565_sse2+0x24>
-
-HIDDEN _sk_lerp_1_float_sse2
-.globl _sk_lerp_1_float_sse2
-FUNCTION(_sk_lerp_1_float_sse2)
-_sk_lerp_1_float_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 15,92,223 // subps %xmm7,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lerp_u8_sse2
-.globl _sk_lerp_u8_sse2
-FUNCTION(_sk_lerp_u8_sse2)
-_sk_lerp_u8_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,81 // jne 277f3 <_sk_lerp_u8_sse2+0x63>
- .byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
- .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,219,5,5,88,1,0 // pand 0x15805(%rip),%xmm8 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,89,89,1,0 // mulps 0x15959(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 15,92,223 // subps %xmm7,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,60 // je 27837 <_sk_lerp_u8_sse2+0xa7>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 60,2 // cmp $0x2,%al
- .byte 116,21 // je 27819 <_sk_lerp_u8_sse2+0x89>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,170 // jne 277b2 <_sk_lerp_u8_sse2+0x22>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
- .byte 102,68,15,97,200 // punpcklwd %xmm0,%xmm9
- .byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,123,255,255,255 // jmpq 277b2 <_sk_lerp_u8_sse2+0x22>
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,108,255,255,255 // jmpq 277b2 <_sk_lerp_u8_sse2+0x22>
-
-HIDDEN _sk_lerp_565_sse2
-.globl _sk_lerp_565_sse2
-FUNCTION(_sk_lerp_565_sse2)
-_sk_lerp_565_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,173,0,0,0 // jne 2790c <_sk_lerp_565_sse2+0xc6>
- .byte 243,69,15,126,4,80 // movq (%r8,%rdx,2),%xmm8
- .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 102,68,15,111,13,189,88,1,0 // movdqa 0x158bd(%rip),%xmm9 # 3d130 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,69,15,219,200 // pand %xmm8,%xmm9
- .byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 68,15,89,13,188,88,1,0 // mulps 0x158bc(%rip),%xmm9 # 3d140 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
- .byte 102,68,15,111,21,195,88,1,0 // movdqa 0x158c3(%rip),%xmm10 # 3d150 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,69,15,219,208 // pand %xmm8,%xmm10
- .byte 69,15,91,218 // cvtdq2ps %xmm10,%xmm11
- .byte 68,15,89,29,194,88,1,0 // mulps 0x158c2(%rip),%xmm11 # 3d160 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
- .byte 102,68,15,219,5,201,88,1,0 // pand 0x158c9(%rip),%xmm8 # 3d170 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,89,5,205,88,1,0 // mulps 0x158cd(%rip),%xmm8 # 3d180 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 68,15,194,215,1 // cmpltps %xmm7,%xmm10
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 69,15,93,216 // minps %xmm8,%xmm11
- .byte 69,15,40,233 // movaps %xmm9,%xmm13
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 69,15,93,203 // minps %xmm11,%xmm9
- .byte 69,15,95,224 // maxps %xmm8,%xmm12
- .byte 69,15,95,236 // maxps %xmm12,%xmm13
- .byte 69,15,84,202 // andps %xmm10,%xmm9
- .byte 69,15,85,213 // andnps %xmm13,%xmm10
- .byte 69,15,86,209 // orps %xmm9,%xmm10
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 15,92,223 // subps %xmm7,%xmm3
- .byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,56 // je 2794c <_sk_lerp_565_sse2+0x106>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 60,2 // cmp $0x2,%al
- .byte 116,25 // je 27936 <_sk_lerp_565_sse2+0xf0>
- .byte 60,3 // cmp $0x3,%al
- .byte 15,133,69,255,255,255 // jne 2786a <_sk_lerp_565_sse2+0x24>
- .byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,112,192,69 // pshufd $0x45,%xmm8,%xmm8
- .byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
- .byte 242,69,15,112,201,212 // pshuflw $0xd4,%xmm9,%xmm9
- .byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 233,30,255,255,255 // jmpq 2786a <_sk_lerp_565_sse2+0x24>
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 233,15,255,255,255 // jmpq 2786a <_sk_lerp_565_sse2+0x24>
-
-HIDDEN _sk_load_tables_sse2
-.globl _sk_load_tables_sse2
-FUNCTION(_sk_load_tables_sse2)
-_sk_load_tables_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,34,1,0,0 // jne 27a8b <_sk_load_tables_sse2+0x130>
- .byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 102,68,15,111,5,69,86,1,0 // movdqa 0x15645(%rip),%xmm8 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,65,15,219,192 // pand %xmm8,%xmm0
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,73,15,126,200 // movq %xmm1,%r8
- .byte 102,73,15,126,193 // movq %xmm0,%r9
- .byte 69,15,182,209 // movzbl %r9b,%r10d
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 69,15,182,216 // movzbl %r8b,%r11d
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 72,139,88,8 // mov 0x8(%rax),%rbx
- .byte 76,139,112,16 // mov 0x10(%rax),%r14
- .byte 243,66,15,16,12,11 // movss (%rbx,%r9,1),%xmm1
- .byte 243,66,15,16,4,147 // movss (%rbx,%r10,4),%xmm0
- .byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 243,66,15,16,12,3 // movss (%rbx,%r8,1),%xmm1
- .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 102,15,20,194 // unpcklpd %xmm2,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,73,15,126,208 // movq %xmm2,%r8
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 68,15,182,203 // movzbl %bl,%r9d
- .byte 72,193,235,30 // shr $0x1e,%rbx
- .byte 69,15,182,208 // movzbl %r8b,%r10d
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 243,65,15,16,20,30 // movss (%r14,%rbx,1),%xmm2
- .byte 243,67,15,16,12,142 // movss (%r14,%r9,4),%xmm1
- .byte 15,20,202 // unpcklps %xmm2,%xmm1
- .byte 243,67,15,16,20,6 // movss (%r14,%r8,1),%xmm2
- .byte 243,67,15,16,28,150 // movss (%r14,%r10,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 76,139,64,24 // mov 0x18(%rax),%r8
- .byte 102,65,15,111,209 // movdqa %xmm9,%xmm2
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,65,15,219,208 // pand %xmm8,%xmm2
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,72,15,126,219 // movq %xmm3,%rbx
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 68,15,182,200 // movzbl %al,%r9d
- .byte 72,193,232,30 // shr $0x1e,%rax
- .byte 68,15,182,211 // movzbl %bl,%r10d
- .byte 72,193,235,30 // shr $0x1e,%rbx
- .byte 243,65,15,16,28,0 // movss (%r8,%rax,1),%xmm3
- .byte 243,67,15,16,20,136 // movss (%r8,%r9,4),%xmm2
- .byte 15,20,211 // unpcklps %xmm3,%xmm2
- .byte 243,69,15,16,4,24 // movss (%r8,%rbx,1),%xmm8
- .byte 243,67,15,16,28,144 // movss (%r8,%r10,4),%xmm3
- .byte 65,15,20,216 // unpcklps %xmm8,%xmm3
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
- .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,156,86,1,0 // mulps 0x1569c(%rip),%xmm3 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 255,224 // jmpq *%rax
- .byte 65,137,249 // mov %edi,%r9d
- .byte 65,128,225,3 // and $0x3,%r9b
- .byte 65,128,249,1 // cmp $0x1,%r9b
- .byte 116,45 // je 27ac5 <_sk_load_tables_sse2+0x16a>
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 65,128,249,2 // cmp $0x2,%r9b
- .byte 116,23 // je 27aba <_sk_load_tables_sse2+0x15f>
- .byte 65,128,249,3 // cmp $0x3,%r9b
- .byte 15,133,194,254,255,255 // jne 2796f <_sk_load_tables_sse2+0x14>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
- .byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,170,254,255,255 // jmpq 2796f <_sk_load_tables_sse2+0x14>
- .byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,159,254,255,255 // jmpq 2796f <_sk_load_tables_sse2+0x14>
-
-HIDDEN _sk_load_tables_u16_be_sse2
-.globl _sk_load_tables_u16_be_sse2
-FUNCTION(_sk_load_tables_u16_be_sse2)
-_sk_load_tables_u16_be_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 76,141,12,149,0,0,0,0 // lea 0x0(,%rdx,4),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,93,1,0,0 // jne 27c43 <_sk_load_tables_u16_be_sse2+0x173>
- .byte 102,67,15,16,4,72 // movupd (%r8,%r9,2),%xmm0
- .byte 243,67,15,111,76,72,16 // movdqu 0x10(%r8,%r9,2),%xmm1
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 102,68,15,40,200 // movapd %xmm0,%xmm9
- .byte 102,68,15,97,201 // punpcklwd %xmm1,%xmm9
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,68,15,105,200 // punpckhwd %xmm0,%xmm9
- .byte 102,15,111,21,118,86,1,0 // movdqa 0x15676(%rip),%xmm2 # 3d190 <_sk_srcover_bgra_8888_sse2_lowp+0xf44>
- .byte 102,15,112,217,238 // pshufd $0xee,%xmm1,%xmm3
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,73,15,126,192 // movq %xmm0,%r8
- .byte 102,73,15,126,201 // movq %xmm1,%r9
- .byte 69,15,182,209 // movzbl %r9b,%r10d
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 69,15,182,216 // movzbl %r8b,%r11d
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 72,139,88,8 // mov 0x8(%rax),%rbx
- .byte 76,139,112,16 // mov 0x10(%rax),%r14
- .byte 243,66,15,16,12,11 // movss (%rbx,%r9,1),%xmm1
- .byte 243,66,15,16,4,147 // movss (%rbx,%r10,4),%xmm0
- .byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 243,70,15,16,20,3 // movss (%rbx,%r8,1),%xmm10
- .byte 243,66,15,16,12,155 // movss (%rbx,%r11,4),%xmm1
- .byte 65,15,20,202 // unpcklps %xmm10,%xmm1
- .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
- .byte 102,15,219,218 // pand %xmm2,%xmm3
- .byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
- .byte 102,15,112,203,78 // pshufd $0x4e,%xmm3,%xmm1
- .byte 102,73,15,126,200 // movq %xmm1,%r8
- .byte 102,72,15,126,219 // movq %xmm3,%rbx
- .byte 68,15,182,203 // movzbl %bl,%r9d
- .byte 72,193,235,30 // shr $0x1e,%rbx
- .byte 69,15,182,208 // movzbl %r8b,%r10d
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 243,65,15,16,28,30 // movss (%r14,%rbx,1),%xmm3
- .byte 243,67,15,16,12,142 // movss (%r14,%r9,4),%xmm1
- .byte 15,20,203 // unpcklps %xmm3,%xmm1
- .byte 243,71,15,16,20,6 // movss (%r14,%r8,1),%xmm10
- .byte 243,67,15,16,28,150 // movss (%r14,%r10,4),%xmm3
- .byte 65,15,20,218 // unpcklps %xmm10,%xmm3
- .byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 76,139,64,24 // mov 0x18(%rax),%r8
- .byte 102,65,15,219,209 // pand %xmm9,%xmm2
- .byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,72,15,126,219 // movq %xmm3,%rbx
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 68,15,182,200 // movzbl %al,%r9d
- .byte 72,193,232,30 // shr $0x1e,%rax
- .byte 68,15,182,211 // movzbl %bl,%r10d
- .byte 72,193,235,30 // shr $0x1e,%rbx
- .byte 243,65,15,16,28,0 // movss (%r8,%rax,1),%xmm3
- .byte 243,67,15,16,20,136 // movss (%r8,%r9,4),%xmm2
- .byte 15,20,211 // unpcklps %xmm3,%xmm2
- .byte 243,69,15,16,20,24 // movss (%r8,%rbx,1),%xmm10
- .byte 243,67,15,16,28,144 // movss (%r8,%r10,4),%xmm3
- .byte 65,15,20,218 // unpcklps %xmm10,%xmm3
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 102,65,15,112,217,78 // pshufd $0x4e,%xmm9,%xmm3
- .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
- .byte 102,65,15,113,241,8 // psllw $0x8,%xmm9
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,65,15,235,217 // por %xmm9,%xmm3
- .byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,116,85,1,0 // mulps 0x15574(%rip),%xmm3 # 3d1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 255,224 // jmpq *%rax
- .byte 242,67,15,16,4,72 // movsd (%r8,%r9,2),%xmm0
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 27c5c <_sk_load_tables_u16_be_sse2+0x18c>
- .byte 243,15,126,192 // movq %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,151,254,255,255 // jmpq 27af3 <_sk_load_tables_u16_be_sse2+0x23>
- .byte 102,67,15,22,68,72,8 // movhpd 0x8(%r8,%r9,2),%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,130,254,255,255 // jb 27af3 <_sk_load_tables_u16_be_sse2+0x23>
- .byte 243,67,15,126,76,72,16 // movq 0x10(%r8,%r9,2),%xmm1
- .byte 233,118,254,255,255 // jmpq 27af3 <_sk_load_tables_u16_be_sse2+0x23>
-
-HIDDEN _sk_load_tables_rgb_u16_be_sse2
-.globl _sk_load_tables_rgb_u16_be_sse2
-FUNCTION(_sk_load_tables_rgb_u16_be_sse2)
-_sk_load_tables_rgb_u16_be_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 76,141,12,82 // lea (%rdx,%rdx,2),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,81,1,0,0 // jne 27de0 <_sk_load_tables_rgb_u16_be_sse2+0x163>
- .byte 243,67,15,111,20,72 // movdqu (%r8,%r9,2),%xmm2
- .byte 243,67,15,111,76,72,8 // movdqu 0x8(%r8,%r9,2),%xmm1
- .byte 102,15,115,217,4 // psrldq $0x4,%xmm1
- .byte 102,68,15,111,210 // movdqa %xmm2,%xmm10
- .byte 102,65,15,115,218,6 // psrldq $0x6,%xmm10
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,115,216,6 // psrldq $0x6,%xmm0
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 102,68,15,97,208 // punpcklwd %xmm0,%xmm10
- .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,65,15,97,194 // punpcklwd %xmm10,%xmm0
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,68,15,111,5,184,84,1,0 // movdqa 0x154b8(%rip),%xmm8 # 3d190 <_sk_srcover_bgra_8888_sse2_lowp+0xf44>
- .byte 102,65,15,219,192 // pand %xmm8,%xmm0
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,65,15,97,193 // punpcklwd %xmm9,%xmm0
- .byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
- .byte 102,73,15,126,216 // movq %xmm3,%r8
- .byte 102,73,15,126,193 // movq %xmm0,%r9
- .byte 69,15,182,209 // movzbl %r9b,%r10d
- .byte 73,193,233,30 // shr $0x1e,%r9
- .byte 69,15,182,216 // movzbl %r8b,%r11d
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 72,139,88,8 // mov 0x8(%rax),%rbx
- .byte 76,139,112,16 // mov 0x10(%rax),%r14
- .byte 243,66,15,16,28,11 // movss (%rbx,%r9,1),%xmm3
- .byte 243,66,15,16,4,147 // movss (%rbx,%r10,4),%xmm0
- .byte 15,20,195 // unpcklps %xmm3,%xmm0
- .byte 243,70,15,16,28,3 // movss (%rbx,%r8,1),%xmm11
- .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3
- .byte 65,15,20,219 // unpcklps %xmm11,%xmm3
- .byte 102,15,20,195 // unpcklpd %xmm3,%xmm0
- .byte 102,65,15,219,200 // pand %xmm8,%xmm1
- .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,73,15,126,216 // movq %xmm3,%r8
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 68,15,182,203 // movzbl %bl,%r9d
- .byte 72,193,235,30 // shr $0x1e,%rbx
- .byte 69,15,182,208 // movzbl %r8b,%r10d
- .byte 73,193,232,30 // shr $0x1e,%r8
- .byte 243,65,15,16,28,30 // movss (%r14,%rbx,1),%xmm3
- .byte 243,67,15,16,12,142 // movss (%r14,%r9,4),%xmm1
- .byte 15,20,203 // unpcklps %xmm3,%xmm1
- .byte 243,71,15,16,28,6 // movss (%r14,%r8,1),%xmm11
- .byte 243,67,15,16,28,150 // movss (%r14,%r10,4),%xmm3
- .byte 65,15,20,219 // unpcklps %xmm11,%xmm3
- .byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 76,139,64,24 // mov 0x18(%rax),%r8
- .byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
- .byte 102,65,15,219,208 // pand %xmm8,%xmm2
- .byte 102,65,15,97,209 // punpcklwd %xmm9,%xmm2
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,72,15,126,219 // movq %xmm3,%rbx
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 68,15,182,200 // movzbl %al,%r9d
- .byte 72,193,232,30 // shr $0x1e,%rax
- .byte 68,15,182,211 // movzbl %bl,%r10d
- .byte 72,193,235,30 // shr $0x1e,%rbx
- .byte 243,65,15,16,28,0 // movss (%r8,%rax,1),%xmm3
- .byte 243,67,15,16,20,136 // movss (%r8,%r9,4),%xmm2
- .byte 15,20,211 // unpcklps %xmm3,%xmm2
- .byte 243,69,15,16,4,24 // movss (%r8,%rbx,1),%xmm8
- .byte 243,67,15,16,28,144 // movss (%r8,%r10,4),%xmm3
- .byte 65,15,20,216 // unpcklps %xmm8,%xmm3
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,53,81,1,0 // movaps 0x15135(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 255,224 // jmpq *%rax
- .byte 102,67,15,110,20,72 // movd (%r8,%r9,2),%xmm2
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,67,15,196,84,72,4,2 // pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,14 // jne 27e06 <_sk_load_tables_rgb_u16_be_sse2+0x189>
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 233,175,254,255,255 // jmpq 27cb5 <_sk_load_tables_rgb_u16_be_sse2+0x38>
- .byte 102,71,15,110,84,72,6 // movd 0x6(%r8,%r9,2),%xmm10
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,71,15,196,84,72,10,2 // pinsrw $0x2,0xa(%r8,%r9,2),%xmm10
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 27e37 <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
- .byte 102,67,15,110,76,72,12 // movd 0xc(%r8,%r9,2),%xmm1
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,67,15,196,76,72,16,2 // pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- .byte 233,126,254,255,255 // jmpq 27cb5 <_sk_load_tables_rgb_u16_be_sse2+0x38>
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,117,254,255,255 // jmpq 27cb5 <_sk_load_tables_rgb_u16_be_sse2+0x38>
-
-HIDDEN _sk_byte_tables_sse2
-.globl _sk_byte_tables_sse2
-FUNCTION(_sk_byte_tables_sse2)
-_sk_byte_tables_sse2:
- .byte 85 // push %rbp
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,13,181,80,1,0 // movaps 0x150b5(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,217 // minps %xmm9,%xmm11
- .byte 68,15,40,21,137,81,1,0 // movaps 0x15189(%rip),%xmm10 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 69,15,89,218 // mulps %xmm10,%xmm11
- .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
- .byte 102,73,15,126,192 // movq %xmm0,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 77,137,194 // mov %r8,%r10
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,73,15,126,192 // movq %xmm0,%r8
- .byte 69,137,195 // mov %r8d,%r11d
- .byte 77,137,198 // mov %r8,%r14
- .byte 73,193,238,32 // shr $0x20,%r14
- .byte 72,139,24 // mov (%rax),%rbx
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 70,15,182,28,27 // movzbl (%rbx,%r11,1),%r11d
- .byte 66,15,182,44,51 // movzbl (%rbx,%r14,1),%ebp
- .byte 193,229,8 // shl $0x8,%ebp
- .byte 68,9,221 // or %r11d,%ebp
- .byte 70,15,182,12,11 // movzbl (%rbx,%r9,1),%r9d
- .byte 66,15,182,28,19 // movzbl (%rbx,%r10,1),%ebx
- .byte 193,227,8 // shl $0x8,%ebx
- .byte 68,9,203 // or %r9d,%ebx
- .byte 102,15,110,195 // movd %ebx,%xmm0
- .byte 102,15,196,197,1 // pinsrw $0x1,%ebp,%xmm0
- .byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
- .byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,72,82,1,0 // movaps 0x15248(%rip),%xmm11 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,195 // mulps %xmm11,%xmm0
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,225 // minps %xmm9,%xmm12
- .byte 69,15,89,226 // mulps %xmm10,%xmm12
- .byte 102,65,15,91,204 // cvtps2dq %xmm12,%xmm1
- .byte 102,72,15,126,205 // movq %xmm1,%rbp
- .byte 65,137,233 // mov %ebp,%r9d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 102,15,112,201,78 // pshufd $0x4e,%xmm1,%xmm1
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 65,137,218 // mov %ebx,%r10d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 65,15,182,28,24 // movzbl (%r8,%rbx,1),%ebx
- .byte 193,227,8 // shl $0x8,%ebx
- .byte 68,9,211 // or %r10d,%ebx
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 65,15,182,44,40 // movzbl (%r8,%rbp,1),%ebp
- .byte 193,229,8 // shl $0x8,%ebp
- .byte 68,9,205 // or %r9d,%ebp
- .byte 102,15,110,205 // movd %ebp,%xmm1
- .byte 102,15,196,203,1 // pinsrw $0x1,%ebx,%xmm1
- .byte 102,65,15,96,200 // punpcklbw %xmm8,%xmm1
- .byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,226 // maxps %xmm2,%xmm12
- .byte 69,15,93,225 // minps %xmm9,%xmm12
- .byte 69,15,89,226 // mulps %xmm10,%xmm12
- .byte 102,65,15,91,212 // cvtps2dq %xmm12,%xmm2
- .byte 102,72,15,126,211 // movq %xmm2,%rbx
- .byte 65,137,216 // mov %ebx,%r8d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,15,112,210,78 // pshufd $0x4e,%xmm2,%xmm2
- .byte 102,72,15,126,213 // movq %xmm2,%rbp
- .byte 65,137,234 // mov %ebp,%r10d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 71,15,182,20,17 // movzbl (%r9,%r10,1),%r10d
- .byte 65,15,182,44,41 // movzbl (%r9,%rbp,1),%ebp
- .byte 193,229,8 // shl $0x8,%ebp
- .byte 68,9,213 // or %r10d,%ebp
- .byte 71,15,182,4,1 // movzbl (%r9,%r8,1),%r8d
- .byte 65,15,182,28,25 // movzbl (%r9,%rbx,1),%ebx
- .byte 193,227,8 // shl $0x8,%ebx
- .byte 68,9,195 // or %r8d,%ebx
- .byte 102,15,110,211 // movd %ebx,%xmm2
- .byte 102,15,196,213,1 // pinsrw $0x1,%ebp,%xmm2
- .byte 102,65,15,96,208 // punpcklbw %xmm8,%xmm2
- .byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,211 // mulps %xmm11,%xmm2
- .byte 72,139,64,24 // mov 0x18(%rax),%rax
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,227 // maxps %xmm3,%xmm12
- .byte 69,15,93,225 // minps %xmm9,%xmm12
- .byte 69,15,89,226 // mulps %xmm10,%xmm12
- .byte 102,65,15,91,220 // cvtps2dq %xmm12,%xmm3
- .byte 102,72,15,126,221 // movq %xmm3,%rbp
- .byte 65,137,232 // mov %ebp,%r8d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 102,15,112,219,78 // pshufd $0x4e,%xmm3,%xmm3
- .byte 102,72,15,126,219 // movq %xmm3,%rbx
- .byte 65,137,217 // mov %ebx,%r9d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 70,15,182,12,8 // movzbl (%rax,%r9,1),%r9d
- .byte 15,182,28,24 // movzbl (%rax,%rbx,1),%ebx
- .byte 193,227,8 // shl $0x8,%ebx
- .byte 68,9,203 // or %r9d,%ebx
- .byte 70,15,182,4,0 // movzbl (%rax,%r8,1),%r8d
- .byte 15,182,4,40 // movzbl (%rax,%rbp,1),%eax
- .byte 193,224,8 // shl $0x8,%eax
- .byte 68,9,192 // or %r8d,%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 102,15,196,219,1 // pinsrw $0x1,%ebx,%xmm3
- .byte 102,65,15,96,216 // punpcklbw %xmm8,%xmm3
- .byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 65,15,89,219 // mulps %xmm11,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_byte_tables_rgb_sse2
-.globl _sk_byte_tables_rgb_sse2
-FUNCTION(_sk_byte_tables_rgb_sse2)
-_sk_byte_tables_rgb_sse2:
- .byte 85 // push %rbp
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,24 // mov 0x18(%rax),%r8d
- .byte 65,255,200 // dec %r8d
- .byte 102,69,15,110,192 // movd %r8d,%xmm8
- .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 69,15,91,200 // cvtdq2ps %xmm8,%xmm9
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 68,15,95,216 // maxps %xmm0,%xmm11
- .byte 68,15,40,21,177,78,1,0 // movaps 0x14eb1(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,218 // minps %xmm10,%xmm11
- .byte 69,15,89,217 // mulps %xmm9,%xmm11
- .byte 102,65,15,91,195 // cvtps2dq %xmm11,%xmm0
- .byte 102,73,15,126,192 // movq %xmm0,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 77,137,194 // mov %r8,%r10
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,73,15,126,192 // movq %xmm0,%r8
- .byte 69,137,195 // mov %r8d,%r11d
- .byte 77,137,198 // mov %r8,%r14
- .byte 73,193,238,32 // shr $0x20,%r14
- .byte 72,139,24 // mov (%rax),%rbx
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 70,15,182,28,27 // movzbl (%rbx,%r11,1),%r11d
- .byte 66,15,182,44,51 // movzbl (%rbx,%r14,1),%ebp
- .byte 193,229,8 // shl $0x8,%ebp
- .byte 68,9,221 // or %r11d,%ebp
- .byte 70,15,182,12,11 // movzbl (%rbx,%r9,1),%r9d
- .byte 66,15,182,28,19 // movzbl (%rbx,%r10,1),%ebx
- .byte 193,227,8 // shl $0x8,%ebx
- .byte 68,9,203 // or %r9d,%ebx
- .byte 102,15,110,195 // movd %ebx,%xmm0
- .byte 102,15,196,197,1 // pinsrw $0x1,%ebp,%xmm0
- .byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
- .byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,29,76,80,1,0 // movaps 0x1504c(%rip),%xmm11 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,195 // mulps %xmm11,%xmm0
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,225 // mulps %xmm9,%xmm12
- .byte 102,65,15,91,204 // cvtps2dq %xmm12,%xmm1
- .byte 102,72,15,126,205 // movq %xmm1,%rbp
- .byte 65,137,233 // mov %ebp,%r9d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 102,15,112,201,78 // pshufd $0x4e,%xmm1,%xmm1
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 65,137,218 // mov %ebx,%r10d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 65,15,182,28,24 // movzbl (%r8,%rbx,1),%ebx
- .byte 193,227,8 // shl $0x8,%ebx
- .byte 68,9,211 // or %r10d,%ebx
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 65,15,182,44,40 // movzbl (%r8,%rbp,1),%ebp
- .byte 193,229,8 // shl $0x8,%ebp
- .byte 68,9,205 // or %r9d,%ebp
- .byte 102,15,110,205 // movd %ebp,%xmm1
- .byte 102,15,196,203,1 // pinsrw $0x1,%ebx,%xmm1
- .byte 102,65,15,96,200 // punpcklbw %xmm8,%xmm1
- .byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 72,139,64,16 // mov 0x10(%rax),%rax
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,226 // maxps %xmm2,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,225 // mulps %xmm9,%xmm12
- .byte 102,65,15,91,212 // cvtps2dq %xmm12,%xmm2
- .byte 102,72,15,126,213 // movq %xmm2,%rbp
- .byte 65,137,232 // mov %ebp,%r8d
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 102,15,112,210,78 // pshufd $0x4e,%xmm2,%xmm2
- .byte 102,72,15,126,211 // movq %xmm2,%rbx
- .byte 65,137,217 // mov %ebx,%r9d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 70,15,182,12,8 // movzbl (%rax,%r9,1),%r9d
- .byte 15,182,28,24 // movzbl (%rax,%rbx,1),%ebx
- .byte 193,227,8 // shl $0x8,%ebx
- .byte 68,9,203 // or %r9d,%ebx
- .byte 70,15,182,4,0 // movzbl (%rax,%r8,1),%r8d
- .byte 15,182,4,40 // movzbl (%rax,%rbp,1),%eax
- .byte 193,224,8 // shl $0x8,%eax
- .byte 68,9,192 // or %r8d,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 102,15,196,211,1 // pinsrw $0x1,%ebx,%xmm2
- .byte 102,65,15,96,208 // punpcklbw %xmm8,%xmm2
- .byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,211 // mulps %xmm11,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_r_sse2
-.globl _sk_table_r_sse2
-FUNCTION(_sk_table_r_sse2)
-_sk_table_r_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,13,45,77,1,0 // minps 0x14d2d(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
- .byte 102,65,15,112,192,78 // pshufd $0x4e,%xmm8,%xmm0
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,77,15,126,194 // movq %xmm8,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 243,71,15,16,4,144 // movss (%r8,%r10,4),%xmm8
- .byte 243,67,15,16,4,152 // movss (%r8,%r11,4),%xmm0
- .byte 65,15,20,192 // unpcklps %xmm8,%xmm0
- .byte 243,69,15,16,4,128 // movss (%r8,%rax,4),%xmm8
- .byte 243,71,15,16,12,136 // movss (%r8,%r9,4),%xmm9
- .byte 69,15,20,200 // unpcklps %xmm8,%xmm9
- .byte 102,65,15,20,193 // unpcklpd %xmm9,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_g_sse2
-.globl _sk_table_g_sse2
-FUNCTION(_sk_table_g_sse2)
-_sk_table_g_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,201 // maxps %xmm1,%xmm9
- .byte 68,15,93,13,180,76,1,0 // minps 0x14cb4(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
- .byte 102,65,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm1
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,77,15,126,194 // movq %xmm8,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 243,71,15,16,4,144 // movss (%r8,%r10,4),%xmm8
- .byte 243,67,15,16,12,152 // movss (%r8,%r11,4),%xmm1
- .byte 65,15,20,200 // unpcklps %xmm8,%xmm1
- .byte 243,69,15,16,4,128 // movss (%r8,%rax,4),%xmm8
- .byte 243,71,15,16,12,136 // movss (%r8,%r9,4),%xmm9
- .byte 69,15,20,200 // unpcklps %xmm8,%xmm9
- .byte 102,65,15,20,201 // unpcklpd %xmm9,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_b_sse2
-.globl _sk_table_b_sse2
-FUNCTION(_sk_table_b_sse2)
-_sk_table_b_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,93,13,59,76,1,0 // minps 0x14c3b(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
- .byte 102,65,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm2
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,77,15,126,194 // movq %xmm8,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 243,71,15,16,4,144 // movss (%r8,%r10,4),%xmm8
- .byte 243,67,15,16,20,152 // movss (%r8,%r11,4),%xmm2
- .byte 65,15,20,208 // unpcklps %xmm8,%xmm2
- .byte 243,69,15,16,4,128 // movss (%r8,%rax,4),%xmm8
- .byte 243,71,15,16,12,136 // movss (%r8,%r9,4),%xmm9
- .byte 69,15,20,200 // unpcklps %xmm8,%xmm9
- .byte 102,65,15,20,209 // unpcklpd %xmm9,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_table_a_sse2
-.globl _sk_table_a_sse2
-FUNCTION(_sk_table_a_sse2)
-_sk_table_a_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 139,64,8 // mov 0x8(%rax),%eax
- .byte 255,200 // dec %eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,112,192,0 // pshufd $0x0,%xmm8,%xmm8
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,203 // maxps %xmm3,%xmm9
- .byte 68,15,93,13,194,75,1,0 // minps 0x14bc2(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 102,69,15,91,193 // cvtps2dq %xmm9,%xmm8
- .byte 102,65,15,112,216,78 // pshufd $0x4e,%xmm8,%xmm3
- .byte 102,72,15,126,216 // movq %xmm3,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,77,15,126,194 // movq %xmm8,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 243,71,15,16,4,144 // movss (%r8,%r10,4),%xmm8
- .byte 243,67,15,16,28,152 // movss (%r8,%r11,4),%xmm3
- .byte 65,15,20,216 // unpcklps %xmm8,%xmm3
- .byte 243,69,15,16,4,128 // movss (%r8,%rax,4),%xmm8
- .byte 243,71,15,16,12,136 // movss (%r8,%r9,4),%xmm9
- .byte 69,15,20,200 // unpcklps %xmm8,%xmm9
- .byte 102,65,15,20,217 // unpcklpd %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_r_sse2
-.globl _sk_parametric_r_sse2
-FUNCTION(_sk_parametric_r_sse2)
-_sk_parametric_r_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 65,15,194,194,2 // cmpleps %xmm10,%xmm0
- .byte 243,68,15,16,80,24 // movss 0x18(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,88,194 // addps %xmm10,%xmm8
- .byte 243,68,15,16,32 // movss (%rax),%xmm12
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,186,77,1,0 // mulps 0x14dba(%rip),%xmm11 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 68,15,40,45,194,77,1,0 // movaps 0x14dc2(%rip),%xmm13 # 3d1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,230,74,1,0 // orps 0x14ae6(%rip),%xmm13 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,88,29,190,77,1,0 // addps 0x14dbe(%rip),%xmm11 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 68,15,40,53,198,77,1,0 // movaps 0x14dc6(%rip),%xmm14 # 3d1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 69,15,89,245 // mulps %xmm13,%xmm14
- .byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,198,77,1,0 // addps 0x14dc6(%rip),%xmm13 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 68,15,40,53,206,77,1,0 // movaps 0x14dce(%rip),%xmm14 # 3d210 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 69,15,94,245 // divps %xmm13,%xmm14
- .byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 69,15,89,220 // mulps %xmm12,%xmm11
- .byte 243,69,15,91,227 // cvttps2dq %xmm11,%xmm12
- .byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
- .byte 69,15,40,243 // movaps %xmm11,%xmm14
- .byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,168,74,1,0 // movaps 0x14aa8(%rip),%xmm12 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,84,244 // andps %xmm12,%xmm14
- .byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 69,15,40,243 // movaps %xmm11,%xmm14
- .byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,160,77,1,0 // addps 0x14da0(%rip),%xmm11 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 68,15,40,45,168,77,1,0 // movaps 0x14da8(%rip),%xmm13 # 3d230 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
- .byte 69,15,89,238 // mulps %xmm14,%xmm13
- .byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,168,77,1,0 // movaps 0x14da8(%rip),%xmm13 # 3d240 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
- .byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,172,77,1,0 // movaps 0x14dac(%rip),%xmm14 # 3d250 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
- .byte 69,15,94,245 // divps %xmm13,%xmm14
- .byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,172,77,1,0 // mulps 0x14dac(%rip),%xmm14 # 3d260 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
- .byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
- .byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
- .byte 69,15,84,203 // andps %xmm11,%xmm9
- .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,88,217 // addps %xmm9,%xmm11
- .byte 68,15,84,192 // andps %xmm0,%xmm8
- .byte 65,15,85,195 // andnps %xmm11,%xmm0
- .byte 65,15,86,192 // orps %xmm8,%xmm0
- .byte 65,15,95,194 // maxps %xmm10,%xmm0
- .byte 65,15,93,196 // minps %xmm12,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_g_sse2
-.globl _sk_parametric_g_sse2
-FUNCTION(_sk_parametric_g_sse2)
-_sk_parametric_g_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 68,15,89,193 // mulps %xmm1,%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 65,15,194,202,2 // cmpleps %xmm10,%xmm1
- .byte 243,68,15,16,80,24 // movss 0x18(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,88,194 // addps %xmm10,%xmm8
- .byte 243,68,15,16,32 // movss (%rax),%xmm12
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,111,76,1,0 // mulps 0x14c6f(%rip),%xmm11 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 68,15,40,45,119,76,1,0 // movaps 0x14c77(%rip),%xmm13 # 3d1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,155,73,1,0 // orps 0x1499b(%rip),%xmm13 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,88,29,115,76,1,0 // addps 0x14c73(%rip),%xmm11 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 68,15,40,53,123,76,1,0 // movaps 0x14c7b(%rip),%xmm14 # 3d1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 69,15,89,245 // mulps %xmm13,%xmm14
- .byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,123,76,1,0 // addps 0x14c7b(%rip),%xmm13 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 68,15,40,53,131,76,1,0 // movaps 0x14c83(%rip),%xmm14 # 3d210 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 69,15,94,245 // divps %xmm13,%xmm14
- .byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 69,15,89,220 // mulps %xmm12,%xmm11
- .byte 243,69,15,91,227 // cvttps2dq %xmm11,%xmm12
- .byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
- .byte 69,15,40,243 // movaps %xmm11,%xmm14
- .byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,93,73,1,0 // movaps 0x1495d(%rip),%xmm12 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,84,244 // andps %xmm12,%xmm14
- .byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 69,15,40,243 // movaps %xmm11,%xmm14
- .byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,85,76,1,0 // addps 0x14c55(%rip),%xmm11 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 68,15,40,45,93,76,1,0 // movaps 0x14c5d(%rip),%xmm13 # 3d230 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
- .byte 69,15,89,238 // mulps %xmm14,%xmm13
- .byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,93,76,1,0 // movaps 0x14c5d(%rip),%xmm13 # 3d240 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
- .byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,97,76,1,0 // movaps 0x14c61(%rip),%xmm14 # 3d250 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
- .byte 69,15,94,245 // divps %xmm13,%xmm14
- .byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,97,76,1,0 // mulps 0x14c61(%rip),%xmm14 # 3d260 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
- .byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
- .byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
- .byte 69,15,84,203 // andps %xmm11,%xmm9
- .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,88,217 // addps %xmm9,%xmm11
- .byte 68,15,84,193 // andps %xmm1,%xmm8
- .byte 65,15,85,203 // andnps %xmm11,%xmm1
- .byte 65,15,86,200 // orps %xmm8,%xmm1
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,93,204 // minps %xmm12,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_b_sse2
-.globl _sk_parametric_b_sse2
-FUNCTION(_sk_parametric_b_sse2)
-_sk_parametric_b_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 68,15,89,194 // mulps %xmm2,%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,202 // mulps %xmm2,%xmm9
- .byte 65,15,194,210,2 // cmpleps %xmm10,%xmm2
- .byte 243,68,15,16,80,24 // movss 0x18(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,88,194 // addps %xmm10,%xmm8
- .byte 243,68,15,16,32 // movss (%rax),%xmm12
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,36,75,1,0 // mulps 0x14b24(%rip),%xmm11 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 68,15,40,45,44,75,1,0 // movaps 0x14b2c(%rip),%xmm13 # 3d1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,80,72,1,0 // orps 0x14850(%rip),%xmm13 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,88,29,40,75,1,0 // addps 0x14b28(%rip),%xmm11 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 68,15,40,53,48,75,1,0 // movaps 0x14b30(%rip),%xmm14 # 3d1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 69,15,89,245 // mulps %xmm13,%xmm14
- .byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,48,75,1,0 // addps 0x14b30(%rip),%xmm13 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 68,15,40,53,56,75,1,0 // movaps 0x14b38(%rip),%xmm14 # 3d210 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 69,15,94,245 // divps %xmm13,%xmm14
- .byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 69,15,89,220 // mulps %xmm12,%xmm11
- .byte 243,69,15,91,227 // cvttps2dq %xmm11,%xmm12
- .byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
- .byte 69,15,40,243 // movaps %xmm11,%xmm14
- .byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,18,72,1,0 // movaps 0x14812(%rip),%xmm12 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,84,244 // andps %xmm12,%xmm14
- .byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 69,15,40,243 // movaps %xmm11,%xmm14
- .byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,10,75,1,0 // addps 0x14b0a(%rip),%xmm11 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 68,15,40,45,18,75,1,0 // movaps 0x14b12(%rip),%xmm13 # 3d230 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
- .byte 69,15,89,238 // mulps %xmm14,%xmm13
- .byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,18,75,1,0 // movaps 0x14b12(%rip),%xmm13 # 3d240 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
- .byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,22,75,1,0 // movaps 0x14b16(%rip),%xmm14 # 3d250 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
- .byte 69,15,94,245 // divps %xmm13,%xmm14
- .byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,22,75,1,0 // mulps 0x14b16(%rip),%xmm14 # 3d260 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
- .byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
- .byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
- .byte 69,15,84,203 // andps %xmm11,%xmm9
- .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,88,217 // addps %xmm9,%xmm11
- .byte 68,15,84,194 // andps %xmm2,%xmm8
- .byte 65,15,85,211 // andnps %xmm11,%xmm2
- .byte 65,15,86,208 // orps %xmm8,%xmm2
- .byte 65,15,95,210 // maxps %xmm10,%xmm2
- .byte 65,15,93,212 // minps %xmm12,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_parametric_a_sse2
-.globl _sk_parametric_a_sse2
-FUNCTION(_sk_parametric_a_sse2)
-_sk_parametric_a_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 68,15,89,195 // mulps %xmm3,%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,203 // mulps %xmm3,%xmm9
- .byte 65,15,194,218,2 // cmpleps %xmm10,%xmm3
- .byte 243,68,15,16,80,24 // movss 0x18(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,88,194 // addps %xmm10,%xmm8
- .byte 243,68,15,16,32 // movss (%rax),%xmm12
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 69,15,91,217 // cvtdq2ps %xmm9,%xmm11
- .byte 68,15,89,29,217,73,1,0 // mulps 0x149d9(%rip),%xmm11 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 68,15,40,45,225,73,1,0 // movaps 0x149e1(%rip),%xmm13 # 3d1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 68,15,86,45,5,71,1,0 // orps 0x14705(%rip),%xmm13 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,88,29,221,73,1,0 // addps 0x149dd(%rip),%xmm11 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 68,15,40,53,229,73,1,0 // movaps 0x149e5(%rip),%xmm14 # 3d1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 69,15,89,245 // mulps %xmm13,%xmm14
- .byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 68,15,88,45,229,73,1,0 // addps 0x149e5(%rip),%xmm13 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 68,15,40,53,237,73,1,0 // movaps 0x149ed(%rip),%xmm14 # 3d210 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 69,15,94,245 // divps %xmm13,%xmm14
- .byte 69,15,92,222 // subps %xmm14,%xmm11
- .byte 69,15,89,220 // mulps %xmm12,%xmm11
- .byte 243,69,15,91,227 // cvttps2dq %xmm11,%xmm12
- .byte 69,15,91,236 // cvtdq2ps %xmm12,%xmm13
- .byte 69,15,40,243 // movaps %xmm11,%xmm14
- .byte 69,15,194,245,1 // cmpltps %xmm13,%xmm14
- .byte 68,15,40,37,199,70,1,0 // movaps 0x146c7(%rip),%xmm12 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,84,244 // andps %xmm12,%xmm14
- .byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 69,15,40,243 // movaps %xmm11,%xmm14
- .byte 69,15,92,245 // subps %xmm13,%xmm14
- .byte 68,15,88,29,191,73,1,0 // addps 0x149bf(%rip),%xmm11 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 68,15,40,45,199,73,1,0 // movaps 0x149c7(%rip),%xmm13 # 3d230 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
- .byte 69,15,89,238 // mulps %xmm14,%xmm13
- .byte 69,15,92,221 // subps %xmm13,%xmm11
- .byte 68,15,40,45,199,73,1,0 // movaps 0x149c7(%rip),%xmm13 # 3d240 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
- .byte 69,15,92,238 // subps %xmm14,%xmm13
- .byte 68,15,40,53,203,73,1,0 // movaps 0x149cb(%rip),%xmm14 # 3d250 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
- .byte 69,15,94,245 // divps %xmm13,%xmm14
- .byte 69,15,88,243 // addps %xmm11,%xmm14
- .byte 68,15,89,53,203,73,1,0 // mulps 0x149cb(%rip),%xmm14 # 3d260 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
- .byte 102,69,15,91,222 // cvtps2dq %xmm14,%xmm11
- .byte 69,15,194,202,4 // cmpneqps %xmm10,%xmm9
- .byte 69,15,84,203 // andps %xmm11,%xmm9
- .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,88,217 // addps %xmm9,%xmm11
- .byte 68,15,84,195 // andps %xmm3,%xmm8
- .byte 65,15,85,219 // andnps %xmm11,%xmm3
- .byte 65,15,86,216 // orps %xmm8,%xmm3
- .byte 65,15,95,218 // maxps %xmm10,%xmm3
- .byte 65,15,93,220 // minps %xmm12,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gamma_sse2
-.globl _sk_gamma_sse2
-FUNCTION(_sk_gamma_sse2)
-_sk_gamma_sse2:
- .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp)
- .byte 15,41,108,36,200 // movaps %xmm5,-0x38(%rsp)
- .byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
- .byte 15,41,92,36,168 // movaps %xmm3,-0x58(%rsp)
- .byte 68,15,40,226 // movaps %xmm2,%xmm12
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,91,244 // cvtdq2ps %xmm4,%xmm6
- .byte 15,40,5,200,72,1,0 // movaps 0x148c8(%rip),%xmm0 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 68,15,40,5,202,72,1,0 // movaps 0x148ca(%rip),%xmm8 # 3d1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,236,69,1,0 // orps 0x145ec(%rip),%xmm0 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,88,53,197,72,1,0 // addps 0x148c5(%rip),%xmm6 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 68,15,40,29,205,72,1,0 // movaps 0x148cd(%rip),%xmm11 # 3d1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 15,92,241 // subps %xmm1,%xmm6
- .byte 68,15,40,61,203,72,1,0 // movaps 0x148cb(%rip),%xmm15 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,45,207,72,1,0 // movaps 0x148cf(%rip),%xmm13 # 3d210 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 65,15,40,205 // movaps %xmm13,%xmm1
- .byte 15,94,200 // divps %xmm0,%xmm1
- .byte 15,92,241 // subps %xmm1,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,24 // movss (%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,13,163,69,1,0 // andps 0x145a3(%rip),%xmm1 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,53,163,72,1,0 // addps 0x148a3(%rip),%xmm6 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 15,40,21,188,72,1,0 // movaps 0x148bc(%rip),%xmm2 # 3d240 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
- .byte 68,15,40,202 // movaps %xmm2,%xmm9
- .byte 68,15,92,201 // subps %xmm1,%xmm9
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,154,72,1,0 // movaps 0x1489a(%rip),%xmm1 # 3d230 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,92,240 // subps %xmm0,%xmm6
- .byte 68,15,40,53,172,72,1,0 // movaps 0x148ac(%rip),%xmm14 # 3d250 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
- .byte 65,15,40,198 // movaps %xmm14,%xmm0
- .byte 65,15,94,193 // divps %xmm9,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 68,15,40,13,169,72,1,0 // movaps 0x148a9(%rip),%xmm9 # 3d260 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,194,230,4 // cmpneqps %xmm6,%xmm4
- .byte 15,84,224 // andps %xmm0,%xmm4
- .byte 65,15,91,194 // cvtdq2ps %xmm10,%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 65,15,40,250 // movaps %xmm10,%xmm7
- .byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,53,33,69,1,0 // movaps 0x14521(%rip),%xmm6 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,86,254 // orps %xmm6,%xmm7
- .byte 15,88,5,247,71,1,0 // addps 0x147f7(%rip),%xmm0 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 15,40,239 // movaps %xmm7,%xmm5
- .byte 65,15,89,235 // mulps %xmm11,%xmm5
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 65,15,88,255 // addps %xmm15,%xmm7
- .byte 65,15,40,237 // movaps %xmm13,%xmm5
- .byte 15,94,239 // divps %xmm7,%xmm5
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 243,15,91,232 // cvttps2dq %xmm0,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,194,253,1 // cmpltps %xmm5,%xmm7
- .byte 68,15,40,61,246,68,1,0 // movaps 0x144f6(%rip),%xmm15 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,84,255 // andps %xmm15,%xmm7
- .byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,92,253 // subps %xmm5,%xmm7
- .byte 15,88,5,242,71,1,0 // addps 0x147f2(%rip),%xmm0 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 15,92,199 // subps %xmm7,%xmm0
- .byte 65,15,40,254 // movaps %xmm14,%xmm7
- .byte 15,94,253 // divps %xmm5,%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 102,15,91,199 // cvtps2dq %xmm7,%xmm0
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
- .byte 68,15,84,208 // andps %xmm0,%xmm10
- .byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,93,71,1,0 // mulps 0x1475d(%rip),%xmm0 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 69,15,84,196 // andps %xmm12,%xmm8
- .byte 68,15,86,198 // orps %xmm6,%xmm8
- .byte 15,88,5,110,71,1,0 // addps 0x1476e(%rip),%xmm0 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 69,15,89,216 // mulps %xmm8,%xmm11
- .byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,126,71,1,0 // addps 0x1477e(%rip),%xmm8 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 69,15,94,232 // divps %xmm8,%xmm13
- .byte 65,15,92,197 // subps %xmm13,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 243,15,91,216 // cvttps2dq %xmm0,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,194,235,1 // cmpltps %xmm3,%xmm5
- .byte 65,15,84,239 // andps %xmm15,%xmm5
- .byte 15,92,221 // subps %xmm5,%xmm3
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,88,5,113,71,1,0 // addps 0x14771(%rip),%xmm0 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,92,213 // subps %xmm5,%xmm2
- .byte 68,15,94,242 // divps %xmm2,%xmm14
- .byte 68,15,88,240 // addps %xmm0,%xmm14
- .byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,194,231,4 // cmpneqps %xmm7,%xmm12
- .byte 102,65,15,91,198 // cvtps2dq %xmm14,%xmm0
- .byte 68,15,84,224 // andps %xmm0,%xmm12
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 65,15,40,202 // movaps %xmm10,%xmm1
- .byte 65,15,40,212 // movaps %xmm12,%xmm2
- .byte 15,40,92,36,168 // movaps -0x58(%rsp),%xmm3
- .byte 15,40,100,36,184 // movaps -0x48(%rsp),%xmm4
- .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5
- .byte 15,40,116,36,216 // movaps -0x28(%rsp),%xmm6
- .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gamma_dst_sse2
-.globl _sk_gamma_dst_sse2
-FUNCTION(_sk_gamma_dst_sse2)
-_sk_gamma_dst_sse2:
- .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 68,15,40,230 // movaps %xmm6,%xmm12
- .byte 68,15,40,213 // movaps %xmm5,%xmm10
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,41,92,36,216 // movaps %xmm3,-0x28(%rsp)
- .byte 15,41,84,36,200 // movaps %xmm2,-0x38(%rsp)
- .byte 15,41,76,36,184 // movaps %xmm1,-0x48(%rsp)
- .byte 15,41,68,36,168 // movaps %xmm0,-0x58(%rsp)
- .byte 15,91,221 // cvtdq2ps %xmm5,%xmm3
- .byte 15,40,5,152,70,1,0 // movaps 0x14698(%rip),%xmm0 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,40,5,154,70,1,0 // movaps 0x1469a(%rip),%xmm8 # 3d1d0 <_sk_srcover_bgra_8888_sse2_lowp+0xf84>
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 15,86,5,188,67,1,0 // orps 0x143bc(%rip),%xmm0 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,88,29,149,70,1,0 // addps 0x14695(%rip),%xmm3 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 68,15,40,29,157,70,1,0 // movaps 0x1469d(%rip),%xmm11 # 3d1f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa4>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 15,92,217 // subps %xmm1,%xmm3
- .byte 68,15,40,61,155,70,1,0 // movaps 0x1469b(%rip),%xmm15 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 68,15,40,45,159,70,1,0 // movaps 0x1469f(%rip),%xmm13 # 3d210 <_sk_srcover_bgra_8888_sse2_lowp+0xfc4>
- .byte 65,15,40,205 // movaps %xmm13,%xmm1
- .byte 15,94,200 // divps %xmm0,%xmm1
- .byte 15,92,217 // subps %xmm1,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,32 // movss (%rax),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,13,115,67,1,0 // andps 0x14373(%rip),%xmm1 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,29,115,70,1,0 // addps 0x14673(%rip),%xmm3 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 15,40,21,140,70,1,0 // movaps 0x1468c(%rip),%xmm2 # 3d240 <_sk_srcover_bgra_8888_sse2_lowp+0xff4>
- .byte 68,15,40,202 // movaps %xmm2,%xmm9
- .byte 68,15,92,201 // subps %xmm1,%xmm9
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,13,106,70,1,0 // movaps 0x1466a(%rip),%xmm1 # 3d230 <_sk_srcover_bgra_8888_sse2_lowp+0xfe4>
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 68,15,40,53,124,70,1,0 // movaps 0x1467c(%rip),%xmm14 # 3d250 <_sk_srcover_bgra_8888_sse2_lowp+0x1004>
- .byte 65,15,40,198 // movaps %xmm14,%xmm0
- .byte 65,15,94,193 // divps %xmm9,%xmm0
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 68,15,40,13,121,70,1,0 // movaps 0x14679(%rip),%xmm9 # 3d260 <_sk_srcover_bgra_8888_sse2_lowp+0x1014>
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,194,235,4 // cmpneqps %xmm3,%xmm5
- .byte 15,84,232 // andps %xmm0,%xmm5
- .byte 65,15,91,194 // cvtdq2ps %xmm10,%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 65,15,40,250 // movaps %xmm10,%xmm7
- .byte 65,15,84,248 // andps %xmm8,%xmm7
- .byte 15,40,29,241,66,1,0 // movaps 0x142f1(%rip),%xmm3 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,86,251 // orps %xmm3,%xmm7
- .byte 15,88,5,199,69,1,0 // addps 0x145c7(%rip),%xmm0 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 15,40,247 // movaps %xmm7,%xmm6
- .byte 65,15,89,243 // mulps %xmm11,%xmm6
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 65,15,88,255 // addps %xmm15,%xmm7
- .byte 65,15,40,245 // movaps %xmm13,%xmm6
- .byte 15,94,247 // divps %xmm7,%xmm6
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 243,15,91,240 // cvttps2dq %xmm0,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 68,15,40,61,198,66,1,0 // movaps 0x142c6(%rip),%xmm15 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,84,255 // andps %xmm15,%xmm7
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,88,5,194,69,1,0 // addps 0x145c2(%rip),%xmm0 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 15,92,199 // subps %xmm7,%xmm0
- .byte 65,15,40,254 // movaps %xmm14,%xmm7
- .byte 15,94,254 // divps %xmm6,%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 65,15,89,249 // mulps %xmm9,%xmm7
- .byte 102,15,91,199 // cvtps2dq %xmm7,%xmm0
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 68,15,194,215,4 // cmpneqps %xmm7,%xmm10
- .byte 68,15,84,208 // andps %xmm0,%xmm10
- .byte 65,15,91,196 // cvtdq2ps %xmm12,%xmm0
- .byte 15,89,5,45,69,1,0 // mulps 0x1452d(%rip),%xmm0 # 3d1c0 <_sk_srcover_bgra_8888_sse2_lowp+0xf74>
- .byte 69,15,84,196 // andps %xmm12,%xmm8
- .byte 68,15,86,195 // orps %xmm3,%xmm8
- .byte 15,88,5,62,69,1,0 // addps 0x1453e(%rip),%xmm0 # 3d1e0 <_sk_srcover_bgra_8888_sse2_lowp+0xf94>
- .byte 69,15,89,216 // mulps %xmm8,%xmm11
- .byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 68,15,88,5,78,69,1,0 // addps 0x1454e(%rip),%xmm8 # 3d200 <_sk_srcover_bgra_8888_sse2_lowp+0xfb4>
- .byte 69,15,94,232 // divps %xmm8,%xmm13
- .byte 65,15,92,197 // subps %xmm13,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 243,15,91,224 // cvttps2dq %xmm0,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,194,244,1 // cmpltps %xmm4,%xmm6
- .byte 65,15,84,247 // andps %xmm15,%xmm6
- .byte 15,92,230 // subps %xmm6,%xmm4
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,5,65,69,1,0 // addps 0x14541(%rip),%xmm0 # 3d220 <_sk_srcover_bgra_8888_sse2_lowp+0xfd4>
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 68,15,94,242 // divps %xmm2,%xmm14
- .byte 68,15,88,240 // addps %xmm0,%xmm14
- .byte 69,15,89,241 // mulps %xmm9,%xmm14
- .byte 68,15,194,231,4 // cmpneqps %xmm7,%xmm12
- .byte 102,65,15,91,198 // cvtps2dq %xmm14,%xmm0
- .byte 68,15,84,224 // andps %xmm0,%xmm12
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,68,36,168 // movaps -0x58(%rsp),%xmm0
- .byte 15,40,76,36,184 // movaps -0x48(%rsp),%xmm1
- .byte 15,40,84,36,200 // movaps -0x38(%rsp),%xmm2
- .byte 15,40,92,36,216 // movaps -0x28(%rsp),%xmm3
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 65,15,40,234 // movaps %xmm10,%xmm5
- .byte 65,15,40,244 // movaps %xmm12,%xmm6
- .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lab_to_xyz_sse2
-.globl _sk_lab_to_xyz_sse2
-FUNCTION(_sk_lab_to_xyz_sse2)
-_sk_lab_to_xyz_sse2:
- .byte 15,89,5,63,69,1,0 // mulps 0x1453f(%rip),%xmm0 # 3d270 <_sk_srcover_bgra_8888_sse2_lowp+0x1024>
- .byte 68,15,40,5,183,66,1,0 // movaps 0x142b7(%rip),%xmm8 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 68,15,40,13,59,69,1,0 // movaps 0x1453b(%rip),%xmm9 # 3d280 <_sk_srcover_bgra_8888_sse2_lowp+0x1034>
- .byte 65,15,88,201 // addps %xmm9,%xmm1
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,88,5,56,69,1,0 // addps 0x14538(%rip),%xmm0 # 3d290 <_sk_srcover_bgra_8888_sse2_lowp+0x1044>
- .byte 15,89,5,65,69,1,0 // mulps 0x14541(%rip),%xmm0 # 3d2a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1054>
- .byte 15,89,13,74,69,1,0 // mulps 0x1454a(%rip),%xmm1 # 3d2b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1064>
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,21,80,69,1,0 // mulps 0x14550(%rip),%xmm2 # 3d2c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1074>
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,92,202 // subps %xmm2,%xmm9
- .byte 68,15,40,225 // movaps %xmm1,%xmm12
- .byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,89,225 // mulps %xmm1,%xmm12
- .byte 15,40,21,69,69,1,0 // movaps 0x14545(%rip),%xmm2 # 3d2d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1084>
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 69,15,194,196,1 // cmpltps %xmm12,%xmm8
- .byte 68,15,40,21,68,69,1,0 // movaps 0x14544(%rip),%xmm10 # 3d2e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1094>
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 68,15,40,29,72,69,1,0 // movaps 0x14548(%rip),%xmm11 # 3d2f0 <_sk_srcover_bgra_8888_sse2_lowp+0x10a4>
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 69,15,84,224 // andps %xmm8,%xmm12
- .byte 68,15,85,193 // andnps %xmm1,%xmm8
- .byte 69,15,86,196 // orps %xmm12,%xmm8
- .byte 68,15,40,224 // movaps %xmm0,%xmm12
- .byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 65,15,194,204,1 // cmpltps %xmm12,%xmm1
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 65,15,89,195 // mulps %xmm11,%xmm0
- .byte 68,15,84,225 // andps %xmm1,%xmm12
- .byte 15,85,200 // andnps %xmm0,%xmm1
- .byte 65,15,86,204 // orps %xmm12,%xmm1
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 15,194,208,1 // cmpltps %xmm0,%xmm2
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 15,84,194 // andps %xmm2,%xmm0
- .byte 65,15,85,209 // andnps %xmm9,%xmm2
- .byte 15,86,208 // orps %xmm0,%xmm2
- .byte 68,15,89,5,248,68,1,0 // mulps 0x144f8(%rip),%xmm8 # 3d300 <_sk_srcover_bgra_8888_sse2_lowp+0x10b4>
- .byte 15,89,21,1,69,1,0 // mulps 0x14501(%rip),%xmm2 # 3d310 <_sk_srcover_bgra_8888_sse2_lowp+0x10c4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_a8_sse2
-.globl _sk_load_a8_sse2
-FUNCTION(_sk_load_a8_sse2)
-_sk_load_a8_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 28e57 <_sk_load_a8_sse2+0x40>
- .byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,129,65,1,0 // pand 0x14181(%rip),%xmm0 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,215,66,1,0 // mulps 0x142d7(%rip),%xmm3 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 102,15,87,201 // xorpd %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,50 // je 28e91 <_sk_load_a8_sse2+0x7a>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 28e7a <_sk_load_a8_sse2+0x63>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,204 // jne 28e37 <_sk_load_a8_sse2+0x20>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,166 // jmp 28e37 <_sk_load_a8_sse2+0x20>
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,155 // jmp 28e37 <_sk_load_a8_sse2+0x20>
-
-HIDDEN _sk_load_a8_dst_sse2
-.globl _sk_load_a8_dst_sse2
-FUNCTION(_sk_load_a8_dst_sse2)
-_sk_load_a8_dst_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,46 // jne 28edc <_sk_load_a8_dst_sse2+0x40>
- .byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,252,64,1,0 // pand 0x140fc(%rip),%xmm4 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,61,82,66,1,0 // mulps 0x14252(%rip),%xmm7 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 102,15,87,237 // xorpd %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,50 // je 28f16 <_sk_load_a8_dst_sse2+0x7a>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 28eff <_sk_load_a8_dst_sse2+0x63>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,204 // jne 28ebc <_sk_load_a8_dst_sse2+0x20>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,232 // movd %eax,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,166 // jmp 28ebc <_sk_load_a8_dst_sse2+0x20>
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,155 // jmp 28ebc <_sk_load_a8_dst_sse2+0x20>
-
-HIDDEN _sk_gather_a8_sse2
-.globl _sk_gather_a8_sse2
-FUNCTION(_sk_gather_a8_sse2)
-_sk_gather_a8_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,65,15,254,217 // paddd %xmm9,%xmm3
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 15,93,211 // minps %xmm3,%xmm2
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,244,217 // pmuludq %xmm1,%xmm3
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,203,232 // pshufd $0xe8,%xmm3,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,15,91,202 // cvttps2dq %xmm2,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,73,15,126,194 // movq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,182,28,24 // movzbl (%r8,%r11,1),%r11d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 65,193,226,8 // shl $0x8,%r10d
- .byte 69,9,218 // or %r11d,%r10d
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 193,224,8 // shl $0x8,%eax
- .byte 68,9,200 // or %r9d,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,65,15,196,194,1 // pinsrw $0x1,%r10d,%xmm0
- .byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
- .byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
- .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,29,53,65,1,0 // mulps 0x14135(%rip),%xmm3 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_a8_sse2
-.globl _sk_store_a8_sse2
-FUNCTION(_sk_store_a8_sse2)
-_sk_store_a8_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 68,15,93,5,250,62,1,0 // minps 0x13efa(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,89,5,210,63,1,0 // mulps 0x13fd2(%rip),%xmm8 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
- .byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
- .byte 102,68,15,103,192 // packuswb %xmm0,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,13 // jne 2904b <_sk_store_a8_sse2+0x52>
- .byte 102,68,15,126,192 // movd %xmm8,%eax
- .byte 65,137,4,16 // mov %eax,(%r8,%rdx,1)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,50 // je 2908f <_sk_store_a8_sse2+0x96>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,15 // je 29070 <_sk_store_a8_sse2+0x77>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,226 // jne 29047 <_sk_store_a8_sse2+0x4e>
- .byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
- .byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1)
- .byte 102,68,15,219,5,71,63,1,0 // pand 0x13f47(%rip),%xmm8 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
- .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
- .byte 102,68,15,126,192 // movd %xmm8,%eax
- .byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1)
- .byte 235,184 // jmp 29047 <_sk_store_a8_sse2+0x4e>
- .byte 102,68,15,126,192 // movd %xmm8,%eax
- .byte 65,136,4,16 // mov %al,(%r8,%rdx,1)
- .byte 235,173 // jmp 29047 <_sk_store_a8_sse2+0x4e>
-
-HIDDEN _sk_load_g8_sse2
-.globl _sk_load_g8_sse2
-FUNCTION(_sk_load_g8_sse2)
-_sk_load_g8_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 290dd <_sk_load_g8_sse2+0x43>
- .byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,5,254,62,1,0 // pand 0x13efe(%rip),%xmm0 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,84,64,1,0 // mulps 0x14054(%rip),%xmm0 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,59,62,1,0 // movaps 0x13e3b(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,50 // je 29117 <_sk_load_g8_sse2+0x7d>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 29100 <_sk_load_g8_sse2+0x66>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,201 // jne 290ba <_sk_load_g8_sse2+0x20>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,163 // jmp 290ba <_sk_load_g8_sse2+0x20>
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,152 // jmp 290ba <_sk_load_g8_sse2+0x20>
-
-HIDDEN _sk_load_g8_dst_sse2
-.globl _sk_load_g8_dst_sse2
-FUNCTION(_sk_load_g8_dst_sse2)
-_sk_load_g8_dst_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,49 // jne 29165 <_sk_load_g8_dst_sse2+0x43>
- .byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,37,118,62,1,0 // pand 0x13e76(%rip),%xmm4 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,204,63,1,0 // mulps 0x13fcc(%rip),%xmm4 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,179,61,1,0 // movaps 0x13db3(%rip),%xmm7 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,50 // je 2919f <_sk_load_g8_dst_sse2+0x7d>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 29188 <_sk_load_g8_dst_sse2+0x66>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,201 // jne 29142 <_sk_load_g8_dst_sse2+0x20>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,232 // movd %eax,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,163 // jmp 29142 <_sk_load_g8_dst_sse2+0x20>
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,152 // jmp 29142 <_sk_load_g8_dst_sse2+0x20>
-
-HIDDEN _sk_gather_g8_sse2
-.globl _sk_gather_g8_sse2
-FUNCTION(_sk_gather_g8_sse2)
-_sk_gather_g8_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,65,15,254,217 // paddd %xmm9,%xmm3
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 15,93,211 // minps %xmm3,%xmm2
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,244,217 // pmuludq %xmm1,%xmm3
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,203,232 // pshufd $0xe8,%xmm3,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,15,91,202 // cvttps2dq %xmm2,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,73,15,126,194 // movq %xmm0,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,182,28,24 // movzbl (%r8,%r11,1),%r11d
- .byte 71,15,182,20,16 // movzbl (%r8,%r10,1),%r10d
- .byte 65,193,226,8 // shl $0x8,%r10d
- .byte 69,9,218 // or %r11d,%r10d
- .byte 71,15,182,12,8 // movzbl (%r8,%r9,1),%r9d
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 193,224,8 // shl $0x8,%eax
- .byte 68,9,200 // or %r9d,%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,65,15,196,194,1 // pinsrw $0x1,%r10d,%xmm0
- .byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
- .byte 102,65,15,97,192 // punpcklwd %xmm8,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,172,62,1,0 // mulps 0x13eac(%rip),%xmm0 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,147,60,1,0 // movaps 0x13c93(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_565_sse2
-.globl _sk_load_565_sse2
-FUNCTION(_sk_load_565_sse2)
-_sk_load_565_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 292ed <_sk_load_565_sse2+0x68>
- .byte 243,65,15,126,20,80 // movq (%r8,%rdx,2),%xmm2
- .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,5,132,62,1,0 // movdqa 0x13e84(%rip),%xmm0 # 3d130 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,134,62,1,0 // mulps 0x13e86(%rip),%xmm0 # 3d140 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
- .byte 102,15,111,13,142,62,1,0 // movdqa 0x13e8e(%rip),%xmm1 # 3d150 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,144,62,1,0 // mulps 0x13e90(%rip),%xmm1 # 3d160 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
- .byte 102,15,219,21,152,62,1,0 // pand 0x13e98(%rip),%xmm2 # 3d170 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,158,62,1,0 // mulps 0x13e9e(%rip),%xmm2 # 3d180 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,37,60,1,0 // movaps 0x13c25(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,44 // je 29321 <_sk_load_565_sse2+0x9c>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 29310 <_sk_load_565_sse2+0x8b>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,163 // jne 292a4 <_sk_load_565_sse2+0x1f>
- .byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
- .byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
- .byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
- .byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 235,131 // jmp 292a4 <_sk_load_565_sse2+0x1f>
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 233,117,255,255,255 // jmpq 292a4 <_sk_load_565_sse2+0x1f>
-
-HIDDEN _sk_load_565_dst_sse2
-.globl _sk_load_565_dst_sse2
-FUNCTION(_sk_load_565_dst_sse2)
-_sk_load_565_dst_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,83 // jne 29397 <_sk_load_565_dst_sse2+0x68>
- .byte 243,65,15,126,52,80 // movq (%r8,%rdx,2),%xmm6
- .byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,37,218,61,1,0 // movdqa 0x13dda(%rip),%xmm4 # 3d130 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,220,61,1,0 // mulps 0x13ddc(%rip),%xmm4 # 3d140 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
- .byte 102,15,111,45,228,61,1,0 // movdqa 0x13de4(%rip),%xmm5 # 3d150 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,15,219,238 // pand %xmm6,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,230,61,1,0 // mulps 0x13de6(%rip),%xmm5 # 3d160 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
- .byte 102,15,219,53,238,61,1,0 // pand 0x13dee(%rip),%xmm6 # 3d170 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,244,61,1,0 // mulps 0x13df4(%rip),%xmm6 # 3d180 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,123,59,1,0 // movaps 0x13b7b(%rip),%xmm7 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,44 // je 293cb <_sk_load_565_dst_sse2+0x9c>
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 293ba <_sk_load_565_dst_sse2+0x8b>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,163 // jne 2934e <_sk_load_565_dst_sse2+0x1f>
- .byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
- .byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
- .byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
- .byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 235,131 // jmp 2934e <_sk_load_565_dst_sse2+0x1f>
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,15,110,240 // movd %eax,%xmm6
- .byte 233,117,255,255,255 // jmpq 2934e <_sk_load_565_dst_sse2+0x1f>
-
-HIDDEN _sk_gather_565_sse2
-.globl _sk_gather_565_sse2
-FUNCTION(_sk_gather_565_sse2)
-_sk_gather_565_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,65,15,254,217 // paddd %xmm9,%xmm3
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 15,93,211 // minps %xmm3,%xmm2
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,244,217 // pmuludq %xmm1,%xmm3
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,203,232 // pshufd $0xe8,%xmm3,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,15,91,202 // cvttps2dq %xmm2,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,183,20,80 // movzwl (%r8,%r10,2),%r10d
- .byte 71,15,183,28,88 // movzwl (%r8,%r11,2),%r11d
- .byte 102,65,15,110,211 // movd %r11d,%xmm2
- .byte 102,65,15,196,210,1 // pinsrw $0x1,%r10d,%xmm2
- .byte 71,15,183,12,72 // movzwl (%r8,%r9,2),%r9d
- .byte 102,65,15,196,209,2 // pinsrw $0x2,%r9d,%xmm2
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 102,15,196,208,3 // pinsrw $0x3,%eax,%xmm2
- .byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
- .byte 102,15,111,5,149,60,1,0 // movdqa 0x13c95(%rip),%xmm0 # 3d130 <_sk_srcover_bgra_8888_sse2_lowp+0xee4>
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,151,60,1,0 // mulps 0x13c97(%rip),%xmm0 # 3d140 <_sk_srcover_bgra_8888_sse2_lowp+0xef4>
- .byte 102,15,111,13,159,60,1,0 // movdqa 0x13c9f(%rip),%xmm1 # 3d150 <_sk_srcover_bgra_8888_sse2_lowp+0xf04>
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,161,60,1,0 // mulps 0x13ca1(%rip),%xmm1 # 3d160 <_sk_srcover_bgra_8888_sse2_lowp+0xf14>
- .byte 102,15,219,21,169,60,1,0 // pand 0x13ca9(%rip),%xmm2 # 3d170 <_sk_srcover_bgra_8888_sse2_lowp+0xf24>
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,175,60,1,0 // mulps 0x13caf(%rip),%xmm2 # 3d180 <_sk_srcover_bgra_8888_sse2_lowp+0xf34>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,54,58,1,0 // movaps 0x13a36(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_565_sse2
-.globl _sk_store_565_sse2
-FUNCTION(_sk_store_565_sse2)
-_sk_store_565_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,16,58,1,0 // movaps 0x13a10(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,36,62,1,0 // movaps 0x13e24(%rip),%xmm11 # 3d330 <_sk_srcover_bgra_8888_sse2_lowp+0x10e4>
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,65,15,114,241,11 // pslld $0xb,%xmm9
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 68,15,89,37,17,62,1,0 // mulps 0x13e11(%rip),%xmm12 # 3d340 <_sk_srcover_bgra_8888_sse2_lowp+0x10f4>
- .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
- .byte 102,65,15,114,244,5 // pslld $0x5,%xmm12
- .byte 68,15,95,194 // maxps %xmm2,%xmm8
- .byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 69,15,89,195 // mulps %xmm11,%xmm8
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,69,15,86,193 // orpd %xmm9,%xmm8
- .byte 102,69,15,86,196 // orpd %xmm12,%xmm8
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
- .byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 29575 <_sk_store_565_sse2+0x99>
- .byte 102,69,15,214,4,80 // movq %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,34 // je 295a4 <_sk_store_565_sse2+0xc8>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 29596 <_sk_store_565_sse2+0xba>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,231 // jne 29571 <_sk_store_565_sse2+0x95>
- .byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
- .byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
- .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
- .byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,205 // jmp 29571 <_sk_store_565_sse2+0x95>
- .byte 102,68,15,126,192 // movd %xmm8,%eax
- .byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,193 // jmp 29571 <_sk_store_565_sse2+0x95>
-
-HIDDEN _sk_load_4444_sse2
-.globl _sk_load_4444_sse2
-FUNCTION(_sk_load_4444_sse2)
-_sk_load_4444_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 29627 <_sk_load_4444_sse2+0x77>
- .byte 243,65,15,126,28,80 // movq (%r8,%rdx,2),%xmm3
- .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,5,121,61,1,0 // movdqa 0x13d79(%rip),%xmm0 # 3d350 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,123,61,1,0 // mulps 0x13d7b(%rip),%xmm0 # 3d360 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
- .byte 102,15,111,13,131,61,1,0 // movdqa 0x13d83(%rip),%xmm1 # 3d370 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
- .byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,133,61,1,0 // mulps 0x13d85(%rip),%xmm1 # 3d380 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
- .byte 102,15,111,21,141,61,1,0 // movdqa 0x13d8d(%rip),%xmm2 # 3d390 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
- .byte 102,15,219,211 // pand %xmm3,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,143,61,1,0 // mulps 0x13d8f(%rip),%xmm2 # 3d3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
- .byte 102,15,219,29,151,61,1,0 // pand 0x13d97(%rip),%xmm3 # 3d3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,157,61,1,0 // mulps 0x13d9d(%rip),%xmm3 # 3d3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1174>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,47 // je 2965e <_sk_load_4444_sse2+0xae>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 2964a <_sk_load_4444_sse2+0x9a>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,148 // jne 295cf <_sk_load_4444_sse2+0x1f>
- .byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
- .byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
- .byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,113,255,255,255 // jmpq 295cf <_sk_load_4444_sse2+0x1f>
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 233,99,255,255,255 // jmpq 295cf <_sk_load_4444_sse2+0x1f>
-
-HIDDEN _sk_load_4444_dst_sse2
-.globl _sk_load_4444_dst_sse2
-FUNCTION(_sk_load_4444_dst_sse2)
-_sk_load_4444_dst_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 296e3 <_sk_load_4444_dst_sse2+0x77>
- .byte 243,65,15,126,60,80 // movq (%r8,%rdx,2),%xmm7
- .byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
- .byte 102,15,111,37,189,60,1,0 // movdqa 0x13cbd(%rip),%xmm4 # 3d350 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
- .byte 102,15,219,231 // pand %xmm7,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,37,191,60,1,0 // mulps 0x13cbf(%rip),%xmm4 # 3d360 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
- .byte 102,15,111,45,199,60,1,0 // movdqa 0x13cc7(%rip),%xmm5 # 3d370 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
- .byte 102,15,219,239 // pand %xmm7,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,45,201,60,1,0 // mulps 0x13cc9(%rip),%xmm5 # 3d380 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
- .byte 102,15,111,53,209,60,1,0 // movdqa 0x13cd1(%rip),%xmm6 # 3d390 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
- .byte 102,15,219,247 // pand %xmm7,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,53,211,60,1,0 // mulps 0x13cd3(%rip),%xmm6 # 3d3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
- .byte 102,15,219,61,219,60,1,0 // pand 0x13cdb(%rip),%xmm7 # 3d3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
- .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,61,225,60,1,0 // mulps 0x13ce1(%rip),%xmm7 # 3d3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1174>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,47 // je 2971a <_sk_load_4444_dst_sse2+0xae>
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 29706 <_sk_load_4444_dst_sse2+0x9a>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,148 // jne 2968b <_sk_load_4444_dst_sse2+0x1f>
- .byte 65,15,183,68,80,4 // movzwl 0x4(%r8,%rdx,2),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,112,252,69 // pshufd $0x45,%xmm4,%xmm7
- .byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
- .byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
- .byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 233,113,255,255,255 // jmpq 2968b <_sk_load_4444_dst_sse2+0x1f>
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,15,110,248 // movd %eax,%xmm7
- .byte 233,99,255,255,255 // jmpq 2968b <_sk_load_4444_dst_sse2+0x1f>
-
-HIDDEN _sk_gather_4444_sse2
-.globl _sk_gather_4444_sse2
-FUNCTION(_sk_gather_4444_sse2)
-_sk_gather_4444_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,65,15,254,217 // paddd %xmm9,%xmm3
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,95,208 // maxps %xmm0,%xmm2
- .byte 15,93,211 // minps %xmm3,%xmm2
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,244,217 // pmuludq %xmm1,%xmm3
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,203,232 // pshufd $0xe8,%xmm3,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,15,91,202 // cvttps2dq %xmm2,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 71,15,183,20,80 // movzwl (%r8,%r10,2),%r10d
- .byte 71,15,183,28,88 // movzwl (%r8,%r11,2),%r11d
- .byte 102,65,15,110,219 // movd %r11d,%xmm3
- .byte 102,65,15,196,218,1 // pinsrw $0x1,%r10d,%xmm3
- .byte 71,15,183,12,72 // movzwl (%r8,%r9,2),%r9d
- .byte 102,65,15,196,217,2 // pinsrw $0x2,%r9d,%xmm3
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 102,15,196,216,3 // pinsrw $0x3,%eax,%xmm3
- .byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
- .byte 102,15,111,5,102,59,1,0 // movdqa 0x13b66(%rip),%xmm0 # 3d350 <_sk_srcover_bgra_8888_sse2_lowp+0x1104>
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,5,104,59,1,0 // mulps 0x13b68(%rip),%xmm0 # 3d360 <_sk_srcover_bgra_8888_sse2_lowp+0x1114>
- .byte 102,15,111,13,112,59,1,0 // movdqa 0x13b70(%rip),%xmm1 # 3d370 <_sk_srcover_bgra_8888_sse2_lowp+0x1124>
- .byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,13,114,59,1,0 // mulps 0x13b72(%rip),%xmm1 # 3d380 <_sk_srcover_bgra_8888_sse2_lowp+0x1134>
- .byte 102,15,111,21,122,59,1,0 // movdqa 0x13b7a(%rip),%xmm2 # 3d390 <_sk_srcover_bgra_8888_sse2_lowp+0x1144>
- .byte 102,15,219,211 // pand %xmm3,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,21,124,59,1,0 // mulps 0x13b7c(%rip),%xmm2 # 3d3a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1154>
- .byte 102,15,219,29,132,59,1,0 // pand 0x13b84(%rip),%xmm3 # 3d3b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1164>
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,29,138,59,1,0 // mulps 0x13b8a(%rip),%xmm3 # 3d3c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1174>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_4444_sse2
-.globl _sk_store_4444_sse2
-FUNCTION(_sk_store_4444_sse2)
-_sk_store_4444_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,178,54,1,0 // movaps 0x136b2(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,102,59,1,0 // movaps 0x13b66(%rip),%xmm11 # 3d3d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1184>
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,65,15,114,241,12 // pslld $0xc,%xmm9
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
- .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12
- .byte 102,69,15,235,225 // por %xmm9,%xmm12
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,65,15,114,241,4 // pslld $0x4,%xmm9
- .byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 69,15,89,195 // mulps %xmm11,%xmm8
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,69,15,86,193 // orpd %xmm9,%xmm8
- .byte 102,69,15,86,196 // orpd %xmm12,%xmm8
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
- .byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 298f0 <_sk_store_4444_sse2+0xb6>
- .byte 102,69,15,214,4,80 // movq %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,34 // je 2991f <_sk_store_4444_sse2+0xe5>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,16 // je 29911 <_sk_store_4444_sse2+0xd7>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,231 // jne 298ec <_sk_store_4444_sse2+0xb2>
- .byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
- .byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
- .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
- .byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,205 // jmp 298ec <_sk_store_4444_sse2+0xb2>
- .byte 102,68,15,126,192 // movd %xmm8,%eax
- .byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,193 // jmp 298ec <_sk_store_4444_sse2+0xb2>
-
-HIDDEN _sk_load_8888_sse2
-.globl _sk_load_8888_sse2
-FUNCTION(_sk_load_8888_sse2)
-_sk_load_8888_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 299a3 <_sk_load_8888_sse2+0x78>
- .byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
- .byte 102,15,111,21,113,54,1,0 // movdqa 0x13671(%rip),%xmm2 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,189,55,1,0 // movaps 0x137bd(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,15,114,211,16 // psrld $0x10,%xmm3
- .byte 102,15,219,218 // pand %xmm2,%xmm3
- .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
- .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 299d0 <_sk_load_8888_sse2+0xa5>
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 299c5 <_sk_load_8888_sse2+0x9a>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,143 // jne 29947 <_sk_load_8888_sse2+0x1c>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
- .byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,119,255,255,255 // jmpq 29947 <_sk_load_8888_sse2+0x1c>
- .byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,108,255,255,255 // jmpq 29947 <_sk_load_8888_sse2+0x1c>
-
-HIDDEN _sk_load_8888_dst_sse2
-.globl _sk_load_8888_dst_sse2
-FUNCTION(_sk_load_8888_dst_sse2)
-_sk_load_8888_dst_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 29a53 <_sk_load_8888_dst_sse2+0x78>
- .byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
- .byte 102,15,111,53,193,53,1,0 // movdqa 0x135c1(%rip),%xmm6 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
- .byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,13,55,1,0 // movaps 0x1370d(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,224 // mulps %xmm8,%xmm4
- .byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
- .byte 102,15,114,213,8 // psrld $0x8,%xmm5
- .byte 102,15,219,238 // pand %xmm6,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 65,15,89,232 // mulps %xmm8,%xmm5
- .byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
- .byte 102,15,114,215,16 // psrld $0x10,%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
- .byte 65,15,89,240 // mulps %xmm8,%xmm6
- .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
- .byte 65,15,91,249 // cvtdq2ps %xmm9,%xmm7
- .byte 65,15,89,248 // mulps %xmm8,%xmm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 29a80 <_sk_load_8888_dst_sse2+0xa5>
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 29a75 <_sk_load_8888_dst_sse2+0x9a>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,143 // jne 299f7 <_sk_load_8888_dst_sse2+0x1c>
- .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
- .byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,119,255,255,255 // jmpq 299f7 <_sk_load_8888_dst_sse2+0x1c>
- .byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,108,255,255,255 // jmpq 299f7 <_sk_load_8888_dst_sse2+0x1c>
-
-HIDDEN _sk_gather_8888_sse2
-.globl _sk_gather_8888_sse2
-FUNCTION(_sk_gather_8888_sse2)
-_sk_gather_8888_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,80,12 // movss 0xc(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,202 // minps %xmm2,%xmm9
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,65,15,91,201 // cvttps2dq %xmm9,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,67,15,110,4,144 // movd (%r8,%r10,4),%xmm0
- .byte 102,71,15,110,12,152 // movd (%r8,%r11,4),%xmm9
- .byte 102,68,15,98,200 // punpckldq %xmm0,%xmm9
- .byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
- .byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
- .byte 102,15,98,200 // punpckldq %xmm0,%xmm1
- .byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,21,125,52,1,0 // movdqa 0x1347d(%rip),%xmm2 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,201,53,1,0 // movaps 0x135c9(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,15,114,211,16 // psrld $0x10,%xmm3
- .byte 102,15,219,218 // pand %xmm2,%xmm3
- .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
- .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_8888_sse2
-.globl _sk_store_8888_sse2
-FUNCTION(_sk_store_8888_sse2)
-_sk_store_8888_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,84,51,1,0 // movaps 0x13354(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,40,52,1,0 // movaps 0x13428(%rip),%xmm11 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
- .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12
- .byte 102,69,15,235,225 // por %xmm9,%xmm12
- .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9
- .byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 69,15,89,195 // mulps %xmm11,%xmm8
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,65,15,114,240,24 // pslld $0x18,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 102,69,15,235,196 // por %xmm12,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 29c3d <_sk_store_8888_sse2+0xa6>
- .byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,29 // je 29c62 <_sk_store_8888_sse2+0xcb>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 29c5a <_sk_store_8888_sse2+0xc3>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,236 // jne 29c39 <_sk_store_8888_sse2+0xa2>
- .byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
- .byte 102,69,15,126,76,144,8 // movd %xmm9,0x8(%r8,%rdx,4)
- .byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 29c39 <_sk_store_8888_sse2+0xa2>
- .byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,207 // jmp 29c39 <_sk_store_8888_sse2+0xa2>
-
-HIDDEN _sk_load_bgra_sse2
-.globl _sk_load_bgra_sse2
-FUNCTION(_sk_load_bgra_sse2)
-_sk_load_bgra_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 29ce2 <_sk_load_bgra_sse2+0x78>
- .byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
- .byte 102,15,111,5,50,51,1,0 // movdqa 0x13332(%rip),%xmm0 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,126,52,1,0 // movaps 0x1347e(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,15,114,211,16 // psrld $0x10,%xmm3
- .byte 102,15,219,216 // pand %xmm0,%xmm3
- .byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
- .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 29d0f <_sk_load_bgra_sse2+0xa5>
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 29d04 <_sk_load_bgra_sse2+0x9a>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,143 // jne 29c86 <_sk_load_bgra_sse2+0x1c>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
- .byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,119,255,255,255 // jmpq 29c86 <_sk_load_bgra_sse2+0x1c>
- .byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,108,255,255,255 // jmpq 29c86 <_sk_load_bgra_sse2+0x1c>
-
-HIDDEN _sk_load_bgra_dst_sse2
-.globl _sk_load_bgra_dst_sse2
-FUNCTION(_sk_load_bgra_dst_sse2)
-_sk_load_bgra_dst_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,98 // jne 29d92 <_sk_load_bgra_dst_sse2+0x78>
- .byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
- .byte 102,15,111,37,130,50,1,0 // movdqa 0x13282(%rip),%xmm4 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 68,15,40,5,206,51,1,0 // movaps 0x133ce(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,240 // mulps %xmm8,%xmm6
- .byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
- .byte 102,15,114,213,8 // psrld $0x8,%xmm5
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 65,15,89,232 // mulps %xmm8,%xmm5
- .byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
- .byte 102,15,114,215,16 // psrld $0x10,%xmm7
- .byte 102,15,219,252 // pand %xmm4,%xmm7
- .byte 15,91,231 // cvtdq2ps %xmm7,%xmm4
- .byte 65,15,89,224 // mulps %xmm8,%xmm4
- .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
- .byte 65,15,91,249 // cvtdq2ps %xmm9,%xmm7
- .byte 65,15,89,248 // mulps %xmm8,%xmm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 29dbf <_sk_load_bgra_dst_sse2+0xa5>
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 29db4 <_sk_load_bgra_dst_sse2+0x9a>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,143 // jne 29d36 <_sk_load_bgra_dst_sse2+0x1c>
- .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
- .byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,119,255,255,255 // jmpq 29d36 <_sk_load_bgra_dst_sse2+0x1c>
- .byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,108,255,255,255 // jmpq 29d36 <_sk_load_bgra_dst_sse2+0x1c>
-
-HIDDEN _sk_gather_bgra_sse2
-.globl _sk_gather_bgra_sse2
-FUNCTION(_sk_gather_bgra_sse2)
-_sk_gather_bgra_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,80,12 // movss 0xc(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,202 // minps %xmm2,%xmm9
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,65,15,91,201 // cvttps2dq %xmm9,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,67,15,110,4,144 // movd (%r8,%r10,4),%xmm0
- .byte 102,71,15,110,12,152 // movd (%r8,%r11,4),%xmm9
- .byte 102,68,15,98,200 // punpckldq %xmm0,%xmm9
- .byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
- .byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
- .byte 102,15,98,200 // punpckldq %xmm0,%xmm1
- .byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,5,62,49,1,0 // movdqa 0x1313e(%rip),%xmm0 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 68,15,40,5,138,50,1,0 // movaps 0x1328a(%rip),%xmm8 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,15,114,211,16 // psrld $0x10,%xmm3
- .byte 102,15,219,216 // pand %xmm0,%xmm3
- .byte 15,91,195 // cvtdq2ps %xmm3,%xmm0
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,65,15,114,209,24 // psrld $0x18,%xmm9
- .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_bgra_sse2
-.globl _sk_store_bgra_sse2
-FUNCTION(_sk_store_bgra_sse2)
-_sk_store_bgra_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 68,15,40,21,21,48,1,0 // movaps 0x13015(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,233,48,1,0 // movaps 0x130e9(%rip),%xmm11 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
- .byte 102,65,15,114,244,8 // pslld $0x8,%xmm12
- .byte 102,69,15,235,225 // por %xmm9,%xmm12
- .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 69,15,89,195 // mulps %xmm11,%xmm8
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,65,15,114,240,24 // pslld $0x18,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 102,69,15,235,196 // por %xmm12,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 29f7c <_sk_store_bgra_sse2+0xa6>
- .byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,29 // je 29fa1 <_sk_store_bgra_sse2+0xcb>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 29f99 <_sk_store_bgra_sse2+0xc3>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,236 // jne 29f78 <_sk_store_bgra_sse2+0xa2>
- .byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
- .byte 102,69,15,126,76,144,8 // movd %xmm9,0x8(%r8,%rdx,4)
- .byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 29f78 <_sk_store_bgra_sse2+0xa2>
- .byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,207 // jmp 29f78 <_sk_store_bgra_sse2+0xa2>
-
-HIDDEN _sk_load_1010102_sse2
-.globl _sk_load_1010102_sse2
-FUNCTION(_sk_load_1010102_sse2)
-_sk_load_1010102_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 2a024 <_sk_load_1010102_sse2+0x7b>
- .byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
- .byte 102,15,111,21,19,52,1,0 // movdqa 0x13413(%rip),%xmm2 # 3d3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,15,52,1,0 // movaps 0x1340f(%rip),%xmm8 # 3d3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,15,114,209,10 // psrld $0xa,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,15,114,211,20 // psrld $0x14,%xmm3
- .byte 102,15,219,218 // pand %xmm2,%xmm3
- .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,65,15,114,209,30 // psrld $0x1e,%xmm9
- .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,208,48,1,0 // mulps 0x130d0(%rip),%xmm3 # 3d0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xea4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 2a051 <_sk_load_1010102_sse2+0xa8>
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 2a046 <_sk_load_1010102_sse2+0x9d>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,140 // jne 29fc5 <_sk_load_1010102_sse2+0x1c>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,68,15,112,200,69 // pshufd $0x45,%xmm0,%xmm9
- .byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,116,255,255,255 // jmpq 29fc5 <_sk_load_1010102_sse2+0x1c>
- .byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,105,255,255,255 // jmpq 29fc5 <_sk_load_1010102_sse2+0x1c>
-
-HIDDEN _sk_load_1010102_dst_sse2
-.globl _sk_load_1010102_dst_sse2
-FUNCTION(_sk_load_1010102_dst_sse2)
-_sk_load_1010102_dst_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,101 // jne 2a0d7 <_sk_load_1010102_dst_sse2+0x7b>
- .byte 243,69,15,111,12,144 // movdqu (%r8,%rdx,4),%xmm9
- .byte 102,15,111,53,96,51,1,0 // movdqa 0x13360(%rip),%xmm6 # 3d3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
- .byte 102,65,15,111,225 // movdqa %xmm9,%xmm4
- .byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 68,15,40,5,92,51,1,0 // movaps 0x1335c(%rip),%xmm8 # 3d3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
- .byte 65,15,89,224 // mulps %xmm8,%xmm4
- .byte 102,65,15,111,233 // movdqa %xmm9,%xmm5
- .byte 102,15,114,213,10 // psrld $0xa,%xmm5
- .byte 102,15,219,238 // pand %xmm6,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 65,15,89,232 // mulps %xmm8,%xmm5
- .byte 102,65,15,111,249 // movdqa %xmm9,%xmm7
- .byte 102,15,114,215,20 // psrld $0x14,%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
- .byte 65,15,89,240 // mulps %xmm8,%xmm6
- .byte 102,65,15,114,209,30 // psrld $0x1e,%xmm9
- .byte 65,15,91,249 // cvtdq2ps %xmm9,%xmm7
- .byte 15,89,61,29,48,1,0 // mulps 0x1301d(%rip),%xmm7 # 3d0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xea4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 2a104 <_sk_load_1010102_dst_sse2+0xa8>
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 2a0f9 <_sk_load_1010102_dst_sse2+0x9d>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,140 // jne 2a078 <_sk_load_1010102_dst_sse2+0x1c>
- .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,204,69 // pshufd $0x45,%xmm4,%xmm9
- .byte 102,69,15,18,12,144 // movlpd (%r8,%rdx,4),%xmm9
- .byte 233,116,255,255,255 // jmpq 2a078 <_sk_load_1010102_dst_sse2+0x1c>
- .byte 102,69,15,110,12,144 // movd (%r8,%rdx,4),%xmm9
- .byte 233,105,255,255,255 // jmpq 2a078 <_sk_load_1010102_dst_sse2+0x1c>
-
-HIDDEN _sk_gather_1010102_sse2
-.globl _sk_gather_1010102_sse2
-FUNCTION(_sk_gather_1010102_sse2)
-_sk_gather_1010102_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,80,12 // movss 0xc(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,69,15,118,192 // pcmpeqd %xmm8,%xmm8
- .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,93,202 // minps %xmm2,%xmm9
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,65,15,91,201 // cvttps2dq %xmm9,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,67,15,110,4,144 // movd (%r8,%r10,4),%xmm0
- .byte 102,71,15,110,12,152 // movd (%r8,%r11,4),%xmm9
- .byte 102,68,15,98,200 // punpckldq %xmm0,%xmm9
- .byte 102,65,15,110,4,128 // movd (%r8,%rax,4),%xmm0
- .byte 102,67,15,110,12,136 // movd (%r8,%r9,4),%xmm1
- .byte 102,15,98,200 // punpckldq %xmm0,%xmm1
- .byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 102,15,111,21,25,50,1,0 // movdqa 0x13219(%rip),%xmm2 # 3d3e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1194>
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 68,15,40,5,21,50,1,0 // movaps 0x13215(%rip),%xmm8 # 3d3f0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a4>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,15,114,209,10 // psrld $0xa,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,15,114,211,20 // psrld $0x14,%xmm3
- .byte 102,15,219,218 // pand %xmm2,%xmm3
- .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,65,15,114,209,30 // psrld $0x1e,%xmm9
- .byte 65,15,91,217 // cvtdq2ps %xmm9,%xmm3
- .byte 15,89,29,214,46,1,0 // mulps 0x12ed6(%rip),%xmm3 # 3d0f0 <_sk_srcover_bgra_8888_sse2_lowp+0xea4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_1010102_sse2
-.globl _sk_store_1010102_sse2
-FUNCTION(_sk_store_1010102_sse2)
-_sk_store_1010102_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,95,200 // maxps %xmm0,%xmm9
- .byte 68,15,40,21,205,44,1,0 // movaps 0x12ccd(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 68,15,40,29,177,49,1,0 // movaps 0x131b1(%rip),%xmm11 # 3d400 <_sk_srcover_bgra_8888_sse2_lowp+0x11b4>
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
- .byte 102,65,15,114,244,10 // pslld $0xa,%xmm12
- .byte 102,69,15,235,225 // por %xmm9,%xmm12
- .byte 102,69,15,87,201 // xorpd %xmm9,%xmm9
- .byte 68,15,95,202 // maxps %xmm2,%xmm9
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,65,15,114,241,20 // pslld $0x14,%xmm9
- .byte 102,69,15,235,204 // por %xmm12,%xmm9
- .byte 68,15,95,195 // maxps %xmm3,%xmm8
- .byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 68,15,89,5,103,49,1,0 // mulps 0x13167(%rip),%xmm8 # 3d410 <_sk_srcover_bgra_8888_sse2_lowp+0x11c4>
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,65,15,114,240,30 // pslld $0x1e,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,10 // jne 2a2c8 <_sk_store_1010102_sse2+0xaa>
- .byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 137,248 // mov %edi,%eax
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,29 // je 2a2ed <_sk_store_1010102_sse2+0xcf>
- .byte 60,2 // cmp $0x2,%al
- .byte 116,17 // je 2a2e5 <_sk_store_1010102_sse2+0xc7>
- .byte 60,3 // cmp $0x3,%al
- .byte 117,236 // jne 2a2c4 <_sk_store_1010102_sse2+0xa6>
- .byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
- .byte 102,69,15,126,76,144,8 // movd %xmm9,0x8(%r8,%rdx,4)
- .byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,215 // jmp 2a2c4 <_sk_store_1010102_sse2+0xa6>
- .byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,207 // jmp 2a2c4 <_sk_store_1010102_sse2+0xa6>
-
-HIDDEN _sk_load_f16_sse2
-.globl _sk_load_f16_sse2
-FUNCTION(_sk_load_f16_sse2)
-_sk_load_f16_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 2a43e <_sk_load_f16_sse2+0x149>
- .byte 102,65,15,16,4,208 // movupd (%r8,%rdx,8),%xmm0
- .byte 243,65,15,111,76,208,16 // movdqu 0x10(%r8,%rdx,8),%xmm1
- .byte 102,68,15,40,192 // movapd %xmm0,%xmm8
- .byte 102,68,15,97,193 // punpcklwd %xmm1,%xmm8
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,68,15,105,192 // punpckhwd %xmm0,%xmm8
- .byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,65,15,97,202 // punpcklwd %xmm10,%xmm1
- .byte 102,68,15,111,13,209,48,1,0 // movdqa 0x130d1(%rip),%xmm9 # 3d420 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
- .byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
- .byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,206,48,1,0 // movdqa 0x130ce(%rip),%xmm11 # 3d430 <_sk_srcover_bgra_8888_sse2_lowp+0x11e4>
- .byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,209,48,1,0 // movdqa 0x130d1(%rip),%xmm3 # 3d440 <_sk_srcover_bgra_8888_sse2_lowp+0x11f4>
- .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
- .byte 102,15,114,241,13 // pslld $0xd,%xmm1
- .byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,192,48,1,0 // movdqa 0x130c0(%rip),%xmm12 # 3d450 <_sk_srcover_bgra_8888_sse2_lowp+0x1204>
- .byte 102,65,15,254,204 // paddd %xmm12,%xmm1
- .byte 102,15,223,193 // pandn %xmm1,%xmm0
- .byte 102,65,15,105,210 // punpckhwd %xmm10,%xmm2
- .byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
- .byte 102,69,15,219,233 // pand %xmm9,%xmm13
- .byte 102,65,15,219,211 // pand %xmm11,%xmm2
- .byte 102,65,15,114,245,16 // pslld $0x10,%xmm13
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,102,202 // pcmpgtd %xmm2,%xmm1
- .byte 102,15,114,242,13 // pslld $0xd,%xmm2
- .byte 102,65,15,235,213 // por %xmm13,%xmm2
- .byte 102,65,15,254,212 // paddd %xmm12,%xmm2
- .byte 102,15,223,202 // pandn %xmm2,%xmm1
- .byte 102,69,15,111,232 // movdqa %xmm8,%xmm13
- .byte 102,69,15,97,234 // punpcklwd %xmm10,%xmm13
- .byte 102,69,15,111,245 // movdqa %xmm13,%xmm14
- .byte 102,69,15,219,241 // pand %xmm9,%xmm14
- .byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,65,15,114,246,16 // pslld $0x10,%xmm14
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,65,15,102,213 // pcmpgtd %xmm13,%xmm2
- .byte 102,65,15,114,245,13 // pslld $0xd,%xmm13
- .byte 102,69,15,235,238 // por %xmm14,%xmm13
- .byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,65,15,223,213 // pandn %xmm13,%xmm2
- .byte 102,69,15,105,194 // punpckhwd %xmm10,%xmm8
- .byte 102,69,15,219,200 // pand %xmm8,%xmm9
- .byte 102,69,15,219,195 // pand %xmm11,%xmm8
- .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 102,65,15,102,216 // pcmpgtd %xmm8,%xmm3
- .byte 102,65,15,114,240,13 // pslld $0xd,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 102,69,15,254,196 // paddd %xmm12,%xmm8
- .byte 102,65,15,223,216 // pandn %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 242,65,15,16,4,208 // movsd (%r8,%rdx,8),%xmm0
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 2a457 <_sk_load_f16_sse2+0x162>
- .byte 243,15,126,192 // movq %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,197,254,255,255 // jmpq 2a31c <_sk_load_f16_sse2+0x27>
- .byte 102,65,15,22,68,208,8 // movhpd 0x8(%r8,%rdx,8),%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 2a31c <_sk_load_f16_sse2+0x27>
- .byte 243,65,15,126,76,208,16 // movq 0x10(%r8,%rdx,8),%xmm1
- .byte 233,164,254,255,255 // jmpq 2a31c <_sk_load_f16_sse2+0x27>
-
-HIDDEN _sk_load_f16_dst_sse2
-.globl _sk_load_f16_dst_sse2
-FUNCTION(_sk_load_f16_dst_sse2)
-_sk_load_f16_dst_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,47,1,0,0 // jne 2a5c1 <_sk_load_f16_dst_sse2+0x149>
- .byte 102,65,15,16,36,208 // movupd (%r8,%rdx,8),%xmm4
- .byte 243,65,15,111,108,208,16 // movdqu 0x10(%r8,%rdx,8),%xmm5
- .byte 102,68,15,40,196 // movapd %xmm4,%xmm8
- .byte 102,68,15,97,197 // punpcklwd %xmm5,%xmm8
- .byte 102,15,105,229 // punpckhwd %xmm5,%xmm4
- .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
- .byte 102,15,97,244 // punpcklwd %xmm4,%xmm6
- .byte 102,68,15,105,196 // punpckhwd %xmm4,%xmm8
- .byte 102,69,15,239,210 // pxor %xmm10,%xmm10
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,65,15,97,234 // punpcklwd %xmm10,%xmm5
- .byte 102,68,15,111,13,78,47,1,0 // movdqa 0x12f4e(%rip),%xmm9 # 3d420 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
- .byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
- .byte 102,69,15,219,225 // pand %xmm9,%xmm12
- .byte 102,68,15,111,29,75,47,1,0 // movdqa 0x12f4b(%rip),%xmm11 # 3d430 <_sk_srcover_bgra_8888_sse2_lowp+0x11e4>
- .byte 102,65,15,219,235 // pand %xmm11,%xmm5
- .byte 102,15,111,61,78,47,1,0 // movdqa 0x12f4e(%rip),%xmm7 # 3d440 <_sk_srcover_bgra_8888_sse2_lowp+0x11f4>
- .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4
- .byte 102,15,114,245,13 // pslld $0xd,%xmm5
- .byte 102,65,15,235,236 // por %xmm12,%xmm5
- .byte 102,68,15,111,37,61,47,1,0 // movdqa 0x12f3d(%rip),%xmm12 # 3d450 <_sk_srcover_bgra_8888_sse2_lowp+0x1204>
- .byte 102,65,15,254,236 // paddd %xmm12,%xmm5
- .byte 102,15,223,229 // pandn %xmm5,%xmm4
- .byte 102,65,15,105,242 // punpckhwd %xmm10,%xmm6
- .byte 102,68,15,111,238 // movdqa %xmm6,%xmm13
- .byte 102,69,15,219,233 // pand %xmm9,%xmm13
- .byte 102,65,15,219,243 // pand %xmm11,%xmm6
- .byte 102,65,15,114,245,16 // pslld $0x10,%xmm13
- .byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,102,238 // pcmpgtd %xmm6,%xmm5
- .byte 102,15,114,246,13 // pslld $0xd,%xmm6
- .byte 102,65,15,235,245 // por %xmm13,%xmm6
- .byte 102,65,15,254,244 // paddd %xmm12,%xmm6
- .byte 102,15,223,238 // pandn %xmm6,%xmm5
- .byte 102,69,15,111,232 // movdqa %xmm8,%xmm13
- .byte 102,69,15,97,234 // punpcklwd %xmm10,%xmm13
- .byte 102,69,15,111,245 // movdqa %xmm13,%xmm14
- .byte 102,69,15,219,241 // pand %xmm9,%xmm14
- .byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,65,15,114,246,16 // pslld $0x10,%xmm14
- .byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,65,15,102,245 // pcmpgtd %xmm13,%xmm6
- .byte 102,65,15,114,245,13 // pslld $0xd,%xmm13
- .byte 102,69,15,235,238 // por %xmm14,%xmm13
- .byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,65,15,223,245 // pandn %xmm13,%xmm6
- .byte 102,69,15,105,194 // punpckhwd %xmm10,%xmm8
- .byte 102,69,15,219,200 // pand %xmm8,%xmm9
- .byte 102,69,15,219,195 // pand %xmm11,%xmm8
- .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 102,65,15,102,248 // pcmpgtd %xmm8,%xmm7
- .byte 102,65,15,114,240,13 // pslld $0xd,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 102,69,15,254,196 // paddd %xmm12,%xmm8
- .byte 102,65,15,223,248 // pandn %xmm8,%xmm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 242,65,15,16,36,208 // movsd (%r8,%rdx,8),%xmm4
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 2a5da <_sk_load_f16_dst_sse2+0x162>
- .byte 243,15,126,228 // movq %xmm4,%xmm4
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 233,197,254,255,255 // jmpq 2a49f <_sk_load_f16_dst_sse2+0x27>
- .byte 102,65,15,22,100,208,8 // movhpd 0x8(%r8,%rdx,8),%xmm4
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,176,254,255,255 // jb 2a49f <_sk_load_f16_dst_sse2+0x27>
- .byte 243,65,15,126,108,208,16 // movq 0x10(%r8,%rdx,8),%xmm5
- .byte 233,164,254,255,255 // jmpq 2a49f <_sk_load_f16_dst_sse2+0x27>
-
-HIDDEN _sk_gather_f16_sse2
-.globl _sk_gather_f16_sse2
-FUNCTION(_sk_gather_f16_sse2)
-_sk_gather_f16_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,80,12 // movss 0xc(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,65,15,254,209 // paddd %xmm9,%xmm2
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,93,218 // minps %xmm2,%xmm3
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,95,209 // maxps %xmm1,%xmm2
- .byte 15,93,208 // minps %xmm0,%xmm2
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,15,91,194 // cvttps2dq %xmm2,%xmm0
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,15,91,203 // cvttps2dq %xmm3,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 243,67,15,126,4,208 // movq (%r8,%r10,8),%xmm0
- .byte 243,67,15,126,12,216 // movq (%r8,%r11,8),%xmm1
- .byte 102,15,108,200 // punpcklqdq %xmm0,%xmm1
- .byte 243,65,15,126,4,192 // movq (%r8,%rax,8),%xmm0
- .byte 243,67,15,126,20,200 // movq (%r8,%r9,8),%xmm2
- .byte 102,15,108,208 // punpcklqdq %xmm0,%xmm2
- .byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
- .byte 102,68,15,97,202 // punpcklwd %xmm2,%xmm9
- .byte 102,15,105,202 // punpckhwd %xmm2,%xmm1
- .byte 102,65,15,111,209 // movdqa %xmm9,%xmm2
- .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
- .byte 102,68,15,105,201 // punpckhwd %xmm1,%xmm9
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 102,68,15,111,21,76,45,1,0 // movdqa 0x12d4c(%rip),%xmm10 # 3d420 <_sk_srcover_bgra_8888_sse2_lowp+0x11d4>
- .byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
- .byte 102,69,15,219,226 // pand %xmm10,%xmm12
- .byte 102,68,15,111,29,73,45,1,0 // movdqa 0x12d49(%rip),%xmm11 # 3d430 <_sk_srcover_bgra_8888_sse2_lowp+0x11e4>
- .byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,111,29,76,45,1,0 // movdqa 0x12d4c(%rip),%xmm3 # 3d440 <_sk_srcover_bgra_8888_sse2_lowp+0x11f4>
- .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,102,193 // pcmpgtd %xmm1,%xmm0
- .byte 102,15,114,241,13 // pslld $0xd,%xmm1
- .byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,37,59,45,1,0 // movdqa 0x12d3b(%rip),%xmm12 # 3d450 <_sk_srcover_bgra_8888_sse2_lowp+0x1204>
- .byte 102,65,15,254,204 // paddd %xmm12,%xmm1
- .byte 102,15,223,193 // pandn %xmm1,%xmm0
- .byte 102,65,15,105,208 // punpckhwd %xmm8,%xmm2
- .byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
- .byte 102,69,15,219,234 // pand %xmm10,%xmm13
- .byte 102,65,15,219,211 // pand %xmm11,%xmm2
- .byte 102,65,15,114,245,16 // pslld $0x10,%xmm13
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,102,202 // pcmpgtd %xmm2,%xmm1
- .byte 102,15,114,242,13 // pslld $0xd,%xmm2
- .byte 102,65,15,235,213 // por %xmm13,%xmm2
- .byte 102,65,15,254,212 // paddd %xmm12,%xmm2
- .byte 102,15,223,202 // pandn %xmm2,%xmm1
- .byte 102,69,15,111,233 // movdqa %xmm9,%xmm13
- .byte 102,69,15,97,232 // punpcklwd %xmm8,%xmm13
- .byte 102,69,15,111,245 // movdqa %xmm13,%xmm14
- .byte 102,69,15,219,242 // pand %xmm10,%xmm14
- .byte 102,69,15,219,235 // pand %xmm11,%xmm13
- .byte 102,65,15,114,246,16 // pslld $0x10,%xmm14
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,65,15,102,213 // pcmpgtd %xmm13,%xmm2
- .byte 102,65,15,114,245,13 // pslld $0xd,%xmm13
- .byte 102,69,15,235,238 // por %xmm14,%xmm13
- .byte 102,69,15,254,236 // paddd %xmm12,%xmm13
- .byte 102,65,15,223,213 // pandn %xmm13,%xmm2
- .byte 102,69,15,105,200 // punpckhwd %xmm8,%xmm9
- .byte 102,69,15,219,209 // pand %xmm9,%xmm10
- .byte 102,69,15,219,203 // pand %xmm11,%xmm9
- .byte 102,65,15,114,242,16 // pslld $0x10,%xmm10
- .byte 102,65,15,102,217 // pcmpgtd %xmm9,%xmm3
- .byte 102,65,15,114,241,13 // pslld $0xd,%xmm9
- .byte 102,69,15,235,202 // por %xmm10,%xmm9
- .byte 102,69,15,254,204 // paddd %xmm12,%xmm9
- .byte 102,65,15,223,217 // pandn %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_store_f16_sse2
-.globl _sk_store_f16_sse2
-FUNCTION(_sk_store_f16_sse2)
-_sk_store_f16_sse2:
- .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 102,68,15,111,29,143,44,1,0 // movdqa 0x12c8f(%rip),%xmm11 # 3d460 <_sk_srcover_bgra_8888_sse2_lowp+0x1214>
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,69,15,219,195 // pand %xmm11,%xmm8
- .byte 102,68,15,111,21,140,44,1,0 // movdqa 0x12c8c(%rip),%xmm10 # 3d470 <_sk_srcover_bgra_8888_sse2_lowp+0x1224>
- .byte 102,68,15,111,240 // movdqa %xmm0,%xmm14
- .byte 102,69,15,219,242 // pand %xmm10,%xmm14
- .byte 102,15,111,61,138,44,1,0 // movdqa 0x12c8a(%rip),%xmm7 # 3d480 <_sk_srcover_bgra_8888_sse2_lowp+0x1234>
- .byte 102,68,15,111,37,17,46,1,0 // movdqa 0x12e11(%rip),%xmm12 # 3d610 <_sk_srcover_bgra_8888_sse2_lowp+0x13c4>
- .byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,65,15,114,247,3 // pslld $0x3,%xmm15
- .byte 102,69,15,219,252 // pand %xmm12,%xmm15
- .byte 102,69,15,254,248 // paddd %xmm8,%xmm15
- .byte 102,68,15,111,45,163,40,1,0 // movdqa 0x128a3(%rip),%xmm13 # 3d0c0 <_sk_srcover_bgra_8888_sse2_lowp+0xe74>
- .byte 102,69,15,254,253 // paddd %xmm13,%xmm15
- .byte 102,65,15,114,231,16 // psrad $0x10,%xmm15
- .byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
- .byte 102,69,15,102,198 // pcmpgtd %xmm14,%xmm8
- .byte 102,69,15,223,199 // pandn %xmm15,%xmm8
- .byte 102,68,15,111,241 // movdqa %xmm1,%xmm14
- .byte 102,69,15,219,243 // pand %xmm11,%xmm14
- .byte 102,68,15,111,249 // movdqa %xmm1,%xmm15
- .byte 102,65,15,114,247,3 // pslld $0x3,%xmm15
- .byte 102,69,15,219,252 // pand %xmm12,%xmm15
- .byte 102,69,15,254,254 // paddd %xmm14,%xmm15
- .byte 102,68,15,111,241 // movdqa %xmm1,%xmm14
- .byte 102,69,15,219,242 // pand %xmm10,%xmm14
- .byte 102,68,15,111,207 // movdqa %xmm7,%xmm9
- .byte 102,69,15,102,206 // pcmpgtd %xmm14,%xmm9
- .byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
- .byte 102,69,15,254,253 // paddd %xmm13,%xmm15
- .byte 102,65,15,114,231,16 // psrad $0x10,%xmm15
- .byte 102,69,15,223,207 // pandn %xmm15,%xmm9
- .byte 102,68,15,107,200 // packssdw %xmm0,%xmm9
- .byte 102,69,15,97,193 // punpcklwd %xmm9,%xmm8
- .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
- .byte 102,69,15,219,203 // pand %xmm11,%xmm9
- .byte 102,68,15,111,250 // movdqa %xmm2,%xmm15
- .byte 102,65,15,114,247,3 // pslld $0x3,%xmm15
- .byte 102,69,15,219,252 // pand %xmm12,%xmm15
- .byte 102,69,15,254,249 // paddd %xmm9,%xmm15
- .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
- .byte 102,69,15,219,202 // pand %xmm10,%xmm9
- .byte 102,68,15,111,247 // movdqa %xmm7,%xmm14
- .byte 102,69,15,102,241 // pcmpgtd %xmm9,%xmm14
- .byte 102,69,15,254,253 // paddd %xmm13,%xmm15
- .byte 102,65,15,114,231,16 // psrad $0x10,%xmm15
- .byte 102,69,15,223,247 // pandn %xmm15,%xmm14
- .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
- .byte 102,65,15,114,241,3 // pslld $0x3,%xmm9
- .byte 102,69,15,219,204 // pand %xmm12,%xmm9
- .byte 102,68,15,219,219 // pand %xmm3,%xmm11
- .byte 102,69,15,254,203 // paddd %xmm11,%xmm9
- .byte 102,69,15,254,205 // paddd %xmm13,%xmm9
- .byte 102,68,15,219,211 // pand %xmm3,%xmm10
- .byte 102,65,15,102,250 // pcmpgtd %xmm10,%xmm7
- .byte 102,65,15,114,225,16 // psrad $0x10,%xmm9
- .byte 102,65,15,223,249 // pandn %xmm9,%xmm7
- .byte 102,68,15,107,240 // packssdw %xmm0,%xmm14
- .byte 102,15,107,248 // packssdw %xmm0,%xmm7
- .byte 102,68,15,97,247 // punpcklwd %xmm7,%xmm14
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,3 // shl $0x3,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,37 // jne 2a949 <_sk_store_f16_sse2+0x186>
- .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
- .byte 102,65,15,98,254 // punpckldq %xmm14,%xmm7
- .byte 243,65,15,127,60,208 // movdqu %xmm7,(%r8,%rdx,8)
- .byte 102,69,15,106,198 // punpckhdq %xmm14,%xmm8
- .byte 243,69,15,127,68,208,16 // movdqu %xmm8,0x10(%r8,%rdx,8)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,69,15,98,206 // punpckldq %xmm14,%xmm9
- .byte 102,69,15,214,12,208 // movq %xmm9,(%r8,%rdx,8)
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,225 // je 2a940 <_sk_store_f16_sse2+0x17d>
- .byte 102,69,15,23,76,208,8 // movhpd %xmm9,0x8(%r8,%rdx,8)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,212 // jb 2a940 <_sk_store_f16_sse2+0x17d>
- .byte 102,69,15,106,198 // punpckhdq %xmm14,%xmm8
- .byte 102,69,15,214,68,208,16 // movq %xmm8,0x10(%r8,%rdx,8)
- .byte 235,198 // jmp 2a940 <_sk_store_f16_sse2+0x17d>
-
-HIDDEN _sk_load_u16_be_sse2
-.globl _sk_load_u16_be_sse2
-FUNCTION(_sk_load_u16_be_sse2)
-_sk_load_u16_be_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 77,1,201 // add %r9,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,190,0,0,0 // jne 2aa59 <_sk_load_u16_be_sse2+0xdf>
- .byte 102,67,15,16,4,65 // movupd (%r9,%r8,2),%xmm0
- .byte 243,67,15,111,76,65,16 // movdqu 0x10(%r9,%r8,2),%xmm1
- .byte 102,15,40,208 // movapd %xmm0,%xmm2
- .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,113,240,8 // psllw $0x8,%xmm0
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,65,15,97,201 // punpcklwd %xmm9,%xmm1
- .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,5,196,39,1,0 // movaps 0x127c4(%rip),%xmm8 # 3d1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,113,241,8 // psllw $0x8,%xmm1
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,235,217 // por %xmm1,%xmm3
- .byte 102,65,15,97,217 // punpcklwd %xmm9,%xmm3
- .byte 15,91,203 // cvtdq2ps %xmm3,%xmm1
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 102,68,15,111,210 // movdqa %xmm2,%xmm10
- .byte 102,65,15,113,242,8 // psllw $0x8,%xmm10
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,65,15,235,210 // por %xmm10,%xmm2
- .byte 102,65,15,97,209 // punpcklwd %xmm9,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 102,68,15,111,211 // movdqa %xmm3,%xmm10
- .byte 102,65,15,113,242,8 // psllw $0x8,%xmm10
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,65,15,235,218 // por %xmm10,%xmm3
- .byte 102,65,15,97,217 // punpcklwd %xmm9,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 242,67,15,16,4,65 // movsd (%r9,%r8,2),%xmm0
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 2aa72 <_sk_load_u16_be_sse2+0xf8>
- .byte 243,15,126,192 // movq %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,54,255,255,255 // jmpq 2a9a8 <_sk_load_u16_be_sse2+0x2e>
- .byte 102,67,15,22,68,65,8 // movhpd 0x8(%r9,%r8,2),%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 15,130,33,255,255,255 // jb 2a9a8 <_sk_load_u16_be_sse2+0x2e>
- .byte 243,67,15,126,76,65,16 // movq 0x10(%r9,%r8,2),%xmm1
- .byte 233,21,255,255,255 // jmpq 2a9a8 <_sk_load_u16_be_sse2+0x2e>
-
-HIDDEN _sk_load_rgb_u16_be_sse2
-.globl _sk_load_rgb_u16_be_sse2
-FUNCTION(_sk_load_rgb_u16_be_sse2)
-_sk_load_rgb_u16_be_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,82 // lea (%rdx,%rdx,2),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 77,1,201 // add %r9,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 15,133,175,0,0,0 // jne 2ab5f <_sk_load_rgb_u16_be_sse2+0xcc>
- .byte 243,67,15,111,20,65 // movdqu (%r9,%r8,2),%xmm2
- .byte 243,67,15,111,92,65,8 // movdqu 0x8(%r9,%r8,2),%xmm3
- .byte 102,15,115,219,4 // psrldq $0x4,%xmm3
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,115,216,6 // psrldq $0x6,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,115,217,6 // psrldq $0x6,%xmm1
- .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
- .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,113,240,8 // psllw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,65,15,97,200 // punpcklwd %xmm8,%xmm1
- .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 68,15,40,13,156,38,1,0 // movaps 0x1269c(%rip),%xmm9 # 3d1b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf64>
- .byte 65,15,89,193 // mulps %xmm9,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,113,241,8 // psllw $0x8,%xmm1
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,235,217 // por %xmm1,%xmm3
- .byte 102,65,15,97,216 // punpcklwd %xmm8,%xmm3
- .byte 15,91,203 // cvtdq2ps %xmm3,%xmm1
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,235,211 // por %xmm3,%xmm2
- .byte 102,65,15,97,208 // punpcklwd %xmm8,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,179,35,1,0 // movaps 0x123b3(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 255,224 // jmpq *%rax
- .byte 102,67,15,110,20,65 // movd (%r9,%r8,2),%xmm2
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,67,15,196,84,65,4,2 // pinsrw $0x2,0x4(%r9,%r8,2),%xmm2
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,13 // jne 2ab84 <_sk_load_rgb_u16_be_sse2+0xf1>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,80,255,255,255 // jmpq 2aad4 <_sk_load_rgb_u16_be_sse2+0x41>
- .byte 102,67,15,110,68,65,6 // movd 0x6(%r9,%r8,2),%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,67,15,196,68,65,10,2 // pinsrw $0x2,0xa(%r9,%r8,2),%xmm0
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,24 // jb 2abb5 <_sk_load_rgb_u16_be_sse2+0x122>
- .byte 102,67,15,110,92,65,12 // movd 0xc(%r9,%r8,2),%xmm3
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,67,15,196,92,65,16,2 // pinsrw $0x2,0x10(%r9,%r8,2),%xmm3
- .byte 233,31,255,255,255 // jmpq 2aad4 <_sk_load_rgb_u16_be_sse2+0x41>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,22,255,255,255 // jmpq 2aad4 <_sk_load_rgb_u16_be_sse2+0x41>
-
-HIDDEN _sk_store_u16_be_sse2
-.globl _sk_store_u16_be_sse2
-FUNCTION(_sk_store_u16_be_sse2)
-_sk_store_u16_be_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 77,1,201 // add %r9,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,40,21,38,35,1,0 // movaps 0x12326(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,93,194 // minps %xmm10,%xmm8
- .byte 68,15,40,29,170,40,1,0 // movaps 0x128aa(%rip),%xmm11 # 3d4a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1254>
- .byte 69,15,89,195 // mulps %xmm11,%xmm8
- .byte 102,69,15,91,192 // cvtps2dq %xmm8,%xmm8
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
- .byte 102,68,15,107,192 // packssdw %xmm0,%xmm8
- .byte 102,69,15,111,224 // movdqa %xmm8,%xmm12
- .byte 102,65,15,113,244,8 // psllw $0x8,%xmm12
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,69,15,235,196 // por %xmm12,%xmm8
- .byte 102,69,15,239,228 // pxor %xmm12,%xmm12
- .byte 68,15,95,225 // maxps %xmm1,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
- .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
- .byte 102,65,15,114,228,16 // psrad $0x10,%xmm12
- .byte 102,68,15,107,224 // packssdw %xmm0,%xmm12
- .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13
- .byte 102,65,15,113,245,8 // psllw $0x8,%xmm13
- .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
- .byte 102,69,15,235,229 // por %xmm13,%xmm12
- .byte 102,69,15,97,196 // punpcklwd %xmm12,%xmm8
- .byte 102,69,15,239,228 // pxor %xmm12,%xmm12
- .byte 68,15,95,226 // maxps %xmm2,%xmm12
- .byte 69,15,93,226 // minps %xmm10,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 102,69,15,91,228 // cvtps2dq %xmm12,%xmm12
- .byte 102,65,15,114,244,16 // pslld $0x10,%xmm12
- .byte 102,65,15,114,228,16 // psrad $0x10,%xmm12
- .byte 102,68,15,107,224 // packssdw %xmm0,%xmm12
- .byte 102,69,15,111,236 // movdqa %xmm12,%xmm13
- .byte 102,65,15,113,245,8 // psllw $0x8,%xmm13
- .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
- .byte 102,69,15,235,229 // por %xmm13,%xmm12
- .byte 68,15,95,203 // maxps %xmm3,%xmm9
- .byte 69,15,93,202 // minps %xmm10,%xmm9
- .byte 69,15,89,203 // mulps %xmm11,%xmm9
- .byte 102,69,15,91,201 // cvtps2dq %xmm9,%xmm9
- .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 102,65,15,114,225,16 // psrad $0x10,%xmm9
- .byte 102,68,15,107,200 // packssdw %xmm0,%xmm9
- .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
- .byte 102,65,15,113,242,8 // psllw $0x8,%xmm10
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,69,15,235,202 // por %xmm10,%xmm9
- .byte 102,69,15,97,225 // punpcklwd %xmm9,%xmm12
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,69,15,98,204 // punpckldq %xmm12,%xmm9
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,21 // jne 2ad06 <_sk_store_u16_be_sse2+0x148>
- .byte 71,15,17,12,65 // movups %xmm9,(%r9,%r8,2)
- .byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
- .byte 243,71,15,127,68,65,16 // movdqu %xmm8,0x10(%r9,%r8,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,71,15,214,12,65 // movq %xmm9,(%r9,%r8,2)
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,240 // je 2ad02 <_sk_store_u16_be_sse2+0x144>
- .byte 102,71,15,23,76,65,8 // movhpd %xmm9,0x8(%r9,%r8,2)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,227 // jb 2ad02 <_sk_store_u16_be_sse2+0x144>
- .byte 102,69,15,106,196 // punpckhdq %xmm12,%xmm8
- .byte 102,71,15,214,68,65,16 // movq %xmm8,0x10(%r9,%r8,2)
- .byte 235,213 // jmp 2ad02 <_sk_store_u16_be_sse2+0x144>
-
-HIDDEN _sk_load_f32_sse2
-.globl _sk_load_f32_sse2
-FUNCTION(_sk_load_f32_sse2)
-_sk_load_f32_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,137,208 // mov %rdx,%rax
- .byte 72,193,224,4 // shl $0x4,%rax
- .byte 70,15,16,4,8 // movups (%rax,%r9,1),%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 2ad99 <_sk_load_f32_sse2+0x6c>
- .byte 67,15,16,68,129,16 // movups 0x10(%r9,%r8,4),%xmm0
- .byte 67,15,16,92,129,32 // movups 0x20(%r9,%r8,4),%xmm3
- .byte 71,15,16,76,129,48 // movups 0x30(%r9,%r8,4),%xmm9
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 15,20,208 // unpcklps %xmm0,%xmm2
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 65,15,20,201 // unpcklps %xmm9,%xmm1
- .byte 68,15,21,192 // unpckhps %xmm0,%xmm8
- .byte 65,15,21,217 // unpckhps %xmm9,%xmm3
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
- .byte 15,18,202 // movhlps %xmm2,%xmm1
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 65,15,18,216 // movhlps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 2adab <_sk_load_f32_sse2+0x7e>
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 235,190 // jmp 2ad69 <_sk_load_f32_sse2+0x3c>
- .byte 67,15,16,68,129,16 // movups 0x10(%r9,%r8,4),%xmm0
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 2adbf <_sk_load_f32_sse2+0x92>
- .byte 67,15,16,92,129,32 // movups 0x20(%r9,%r8,4),%xmm3
- .byte 235,170 // jmp 2ad69 <_sk_load_f32_sse2+0x3c>
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,165 // jmp 2ad69 <_sk_load_f32_sse2+0x3c>
-
-HIDDEN _sk_load_f32_dst_sse2
-.globl _sk_load_f32_dst_sse2
-FUNCTION(_sk_load_f32_dst_sse2)
-_sk_load_f32_dst_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,137,208 // mov %rdx,%rax
- .byte 72,193,224,4 // shl $0x4,%rax
- .byte 70,15,16,4,8 // movups (%rax,%r9,1),%xmm8
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,66 // jne 2ae30 <_sk_load_f32_dst_sse2+0x6c>
- .byte 67,15,16,100,129,16 // movups 0x10(%r9,%r8,4),%xmm4
- .byte 67,15,16,124,129,32 // movups 0x20(%r9,%r8,4),%xmm7
- .byte 71,15,16,76,129,48 // movups 0x30(%r9,%r8,4),%xmm9
- .byte 65,15,40,240 // movaps %xmm8,%xmm6
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 15,40,239 // movaps %xmm7,%xmm5
- .byte 65,15,20,233 // unpcklps %xmm9,%xmm5
- .byte 68,15,21,196 // unpckhps %xmm4,%xmm8
- .byte 65,15,21,249 // unpckhps %xmm9,%xmm7
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 102,15,20,229 // unpcklpd %xmm5,%xmm4
- .byte 15,18,238 // movhlps %xmm6,%xmm5
- .byte 65,15,40,240 // movaps %xmm8,%xmm6
- .byte 102,15,20,247 // unpcklpd %xmm7,%xmm6
- .byte 65,15,18,248 // movhlps %xmm8,%xmm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 117,8 // jne 2ae42 <_sk_load_f32_dst_sse2+0x7e>
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,190 // jmp 2ae00 <_sk_load_f32_dst_sse2+0x3c>
- .byte 67,15,16,100,129,16 // movups 0x10(%r9,%r8,4),%xmm4
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,8 // jb 2ae56 <_sk_load_f32_dst_sse2+0x92>
- .byte 67,15,16,124,129,32 // movups 0x20(%r9,%r8,4),%xmm7
- .byte 235,170 // jmp 2ae00 <_sk_load_f32_dst_sse2+0x3c>
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,165 // jmp 2ae00 <_sk_load_f32_dst_sse2+0x3c>
-
-HIDDEN _sk_store_f32_sse2
-.globl _sk_store_f32_sse2
-FUNCTION(_sk_store_f32_sse2)
-_sk_store_f32_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,141,4,149,0,0,0,0 // lea 0x0(,%rdx,4),%r8
- .byte 76,99,72,8 // movslq 0x8(%rax),%r9
- .byte 76,15,175,201 // imul %rcx,%r9
- .byte 73,193,225,2 // shl $0x2,%r9
- .byte 76,3,8 // add (%rax),%r9
- .byte 72,137,208 // mov %rdx,%rax
- .byte 72,193,224,4 // shl $0x4,%rax
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,20,201 // unpcklps %xmm1,%xmm9
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 68,15,20,195 // unpcklps %xmm3,%xmm8
- .byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 68,15,21,209 // unpckhps %xmm1,%xmm10
- .byte 68,15,40,218 // movaps %xmm2,%xmm11
- .byte 68,15,21,219 // unpckhps %xmm3,%xmm11
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 102,69,15,20,224 // unpcklpd %xmm8,%xmm12
- .byte 69,15,18,193 // movhlps %xmm9,%xmm8
- .byte 69,15,40,202 // movaps %xmm10,%xmm9
- .byte 102,69,15,20,203 // unpcklpd %xmm11,%xmm9
- .byte 102,70,15,17,36,8 // movupd %xmm12,(%rax,%r9,1)
- .byte 72,133,255 // test %rdi,%rdi
- .byte 117,29 // jne 2aed9 <_sk_store_f32_sse2+0x7e>
- .byte 102,69,15,21,211 // unpckhpd %xmm11,%xmm10
- .byte 71,15,17,68,129,16 // movups %xmm8,0x10(%r9,%r8,4)
- .byte 102,71,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%r8,4)
- .byte 102,71,15,17,84,129,48 // movupd %xmm10,0x30(%r9,%r8,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 72,131,255,1 // cmp $0x1,%rdi
- .byte 116,246 // je 2aed5 <_sk_store_f32_sse2+0x7a>
- .byte 71,15,17,68,129,16 // movups %xmm8,0x10(%r9,%r8,4)
- .byte 72,131,255,3 // cmp $0x3,%rdi
- .byte 114,234 // jb 2aed5 <_sk_store_f32_sse2+0x7a>
- .byte 102,71,15,17,76,129,32 // movupd %xmm9,0x20(%r9,%r8,4)
- .byte 235,225 // jmp 2aed5 <_sk_store_f32_sse2+0x7a>
-
-HIDDEN _sk_repeat_x_sse2
-.globl _sk_repeat_x_sse2
-FUNCTION(_sk_repeat_x_sse2)
-_sk_repeat_x_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
- .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,240,31,1,0 // andps 0x11ff0(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,209 // subps %xmm9,%xmm10
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_repeat_y_sse2
-.globl _sk_repeat_y_sse2
-FUNCTION(_sk_repeat_y_sse2)
-_sk_repeat_y_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
- .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,84,13,175,31,1,0 // andps 0x11faf(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,209 // subps %xmm9,%xmm10
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 69,15,89,194 // mulps %xmm10,%xmm8
- .byte 65,15,92,200 // subps %xmm8,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_x_sse2
-.globl _sk_mirror_x_sse2
-FUNCTION(_sk_mirror_x_sse2)
-_sk_mirror_x_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 65,15,92,194 // subps %xmm10,%xmm0
- .byte 243,69,15,88,192 // addss %xmm8,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,85,21,1,0 // mulss 0x11555(%rip),%xmm9 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
- .byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
- .byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,78,31,1,0 // andps 0x11f4e(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 69,15,92,217 // subps %xmm9,%xmm11
- .byte 69,15,89,216 // mulps %xmm8,%xmm11
- .byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 65,15,92,194 // subps %xmm10,%xmm0
- .byte 68,15,92,224 // subps %xmm0,%xmm12
- .byte 65,15,84,196 // andps %xmm12,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_y_sse2
-.globl _sk_mirror_y_sse2
-FUNCTION(_sk_mirror_y_sse2)
-_sk_mirror_y_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,40,208 // movaps %xmm8,%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 65,15,92,202 // subps %xmm10,%xmm1
- .byte 243,69,15,88,192 // addss %xmm8,%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,89,13,233,20,1,0 // mulss 0x114e9(%rip),%xmm9 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 243,69,15,91,217 // cvttps2dq %xmm9,%xmm11
- .byte 69,15,91,219 // cvtdq2ps %xmm11,%xmm11
- .byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 68,15,84,13,226,30,1,0 // andps 0x11ee2(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 69,15,92,217 // subps %xmm9,%xmm11
- .byte 69,15,89,216 // mulps %xmm8,%xmm11
- .byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 65,15,92,202 // subps %xmm10,%xmm1
- .byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 65,15,84,204 // andps %xmm12,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_x_1_sse2
-.globl _sk_clamp_x_1_sse2
-FUNCTION(_sk_clamp_x_1_sse2)
-_sk_clamp_x_1_sse2:
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 68,15,93,5,178,30,1,0 // minps 0x11eb2(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_repeat_x_1_sse2
-.globl _sk_repeat_x_1_sse2
-FUNCTION(_sk_repeat_x_1_sse2)
-_sk_repeat_x_1_sse2:
- .byte 243,68,15,91,192 // cvttps2dq %xmm0,%xmm8
- .byte 69,15,91,200 // cvtdq2ps %xmm8,%xmm9
- .byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 68,15,40,29,144,30,1,0 // movaps 0x11e90(%rip),%xmm11 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,84,211 // andps %xmm11,%xmm10
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,92,202 // subps %xmm10,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 68,15,95,192 // maxps %xmm0,%xmm8
- .byte 69,15,93,195 // minps %xmm11,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_x_1_sse2
-.globl _sk_mirror_x_1_sse2
-FUNCTION(_sk_mirror_x_1_sse2)
-_sk_mirror_x_1_sse2:
- .byte 68,15,40,13,200,30,1,0 // movaps 0x11ec8(%rip),%xmm9 # 3cf70 <_sk_srcover_bgra_8888_sse2_lowp+0xd24>
- .byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 68,15,40,21,76,30,1,0 // movaps 0x11e4c(%rip),%xmm10 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 243,69,15,91,194 // cvttps2dq %xmm10,%xmm8
- .byte 69,15,91,216 // cvtdq2ps %xmm8,%xmm11
- .byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 68,15,40,37,66,30,1,0 // movaps 0x11e42(%rip),%xmm12 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,92,218 // subps %xmm10,%xmm11
- .byte 69,15,88,219 // addps %xmm11,%xmm11
- .byte 65,15,92,195 // subps %xmm11,%xmm0
- .byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,92,200 // subps %xmm0,%xmm9
- .byte 68,15,84,200 // andps %xmm0,%xmm9
- .byte 69,15,95,193 // maxps %xmm9,%xmm8
- .byte 69,15,93,196 // minps %xmm12,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_sse2
-.globl _sk_decal_x_sse2
-FUNCTION(_sk_decal_x_sse2)
-_sk_decal_x_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
- .byte 243,68,15,16,72,64 // movss 0x40(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,40,208 // movaps %xmm0,%xmm10
- .byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 69,15,84,208 // andps %xmm8,%xmm10
- .byte 68,15,17,16 // movups %xmm10,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_y_sse2
-.globl _sk_decal_y_sse2
-FUNCTION(_sk_decal_y_sse2)
-_sk_decal_y_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,194,193,2 // cmpleps %xmm1,%xmm8
- .byte 243,68,15,16,72,68 // movss 0x44(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 69,15,84,208 // andps %xmm8,%xmm10
- .byte 68,15,17,16 // movups %xmm10,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_and_y_sse2
-.globl _sk_decal_x_and_y_sse2
-FUNCTION(_sk_decal_x_and_y_sse2)
-_sk_decal_x_and_y_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,194,200,2 // cmpleps %xmm0,%xmm9
- .byte 243,68,15,16,80,64 // movss 0x40(%rax),%xmm10
- .byte 243,68,15,16,88,68 // movss 0x44(%rax),%xmm11
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 68,15,40,224 // movaps %xmm0,%xmm12
- .byte 69,15,194,226,1 // cmpltps %xmm10,%xmm12
- .byte 68,15,194,193,2 // cmpleps %xmm1,%xmm8
- .byte 69,15,84,193 // andps %xmm9,%xmm8
- .byte 69,15,84,196 // andps %xmm12,%xmm8
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,194,203,1 // cmpltps %xmm11,%xmm9
- .byte 69,15,84,200 // andps %xmm8,%xmm9
- .byte 68,15,17,8 // movups %xmm9,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_check_decal_mask_sse2
-.globl _sk_check_decal_mask_sse2
-FUNCTION(_sk_check_decal_mask_sse2)
-_sk_check_decal_mask_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,16,0 // movups (%rax),%xmm8
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 65,15,84,200 // andps %xmm8,%xmm1
- .byte 65,15,84,208 // andps %xmm8,%xmm2
- .byte 65,15,84,216 // andps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_luminance_to_alpha_sse2
-.globl _sk_luminance_to_alpha_sse2
-FUNCTION(_sk_luminance_to_alpha_sse2)
-_sk_luminance_to_alpha_sse2:
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,5,228,34,1,0 // mulps 0x122e4(%rip),%xmm0 # 3d4b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1264>
- .byte 15,89,13,237,34,1,0 // mulps 0x122ed(%rip),%xmm1 # 3d4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1274>
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,29,243,34,1,0 // mulps 0x122f3(%rip),%xmm3 # 3d4d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1284>
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_translate_sse2
-.globl _sk_matrix_translate_sse2
-FUNCTION(_sk_matrix_translate_sse2)
-_sk_matrix_translate_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 65,15,88,201 // addps %xmm9,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_scale_translate_sse2
-.globl _sk_matrix_scale_translate_sse2
-FUNCTION(_sk_matrix_scale_translate_sse2)
-_sk_matrix_scale_translate_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,89,201 // mulps %xmm9,%xmm1
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_2x3_sse2
-.globl _sk_matrix_2x3_sse2
-FUNCTION(_sk_matrix_2x3_sse2)
-_sk_matrix_2x3_sse2:
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,16 // movss 0x10(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,68,15,16,80,12 // movss 0xc(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_3x4_sse2
-.globl _sk_matrix_3x4_sse2
-FUNCTION(_sk_matrix_3x4_sse2)
-_sk_matrix_3x4_sse2:
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,68,15,16,80,12 // movss 0xc(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,24 // movss 0x18(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,36 // movss 0x24(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,28 // movss 0x1c(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,40 // movss 0x28(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,32 // movss 0x20(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 243,68,15,16,104,44 // movss 0x2c(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 68,15,89,226 // mulps %xmm2,%xmm12
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 69,15,89,217 // mulps %xmm9,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_4x5_sse2
-.globl _sk_matrix_4x5_sse2
-FUNCTION(_sk_matrix_4x5_sse2)
-_sk_matrix_4x5_sse2:
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,32 // movss 0x20(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,48 // movss 0x30(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 243,68,15,16,104,64 // movss 0x40(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,68,15,16,80,20 // movss 0x14(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,36 // movss 0x24(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,52 // movss 0x34(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 243,68,15,16,104,68 // movss 0x44(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,24 // movss 0x18(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,40 // movss 0x28(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 243,68,15,16,104,56 // movss 0x38(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 243,68,15,16,112,72 // movss 0x48(%rax),%xmm14
- .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 69,15,88,238 // addps %xmm14,%xmm13
- .byte 68,15,89,226 // mulps %xmm2,%xmm12
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 69,15,89,217 // mulps %xmm9,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 243,68,15,16,88,12 // movss 0xc(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,28 // movss 0x1c(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 243,68,15,16,104,44 // movss 0x2c(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 243,68,15,16,112,60 // movss 0x3c(%rax),%xmm14
- .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14
- .byte 243,68,15,16,120,76 // movss 0x4c(%rax),%xmm15
- .byte 69,15,198,255,0 // shufps $0x0,%xmm15,%xmm15
- .byte 68,15,89,243 // mulps %xmm3,%xmm14
- .byte 69,15,88,247 // addps %xmm15,%xmm14
- .byte 68,15,89,234 // mulps %xmm2,%xmm13
- .byte 69,15,88,238 // addps %xmm14,%xmm13
- .byte 69,15,89,225 // mulps %xmm9,%xmm12
- .byte 69,15,88,229 // addps %xmm13,%xmm12
- .byte 69,15,89,216 // mulps %xmm8,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,40,219 // movaps %xmm11,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_4x3_sse2
-.globl _sk_matrix_4x3_sse2
-FUNCTION(_sk_matrix_4x3_sse2)
-_sk_matrix_4x3_sse2:
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,15,16,80,16 // movss 0x10(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,88,32 // movss 0x20(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,88,36 // movss 0x24(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,88,24 // movss 0x18(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 243,68,15,16,80,40 // movss 0x28(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 65,15,89,217 // mulps %xmm9,%xmm3
- .byte 65,15,88,218 // addps %xmm10,%xmm3
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 243,68,15,16,80,28 // movss 0x1c(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,44 // movss 0x2c(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 65,15,88,218 // addps %xmm10,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_perspective_sse2
-.globl _sk_matrix_perspective_sse2
-FUNCTION(_sk_matrix_perspective_sse2)
-_sk_matrix_perspective_sse2:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,88,193 // addps %xmm9,%xmm0
- .byte 243,68,15,16,72,12 // movss 0xc(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,20 // movss 0x14(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 243,68,15,16,80,24 // movss 0x18(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,88,28 // movss 0x1c(%rax),%xmm11
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,96,32 // movss 0x20(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 69,15,88,211 // addps %xmm11,%xmm10
- .byte 65,15,83,202 // rcpps %xmm10,%xmm1
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_gradient_sse2
-.globl _sk_evenly_spaced_gradient_sse2
-FUNCTION(_sk_evenly_spaced_gradient_sse2)
-_sk_evenly_spaced_gradient_sse2:
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,139,24 // mov (%rax),%rbx
- .byte 76,139,112,8 // mov 0x8(%rax),%r14
- .byte 72,255,203 // dec %rbx
- .byte 120,7 // js 2b67d <_sk_evenly_spaced_gradient_sse2+0x18>
- .byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 235,21 // jmp 2b692 <_sk_evenly_spaced_gradient_sse2+0x2d>
- .byte 73,137,216 // mov %rbx,%r8
- .byte 73,209,232 // shr %r8
- .byte 131,227,1 // and $0x1,%ebx
- .byte 76,9,195 // or %r8,%rbx
- .byte 243,72,15,42,203 // cvtsi2ss %rbx,%xmm1
- .byte 243,15,88,201 // addss %xmm1,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,73,15,126,209 // movq %xmm2,%r9
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 102,73,15,126,203 // movq %xmm1,%r11
- .byte 69,137,218 // mov %r11d,%r10d
- .byte 73,193,235,32 // shr $0x20,%r11
- .byte 243,67,15,16,12,158 // movss (%r14,%r11,4),%xmm1
- .byte 243,71,15,16,4,150 // movss (%r14,%r10,4),%xmm8
- .byte 68,15,20,193 // unpcklps %xmm1,%xmm8
- .byte 243,67,15,16,12,142 // movss (%r14,%r9,4),%xmm1
- .byte 243,67,15,16,20,134 // movss (%r14,%r8,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
- .byte 72,139,88,40 // mov 0x28(%rax),%rbx
- .byte 243,66,15,16,12,155 // movss (%rbx,%r11,4),%xmm1
- .byte 243,70,15,16,12,147 // movss (%rbx,%r10,4),%xmm9
- .byte 68,15,20,201 // unpcklps %xmm1,%xmm9
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 243,66,15,16,20,131 // movss (%rbx,%r8,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 102,68,15,20,202 // unpcklpd %xmm2,%xmm9
- .byte 72,139,88,16 // mov 0x10(%rax),%rbx
- .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2
- .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1
- .byte 15,20,202 // unpcklps %xmm2,%xmm1
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 72,139,88,48 // mov 0x30(%rax),%rbx
- .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2
- .byte 243,70,15,16,20,147 // movss (%rbx,%r10,4),%xmm10
- .byte 68,15,20,210 // unpcklps %xmm2,%xmm10
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 102,68,15,20,211 // unpcklpd %xmm3,%xmm10
- .byte 72,139,88,24 // mov 0x18(%rax),%rbx
- .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3
- .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2
- .byte 15,20,211 // unpcklps %xmm3,%xmm2
- .byte 243,70,15,16,28,139 // movss (%rbx,%r9,4),%xmm11
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 65,15,20,219 // unpcklps %xmm11,%xmm3
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 72,139,88,56 // mov 0x38(%rax),%rbx
- .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3
- .byte 243,70,15,16,28,147 // movss (%rbx,%r10,4),%xmm11
- .byte 68,15,20,219 // unpcklps %xmm3,%xmm11
- .byte 243,70,15,16,36,139 // movss (%rbx,%r9,4),%xmm12
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 65,15,20,220 // unpcklps %xmm12,%xmm3
- .byte 102,68,15,20,219 // unpcklpd %xmm3,%xmm11
- .byte 72,139,88,32 // mov 0x20(%rax),%rbx
- .byte 243,70,15,16,36,155 // movss (%rbx,%r11,4),%xmm12
- .byte 243,66,15,16,28,147 // movss (%rbx,%r10,4),%xmm3
- .byte 65,15,20,220 // unpcklps %xmm12,%xmm3
- .byte 243,70,15,16,36,139 // movss (%rbx,%r9,4),%xmm12
- .byte 243,70,15,16,44,131 // movss (%rbx,%r8,4),%xmm13
- .byte 69,15,20,236 // unpcklps %xmm12,%xmm13
- .byte 102,65,15,20,221 // unpcklpd %xmm13,%xmm3
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 243,70,15,16,36,152 // movss (%rax,%r11,4),%xmm12
- .byte 243,70,15,16,44,144 // movss (%rax,%r10,4),%xmm13
- .byte 69,15,20,236 // unpcklps %xmm12,%xmm13
- .byte 243,70,15,16,36,136 // movss (%rax,%r9,4),%xmm12
- .byte 243,70,15,16,52,128 // movss (%rax,%r8,4),%xmm14
- .byte 69,15,20,244 // unpcklps %xmm12,%xmm14
- .byte 102,69,15,20,238 // unpcklpd %xmm14,%xmm13
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 69,15,88,193 // addps %xmm9,%xmm8
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 65,15,88,211 // addps %xmm11,%xmm2
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 65,15,88,221 // addps %xmm13,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gradient_sse2
-.globl _sk_gradient_sse2
-FUNCTION(_sk_gradient_sse2)
-_sk_gradient_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,41 // jb 2b856 <_sk_gradient_sse2+0x38>
- .byte 76,139,72,72 // mov 0x48(%rax),%r9
- .byte 73,255,200 // dec %r8
- .byte 73,131,193,4 // add $0x4,%r9
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 243,65,15,16,17 // movss (%r9),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,194,208,2 // cmpleps %xmm0,%xmm2
- .byte 102,15,250,202 // psubd %xmm2,%xmm1
- .byte 73,131,193,4 // add $0x4,%r9
- .byte 73,255,200 // dec %r8
- .byte 117,230 // jne 2b83c <_sk_gradient_sse2+0x1e>
- .byte 65,86 // push %r14
- .byte 83 // push %rbx
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,73,15,126,209 // movq %xmm2,%r9
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 102,73,15,126,203 // movq %xmm1,%r11
- .byte 69,137,218 // mov %r11d,%r10d
- .byte 73,193,235,32 // shr $0x20,%r11
- .byte 72,139,88,8 // mov 0x8(%rax),%rbx
- .byte 76,139,112,16 // mov 0x10(%rax),%r14
- .byte 243,66,15,16,12,155 // movss (%rbx,%r11,4),%xmm1
- .byte 243,70,15,16,4,147 // movss (%rbx,%r10,4),%xmm8
- .byte 68,15,20,193 // unpcklps %xmm1,%xmm8
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 243,66,15,16,20,131 // movss (%rbx,%r8,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
- .byte 72,139,88,40 // mov 0x28(%rax),%rbx
- .byte 243,66,15,16,12,155 // movss (%rbx,%r11,4),%xmm1
- .byte 243,70,15,16,12,147 // movss (%rbx,%r10,4),%xmm9
- .byte 68,15,20,201 // unpcklps %xmm1,%xmm9
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 243,66,15,16,20,131 // movss (%rbx,%r8,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 102,68,15,20,202 // unpcklpd %xmm2,%xmm9
- .byte 243,67,15,16,20,158 // movss (%r14,%r11,4),%xmm2
- .byte 243,67,15,16,12,150 // movss (%r14,%r10,4),%xmm1
- .byte 15,20,202 // unpcklps %xmm2,%xmm1
- .byte 243,67,15,16,20,142 // movss (%r14,%r9,4),%xmm2
- .byte 243,67,15,16,28,134 // movss (%r14,%r8,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 72,139,88,48 // mov 0x30(%rax),%rbx
- .byte 243,66,15,16,20,155 // movss (%rbx,%r11,4),%xmm2
- .byte 243,70,15,16,20,147 // movss (%rbx,%r10,4),%xmm10
- .byte 68,15,20,210 // unpcklps %xmm2,%xmm10
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 102,68,15,20,211 // unpcklpd %xmm3,%xmm10
- .byte 72,139,88,24 // mov 0x18(%rax),%rbx
- .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3
- .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2
- .byte 15,20,211 // unpcklps %xmm3,%xmm2
- .byte 243,70,15,16,28,139 // movss (%rbx,%r9,4),%xmm11
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 65,15,20,219 // unpcklps %xmm11,%xmm3
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 72,139,88,56 // mov 0x38(%rax),%rbx
- .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3
- .byte 243,70,15,16,28,147 // movss (%rbx,%r10,4),%xmm11
- .byte 68,15,20,219 // unpcklps %xmm3,%xmm11
- .byte 243,70,15,16,36,139 // movss (%rbx,%r9,4),%xmm12
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 65,15,20,220 // unpcklps %xmm12,%xmm3
- .byte 102,68,15,20,219 // unpcklpd %xmm3,%xmm11
- .byte 72,139,88,32 // mov 0x20(%rax),%rbx
- .byte 243,70,15,16,36,155 // movss (%rbx,%r11,4),%xmm12
- .byte 243,66,15,16,28,147 // movss (%rbx,%r10,4),%xmm3
- .byte 65,15,20,220 // unpcklps %xmm12,%xmm3
- .byte 243,70,15,16,36,139 // movss (%rbx,%r9,4),%xmm12
- .byte 243,70,15,16,44,131 // movss (%rbx,%r8,4),%xmm13
- .byte 69,15,20,236 // unpcklps %xmm12,%xmm13
- .byte 102,65,15,20,221 // unpcklpd %xmm13,%xmm3
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 243,70,15,16,36,152 // movss (%rax,%r11,4),%xmm12
- .byte 243,70,15,16,44,144 // movss (%rax,%r10,4),%xmm13
- .byte 69,15,20,236 // unpcklps %xmm12,%xmm13
- .byte 243,70,15,16,36,136 // movss (%rax,%r9,4),%xmm12
- .byte 243,70,15,16,52,128 // movss (%rax,%r8,4),%xmm14
- .byte 69,15,20,244 // unpcklps %xmm12,%xmm14
- .byte 102,69,15,20,238 // unpcklpd %xmm14,%xmm13
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 69,15,88,193 // addps %xmm9,%xmm8
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 65,15,88,211 // addps %xmm11,%xmm2
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 65,15,88,221 // addps %xmm13,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 91 // pop %rbx
- .byte 65,94 // pop %r14
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_2_stop_gradient_sse2
-.globl _sk_evenly_spaced_2_stop_gradient_sse2
-FUNCTION(_sk_evenly_spaced_2_stop_gradient_sse2)
-_sk_evenly_spaced_2_stop_gradient_sse2:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,15,16,80,16 // movss 0x10(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,88,24 // movss 0x18(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 65,15,89,208 // mulps %xmm8,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 243,68,15,16,72,28 // movss 0x1c(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 65,15,88,217 // addps %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_unit_angle_sse2
-.globl _sk_xy_to_unit_angle_sse2
-FUNCTION(_sk_xy_to_unit_angle_sse2)
-_sk_xy_to_unit_angle_sse2:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 69,15,84,200 // andps %xmm8,%xmm9
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 68,15,92,209 // subps %xmm1,%xmm10
- .byte 68,15,84,209 // andps %xmm1,%xmm10
- .byte 69,15,40,217 // movaps %xmm9,%xmm11
- .byte 69,15,93,218 // minps %xmm10,%xmm11
- .byte 69,15,40,225 // movaps %xmm9,%xmm12
- .byte 69,15,95,226 // maxps %xmm10,%xmm12
- .byte 69,15,94,220 // divps %xmm12,%xmm11
- .byte 69,15,40,227 // movaps %xmm11,%xmm12
- .byte 69,15,89,228 // mulps %xmm12,%xmm12
- .byte 68,15,40,45,79,26,1,0 // movaps 0x11a4f(%rip),%xmm13 # 3d4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
- .byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,83,26,1,0 // addps 0x11a53(%rip),%xmm13 # 3d4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12a4>
- .byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,87,26,1,0 // addps 0x11a57(%rip),%xmm13 # 3d500 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
- .byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 68,15,88,45,91,26,1,0 // addps 0x11a5b(%rip),%xmm13 # 3d510 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
- .byte 69,15,89,235 // mulps %xmm11,%xmm13
- .byte 69,15,194,202,1 // cmpltps %xmm10,%xmm9
- .byte 68,15,40,21,90,26,1,0 // movaps 0x11a5a(%rip),%xmm10 # 3d520 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
- .byte 69,15,92,213 // subps %xmm13,%xmm10
- .byte 69,15,84,209 // andps %xmm9,%xmm10
- .byte 69,15,85,205 // andnps %xmm13,%xmm9
- .byte 69,15,86,202 // orps %xmm10,%xmm9
- .byte 68,15,194,192,1 // cmpltps %xmm0,%xmm8
- .byte 68,15,40,21,29,20,1,0 // movaps 0x1141d(%rip),%xmm10 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 69,15,92,209 // subps %xmm9,%xmm10
- .byte 69,15,84,208 // andps %xmm8,%xmm10
- .byte 69,15,85,193 // andnps %xmm9,%xmm8
- .byte 69,15,86,194 // orps %xmm10,%xmm8
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,40,21,12,20,1,0 // movaps 0x1140c(%rip),%xmm10 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,208 // subps %xmm8,%xmm10
- .byte 69,15,84,209 // andps %xmm9,%xmm10
- .byte 69,15,85,200 // andnps %xmm8,%xmm9
- .byte 69,15,86,202 // orps %xmm10,%xmm9
- .byte 65,15,194,193,7 // cmpordps %xmm9,%xmm0
- .byte 65,15,84,193 // andps %xmm9,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_radius_sse2
-.globl _sk_xy_to_radius_sse2
-FUNCTION(_sk_xy_to_radius_sse2)
-_sk_xy_to_radius_sse2:
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,88,192 // addps %xmm0,%xmm8
- .byte 65,15,81,192 // sqrtps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_negate_x_sse2
-.globl _sk_negate_x_sse2
-FUNCTION(_sk_negate_x_sse2)
-_sk_negate_x_sse2:
- .byte 15,87,5,33,25,1,0 // xorps 0x11921(%rip),%xmm0 # 3d460 <_sk_srcover_bgra_8888_sse2_lowp+0x1214>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_strip_sse2
-.globl _sk_xy_to_2pt_conical_strip_sse2
-FUNCTION(_sk_xy_to_2pt_conical_strip_sse2)
-_sk_xy_to_2pt_conical_strip_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,64 // movss 0x40(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 69,15,92,193 // subps %xmm9,%xmm8
- .byte 69,15,81,192 // sqrtps %xmm8,%xmm8
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_focal_on_circle_sse2
-.globl _sk_xy_to_2pt_conical_focal_on_circle_sse2
-FUNCTION(_sk_xy_to_2pt_conical_focal_on_circle_sse2)
-_sk_xy_to_2pt_conical_focal_on_circle_sse2:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,94,192 // divps %xmm0,%xmm8
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_well_behaved_sse2
-.globl _sk_xy_to_2pt_conical_well_behaved_sse2
-FUNCTION(_sk_xy_to_2pt_conical_well_behaved_sse2)
-_sk_xy_to_2pt_conical_well_behaved_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,64 // movss 0x40(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 65,15,81,193 // sqrtps %xmm9,%xmm0
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_greater_sse2
-.globl _sk_xy_to_2pt_conical_greater_sse2
-FUNCTION(_sk_xy_to_2pt_conical_greater_sse2)
-_sk_xy_to_2pt_conical_greater_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,64 // movss 0x40(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 15,81,192 // sqrtps %xmm0,%xmm0
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_2pt_conical_smaller_sse2
-.globl _sk_xy_to_2pt_conical_smaller_sse2
-FUNCTION(_sk_xy_to_2pt_conical_smaller_sse2)
-_sk_xy_to_2pt_conical_smaller_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,64 // movss 0x40(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 15,81,192 // sqrtps %xmm0,%xmm0
- .byte 15,87,5,99,24,1,0 // xorps 0x11863(%rip),%xmm0 # 3d460 <_sk_srcover_bgra_8888_sse2_lowp+0x1214>
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_alter_2pt_conical_compensate_focal_sse2
-.globl _sk_alter_2pt_conical_compensate_focal_sse2
-FUNCTION(_sk_alter_2pt_conical_compensate_focal_sse2)
-_sk_alter_2pt_conical_compensate_focal_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,68 // movss 0x44(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_alter_2pt_conical_unswap_sse2
-.globl _sk_alter_2pt_conical_unswap_sse2
-FUNCTION(_sk_alter_2pt_conical_unswap_sse2)
-_sk_alter_2pt_conical_unswap_sse2:
- .byte 68,15,40,5,238,18,1,0 // movaps 0x112ee(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 68,15,92,192 // subps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mask_2pt_conical_nan_sse2
-.globl _sk_mask_2pt_conical_nan_sse2
-FUNCTION(_sk_mask_2pt_conical_nan_sse2)
-_sk_mask_2pt_conical_nan_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,194,192,7 // cmpordps %xmm0,%xmm8
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 68,15,17,0 // movups %xmm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mask_2pt_conical_degenerates_sse2
-.globl _sk_mask_2pt_conical_degenerates_sse2
-FUNCTION(_sk_mask_2pt_conical_degenerates_sse2)
-_sk_mask_2pt_conical_degenerates_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 69,15,95,193 // maxps %xmm9,%xmm8
- .byte 68,15,194,200,1 // cmpltps %xmm0,%xmm9
- .byte 68,15,17,8 // movups %xmm9,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_apply_vector_mask_sse2
-.globl _sk_apply_vector_mask_sse2
-FUNCTION(_sk_apply_vector_mask_sse2)
-_sk_apply_vector_mask_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,16,0 // movups (%rax),%xmm8
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 65,15,84,200 // andps %xmm8,%xmm1
- .byte 65,15,84,208 // andps %xmm8,%xmm2
- .byte 65,15,84,216 // andps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_save_xy_sse2
-.globl _sk_save_xy_sse2
-FUNCTION(_sk_save_xy_sse2)
-_sk_save_xy_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,120,18,1,0 // movaps 0x11278(%rip),%xmm8 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,17,0 // movups %xmm0,(%rax)
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 69,15,88,200 // addps %xmm8,%xmm9
- .byte 243,69,15,91,209 // cvttps2dq %xmm9,%xmm10
- .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 69,15,40,217 // movaps %xmm9,%xmm11
- .byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 68,15,40,37,99,18,1,0 // movaps 0x11263(%rip),%xmm12 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,84,220 // andps %xmm12,%xmm11
- .byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 69,15,92,202 // subps %xmm10,%xmm9
- .byte 68,15,88,193 // addps %xmm1,%xmm8
- .byte 243,69,15,91,208 // cvttps2dq %xmm8,%xmm10
- .byte 69,15,91,210 // cvtdq2ps %xmm10,%xmm10
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 69,15,194,218,1 // cmpltps %xmm10,%xmm11
- .byte 69,15,84,220 // andps %xmm12,%xmm11
- .byte 69,15,92,211 // subps %xmm11,%xmm10
- .byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 15,17,72,64 // movups %xmm1,0x40(%rax)
- .byte 68,15,17,136,128,0,0,0 // movups %xmm9,0x80(%rax)
- .byte 68,15,17,128,192,0,0,0 // movups %xmm8,0xc0(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_accumulate_sse2
-.globl _sk_accumulate_sse2
-FUNCTION(_sk_accumulate_sse2)
-_sk_accumulate_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,16,128,0,1,0,0 // movups 0x100(%rax),%xmm8
- .byte 68,15,16,136,64,1,0,0 // movups 0x140(%rax),%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 65,15,88,224 // addps %xmm8,%xmm4
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 68,15,89,193 // mulps %xmm1,%xmm8
- .byte 65,15,88,232 // addps %xmm8,%xmm5
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 68,15,89,194 // mulps %xmm2,%xmm8
- .byte 65,15,88,240 // addps %xmm8,%xmm6
- .byte 68,15,89,203 // mulps %xmm3,%xmm9
- .byte 65,15,88,249 // addps %xmm9,%xmm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_nx_sse2
-.globl _sk_bilinear_nx_sse2
-FUNCTION(_sk_bilinear_nx_sse2)
-_sk_bilinear_nx_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,227,23,1,0 // addps 0x117e3(%rip),%xmm0 # 3d530 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
- .byte 68,15,40,13,187,17,1,0 // movaps 0x111bb(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_px_sse2
-.globl _sk_bilinear_px_sse2
-FUNCTION(_sk_bilinear_px_sse2)
-_sk_bilinear_px_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,135,17,1,0 // addps 0x11187(%rip),%xmm0 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_ny_sse2
-.globl _sk_bilinear_ny_sse2
-FUNCTION(_sk_bilinear_ny_sse2)
-_sk_bilinear_ny_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,72,64 // movups 0x40(%rax),%xmm1
- .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,150,23,1,0 // addps 0x11796(%rip),%xmm1 # 3d530 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
- .byte 68,15,40,13,110,17,1,0 // movaps 0x1116e(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilinear_py_sse2
-.globl _sk_bilinear_py_sse2
-FUNCTION(_sk_bilinear_py_sse2)
-_sk_bilinear_py_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,72,64 // movups 0x40(%rax),%xmm1
- .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,57,17,1,0 // addps 0x11139(%rip),%xmm1 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n3x_sse2
-.globl _sk_bicubic_n3x_sse2
-FUNCTION(_sk_bicubic_n3x_sse2)
-_sk_bicubic_n3x_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,89,23,1,0 // addps 0x11759(%rip),%xmm0 # 3d540 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
- .byte 68,15,40,13,33,17,1,0 // movaps 0x11121(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,77,23,1,0 // mulps 0x1174d(%rip),%xmm9 # 3d550 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
- .byte 68,15,88,13,5,19,1,0 // addps 0x11305(%rip),%xmm9 # 3d110 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 68,15,17,136,0,1,0,0 // movups %xmm9,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n1x_sse2
-.globl _sk_bicubic_n1x_sse2
-FUNCTION(_sk_bicubic_n1x_sse2)
-_sk_bicubic_n1x_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,1,23,1,0 // addps 0x11701(%rip),%xmm0 # 3d530 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
- .byte 68,15,40,13,217,16,1,0 // movaps 0x110d9(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,29,23,1,0 // movaps 0x1171d(%rip),%xmm8 # 3d560 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,33,23,1,0 // addps 0x11721(%rip),%xmm8 # 3d570 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,165,16,1,0 // addps 0x110a5(%rip),%xmm8 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,25,23,1,0 // addps 0x11719(%rip),%xmm8 # 3d580 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
- .byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p1x_sse2
-.globl _sk_bicubic_p1x_sse2
-FUNCTION(_sk_bicubic_p1x_sse2)
-_sk_bicubic_p1x_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,131,16,1,0 // movaps 0x11083(%rip),%xmm8 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,136,128,0,0,0 // movups 0x80(%rax),%xmm9
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,21,204,22,1,0 // movaps 0x116cc(%rip),%xmm10 # 3d560 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,208,22,1,0 // addps 0x116d0(%rip),%xmm10 # 3d570 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,208 // addps %xmm8,%xmm10
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,204,22,1,0 // addps 0x116cc(%rip),%xmm10 # 3d580 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
- .byte 68,15,17,144,0,1,0,0 // movups %xmm10,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p3x_sse2
-.globl _sk_bicubic_p3x_sse2
-FUNCTION(_sk_bicubic_p3x_sse2)
-_sk_bicubic_p3x_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 68,15,16,128,128,0,0,0 // movups 0x80(%rax),%xmm8
- .byte 15,88,5,156,22,1,0 // addps 0x1169c(%rip),%xmm0 # 3d570 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,108,22,1,0 // mulps 0x1166c(%rip),%xmm8 # 3d550 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
- .byte 68,15,88,5,36,18,1,0 // addps 0x11224(%rip),%xmm8 # 3d110 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,17,128,0,1,0,0 // movups %xmm8,0x100(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n3y_sse2
-.globl _sk_bicubic_n3y_sse2
-FUNCTION(_sk_bicubic_n3y_sse2)
-_sk_bicubic_n3y_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,72,64 // movups 0x40(%rax),%xmm1
- .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,47,22,1,0 // addps 0x1162f(%rip),%xmm1 # 3d540 <_sk_srcover_bgra_8888_sse2_lowp+0x12f4>
- .byte 68,15,40,13,247,15,1,0 // movaps 0x10ff7(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 69,15,40,193 // movaps %xmm9,%xmm8
- .byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,89,13,35,22,1,0 // mulps 0x11623(%rip),%xmm9 # 3d550 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
- .byte 68,15,88,13,219,17,1,0 // addps 0x111db(%rip),%xmm9 # 3d110 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 68,15,17,136,64,1,0,0 // movups %xmm9,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_n1y_sse2
-.globl _sk_bicubic_n1y_sse2
-FUNCTION(_sk_bicubic_n1y_sse2)
-_sk_bicubic_n1y_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,72,64 // movups 0x40(%rax),%xmm1
- .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,214,21,1,0 // addps 0x115d6(%rip),%xmm1 # 3d530 <_sk_srcover_bgra_8888_sse2_lowp+0x12e4>
- .byte 68,15,40,13,174,15,1,0 // movaps 0x10fae(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,92,200 // subps %xmm8,%xmm9
- .byte 68,15,40,5,242,21,1,0 // movaps 0x115f2(%rip),%xmm8 # 3d560 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,246,21,1,0 // addps 0x115f6(%rip),%xmm8 # 3d570 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,122,15,1,0 // addps 0x10f7a(%rip),%xmm8 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,88,5,238,21,1,0 // addps 0x115ee(%rip),%xmm8 # 3d580 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
- .byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p1y_sse2
-.globl _sk_bicubic_p1y_sse2
-FUNCTION(_sk_bicubic_p1y_sse2)
-_sk_bicubic_p1y_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,40,5,88,15,1,0 // movaps 0x10f58(%rip),%xmm8 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,16,72,64 // movups 0x40(%rax),%xmm1
- .byte 68,15,16,136,192,0,0,0 // movups 0xc0(%rax),%xmm9
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,160,21,1,0 // movaps 0x115a0(%rip),%xmm10 # 3d560 <_sk_srcover_bgra_8888_sse2_lowp+0x1314>
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,164,21,1,0 // addps 0x115a4(%rip),%xmm10 # 3d570 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 69,15,88,208 // addps %xmm8,%xmm10
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,88,21,160,21,1,0 // addps 0x115a0(%rip),%xmm10 # 3d580 <_sk_srcover_bgra_8888_sse2_lowp+0x1334>
- .byte 68,15,17,144,64,1,0,0 // movups %xmm10,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bicubic_p3y_sse2
-.globl _sk_bicubic_p3y_sse2
-FUNCTION(_sk_bicubic_p3y_sse2)
-_sk_bicubic_p3y_sse2:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,16,72,64 // movups 0x40(%rax),%xmm1
- .byte 68,15,16,128,192,0,0,0 // movups 0xc0(%rax),%xmm8
- .byte 15,88,13,111,21,1,0 // addps 0x1156f(%rip),%xmm1 # 3d570 <_sk_srcover_bgra_8888_sse2_lowp+0x1324>
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,89,5,63,21,1,0 // mulps 0x1153f(%rip),%xmm8 # 3d550 <_sk_srcover_bgra_8888_sse2_lowp+0x1304>
- .byte 68,15,88,5,247,16,1,0 // addps 0x110f7(%rip),%xmm8 # 3d110 <_sk_srcover_bgra_8888_sse2_lowp+0xec4>
- .byte 69,15,89,193 // mulps %xmm9,%xmm8
- .byte 68,15,17,128,64,1,0,0 // movups %xmm8,0x140(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_callback_sse2
-.globl _sk_callback_sse2
-FUNCTION(_sk_callback_sse2)
-_sk_callback_sse2:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,72 // sub $0x48,%rsp
- .byte 15,41,125,144 // movaps %xmm7,-0x70(%rbp)
- .byte 15,41,117,160 // movaps %xmm6,-0x60(%rbp)
- .byte 15,41,109,176 // movaps %xmm5,-0x50(%rbp)
- .byte 15,41,101,192 // movaps %xmm4,-0x40(%rbp)
- .byte 73,137,206 // mov %rcx,%r14
- .byte 73,137,215 // mov %rdx,%r15
- .byte 73,137,253 // mov %rdi,%r13
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,137,195 // mov %rax,%rbx
- .byte 73,137,244 // mov %rsi,%r12
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,20,225 // unpcklps %xmm1,%xmm4
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 15,21,193 // unpckhps %xmm1,%xmm0
- .byte 15,21,211 // unpckhps %xmm3,%xmm2
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 15,18,236 // movhlps %xmm4,%xmm5
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 102,15,20,218 // unpcklpd %xmm2,%xmm3
- .byte 102,15,17,75,8 // movupd %xmm1,0x8(%rbx)
- .byte 15,18,208 // movhlps %xmm0,%xmm2
- .byte 15,17,107,24 // movups %xmm5,0x18(%rbx)
- .byte 102,15,17,91,40 // movupd %xmm3,0x28(%rbx)
- .byte 15,17,83,56 // movups %xmm2,0x38(%rbx)
- .byte 77,133,237 // test %r13,%r13
- .byte 190,4,0,0,0 // mov $0x4,%esi
- .byte 65,15,69,245 // cmovne %r13d,%esi
- .byte 72,137,223 // mov %rbx,%rdi
- .byte 255,19 // callq *(%rbx)
- .byte 72,139,131,8,1,0,0 // mov 0x108(%rbx),%rax
- .byte 15,16,32 // movups (%rax),%xmm4
- .byte 15,16,64,16 // movups 0x10(%rax),%xmm0
- .byte 15,16,88,32 // movups 0x20(%rax),%xmm3
- .byte 15,16,80,48 // movups 0x30(%rax),%xmm2
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,20,202 // unpcklps %xmm2,%xmm1
- .byte 15,21,224 // unpckhps %xmm0,%xmm4
- .byte 15,21,218 // unpckhps %xmm2,%xmm3
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
- .byte 15,18,205 // movhlps %xmm5,%xmm1
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 15,18,220 // movhlps %xmm4,%xmm3
- .byte 76,137,230 // mov %r12,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,137,239 // mov %r13,%rdi
- .byte 76,137,250 // mov %r15,%rdx
- .byte 76,137,241 // mov %r14,%rcx
- .byte 15,40,101,192 // movaps -0x40(%rbp),%xmm4
- .byte 15,40,109,176 // movaps -0x50(%rbp),%xmm5
- .byte 15,40,117,160 // movaps -0x60(%rbp),%xmm6
- .byte 15,40,125,144 // movaps -0x70(%rbp),%xmm7
- .byte 72,131,196,72 // add $0x48,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clut_3D_sse2
-.globl _sk_clut_3D_sse2
-FUNCTION(_sk_clut_3D_sse2)
-_sk_clut_3D_sse2:
- .byte 83 // push %rbx
- .byte 72,131,236,64 // sub $0x40,%rsp
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%rsp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%rsp)
- .byte 15,41,108,36,16 // movaps %xmm5,0x10(%rsp)
- .byte 15,41,36,36 // movaps %xmm4,(%rsp)
- .byte 15,41,92,36,240 // movaps %xmm3,-0x10(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,16 // mov 0x10(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 102,65,15,110,217 // movd %r9d,%xmm3
- .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 243,68,15,91,235 // cvttps2dq %xmm3,%xmm13
- .byte 68,15,40,219 // movaps %xmm3,%xmm11
- .byte 68,15,41,92,36,224 // movaps %xmm11,-0x20(%rsp)
- .byte 102,65,15,110,208 // movd %r8d,%xmm2
- .byte 102,68,15,112,250,0 // pshufd $0x0,%xmm2,%xmm15
- .byte 68,139,64,12 // mov 0xc(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 102,65,15,110,217 // movd %r9d,%xmm3
- .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3
- .byte 15,91,251 // cvtdq2ps %xmm3,%xmm7
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 243,15,91,239 // cvttps2dq %xmm7,%xmm5
- .byte 102,15,127,108,36,128 // movdqa %xmm5,-0x80(%rsp)
- .byte 15,41,124,36,144 // movaps %xmm7,-0x70(%rsp)
- .byte 102,15,112,205,245 // pshufd $0xf5,%xmm5,%xmm1
- .byte 102,65,15,244,207 // pmuludq %xmm15,%xmm1
- .byte 102,65,15,111,223 // movdqa %xmm15,%xmm3
- .byte 102,15,244,221 // pmuludq %xmm5,%xmm3
- .byte 102,68,15,112,211,232 // pshufd $0xe8,%xmm3,%xmm10
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,68,15,98,209 // punpckldq %xmm1,%xmm10
- .byte 102,65,15,110,200 // movd %r8d,%xmm1
- .byte 102,15,244,202 // pmuludq %xmm2,%xmm1
- .byte 102,15,112,209,0 // pshufd $0x0,%xmm1,%xmm2
- .byte 68,139,64,8 // mov 0x8(%rax),%r8d
- .byte 65,255,200 // dec %r8d
- .byte 102,65,15,110,200 // movd %r8d,%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 68,15,91,241 // cvtdq2ps %xmm1,%xmm14
- .byte 68,15,89,240 // mulps %xmm0,%xmm14
- .byte 243,69,15,91,206 // cvttps2dq %xmm14,%xmm9
- .byte 102,65,15,112,193,245 // pshufd $0xf5,%xmm9,%xmm0
- .byte 102,15,244,194 // pmuludq %xmm2,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,65,15,244,201 // pmuludq %xmm9,%xmm1
- .byte 102,15,112,217,232 // pshufd $0xe8,%xmm1,%xmm3
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,98,216 // punpckldq %xmm0,%xmm3
- .byte 102,15,127,92,36,176 // movdqa %xmm3,-0x50(%rsp)
- .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
- .byte 102,65,15,254,205 // paddd %xmm13,%xmm1
- .byte 102,68,15,127,108,36,208 // movdqa %xmm13,-0x30(%rsp)
- .byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,68,15,111,5,134,19,1,0 // movdqa 0x11386(%rip),%xmm8 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
- .byte 102,65,15,244,216 // pmuludq %xmm8,%xmm3
- .byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
- .byte 102,15,112,224,232 // pshufd $0xe8,%xmm0,%xmm4
- .byte 102,15,112,195,232 // pshufd $0xe8,%xmm3,%xmm0
- .byte 102,15,98,196 // punpckldq %xmm4,%xmm0
- .byte 102,65,15,126,216 // movd %xmm3,%r8d
- .byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
- .byte 102,65,15,126,217 // movd %xmm3,%r9d
- .byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
- .byte 102,65,15,126,218 // movd %xmm3,%r10d
- .byte 102,15,112,216,231 // pshufd $0xe7,%xmm0,%xmm3
- .byte 102,65,15,126,219 // movd %xmm3,%r11d
- .byte 72,139,24 // mov (%rax),%rbx
- .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3
- .byte 243,66,15,16,36,147 // movss (%rbx,%r10,4),%xmm4
- .byte 15,20,227 // unpcklps %xmm3,%xmm4
- .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3
- .byte 243,66,15,16,52,131 // movss (%rbx,%r8,4),%xmm6
- .byte 15,20,243 // unpcklps %xmm3,%xmm6
- .byte 102,15,20,244 // unpcklpd %xmm4,%xmm6
- .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,250,220 // psubd %xmm4,%xmm3
- .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
- .byte 102,73,15,126,224 // movq %xmm4,%r8
- .byte 102,73,15,126,217 // movq %xmm3,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
- .byte 243,66,15,16,28,147 // movss (%rbx,%r10,4),%xmm3
- .byte 15,20,220 // unpcklps %xmm4,%xmm3
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,36,131 // movss (%rbx,%r8,4),%xmm4
- .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,37,109,12,1,0 // movdqa 0x10c6d(%rip),%xmm12 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,65,15,254,196 // paddd %xmm12,%xmm0
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,73,15,126,224 // movq %xmm4,%r8
- .byte 102,73,15,126,193 // movq %xmm0,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
- .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,4,131 // movss (%rbx,%r8,4),%xmm0
- .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
- .byte 15,20,224 // unpcklps %xmm0,%xmm4
- .byte 102,15,20,236 // unpcklpd %xmm4,%xmm5
- .byte 15,40,37,114,18,1,0 // movaps 0x11272(%rip),%xmm4 # 3d590 <_sk_srcover_bgra_8888_sse2_lowp+0x1344>
- .byte 68,15,88,220 // addps %xmm4,%xmm11
- .byte 68,15,41,92,36,192 // movaps %xmm11,-0x40(%rsp)
- .byte 68,15,40,223 // movaps %xmm7,%xmm11
- .byte 68,15,88,220 // addps %xmm4,%xmm11
- .byte 65,15,88,230 // addps %xmm14,%xmm4
- .byte 243,15,91,228 // cvttps2dq %xmm4,%xmm4
- .byte 102,15,112,252,245 // pshufd $0xf5,%xmm4,%xmm7
- .byte 102,15,244,250 // pmuludq %xmm2,%xmm7
- .byte 102,15,244,212 // pmuludq %xmm4,%xmm2
- .byte 102,15,112,194,232 // pshufd $0xe8,%xmm2,%xmm0
- .byte 102,15,112,215,232 // pshufd $0xe8,%xmm7,%xmm2
- .byte 102,15,98,194 // punpckldq %xmm2,%xmm0
- .byte 102,15,127,68,36,160 // movdqa %xmm0,-0x60(%rsp)
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1
- .byte 102,65,15,244,208 // pmuludq %xmm8,%xmm2
- .byte 102,15,112,226,232 // pshufd $0xe8,%xmm2,%xmm4
- .byte 102,15,112,209,232 // pshufd $0xe8,%xmm1,%xmm2
- .byte 102,15,98,212 // punpckldq %xmm4,%xmm2
- .byte 102,65,15,126,200 // movd %xmm1,%r8d
- .byte 102,15,112,202,229 // pshufd $0xe5,%xmm2,%xmm1
- .byte 102,65,15,126,201 // movd %xmm1,%r9d
- .byte 102,15,112,202,78 // pshufd $0x4e,%xmm2,%xmm1
- .byte 102,65,15,126,202 // movd %xmm1,%r10d
- .byte 102,15,112,202,231 // pshufd $0xe7,%xmm2,%xmm1
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1
- .byte 243,66,15,16,36,147 // movss (%rbx,%r10,4),%xmm4
- .byte 15,20,225 // unpcklps %xmm1,%xmm4
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 243,66,15,16,60,131 // movss (%rbx,%r8,4),%xmm7
- .byte 15,20,249 // unpcklps %xmm1,%xmm7
- .byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,231,17,1,0 // psubd 0x111e7(%rip),%xmm1 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
- .byte 102,73,15,126,224 // movq %xmm4,%r8
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1
- .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
- .byte 15,20,225 // unpcklps %xmm1,%xmm4
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 102,15,20,224 // unpcklpd %xmm0,%xmm4
- .byte 102,65,15,254,212 // paddd %xmm12,%xmm2
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,73,15,126,192 // movq %xmm0,%r8
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 15,20,208 // unpcklps %xmm0,%xmm2
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,4,131 // movss (%rbx,%r8,4),%xmm0
- .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 102,15,20,209 // unpcklpd %xmm1,%xmm2
- .byte 65,15,91,193 // cvtdq2ps %xmm9,%xmm0
- .byte 68,15,92,240 // subps %xmm0,%xmm14
- .byte 15,92,254 // subps %xmm6,%xmm7
- .byte 65,15,89,254 // mulps %xmm14,%xmm7
- .byte 15,88,254 // addps %xmm6,%xmm7
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 65,15,89,230 // mulps %xmm14,%xmm4
- .byte 15,88,227 // addps %xmm3,%xmm4
- .byte 15,92,213 // subps %xmm5,%xmm2
- .byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 243,65,15,91,195 // cvttps2dq %xmm11,%xmm0
- .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,65,15,244,207 // pmuludq %xmm15,%xmm1
- .byte 102,68,15,244,248 // pmuludq %xmm0,%xmm15
- .byte 102,69,15,112,231,232 // pshufd $0xe8,%xmm15,%xmm12
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,68,15,98,224 // punpckldq %xmm0,%xmm12
- .byte 102,65,15,111,244 // movdqa %xmm12,%xmm6
- .byte 102,65,15,254,245 // paddd %xmm13,%xmm6
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,15,254,76,36,176 // paddd -0x50(%rsp),%xmm1
- .byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1
- .byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,15,112,216,232 // pshufd $0xe8,%xmm0,%xmm3
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,98,195 // punpckldq %xmm3,%xmm0
- .byte 102,65,15,126,200 // movd %xmm1,%r8d
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,65,15,126,201 // movd %xmm1,%r9d
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,65,15,126,202 // movd %xmm1,%r10d
- .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1
- .byte 243,66,15,16,28,147 // movss (%rbx,%r10,4),%xmm3
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 243,70,15,16,4,131 // movss (%rbx,%r8,4),%xmm8
- .byte 68,15,20,193 // unpcklps %xmm1,%xmm8
- .byte 102,68,15,20,195 // unpcklpd %xmm3,%xmm8
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,65,15,250,201 // psubd %xmm9,%xmm1
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,73,15,126,216 // movq %xmm3,%r8
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1
- .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 15,20,233 // unpcklps %xmm1,%xmm5
- .byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,111,45,223,9,1,0 // movdqa 0x109df(%rip),%xmm13 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,65,15,254,197 // paddd %xmm13,%xmm0
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,73,15,126,200 // movq %xmm1,%r8
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,4,131 // movss (%rbx,%r8,4),%xmm0
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 102,15,254,116,36,160 // paddd -0x60(%rsp),%xmm6
- .byte 102,15,112,198,245 // pshufd $0xf5,%xmm6,%xmm0
- .byte 102,65,15,244,243 // pmuludq %xmm11,%xmm6
- .byte 102,65,15,244,195 // pmuludq %xmm11,%xmm0
- .byte 102,15,112,232,232 // pshufd $0xe8,%xmm0,%xmm5
- .byte 102,15,112,198,232 // pshufd $0xe8,%xmm6,%xmm0
- .byte 102,15,98,197 // punpckldq %xmm5,%xmm0
- .byte 102,65,15,126,240 // movd %xmm6,%r8d
- .byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
- .byte 102,65,15,126,233 // movd %xmm5,%r9d
- .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
- .byte 102,65,15,126,234 // movd %xmm5,%r10d
- .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5
- .byte 102,15,126,232 // movd %xmm5,%eax
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 243,66,15,16,52,147 // movss (%rbx,%r10,4),%xmm6
- .byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
- .byte 243,70,15,16,60,131 // movss (%rbx,%r8,4),%xmm15
- .byte 68,15,20,253 // unpcklps %xmm5,%xmm15
- .byte 102,68,15,20,254 // unpcklpd %xmm6,%xmm15
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,65,15,250,233 // psubd %xmm9,%xmm5
- .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
- .byte 102,73,15,126,240 // movq %xmm6,%r8
- .byte 102,72,15,126,232 // movq %xmm5,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 243,70,15,16,28,139 // movss (%rbx,%r9,4),%xmm11
- .byte 68,15,20,221 // unpcklps %xmm5,%xmm11
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,44,131 // movss (%rbx,%r8,4),%xmm5
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 102,68,15,20,222 // unpcklpd %xmm6,%xmm11
- .byte 102,65,15,254,197 // paddd %xmm13,%xmm0
- .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
- .byte 102,73,15,126,232 // movq %xmm5,%r8
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 243,70,15,16,12,139 // movss (%rbx,%r9,4),%xmm9
- .byte 68,15,20,200 // unpcklps %xmm0,%xmm9
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,4,131 // movss (%rbx,%r8,4),%xmm0
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 102,68,15,20,205 // unpcklpd %xmm5,%xmm9
- .byte 69,15,92,248 // subps %xmm8,%xmm15
- .byte 69,15,89,254 // mulps %xmm14,%xmm15
- .byte 69,15,88,248 // addps %xmm8,%xmm15
- .byte 68,15,92,219 // subps %xmm3,%xmm11
- .byte 69,15,89,222 // mulps %xmm14,%xmm11
- .byte 68,15,88,219 // addps %xmm3,%xmm11
- .byte 68,15,92,201 // subps %xmm1,%xmm9
- .byte 69,15,89,206 // mulps %xmm14,%xmm9
- .byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 15,91,68,36,128 // cvtdq2ps -0x80(%rsp),%xmm0
- .byte 15,40,76,36,144 // movaps -0x70(%rsp),%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,41,76,36,144 // movaps %xmm1,-0x70(%rsp)
- .byte 68,15,92,255 // subps %xmm7,%xmm15
- .byte 68,15,89,249 // mulps %xmm1,%xmm15
- .byte 68,15,88,255 // addps %xmm7,%xmm15
- .byte 68,15,92,220 // subps %xmm4,%xmm11
- .byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,88,220 // addps %xmm4,%xmm11
- .byte 68,15,92,202 // subps %xmm2,%xmm9
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 68,15,88,202 // addps %xmm2,%xmm9
- .byte 243,15,91,68,36,192 // cvttps2dq -0x40(%rsp),%xmm0
- .byte 102,15,127,68,36,128 // movdqa %xmm0,-0x80(%rsp)
- .byte 102,68,15,254,208 // paddd %xmm0,%xmm10
- .byte 102,15,111,116,36,176 // movdqa -0x50(%rsp),%xmm6
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,65,15,254,202 // paddd %xmm10,%xmm1
- .byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,29,130,14,1,0 // movdqa 0x10e82(%rip),%xmm3 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,15,244,203 // pmuludq %xmm3,%xmm1
- .byte 102,15,244,211 // pmuludq %xmm3,%xmm2
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,112,217,232 // pshufd $0xe8,%xmm1,%xmm3
- .byte 102,15,98,218 // punpckldq %xmm2,%xmm3
- .byte 102,65,15,126,200 // movd %xmm1,%r8d
- .byte 102,15,112,203,229 // pshufd $0xe5,%xmm3,%xmm1
- .byte 102,65,15,126,201 // movd %xmm1,%r9d
- .byte 102,15,112,203,78 // pshufd $0x4e,%xmm3,%xmm1
- .byte 102,65,15,126,202 // movd %xmm1,%r10d
- .byte 102,15,112,203,231 // pshufd $0xe7,%xmm3,%xmm1
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1
- .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 15,20,204 // unpcklps %xmm4,%xmm1
- .byte 102,15,20,202 // unpcklpd %xmm2,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,69,15,118,237 // pcmpeqd %xmm13,%xmm13
- .byte 102,65,15,250,213 // psubd %xmm13,%xmm2
- .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
- .byte 102,73,15,126,224 // movq %xmm4,%r8
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 15,20,212 // unpcklps %xmm4,%xmm2
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,36,131 // movss (%rbx,%r8,4),%xmm4
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 102,15,111,5,114,7,1,0 // movdqa 0x10772(%rip),%xmm0 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,15,254,216 // paddd %xmm0,%xmm3
- .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
- .byte 102,73,15,126,224 // movq %xmm4,%r8
- .byte 102,72,15,126,216 // movq %xmm3,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
- .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3
- .byte 15,20,220 // unpcklps %xmm4,%xmm3
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,36,131 // movss (%rbx,%r8,4),%xmm4
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,68,15,254,84,36,160 // paddd -0x60(%rsp),%xmm10
- .byte 102,65,15,112,226,245 // pshufd $0xf5,%xmm10,%xmm4
- .byte 102,68,15,244,215 // pmuludq %xmm7,%xmm10
- .byte 102,15,244,231 // pmuludq %xmm7,%xmm4
- .byte 102,15,112,236,232 // pshufd $0xe8,%xmm4,%xmm5
- .byte 102,65,15,112,226,232 // pshufd $0xe8,%xmm10,%xmm4
- .byte 102,15,98,229 // punpckldq %xmm5,%xmm4
- .byte 102,69,15,126,208 // movd %xmm10,%r8d
- .byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
- .byte 102,65,15,126,233 // movd %xmm5,%r9d
- .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
- .byte 102,65,15,126,234 // movd %xmm5,%r10d
- .byte 102,15,112,236,231 // pshufd $0xe7,%xmm4,%xmm5
- .byte 102,15,126,232 // movd %xmm5,%eax
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 243,66,15,16,60,147 // movss (%rbx,%r10,4),%xmm7
- .byte 15,20,253 // unpcklps %xmm5,%xmm7
- .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
- .byte 243,70,15,16,4,131 // movss (%rbx,%r8,4),%xmm8
- .byte 68,15,20,197 // unpcklps %xmm5,%xmm8
- .byte 102,68,15,20,199 // unpcklpd %xmm7,%xmm8
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,65,15,250,237 // psubd %xmm13,%xmm5
- .byte 102,15,112,253,78 // pshufd $0x4e,%xmm5,%xmm7
- .byte 102,73,15,126,248 // movq %xmm7,%r8
- .byte 102,72,15,126,232 // movq %xmm5,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 243,70,15,16,44,139 // movss (%rbx,%r9,4),%xmm13
- .byte 68,15,20,237 // unpcklps %xmm5,%xmm13
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,44,131 // movss (%rbx,%r8,4),%xmm5
- .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
- .byte 15,20,253 // unpcklps %xmm5,%xmm7
- .byte 102,68,15,20,239 // unpcklpd %xmm7,%xmm13
- .byte 102,15,254,224 // paddd %xmm0,%xmm4
- .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
- .byte 102,73,15,126,232 // movq %xmm5,%r8
- .byte 102,72,15,126,224 // movq %xmm4,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
- .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,36,131 // movss (%rbx,%r8,4),%xmm4
- .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
- .byte 15,20,252 // unpcklps %xmm4,%xmm7
- .byte 102,15,20,239 // unpcklpd %xmm7,%xmm5
- .byte 68,15,92,193 // subps %xmm1,%xmm8
- .byte 69,15,89,198 // mulps %xmm14,%xmm8
- .byte 68,15,88,193 // addps %xmm1,%xmm8
- .byte 68,15,92,234 // subps %xmm2,%xmm13
- .byte 69,15,89,238 // mulps %xmm14,%xmm13
- .byte 68,15,88,234 // addps %xmm2,%xmm13
- .byte 15,92,235 // subps %xmm3,%xmm5
- .byte 65,15,89,238 // mulps %xmm14,%xmm5
- .byte 15,88,235 // addps %xmm3,%xmm5
- .byte 102,68,15,254,100,36,128 // paddd -0x80(%rsp),%xmm12
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,65,15,254,212 // paddd %xmm12,%xmm2
- .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,95,12,1,0 // movdqa 0x10c5f(%rip),%xmm1 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,193 // pmuludq %xmm1,%xmm0
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
- .byte 102,15,112,194,232 // pshufd $0xe8,%xmm2,%xmm0
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 102,65,15,126,208 // movd %xmm2,%r8d
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,65,15,126,201 // movd %xmm1,%r9d
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,65,15,126,202 // movd %xmm1,%r10d
- .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1
- .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 243,70,15,16,20,131 // movss (%rbx,%r8,4),%xmm10
- .byte 68,15,20,209 // unpcklps %xmm1,%xmm10
- .byte 102,68,15,20,210 // unpcklpd %xmm2,%xmm10
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,4,12,1,0 // psubd 0x10c04(%rip),%xmm1 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,73,15,126,208 // movq %xmm2,%r8
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1
- .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
- .byte 15,20,225 // unpcklps %xmm1,%xmm4
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,254,5,79,5,1,0 // paddd 0x1054f(%rip),%xmm0 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,73,15,126,200 // movq %xmm1,%r8
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3
- .byte 15,20,216 // unpcklps %xmm0,%xmm3
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,4,131 // movss (%rbx,%r8,4),%xmm0
- .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,68,15,254,100,36,160 // paddd -0x60(%rsp),%xmm12
- .byte 102,65,15,112,196,245 // pshufd $0xf5,%xmm12,%xmm0
- .byte 102,68,15,244,230 // pmuludq %xmm6,%xmm12
- .byte 102,15,244,198 // pmuludq %xmm6,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,65,15,112,212,232 // pshufd $0xe8,%xmm12,%xmm2
- .byte 102,15,98,208 // punpckldq %xmm0,%xmm2
- .byte 102,69,15,126,224 // movd %xmm12,%r8d
- .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
- .byte 102,65,15,126,193 // movd %xmm0,%r9d
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,65,15,126,194 // movd %xmm0,%r10d
- .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7
- .byte 243,66,15,16,4,131 // movss (%rbx,%r8,4),%xmm0
- .byte 15,20,199 // unpcklps %xmm7,%xmm0
- .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,14,11,1,0 // psubd 0x10b0e(%rip),%xmm1 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,15,112,249,78 // pshufd $0x4e,%xmm1,%xmm7
- .byte 102,73,15,126,248 // movq %xmm7,%r8
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 15,20,207 // unpcklps %xmm7,%xmm1
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,60,131 // movss (%rbx,%r8,4),%xmm7
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 15,20,247 // unpcklps %xmm7,%xmm6
- .byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,254,21,89,4,1,0 // paddd 0x10459(%rip),%xmm2 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
- .byte 102,73,15,126,240 // movq %xmm6,%r8
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 15,20,214 // unpcklps %xmm6,%xmm2
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,52,131 // movss (%rbx,%r8,4),%xmm6
- .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 65,15,92,194 // subps %xmm10,%xmm0
- .byte 65,15,89,198 // mulps %xmm14,%xmm0
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 15,92,204 // subps %xmm4,%xmm1
- .byte 65,15,89,206 // mulps %xmm14,%xmm1
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 65,15,89,214 // mulps %xmm14,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 15,40,92,36,144 // movaps -0x70(%rsp),%xmm3
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 65,15,92,205 // subps %xmm13,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 65,15,88,205 // addps %xmm13,%xmm1
- .byte 15,92,213 // subps %xmm5,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,91,92,36,208 // cvtdq2ps -0x30(%rsp),%xmm3
- .byte 15,40,100,36,224 // movaps -0x20(%rsp),%xmm4
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 65,15,92,199 // subps %xmm15,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 65,15,88,199 // addps %xmm15,%xmm0
- .byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 65,15,88,203 // addps %xmm11,%xmm1
- .byte 65,15,92,209 // subps %xmm9,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,92,36,240 // movaps -0x10(%rsp),%xmm3
- .byte 15,40,36,36 // movaps (%rsp),%xmm4
- .byte 15,40,108,36,16 // movaps 0x10(%rsp),%xmm5
- .byte 15,40,116,36,32 // movaps 0x20(%rsp),%xmm6
- .byte 15,40,124,36,48 // movaps 0x30(%rsp),%xmm7
- .byte 72,131,196,64 // add $0x40,%rsp
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clut_4D_sse2
-.globl _sk_clut_4D_sse2
-FUNCTION(_sk_clut_4D_sse2)
-_sk_clut_4D_sse2:
- .byte 83 // push %rbx
- .byte 72,129,236,160,0,0,0 // sub $0xa0,%rsp
- .byte 15,41,188,36,144,0,0,0 // movaps %xmm7,0x90(%rsp)
- .byte 15,41,180,36,128,0,0,0 // movaps %xmm6,0x80(%rsp)
- .byte 15,41,108,36,112 // movaps %xmm5,0x70(%rsp)
- .byte 15,41,100,36,96 // movaps %xmm4,0x60(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,139,64,20 // mov 0x14(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 102,65,15,110,225 // movd %r9d,%xmm4
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 102,65,15,110,216 // movd %r8d,%xmm3
- .byte 102,15,112,251,0 // pshufd $0x0,%xmm3,%xmm7
- .byte 102,15,127,124,36,128 // movdqa %xmm7,-0x80(%rsp)
- .byte 68,139,64,16 // mov 0x10(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 102,65,15,110,225 // movd %r9d,%xmm4
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,226 // mulps %xmm2,%xmm4
- .byte 243,15,91,244 // cvttps2dq %xmm4,%xmm6
- .byte 102,15,127,116,36,208 // movdqa %xmm6,-0x30(%rsp)
- .byte 68,15,40,252 // movaps %xmm4,%xmm15
- .byte 68,15,41,124,36,240 // movaps %xmm15,-0x10(%rsp)
- .byte 102,15,112,214,245 // pshufd $0xf5,%xmm6,%xmm2
- .byte 102,15,244,215 // pmuludq %xmm7,%xmm2
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,244,230 // pmuludq %xmm6,%xmm4
- .byte 102,68,15,112,244,232 // pshufd $0xe8,%xmm4,%xmm14
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,68,15,98,242 // punpckldq %xmm2,%xmm14
- .byte 102,65,15,110,208 // movd %r8d,%xmm2
- .byte 102,15,244,211 // pmuludq %xmm3,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,244,216 // pmuludq %xmm0,%xmm3
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,15,98,211 // punpckldq %xmm3,%xmm2
- .byte 102,68,15,112,226,0 // pshufd $0x0,%xmm2,%xmm12
- .byte 68,139,64,12 // mov 0xc(%rax),%r8d
- .byte 69,141,72,255 // lea -0x1(%r8),%r9d
- .byte 102,65,15,110,217 // movd %r9d,%xmm3
- .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3
- .byte 68,15,91,219 // cvtdq2ps %xmm3,%xmm11
- .byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 243,65,15,91,227 // cvttps2dq %xmm11,%xmm4
- .byte 102,15,127,100,36,192 // movdqa %xmm4,-0x40(%rsp)
- .byte 68,15,41,92,36,144 // movaps %xmm11,-0x70(%rsp)
- .byte 102,15,112,204,245 // pshufd $0xf5,%xmm4,%xmm1
- .byte 102,65,15,244,204 // pmuludq %xmm12,%xmm1
- .byte 102,65,15,111,220 // movdqa %xmm12,%xmm3
- .byte 102,15,244,220 // pmuludq %xmm4,%xmm3
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,98,217 // punpckldq %xmm1,%xmm3
- .byte 102,15,127,28,36 // movdqa %xmm3,(%rsp)
- .byte 102,65,15,110,200 // movd %r8d,%xmm1
- .byte 102,15,244,202 // pmuludq %xmm2,%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 68,139,64,8 // mov 0x8(%rax),%r8d
- .byte 65,255,200 // dec %r8d
- .byte 102,65,15,110,208 // movd %r8d,%xmm2
- .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
- .byte 68,15,91,234 // cvtdq2ps %xmm2,%xmm13
- .byte 68,15,89,232 // mulps %xmm0,%xmm13
- .byte 243,69,15,91,205 // cvttps2dq %xmm13,%xmm9
- .byte 102,65,15,112,193,245 // pshufd $0xf5,%xmm9,%xmm0
- .byte 102,15,244,193 // pmuludq %xmm1,%xmm0
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,65,15,244,209 // pmuludq %xmm9,%xmm2
- .byte 102,15,112,226,232 // pshufd $0xe8,%xmm2,%xmm4
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,98,224 // punpckldq %xmm0,%xmm4
- .byte 102,15,127,100,36,160 // movdqa %xmm4,-0x60(%rsp)
- .byte 243,15,91,197 // cvttps2dq %xmm5,%xmm0
- .byte 102,15,127,68,36,48 // movdqa %xmm0,0x30(%rsp)
- .byte 68,15,40,197 // movaps %xmm5,%xmm8
- .byte 68,15,41,68,36,80 // movaps %xmm8,0x50(%rsp)
- .byte 102,69,15,111,214 // movdqa %xmm14,%xmm10
- .byte 102,68,15,254,208 // paddd %xmm0,%xmm10
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,65,15,254,210 // paddd %xmm10,%xmm2
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,37,81,8,1,0 // movdqa 0x10851(%rip),%xmm4 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
- .byte 102,15,244,220 // pmuludq %xmm4,%xmm3
- .byte 102,15,244,196 // pmuludq %xmm4,%xmm0
- .byte 102,15,112,224,232 // pshufd $0xe8,%xmm0,%xmm4
- .byte 102,15,112,195,232 // pshufd $0xe8,%xmm3,%xmm0
- .byte 102,15,98,196 // punpckldq %xmm4,%xmm0
- .byte 102,65,15,126,216 // movd %xmm3,%r8d
- .byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
- .byte 102,65,15,126,217 // movd %xmm3,%r9d
- .byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
- .byte 102,65,15,126,218 // movd %xmm3,%r10d
- .byte 102,15,112,216,231 // pshufd $0xe7,%xmm0,%xmm3
- .byte 102,65,15,126,219 // movd %xmm3,%r11d
- .byte 72,139,24 // mov (%rax),%rbx
- .byte 243,66,15,16,28,155 // movss (%rbx,%r11,4),%xmm3
- .byte 243,66,15,16,36,147 // movss (%rbx,%r10,4),%xmm4
- .byte 15,20,227 // unpcklps %xmm3,%xmm4
- .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3
- .byte 243,66,15,16,60,131 // movss (%rbx,%r8,4),%xmm7
- .byte 15,20,251 // unpcklps %xmm3,%xmm7
- .byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,250,220 // psubd %xmm4,%xmm3
- .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
- .byte 102,73,15,126,224 // movq %xmm4,%r8
- .byte 102,73,15,126,217 // movq %xmm3,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
- .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,36,131 // movss (%rbx,%r8,4),%xmm4
- .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,5,59,1,1,0 // paddd 0x1013b(%rip),%xmm0 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,73,15,126,224 // movq %xmm4,%r8
- .byte 102,73,15,126,193 // movq %xmm0,%r9
- .byte 69,137,202 // mov %r9d,%r10d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
- .byte 243,66,15,16,28,147 // movss (%rbx,%r10,4),%xmm3
- .byte 15,20,220 // unpcklps %xmm4,%xmm3
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,36,131 // movss (%rbx,%r8,4),%xmm4
- .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,53,69,7,1,0 // movaps 0x10745(%rip),%xmm6 # 3d590 <_sk_srcover_bgra_8888_sse2_lowp+0x1344>
- .byte 68,15,88,198 // addps %xmm6,%xmm8
- .byte 68,15,41,68,36,176 // movaps %xmm8,-0x50(%rsp)
- .byte 68,15,88,254 // addps %xmm6,%xmm15
- .byte 68,15,41,124,36,64 // movaps %xmm15,0x40(%rsp)
- .byte 69,15,40,195 // movaps %xmm11,%xmm8
- .byte 68,15,88,198 // addps %xmm6,%xmm8
- .byte 65,15,88,245 // addps %xmm13,%xmm6
- .byte 243,15,91,246 // cvttps2dq %xmm6,%xmm6
- .byte 102,15,112,198,245 // pshufd $0xf5,%xmm6,%xmm0
- .byte 102,15,244,193 // pmuludq %xmm1,%xmm0
- .byte 102,15,244,206 // pmuludq %xmm6,%xmm1
- .byte 102,68,15,112,249,232 // pshufd $0xe8,%xmm1,%xmm15
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,68,15,98,248 // punpckldq %xmm0,%xmm15
- .byte 102,65,15,254,215 // paddd %xmm15,%xmm2
- .byte 102,68,15,127,124,36,224 // movdqa %xmm15,-0x20(%rsp)
- .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,13,251,6,1,0 // movdqa 0x106fb(%rip),%xmm1 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,193 // pmuludq %xmm1,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
- .byte 102,15,98,200 // punpckldq %xmm0,%xmm1
- .byte 102,65,15,126,208 // movd %xmm2,%r8d
- .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
- .byte 102,65,15,126,193 // movd %xmm0,%r9d
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,65,15,126,194 // movd %xmm0,%r10d
- .byte 102,15,112,193,231 // pshufd $0xe7,%xmm1,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2
- .byte 15,20,208 // unpcklps %xmm0,%xmm2
- .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
- .byte 243,66,15,16,52,131 // movss (%rbx,%r8,4),%xmm6
- .byte 15,20,240 // unpcklps %xmm0,%xmm6
- .byte 102,15,20,242 // unpcklpd %xmm2,%xmm6
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,5,166,6,1,0 // psubd 0x106a6(%rip),%xmm0 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
- .byte 102,73,15,126,208 // movq %xmm2,%r8
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 15,20,208 // unpcklps %xmm0,%xmm2
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,4,131 // movss (%rbx,%r8,4),%xmm0
- .byte 243,68,15,16,28,131 // movss (%rbx,%rax,4),%xmm11
- .byte 68,15,20,216 // unpcklps %xmm0,%xmm11
- .byte 102,65,15,20,211 // unpcklpd %xmm11,%xmm2
- .byte 102,15,254,13,238,255,0,0 // paddd 0xffee(%rip),%xmm1 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,73,15,126,192 // movq %xmm0,%r8
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,4,131 // movss (%rbx,%r8,4),%xmm0
- .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
- .byte 15,20,224 // unpcklps %xmm0,%xmm4
- .byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 65,15,91,193 // cvtdq2ps %xmm9,%xmm0
- .byte 68,15,92,232 // subps %xmm0,%xmm13
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 65,15,89,245 // mulps %xmm13,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,92,213 // subps %xmm5,%xmm2
- .byte 65,15,89,213 // mulps %xmm13,%xmm2
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 65,15,89,205 // mulps %xmm13,%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 243,65,15,91,192 // cvttps2dq %xmm8,%xmm0
- .byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,65,15,244,220 // pmuludq %xmm12,%xmm3
- .byte 102,68,15,244,224 // pmuludq %xmm0,%xmm12
- .byte 102,65,15,112,228,232 // pshufd $0xe8,%xmm12,%xmm4
- .byte 102,15,112,195,232 // pshufd $0xe8,%xmm3,%xmm0
- .byte 102,15,98,224 // punpckldq %xmm0,%xmm4
- .byte 102,15,127,100,36,16 // movdqa %xmm4,0x10(%rsp)
- .byte 102,68,15,254,212 // paddd %xmm4,%xmm10
- .byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
- .byte 102,15,254,68,36,160 // paddd -0x60(%rsp),%xmm0
- .byte 102,15,112,216,245 // pshufd $0xf5,%xmm0,%xmm3
- .byte 102,15,111,37,165,5,1,0 // movdqa 0x105a5(%rip),%xmm4 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,15,244,196 // pmuludq %xmm4,%xmm0
- .byte 102,15,244,220 // pmuludq %xmm4,%xmm3
- .byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,15,112,224,232 // pshufd $0xe8,%xmm0,%xmm4
- .byte 102,15,98,227 // punpckldq %xmm3,%xmm4
- .byte 102,65,15,126,192 // movd %xmm0,%r8d
- .byte 102,15,112,196,229 // pshufd $0xe5,%xmm4,%xmm0
- .byte 102,65,15,126,193 // movd %xmm0,%r9d
- .byte 102,15,112,196,78 // pshufd $0x4e,%xmm4,%xmm0
- .byte 102,65,15,126,194 // movd %xmm0,%r10d
- .byte 102,15,112,196,231 // pshufd $0xe7,%xmm4,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
- .byte 243,70,15,16,12,131 // movss (%rbx,%r8,4),%xmm9
- .byte 68,15,20,200 // unpcklps %xmm0,%xmm9
- .byte 102,68,15,20,205 // unpcklpd %xmm5,%xmm9
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,69,15,118,228 // pcmpeqd %xmm12,%xmm12
- .byte 102,65,15,250,196 // psubd %xmm12,%xmm0
- .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
- .byte 102,73,15,126,232 // movq %xmm5,%r8
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
- .byte 15,20,197 // unpcklps %xmm5,%xmm0
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,44,131 // movss (%rbx,%r8,4),%xmm5
- .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
- .byte 15,20,253 // unpcklps %xmm5,%xmm7
- .byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,68,15,111,5,145,254,0,0 // movdqa 0xfe91(%rip),%xmm8 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,65,15,254,224 // paddd %xmm8,%xmm4
- .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
- .byte 102,73,15,126,232 // movq %xmm5,%r8
- .byte 102,72,15,126,224 // movq %xmm4,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
- .byte 15,20,229 // unpcklps %xmm5,%xmm4
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,44,131 // movss (%rbx,%r8,4),%xmm5
- .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
- .byte 15,20,253 // unpcklps %xmm5,%xmm7
- .byte 102,15,20,231 // unpcklpd %xmm7,%xmm4
- .byte 102,69,15,254,215 // paddd %xmm15,%xmm10
- .byte 102,65,15,112,234,245 // pshufd $0xf5,%xmm10,%xmm5
- .byte 102,69,15,244,211 // pmuludq %xmm11,%xmm10
- .byte 102,65,15,244,235 // pmuludq %xmm11,%xmm5
- .byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
- .byte 102,15,112,253,232 // pshufd $0xe8,%xmm5,%xmm7
- .byte 102,65,15,112,234,232 // pshufd $0xe8,%xmm10,%xmm5
- .byte 102,15,98,239 // punpckldq %xmm7,%xmm5
- .byte 102,69,15,126,208 // movd %xmm10,%r8d
- .byte 102,15,112,253,229 // pshufd $0xe5,%xmm5,%xmm7
- .byte 102,65,15,126,249 // movd %xmm7,%r9d
- .byte 102,15,112,253,78 // pshufd $0x4e,%xmm5,%xmm7
- .byte 102,65,15,126,250 // movd %xmm7,%r10d
- .byte 102,15,112,253,231 // pshufd $0xe7,%xmm5,%xmm7
- .byte 102,15,126,248 // movd %xmm7,%eax
- .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
- .byte 243,66,15,16,28,147 // movss (%rbx,%r10,4),%xmm3
- .byte 15,20,223 // unpcklps %xmm7,%xmm3
- .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7
- .byte 243,70,15,16,28,131 // movss (%rbx,%r8,4),%xmm11
- .byte 68,15,20,223 // unpcklps %xmm7,%xmm11
- .byte 102,68,15,20,219 // unpcklpd %xmm3,%xmm11
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 102,65,15,250,220 // psubd %xmm12,%xmm3
- .byte 102,15,112,251,78 // pshufd $0x4e,%xmm3,%xmm7
- .byte 102,73,15,126,248 // movq %xmm7,%r8
- .byte 102,72,15,126,216 // movq %xmm3,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3
- .byte 243,70,15,16,20,139 // movss (%rbx,%r9,4),%xmm10
- .byte 68,15,20,211 // unpcklps %xmm3,%xmm10
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
- .byte 15,20,251 // unpcklps %xmm3,%xmm7
- .byte 102,68,15,20,215 // unpcklpd %xmm7,%xmm10
- .byte 102,65,15,254,232 // paddd %xmm8,%xmm5
- .byte 102,15,112,221,78 // pshufd $0x4e,%xmm5,%xmm3
- .byte 102,73,15,126,216 // movq %xmm3,%r8
- .byte 102,72,15,126,232 // movq %xmm5,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3
- .byte 243,70,15,16,36,139 // movss (%rbx,%r9,4),%xmm12
- .byte 68,15,20,227 // unpcklps %xmm3,%xmm12
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
- .byte 15,20,251 // unpcklps %xmm3,%xmm7
- .byte 102,68,15,20,231 // unpcklpd %xmm7,%xmm12
- .byte 69,15,92,217 // subps %xmm9,%xmm11
- .byte 68,15,41,108,36,32 // movaps %xmm13,0x20(%rsp)
- .byte 69,15,89,221 // mulps %xmm13,%xmm11
- .byte 69,15,88,217 // addps %xmm9,%xmm11
- .byte 68,15,92,208 // subps %xmm0,%xmm10
- .byte 69,15,89,213 // mulps %xmm13,%xmm10
- .byte 68,15,88,208 // addps %xmm0,%xmm10
- .byte 68,15,92,228 // subps %xmm4,%xmm12
- .byte 69,15,89,229 // mulps %xmm13,%xmm12
- .byte 68,15,88,228 // addps %xmm4,%xmm12
- .byte 15,91,68,36,192 // cvtdq2ps -0x40(%rsp),%xmm0
- .byte 15,40,92,36,144 // movaps -0x70(%rsp),%xmm3
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,41,92,36,144 // movaps %xmm3,-0x70(%rsp)
- .byte 68,15,92,222 // subps %xmm6,%xmm11
- .byte 68,15,89,219 // mulps %xmm3,%xmm11
- .byte 68,15,88,222 // addps %xmm6,%xmm11
- .byte 68,15,92,210 // subps %xmm2,%xmm10
- .byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 68,15,88,210 // addps %xmm2,%xmm10
- .byte 68,15,92,225 // subps %xmm1,%xmm12
- .byte 68,15,89,227 // mulps %xmm3,%xmm12
- .byte 68,15,88,225 // addps %xmm1,%xmm12
- .byte 243,15,91,68,36,64 // cvttps2dq 0x40(%rsp),%xmm0
- .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,84,36,128 // movdqa -0x80(%rsp),%xmm2
- .byte 102,15,244,202 // pmuludq %xmm2,%xmm1
- .byte 102,15,244,208 // pmuludq %xmm0,%xmm2
- .byte 102,68,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm9
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,68,15,98,200 // punpckldq %xmm0,%xmm9
- .byte 102,68,15,127,76,36,128 // movdqa %xmm9,-0x80(%rsp)
- .byte 102,68,15,254,76,36,48 // paddd 0x30(%rsp),%xmm9
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,15,254,4,36 // paddd (%rsp),%xmm0
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,68,15,111,68,36,160 // movdqa -0x60(%rsp),%xmm8
- .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
- .byte 102,15,112,202,245 // pshufd $0xf5,%xmm2,%xmm1
- .byte 102,65,15,111,223 // movdqa %xmm15,%xmm3
- .byte 102,15,244,211 // pmuludq %xmm3,%xmm2
- .byte 102,15,244,203 // pmuludq %xmm3,%xmm1
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,112,217,232 // pshufd $0xe8,%xmm1,%xmm3
- .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
- .byte 102,15,98,203 // punpckldq %xmm3,%xmm1
- .byte 102,65,15,126,208 // movd %xmm2,%r8d
- .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
- .byte 102,65,15,126,209 // movd %xmm2,%r9d
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,65,15,126,210 // movd %xmm2,%r10d
- .byte 102,15,112,209,231 // pshufd $0xe7,%xmm1,%xmm2
- .byte 102,15,126,208 // movd %xmm2,%eax
- .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
- .byte 243,66,15,16,36,147 // movss (%rbx,%r10,4),%xmm4
- .byte 15,20,226 // unpcklps %xmm2,%xmm4
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 102,15,20,220 // unpcklpd %xmm4,%xmm3
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
- .byte 102,15,250,213 // psubd %xmm5,%xmm2
- .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
- .byte 102,73,15,126,224 // movq %xmm4,%r8
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
- .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7
- .byte 15,20,250 // unpcklps %xmm2,%xmm7
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,20,131 // movss (%rbx,%r8,4),%xmm2
- .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
- .byte 15,20,226 // unpcklps %xmm2,%xmm4
- .byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,68,15,111,61,235,251,0,0 // movdqa 0xfbeb(%rip),%xmm15 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,65,15,254,207 // paddd %xmm15,%xmm1
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,73,15,126,208 // movq %xmm2,%r8
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
- .byte 15,20,225 // unpcklps %xmm1,%xmm4
- .byte 102,15,20,212 // unpcklpd %xmm4,%xmm2
- .byte 102,68,15,111,108,36,224 // movdqa -0x20(%rsp),%xmm13
- .byte 102,65,15,254,197 // paddd %xmm13,%xmm0
- .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,244,198 // pmuludq %xmm6,%xmm0
- .byte 102,15,244,206 // pmuludq %xmm6,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,112,224,232 // pshufd $0xe8,%xmm0,%xmm4
- .byte 102,15,98,225 // punpckldq %xmm1,%xmm4
- .byte 102,65,15,126,192 // movd %xmm0,%r8d
- .byte 102,15,112,196,229 // pshufd $0xe5,%xmm4,%xmm0
- .byte 102,65,15,126,193 // movd %xmm0,%r9d
- .byte 102,15,112,196,78 // pshufd $0x4e,%xmm4,%xmm0
- .byte 102,65,15,126,194 // movd %xmm0,%r10d
- .byte 102,15,112,196,231 // pshufd $0xe7,%xmm4,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 243,66,15,16,52,147 // movss (%rbx,%r10,4),%xmm6
- .byte 15,20,240 // unpcklps %xmm0,%xmm6
- .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,250,197 // psubd %xmm5,%xmm0
- .byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6
- .byte 102,73,15,126,240 // movq %xmm6,%r8
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
- .byte 15,20,198 // unpcklps %xmm6,%xmm0
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,52,131 // movss (%rbx,%r8,4),%xmm6
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 15,20,238 // unpcklps %xmm6,%xmm5
- .byte 102,15,20,197 // unpcklpd %xmm5,%xmm0
- .byte 102,65,15,254,231 // paddd %xmm15,%xmm4
- .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
- .byte 102,73,15,126,232 // movq %xmm5,%r8
- .byte 102,72,15,126,224 // movq %xmm4,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
- .byte 15,20,229 // unpcklps %xmm5,%xmm4
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,44,131 // movss (%rbx,%r8,4),%xmm5
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 102,15,20,230 // unpcklpd %xmm6,%xmm4
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,40,108,36,32 // movaps 0x20(%rsp),%xmm5
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,226 // addps %xmm2,%xmm4
- .byte 102,68,15,254,76,36,16 // paddd 0x10(%rsp),%xmm9
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,65,15,254,216 // paddd %xmm8,%xmm3
- .byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,45,218,0,1,0 // movdqa 0x100da(%rip),%xmm5 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,15,244,221 // pmuludq %xmm5,%xmm3
- .byte 102,15,244,213 // pmuludq %xmm5,%xmm2
- .byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
- .byte 102,15,112,211,232 // pshufd $0xe8,%xmm3,%xmm2
- .byte 102,15,98,213 // punpckldq %xmm5,%xmm2
- .byte 102,65,15,126,216 // movd %xmm3,%r8d
- .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
- .byte 102,65,15,126,217 // movd %xmm3,%r9d
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,65,15,126,218 // movd %xmm3,%r10d
- .byte 102,15,112,218,231 // pshufd $0xe7,%xmm2,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3
- .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
- .byte 243,70,15,16,4,131 // movss (%rbx,%r8,4),%xmm8
- .byte 68,15,20,198 // unpcklps %xmm6,%xmm8
- .byte 102,68,15,20,197 // unpcklpd %xmm5,%xmm8
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,250,45,131,0,1,0 // psubd 0x10083(%rip),%xmm5 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
- .byte 102,73,15,126,240 // movq %xmm6,%r8
- .byte 102,72,15,126,232 // movq %xmm5,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7
- .byte 15,20,253 // unpcklps %xmm5,%xmm7
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,44,131 // movss (%rbx,%r8,4),%xmm5
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 102,65,15,254,215 // paddd %xmm15,%xmm2
- .byte 102,15,112,234,78 // pshufd $0x4e,%xmm2,%xmm5
- .byte 102,73,15,126,232 // movq %xmm5,%r8
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 15,20,213 // unpcklps %xmm5,%xmm2
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,44,131 // movss (%rbx,%r8,4),%xmm5
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,69,15,254,205 // paddd %xmm13,%xmm9
- .byte 102,65,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm5
- .byte 102,15,111,29,225,255,0,0 // movdqa 0xffe1(%rip),%xmm3 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,68,15,244,203 // pmuludq %xmm3,%xmm9
- .byte 102,15,244,235 // pmuludq %xmm3,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,69,15,112,249,232 // pshufd $0xe8,%xmm9,%xmm15
- .byte 102,68,15,98,253 // punpckldq %xmm5,%xmm15
- .byte 102,69,15,126,200 // movd %xmm9,%r8d
- .byte 102,65,15,112,239,229 // pshufd $0xe5,%xmm15,%xmm5
- .byte 102,65,15,126,233 // movd %xmm5,%r9d
- .byte 102,65,15,112,239,78 // pshufd $0x4e,%xmm15,%xmm5
- .byte 102,65,15,126,234 // movd %xmm5,%r10d
- .byte 102,65,15,112,239,231 // pshufd $0xe7,%xmm15,%xmm5
- .byte 102,15,126,232 // movd %xmm5,%eax
- .byte 243,68,15,16,12,131 // movss (%rbx,%rax,4),%xmm9
- .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5
- .byte 65,15,20,233 // unpcklps %xmm9,%xmm5
- .byte 243,70,15,16,12,139 // movss (%rbx,%r9,4),%xmm9
- .byte 243,70,15,16,44,131 // movss (%rbx,%r8,4),%xmm13
- .byte 69,15,20,233 // unpcklps %xmm9,%xmm13
- .byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13
- .byte 102,65,15,111,239 // movdqa %xmm15,%xmm5
- .byte 102,15,250,45,129,255,0,0 // psubd 0xff81(%rip),%xmm5 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,15,112,221,78 // pshufd $0x4e,%xmm5,%xmm3
- .byte 102,73,15,126,216 // movq %xmm3,%r8
- .byte 102,72,15,126,232 // movq %xmm5,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3
- .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
- .byte 15,20,243 // unpcklps %xmm3,%xmm6
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 102,15,20,245 // unpcklpd %xmm5,%xmm6
- .byte 102,68,15,111,13,203,248,0,0 // movdqa 0xf8cb(%rip),%xmm9 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,69,15,254,249 // paddd %xmm9,%xmm15
- .byte 102,65,15,112,223,78 // pshufd $0x4e,%xmm15,%xmm3
- .byte 102,73,15,126,216 // movq %xmm3,%r8
- .byte 102,76,15,126,248 // movq %xmm15,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3
- .byte 243,70,15,16,60,139 // movss (%rbx,%r9,4),%xmm15
- .byte 68,15,20,251 // unpcklps %xmm3,%xmm15
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 102,68,15,20,253 // unpcklpd %xmm5,%xmm15
- .byte 69,15,92,232 // subps %xmm8,%xmm13
- .byte 15,40,92,36,32 // movaps 0x20(%rsp),%xmm3
- .byte 68,15,89,235 // mulps %xmm3,%xmm13
- .byte 69,15,88,232 // addps %xmm8,%xmm13
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 68,15,92,250 // subps %xmm2,%xmm15
- .byte 68,15,89,251 // mulps %xmm3,%xmm15
- .byte 68,15,40,195 // movaps %xmm3,%xmm8
- .byte 68,15,88,250 // addps %xmm2,%xmm15
- .byte 68,15,92,233 // subps %xmm1,%xmm13
- .byte 15,40,84,36,144 // movaps -0x70(%rsp),%xmm2
- .byte 68,15,89,234 // mulps %xmm2,%xmm13
- .byte 68,15,88,233 // addps %xmm1,%xmm13
- .byte 65,15,40,205 // movaps %xmm13,%xmm1
- .byte 15,92,240 // subps %xmm0,%xmm6
- .byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 15,88,240 // addps %xmm0,%xmm6
- .byte 68,15,92,252 // subps %xmm4,%xmm15
- .byte 68,15,89,250 // mulps %xmm2,%xmm15
- .byte 68,15,88,252 // addps %xmm4,%xmm15
- .byte 15,91,68,36,208 // cvtdq2ps -0x30(%rsp),%xmm0
- .byte 15,40,84,36,240 // movaps -0x10(%rsp),%xmm2
- .byte 15,92,208 // subps %xmm0,%xmm2
- .byte 15,41,84,36,240 // movaps %xmm2,-0x10(%rsp)
- .byte 65,15,92,203 // subps %xmm11,%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 65,15,88,203 // addps %xmm11,%xmm1
- .byte 15,41,76,36,208 // movaps %xmm1,-0x30(%rsp)
- .byte 65,15,92,242 // subps %xmm10,%xmm6
- .byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 65,15,88,242 // addps %xmm10,%xmm6
- .byte 15,41,116,36,192 // movaps %xmm6,-0x40(%rsp)
- .byte 69,15,92,252 // subps %xmm12,%xmm15
- .byte 68,15,89,250 // mulps %xmm2,%xmm15
- .byte 69,15,88,252 // addps %xmm12,%xmm15
- .byte 243,15,91,68,36,176 // cvttps2dq -0x50(%rsp),%xmm0
- .byte 102,15,127,68,36,176 // movdqa %xmm0,-0x50(%rsp)
- .byte 102,68,15,254,240 // paddd %xmm0,%xmm14
- .byte 102,15,111,28,36 // movdqa (%rsp),%xmm3
- .byte 102,65,15,254,222 // paddd %xmm14,%xmm3
- .byte 102,68,15,111,92,36,160 // movdqa -0x60(%rsp),%xmm11
- .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,21,28,254,0,0 // movdqa 0xfe1c(%rip),%xmm2 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,15,244,194 // pmuludq %xmm2,%xmm0
- .byte 102,15,244,202 // pmuludq %xmm2,%xmm1
- .byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2
- .byte 102,15,98,209 // punpckldq %xmm1,%xmm2
- .byte 102,65,15,126,192 // movd %xmm0,%r8d
- .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
- .byte 102,65,15,126,193 // movd %xmm0,%r9d
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,65,15,126,194 // movd %xmm0,%r10d
- .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 243,66,15,16,36,147 // movss (%rbx,%r10,4),%xmm4
- .byte 15,20,224 // unpcklps %xmm0,%xmm4
- .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,118,255 // pcmpeqd %xmm7,%xmm7
- .byte 102,15,250,199 // psubd %xmm7,%xmm0
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,73,15,126,224 // movq %xmm4,%r8
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
- .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
- .byte 15,20,196 // unpcklps %xmm4,%xmm0
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,36,131 // movss (%rbx,%r8,4),%xmm4
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 102,15,20,197 // unpcklpd %xmm5,%xmm0
- .byte 102,65,15,254,209 // paddd %xmm9,%xmm2
- .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
- .byte 102,73,15,126,224 // movq %xmm4,%r8
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 15,20,212 // unpcklps %xmm4,%xmm2
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,36,131 // movss (%rbx,%r8,4),%xmm4
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 102,68,15,111,84,36,224 // movdqa -0x20(%rsp),%xmm10
- .byte 102,65,15,254,218 // paddd %xmm10,%xmm3
- .byte 102,15,112,227,245 // pshufd $0xf5,%xmm3,%xmm4
- .byte 102,65,15,244,221 // pmuludq %xmm13,%xmm3
- .byte 102,65,15,244,229 // pmuludq %xmm13,%xmm4
- .byte 102,15,112,236,232 // pshufd $0xe8,%xmm4,%xmm5
- .byte 102,15,112,227,232 // pshufd $0xe8,%xmm3,%xmm4
- .byte 102,15,98,229 // punpckldq %xmm5,%xmm4
- .byte 102,65,15,126,216 // movd %xmm3,%r8d
- .byte 102,15,112,220,229 // pshufd $0xe5,%xmm4,%xmm3
- .byte 102,65,15,126,217 // movd %xmm3,%r9d
- .byte 102,15,112,220,78 // pshufd $0x4e,%xmm4,%xmm3
- .byte 102,65,15,126,218 // movd %xmm3,%r10d
- .byte 102,15,112,220,231 // pshufd $0xe7,%xmm4,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3
- .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 15,20,222 // unpcklps %xmm6,%xmm3
- .byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,250,239 // psubd %xmm7,%xmm5
- .byte 102,69,15,118,228 // pcmpeqd %xmm12,%xmm12
- .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
- .byte 102,73,15,126,240 // movq %xmm6,%r8
- .byte 102,72,15,126,232 // movq %xmm5,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
- .byte 15,20,238 // unpcklps %xmm6,%xmm5
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,52,131 // movss (%rbx,%r8,4),%xmm6
- .byte 243,15,16,60,131 // movss (%rbx,%rax,4),%xmm7
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 102,15,20,239 // unpcklpd %xmm7,%xmm5
- .byte 102,65,15,254,225 // paddd %xmm9,%xmm4
- .byte 102,15,112,244,78 // pshufd $0x4e,%xmm4,%xmm6
- .byte 102,73,15,126,240 // movq %xmm6,%r8
- .byte 102,72,15,126,224 // movq %xmm4,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
- .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7
- .byte 15,20,252 // unpcklps %xmm4,%xmm7
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,36,131 // movss (%rbx,%r8,4),%xmm4
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 15,92,217 // subps %xmm1,%xmm3
- .byte 65,15,89,216 // mulps %xmm8,%xmm3
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 15,92,232 // subps %xmm0,%xmm5
- .byte 65,15,89,232 // mulps %xmm8,%xmm5
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,92,250 // subps %xmm2,%xmm7
- .byte 65,15,89,248 // mulps %xmm8,%xmm7
- .byte 15,88,250 // addps %xmm2,%xmm7
- .byte 102,68,15,254,116,36,16 // paddd 0x10(%rsp),%xmm14
- .byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
- .byte 102,65,15,254,203 // paddd %xmm11,%xmm1
- .byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,65,15,244,205 // pmuludq %xmm13,%xmm1
- .byte 102,65,15,244,197 // pmuludq %xmm13,%xmm0
- .byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,98,194 // punpckldq %xmm2,%xmm0
- .byte 102,65,15,126,200 // movd %xmm1,%r8d
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,65,15,126,201 // movd %xmm1,%r9d
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,65,15,126,202 // movd %xmm1,%r10d
- .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1
- .byte 243,66,15,16,36,147 // movss (%rbx,%r10,4),%xmm4
- .byte 15,20,225 // unpcklps %xmm1,%xmm4
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 243,70,15,16,28,131 // movss (%rbx,%r8,4),%xmm11
- .byte 68,15,20,217 // unpcklps %xmm1,%xmm11
- .byte 102,68,15,20,220 // unpcklpd %xmm4,%xmm11
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,65,15,250,204 // psubd %xmm12,%xmm1
- .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
- .byte 102,73,15,126,224 // movq %xmm4,%r8
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 15,20,204 // unpcklps %xmm4,%xmm1
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,36,131 // movss (%rbx,%r8,4),%xmm4
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,65,15,254,193 // paddd %xmm9,%xmm0
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,73,15,126,224 // movq %xmm4,%r8
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
- .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
- .byte 15,20,196 // unpcklps %xmm4,%xmm0
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,36,131 // movss (%rbx,%r8,4),%xmm4
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 102,15,20,198 // unpcklpd %xmm6,%xmm0
- .byte 102,69,15,254,242 // paddd %xmm10,%xmm14
- .byte 102,69,15,111,226 // movdqa %xmm10,%xmm12
- .byte 102,65,15,112,230,245 // pshufd $0xf5,%xmm14,%xmm4
- .byte 102,69,15,244,245 // pmuludq %xmm13,%xmm14
- .byte 102,65,15,244,229 // pmuludq %xmm13,%xmm4
- .byte 102,15,112,244,232 // pshufd $0xe8,%xmm4,%xmm6
- .byte 102,65,15,112,230,232 // pshufd $0xe8,%xmm14,%xmm4
- .byte 102,15,98,230 // punpckldq %xmm6,%xmm4
- .byte 102,69,15,126,240 // movd %xmm14,%r8d
- .byte 102,15,112,244,229 // pshufd $0xe5,%xmm4,%xmm6
- .byte 102,65,15,126,241 // movd %xmm6,%r9d
- .byte 102,15,112,244,78 // pshufd $0x4e,%xmm4,%xmm6
- .byte 102,65,15,126,242 // movd %xmm6,%r10d
- .byte 102,15,112,244,231 // pshufd $0xe7,%xmm4,%xmm6
- .byte 102,15,126,240 // movd %xmm6,%eax
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2
- .byte 15,20,214 // unpcklps %xmm6,%xmm2
- .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
- .byte 243,70,15,16,44,131 // movss (%rbx,%r8,4),%xmm13
- .byte 68,15,20,238 // unpcklps %xmm6,%xmm13
- .byte 102,68,15,20,234 // unpcklpd %xmm2,%xmm13
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,250,21,184,250,0,0 // psubd 0xfab8(%rip),%xmm2 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
- .byte 102,73,15,126,240 // movq %xmm6,%r8
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
- .byte 243,70,15,16,20,139 // movss (%rbx,%r9,4),%xmm10
- .byte 68,15,20,210 // unpcklps %xmm2,%xmm10
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,20,131 // movss (%rbx,%r8,4),%xmm2
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 102,68,15,20,214 // unpcklpd %xmm6,%xmm10
- .byte 102,65,15,254,225 // paddd %xmm9,%xmm4
- .byte 102,15,112,212,78 // pshufd $0x4e,%xmm4,%xmm2
- .byte 102,73,15,126,208 // movq %xmm2,%r8
- .byte 102,72,15,126,224 // movq %xmm4,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
- .byte 243,70,15,16,12,139 // movss (%rbx,%r9,4),%xmm9
- .byte 68,15,20,202 // unpcklps %xmm2,%xmm9
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,20,131 // movss (%rbx,%r8,4),%xmm2
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 102,68,15,20,206 // unpcklpd %xmm6,%xmm9
- .byte 69,15,92,235 // subps %xmm11,%xmm13
- .byte 69,15,89,232 // mulps %xmm8,%xmm13
- .byte 69,15,88,235 // addps %xmm11,%xmm13
- .byte 68,15,92,209 // subps %xmm1,%xmm10
- .byte 69,15,89,208 // mulps %xmm8,%xmm10
- .byte 68,15,88,209 // addps %xmm1,%xmm10
- .byte 68,15,92,200 // subps %xmm0,%xmm9
- .byte 69,15,89,200 // mulps %xmm8,%xmm9
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,88,200 // addps %xmm0,%xmm9
- .byte 68,15,92,235 // subps %xmm3,%xmm13
- .byte 15,40,68,36,144 // movaps -0x70(%rsp),%xmm0
- .byte 68,15,89,232 // mulps %xmm0,%xmm13
- .byte 68,15,88,235 // addps %xmm3,%xmm13
- .byte 68,15,92,213 // subps %xmm5,%xmm10
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 68,15,88,213 // addps %xmm5,%xmm10
- .byte 68,15,92,207 // subps %xmm7,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 68,15,88,207 // addps %xmm7,%xmm9
- .byte 102,15,111,68,36,128 // movdqa -0x80(%rsp),%xmm0
- .byte 102,15,254,68,36,176 // paddd -0x50(%rsp),%xmm0
- .byte 102,15,127,68,36,128 // movdqa %xmm0,-0x80(%rsp)
- .byte 102,15,111,12,36 // movdqa (%rsp),%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,68,15,111,116,36,160 // movdqa -0x60(%rsp),%xmm14
- .byte 102,65,15,254,198 // paddd %xmm14,%xmm0
- .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,68,15,111,5,151,249,0,0 // movdqa 0xf997(%rip),%xmm8 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,65,15,244,192 // pmuludq %xmm8,%xmm0
- .byte 102,65,15,244,200 // pmuludq %xmm8,%xmm1
- .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2
- .byte 102,15,98,209 // punpckldq %xmm1,%xmm2
- .byte 102,65,15,126,192 // movd %xmm0,%r8d
- .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
- .byte 102,65,15,126,193 // movd %xmm0,%r9d
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,65,15,126,194 // movd %xmm0,%r10d
- .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3
- .byte 243,66,15,16,4,131 // movss (%rbx,%r8,4),%xmm0
- .byte 15,20,195 // unpcklps %xmm3,%xmm0
- .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,118,255 // pcmpeqd %xmm7,%xmm7
- .byte 102,15,250,207 // psubd %xmm7,%xmm1
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,73,15,126,216 // movq %xmm3,%r8
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 15,20,203 // unpcklps %xmm3,%xmm1
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 102,68,15,111,5,133,242,0,0 // movdqa 0xf285(%rip),%xmm8 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,65,15,254,208 // paddd %xmm8,%xmm2
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,73,15,126,216 // movq %xmm3,%r8
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 15,20,211 // unpcklps %xmm3,%xmm2
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 102,65,15,254,228 // paddd %xmm12,%xmm4
- .byte 102,15,112,220,245 // pshufd $0xf5,%xmm4,%xmm3
- .byte 102,15,244,230 // pmuludq %xmm6,%xmm4
- .byte 102,15,244,222 // pmuludq %xmm6,%xmm3
- .byte 102,15,112,235,232 // pshufd $0xe8,%xmm3,%xmm5
- .byte 102,15,112,220,232 // pshufd $0xe8,%xmm4,%xmm3
- .byte 102,15,98,221 // punpckldq %xmm5,%xmm3
- .byte 102,65,15,126,224 // movd %xmm4,%r8d
- .byte 102,15,112,235,229 // pshufd $0xe5,%xmm3,%xmm5
- .byte 102,65,15,126,233 // movd %xmm5,%r9d
- .byte 102,15,112,235,78 // pshufd $0x4e,%xmm3,%xmm5
- .byte 102,65,15,126,234 // movd %xmm5,%r10d
- .byte 102,15,112,235,231 // pshufd $0xe7,%xmm3,%xmm5
- .byte 102,15,126,232 // movd %xmm5,%eax
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 243,66,15,16,52,147 // movss (%rbx,%r10,4),%xmm6
- .byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
- .byte 243,70,15,16,36,131 // movss (%rbx,%r8,4),%xmm12
- .byte 68,15,20,229 // unpcklps %xmm5,%xmm12
- .byte 102,68,15,20,230 // unpcklpd %xmm6,%xmm12
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,250,239 // psubd %xmm7,%xmm5
- .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
- .byte 102,73,15,126,240 // movq %xmm6,%r8
- .byte 102,72,15,126,232 // movq %xmm5,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,44,131 // movss (%rbx,%rax,4),%xmm5
- .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7
- .byte 15,20,253 // unpcklps %xmm5,%xmm7
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,44,131 // movss (%rbx,%r8,4),%xmm5
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 102,65,15,254,216 // paddd %xmm8,%xmm3
- .byte 102,15,112,235,78 // pshufd $0x4e,%xmm3,%xmm5
- .byte 102,73,15,126,232 // movq %xmm5,%r8
- .byte 102,72,15,126,216 // movq %xmm3,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,28,131 // movss (%rbx,%rax,4),%xmm3
- .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,28,131 // movss (%rbx,%r8,4),%xmm3
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 15,20,243 // unpcklps %xmm3,%xmm6
- .byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 68,15,92,224 // subps %xmm0,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 68,15,88,224 // addps %xmm0,%xmm12
- .byte 15,92,249 // subps %xmm1,%xmm7
- .byte 65,15,89,251 // mulps %xmm11,%xmm7
- .byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,92,234 // subps %xmm2,%xmm5
- .byte 65,15,89,235 // mulps %xmm11,%xmm5
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 102,15,111,68,36,128 // movdqa -0x80(%rsp),%xmm0
- .byte 102,15,254,68,36,16 // paddd 0x10(%rsp),%xmm0
- .byte 102,65,15,111,214 // movdqa %xmm14,%xmm2
- .byte 102,15,254,208 // paddd %xmm0,%xmm2
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,37,113,247,0,0 // movdqa 0xf771(%rip),%xmm4 # 3d5a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1354>
- .byte 102,15,244,212 // pmuludq %xmm4,%xmm2
- .byte 102,15,244,196 // pmuludq %xmm4,%xmm0
- .byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
- .byte 102,15,112,194,232 // pshufd $0xe8,%xmm2,%xmm0
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 102,65,15,126,208 // movd %xmm2,%r8d
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,65,15,126,201 // movd %xmm1,%r9d
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,65,15,126,202 // movd %xmm1,%r10d
- .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1
- .byte 243,66,15,16,20,147 // movss (%rbx,%r10,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 243,70,15,16,4,131 // movss (%rbx,%r8,4),%xmm8
- .byte 68,15,20,193 // unpcklps %xmm1,%xmm8
- .byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,250,13,26,247,0,0 // psubd 0xf71a(%rip),%xmm1 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,73,15,126,208 // movq %xmm2,%r8
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1
- .byte 243,70,15,16,52,139 // movss (%rbx,%r9,4),%xmm14
- .byte 68,15,20,241 // unpcklps %xmm1,%xmm14
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 243,15,16,20,131 // movss (%rbx,%rax,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 102,68,15,20,242 // unpcklpd %xmm2,%xmm14
- .byte 102,15,254,5,99,240,0,0 // paddd 0xf063(%rip),%xmm0 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,73,15,126,200 // movq %xmm1,%r8
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 243,66,15,16,28,139 // movss (%rbx,%r9,4),%xmm3
- .byte 15,20,216 // unpcklps %xmm0,%xmm3
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,4,131 // movss (%rbx,%r8,4),%xmm0
- .byte 243,15,16,12,131 // movss (%rbx,%rax,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,15,254,76,36,224 // paddd -0x20(%rsp),%xmm1
- .byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,244,204 // pmuludq %xmm4,%xmm1
- .byte 102,15,244,196 // pmuludq %xmm4,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,112,209,232 // pshufd $0xe8,%xmm1,%xmm2
- .byte 102,15,98,208 // punpckldq %xmm0,%xmm2
- .byte 102,65,15,126,200 // movd %xmm1,%r8d
- .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
- .byte 102,65,15,126,193 // movd %xmm0,%r9d
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,65,15,126,194 // movd %xmm0,%r10d
- .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 243,15,16,4,131 // movss (%rbx,%rax,4),%xmm0
- .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
- .byte 243,66,15,16,4,131 // movss (%rbx,%r8,4),%xmm0
- .byte 15,20,198 // unpcklps %xmm6,%xmm0
- .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,250,13,34,246,0,0 // psubd 0xf622(%rip),%xmm1 # 3d5b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1364>
- .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
- .byte 102,73,15,126,240 // movq %xmm6,%r8
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 15,20,206 // unpcklps %xmm6,%xmm1
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,52,131 // movss (%rbx,%r8,4),%xmm6
- .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
- .byte 15,20,230 // unpcklps %xmm6,%xmm4
- .byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 102,15,254,21,109,239,0,0 // paddd 0xef6d(%rip),%xmm2 # 3cf40 <_sk_srcover_bgra_8888_sse2_lowp+0xcf4>
- .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
- .byte 102,73,15,126,224 // movq %xmm4,%r8
- .byte 102,72,15,126,208 // movq %xmm2,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 243,15,16,36,131 // movss (%rbx,%rax,4),%xmm4
- .byte 243,66,15,16,20,139 // movss (%rbx,%r9,4),%xmm2
- .byte 15,20,212 // unpcklps %xmm4,%xmm2
- .byte 68,137,192 // mov %r8d,%eax
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 243,66,15,16,36,131 // movss (%rbx,%r8,4),%xmm4
- .byte 243,15,16,52,131 // movss (%rbx,%rax,4),%xmm6
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 65,15,89,195 // mulps %xmm11,%xmm0
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 65,15,92,206 // subps %xmm14,%xmm1
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 65,15,88,206 // addps %xmm14,%xmm1
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 65,15,89,211 // mulps %xmm11,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 65,15,92,196 // subps %xmm12,%xmm0
- .byte 15,40,92,36,144 // movaps -0x70(%rsp),%xmm3
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 15,92,207 // subps %xmm7,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,92,213 // subps %xmm5,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 65,15,92,197 // subps %xmm13,%xmm0
- .byte 15,40,92,36,240 // movaps -0x10(%rsp),%xmm3
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 65,15,88,197 // addps %xmm13,%xmm0
- .byte 65,15,92,202 // subps %xmm10,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 65,15,92,209 // subps %xmm9,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 15,91,92,36,48 // cvtdq2ps 0x30(%rsp),%xmm3
- .byte 15,40,100,36,80 // movaps 0x50(%rsp),%xmm4
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,40,92,36,208 // movaps -0x30(%rsp),%xmm3
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,40,92,36,192 // movaps -0x40(%rsp),%xmm3
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 65,15,92,215 // subps %xmm15,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 65,15,88,215 // addps %xmm15,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,89,238,0,0 // movaps 0xee59(%rip),%xmm3 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,40,100,36,96 // movaps 0x60(%rsp),%xmm4
- .byte 15,40,108,36,112 // movaps 0x70(%rsp),%xmm5
- .byte 15,40,180,36,128,0,0,0 // movaps 0x80(%rsp),%xmm6
- .byte 15,40,188,36,144,0,0,0 // movaps 0x90(%rsp),%xmm7
- .byte 72,129,196,160,0,0,0 // add $0xa0,%rsp
- .byte 91 // pop %rbx
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gauss_a_to_rgba_sse2
-.globl _sk_gauss_a_to_rgba_sse2
-FUNCTION(_sk_gauss_a_to_rgba_sse2)
-_sk_gauss_a_to_rgba_sse2:
- .byte 15,40,5,222,244,0,0 // movaps 0xf4de(%rip),%xmm0 # 3d5c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1374>
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,228,244,0,0 // addps 0xf4e4(%rip),%xmm0 # 3d5d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1384>
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,234,244,0,0 // addps 0xf4ea(%rip),%xmm0 # 3d5e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1394>
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,240,244,0,0 // addps 0xf4f0(%rip),%xmm0 # 3d5f0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a4>
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,5,246,244,0,0 // addps 0xf4f6(%rip),%xmm0 # 3d600 <_sk_srcover_bgra_8888_sse2_lowp+0x13b4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_bilerp_clamp_8888_sse2
-.globl _sk_bilerp_clamp_8888_sse2
-FUNCTION(_sk_bilerp_clamp_8888_sse2)
-_sk_bilerp_clamp_8888_sse2:
- .byte 72,131,236,88 // sub $0x58,%rsp
- .byte 15,41,124,36,176 // movaps %xmm7,-0x50(%rsp)
- .byte 15,41,116,36,160 // movaps %xmm6,-0x60(%rsp)
- .byte 15,41,108,36,144 // movaps %xmm5,-0x70(%rsp)
- .byte 15,41,100,36,128 // movaps %xmm4,-0x80(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,37,200,237,0,0 // movaps 0xedc8(%rip),%xmm4 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%rsp)
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,88,236 // addps %xmm4,%xmm5
- .byte 243,15,91,197 // cvttps2dq %xmm5,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 15,194,208,1 // cmpltps %xmm0,%xmm2
- .byte 15,40,53,184,237,0,0 // movaps 0xedb8(%rip),%xmm6 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,84,214 // andps %xmm6,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,41,12,36 // movaps %xmm1,(%rsp)
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 243,15,91,204 // cvttps2dq %xmm4,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,194,209,1 // cmpltps %xmm1,%xmm2
- .byte 15,84,214 // andps %xmm6,%xmm2
- .byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%rsp)
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%rsp)
- .byte 15,41,100,36,240 // movaps %xmm4,-0x10(%rsp)
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,41,116,36,192 // movaps %xmm6,-0x40(%rsp)
- .byte 243,68,15,16,112,12 // movss 0xc(%rax),%xmm14
- .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14
- .byte 102,15,118,201 // pcmpeqd %xmm1,%xmm1
- .byte 102,68,15,254,241 // paddd %xmm1,%xmm14
- .byte 243,15,16,64,16 // movss 0x10(%rax),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,15,127,68,36,224 // movdqa %xmm0,-0x20(%rsp)
- .byte 76,139,0 // mov (%rax),%r8
- .byte 102,15,110,72,8 // movd 0x8(%rax),%xmm1
- .byte 102,15,112,193,0 // pshufd $0x0,%xmm1,%xmm0
- .byte 102,15,127,68,36,208 // movdqa %xmm0,-0x30(%rsp)
- .byte 243,15,16,5,111,228,0,0 // movss 0xe46f(%rip),%xmm0 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 102,15,111,45,215,237,0,0 // movdqa 0xedd7(%rip),%xmm5 # 3cfc0 <_sk_srcover_bgra_8888_sse2_lowp+0xd74>
- .byte 15,40,37,48,239,0,0 // movaps 0xef30(%rip),%xmm4 # 3d120 <_sk_srcover_bgra_8888_sse2_lowp+0xed4>
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,40,247 // movaps %xmm7,%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,88,52,36 // addps (%rsp),%xmm6
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 15,95,206 // maxps %xmm6,%xmm1
- .byte 15,41,124,36,16 // movaps %xmm7,0x10(%rsp)
- .byte 15,46,61,112,228,0,0 // ucomiss 0xe470(%rip),%xmm7 # 3c68c <_sk_srcover_bgra_8888_sse2_lowp+0x440>
- .byte 68,15,40,124,36,240 // movaps -0x10(%rsp),%xmm15
- .byte 119,6 // ja 2e22a <_sk_bilerp_clamp_8888_sse2+0x113>
- .byte 68,15,40,124,36,192 // movaps -0x40(%rsp),%xmm15
- .byte 15,93,76,36,224 // minps -0x20(%rsp),%xmm1
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,111,68,36,208 // movdqa -0x30(%rsp),%xmm0
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,244,241 // pmuludq %xmm1,%xmm6
- .byte 102,68,15,112,230,232 // pshufd $0xe8,%xmm6,%xmm12
- .byte 102,15,112,201,245 // pshufd $0xf5,%xmm1,%xmm1
- .byte 102,15,112,240,245 // pshufd $0xf5,%xmm0,%xmm6
- .byte 102,15,244,241 // pmuludq %xmm1,%xmm6
- .byte 102,15,112,206,232 // pshufd $0xe8,%xmm6,%xmm1
- .byte 102,68,15,98,225 // punpckldq %xmm1,%xmm12
- .byte 243,15,16,13,233,227,0,0 // movss 0xe3e9(%rip),%xmm1 # 3c650 <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,88,116,36,64 // addps 0x40(%rsp),%xmm6
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,95,254 // maxps %xmm6,%xmm7
- .byte 65,15,93,254 // minps %xmm14,%xmm7
- .byte 243,15,91,247 // cvttps2dq %xmm7,%xmm6
- .byte 102,65,15,254,244 // paddd %xmm12,%xmm6
- .byte 102,15,112,254,78 // pshufd $0x4e,%xmm6,%xmm7
- .byte 102,72,15,126,248 // movq %xmm7,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,242 // movq %xmm6,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,67,15,110,52,144 // movd (%r8,%r10,4),%xmm6
- .byte 102,67,15,110,4,152 // movd (%r8,%r11,4),%xmm0
- .byte 102,15,98,198 // punpckldq %xmm6,%xmm0
- .byte 102,65,15,110,52,128 // movd (%r8,%rax,4),%xmm6
- .byte 102,67,15,110,60,136 // movd (%r8,%r9,4),%xmm7
- .byte 102,15,98,254 // punpckldq %xmm6,%xmm7
- .byte 102,15,108,199 // punpcklqdq %xmm7,%xmm0
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 68,15,91,238 // cvtdq2ps %xmm6,%xmm13
- .byte 68,15,89,236 // mulps %xmm4,%xmm13
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,114,214,8 // psrld $0x8,%xmm6
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,114,215,16 // psrld $0x10,%xmm7
- .byte 102,15,219,253 // pand %xmm5,%xmm7
- .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 102,15,114,208,24 // psrld $0x18,%xmm0
- .byte 68,15,91,208 // cvtdq2ps %xmm0,%xmm10
- .byte 68,15,89,212 // mulps %xmm4,%xmm10
- .byte 15,46,13,123,227,0,0 // ucomiss 0xe37b(%rip),%xmm1 # 3c68c <_sk_srcover_bgra_8888_sse2_lowp+0x440>
- .byte 68,15,40,92,36,48 // movaps 0x30(%rsp),%xmm11
- .byte 119,6 // ja 2e31f <_sk_bilerp_clamp_8888_sse2+0x208>
- .byte 68,15,40,92,36,32 // movaps 0x20(%rsp),%xmm11
- .byte 69,15,89,223 // mulps %xmm15,%xmm11
- .byte 69,15,89,235 // mulps %xmm11,%xmm13
- .byte 69,15,88,205 // addps %xmm13,%xmm9
- .byte 65,15,89,243 // mulps %xmm11,%xmm6
- .byte 68,15,88,198 // addps %xmm6,%xmm8
- .byte 65,15,89,251 // mulps %xmm11,%xmm7
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 69,15,89,218 // mulps %xmm10,%xmm11
- .byte 65,15,88,219 // addps %xmm11,%xmm3
- .byte 243,15,88,13,178,225,0,0 // addss 0xe1b2(%rip),%xmm1 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 243,15,16,5,166,225,0,0 // movss 0xe1a6(%rip),%xmm0 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 15,46,193 // ucomiss %xmm1,%xmm0
- .byte 15,131,12,255,255,255 // jae 2e267 <_sk_bilerp_clamp_8888_sse2+0x150>
- .byte 15,40,124,36,16 // movaps 0x10(%rsp),%xmm7
- .byte 243,15,88,61,148,225,0,0 // addss 0xe194(%rip),%xmm7 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 243,15,16,5,136,225,0,0 // movss 0xe188(%rip),%xmm0 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 15,46,199 // ucomiss %xmm7,%xmm0
- .byte 15,131,133,254,255,255 // jae 2e1fe <_sk_bilerp_clamp_8888_sse2+0xe7>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,40,200 // movaps %xmm8,%xmm1
- .byte 15,40,100,36,128 // movaps -0x80(%rsp),%xmm4
- .byte 15,40,108,36,144 // movaps -0x70(%rsp),%xmm5
- .byte 15,40,116,36,160 // movaps -0x60(%rsp),%xmm6
- .byte 15,40,124,36,176 // movaps -0x50(%rsp),%xmm7
- .byte 72,131,196,88 // add $0x58,%rsp
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 144 // nop
- .byte 144 // nop
-
-HIDDEN _sk_start_pipeline_hsw_lowp
-.globl _sk_start_pipeline_hsw_lowp
-FUNCTION(_sk_start_pipeline_hsw_lowp)
-_sk_start_pipeline_hsw_lowp:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 73,137,215 // mov %rdx,%r15
- .byte 72,137,243 // mov %rsi,%rbx
- .byte 72,137,125,208 // mov %rdi,-0x30(%rbp)
- .byte 76,137,198 // mov %r8,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 73,137,197 // mov %rax,%r13
- .byte 73,137,246 // mov %rsi,%r14
- .byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
- .byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,151,0,0,0 // jae 2e46a <_sk_start_pipeline_hsw_lowp+0xca>
- .byte 72,139,69,208 // mov -0x30(%rbp),%rax
- .byte 72,141,64,16 // lea 0x10(%rax),%rax
- .byte 72,137,69,200 // mov %rax,-0x38(%rbp)
- .byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 119,67 // ja 2e42c <_sk_start_pipeline_hsw_lowp+0x8c>
- .byte 76,139,101,208 // mov -0x30(%rbp),%r12
- .byte 49,255 // xor %edi,%edi
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 76,137,226 // mov %r12,%rdx
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 73,141,84,36,16 // lea 0x10(%r12),%rdx
- .byte 73,131,196,32 // add $0x20,%r12
- .byte 77,57,252 // cmp %r15,%r12
- .byte 73,137,212 // mov %rdx,%r12
- .byte 118,193 // jbe 2e3ed <_sk_start_pipeline_hsw_lowp+0x4d>
- .byte 76,137,255 // mov %r15,%rdi
- .byte 72,41,215 // sub %rdx,%rdi
- .byte 116,41 // je 2e45d <_sk_start_pipeline_hsw_lowp+0xbd>
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 72,255,195 // inc %rbx
- .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 15,133,117,255,255,255 // jne 2e3df <_sk_start_pipeline_hsw_lowp+0x3f>
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 197,248,119 // vzeroupper
- .byte 195 // retq
-
-HIDDEN _sk_just_return_hsw_lowp
-.globl _sk_just_return_hsw_lowp
-FUNCTION(_sk_just_return_hsw_lowp)
-_sk_just_return_hsw_lowp:
- .byte 195 // retq
-
-HIDDEN _sk_seed_shader_hsw_lowp
-.globl _sk_seed_shader_hsw_lowp
-FUNCTION(_sk_seed_shader_hsw_lowp)
-_sk_seed_shader_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,249,110,194 // vmovd %edx,%xmm0
- .byte 196,226,125,88,192 // vpbroadcastd %xmm0,%ymm0
- .byte 197,252,91,192 // vcvtdq2ps %ymm0,%ymm0
- .byte 197,252,88,72,32 // vaddps 0x20(%rax),%ymm0,%ymm1
- .byte 197,252,88,0 // vaddps (%rax),%ymm0,%ymm0
- .byte 197,249,110,209 // vmovd %ecx,%xmm2
- .byte 196,226,125,88,210 // vpbroadcastd %xmm2,%ymm2
- .byte 197,252,91,210 // vcvtdq2ps %ymm2,%ymm2
- .byte 196,226,125,24,29,77,224,0,0 // vbroadcastss 0xe04d(%rip),%ymm3 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,236,88,211 // vaddps %ymm3,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,218 // vmovaps %ymm2,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_translate_hsw_lowp
-.globl _sk_matrix_translate_hsw_lowp
-FUNCTION(_sk_matrix_translate_hsw_lowp)
-_sk_matrix_translate_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8
- .byte 196,193,108,88,208 // vaddps %ymm8,%ymm2,%ymm2
- .byte 196,193,100,88,216 // vaddps %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_scale_translate_hsw_lowp
-.globl _sk_matrix_scale_translate_hsw_lowp
-FUNCTION(_sk_matrix_scale_translate_hsw_lowp)
-_sk_matrix_scale_translate_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,0 // vbroadcastss (%rax),%ymm8
- .byte 196,98,125,24,72,8 // vbroadcastss 0x8(%rax),%ymm9
- .byte 196,194,61,168,193 // vfmadd213ps %ymm9,%ymm8,%ymm0
- .byte 196,194,61,168,201 // vfmadd213ps %ymm9,%ymm8,%ymm1
- .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 196,194,61,168,209 // vfmadd213ps %ymm9,%ymm8,%ymm2
- .byte 196,194,61,168,217 // vfmadd213ps %ymm9,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_2x3_hsw_lowp
-.globl _sk_matrix_2x3_hsw_lowp
-FUNCTION(_sk_matrix_2x3_hsw_lowp)
-_sk_matrix_2x3_hsw_lowp:
- .byte 197,124,40,192 // vmovaps %ymm0,%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,16 // vbroadcastss (%rax),%ymm10
- .byte 196,226,125,24,64,8 // vbroadcastss 0x8(%rax),%ymm0
- .byte 196,98,125,24,88,16 // vbroadcastss 0x10(%rax),%ymm11
- .byte 197,124,40,200 // vmovaps %ymm0,%ymm9
- .byte 196,66,101,168,203 // vfmadd213ps %ymm11,%ymm3,%ymm9
- .byte 196,194,109,168,195 // vfmadd213ps %ymm11,%ymm2,%ymm0
- .byte 196,194,61,184,194 // vfmadd231ps %ymm10,%ymm8,%ymm0
- .byte 196,66,117,184,202 // vfmadd231ps %ymm10,%ymm1,%ymm9
- .byte 196,98,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm10
- .byte 196,98,125,24,88,12 // vbroadcastss 0xc(%rax),%ymm11
- .byte 196,98,125,24,96,20 // vbroadcastss 0x14(%rax),%ymm12
- .byte 196,194,37,168,220 // vfmadd213ps %ymm12,%ymm11,%ymm3
- .byte 196,66,109,168,220 // vfmadd213ps %ymm12,%ymm2,%ymm11
- .byte 196,66,45,168,195 // vfmadd213ps %ymm11,%ymm10,%ymm8
- .byte 196,194,117,184,218 // vfmadd231ps %ymm10,%ymm1,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,41,201 // vmovaps %ymm9,%ymm1
- .byte 197,124,41,194 // vmovaps %ymm8,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_perspective_hsw_lowp
-.globl _sk_matrix_perspective_hsw_lowp
-FUNCTION(_sk_matrix_perspective_hsw_lowp)
-_sk_matrix_perspective_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,24,8 // vbroadcastss (%rax),%ymm9
- .byte 196,98,125,24,64,4 // vbroadcastss 0x4(%rax),%ymm8
- .byte 196,98,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm10
- .byte 196,65,124,40,216 // vmovaps %ymm8,%ymm11
- .byte 196,66,109,168,218 // vfmadd213ps %ymm10,%ymm2,%ymm11
- .byte 196,66,101,168,194 // vfmadd213ps %ymm10,%ymm3,%ymm8
- .byte 196,66,117,184,193 // vfmadd231ps %ymm9,%ymm1,%ymm8
- .byte 196,66,125,184,217 // vfmadd231ps %ymm9,%ymm0,%ymm11
- .byte 196,98,125,24,72,12 // vbroadcastss 0xc(%rax),%ymm9
- .byte 196,98,125,24,80,16 // vbroadcastss 0x10(%rax),%ymm10
- .byte 196,98,125,24,96,20 // vbroadcastss 0x14(%rax),%ymm12
- .byte 196,65,124,40,234 // vmovaps %ymm10,%ymm13
- .byte 196,66,109,168,236 // vfmadd213ps %ymm12,%ymm2,%ymm13
- .byte 196,66,101,168,212 // vfmadd213ps %ymm12,%ymm3,%ymm10
- .byte 196,66,117,184,209 // vfmadd231ps %ymm9,%ymm1,%ymm10
- .byte 196,66,125,184,233 // vfmadd231ps %ymm9,%ymm0,%ymm13
- .byte 196,98,125,24,72,24 // vbroadcastss 0x18(%rax),%ymm9
- .byte 196,98,125,24,96,28 // vbroadcastss 0x1c(%rax),%ymm12
- .byte 196,98,125,24,112,32 // vbroadcastss 0x20(%rax),%ymm14
- .byte 196,194,29,168,214 // vfmadd213ps %ymm14,%ymm12,%ymm2
- .byte 196,66,101,168,230 // vfmadd213ps %ymm14,%ymm3,%ymm12
- .byte 196,194,53,168,204 // vfmadd213ps %ymm12,%ymm9,%ymm1
- .byte 196,194,125,184,209 // vfmadd231ps %ymm9,%ymm0,%ymm2
- .byte 197,252,83,210 // vrcpps %ymm2,%ymm2
- .byte 197,252,83,217 // vrcpps %ymm1,%ymm3
- .byte 197,164,89,194 // vmulps %ymm2,%ymm11,%ymm0
- .byte 197,188,89,203 // vmulps %ymm3,%ymm8,%ymm1
- .byte 197,148,89,210 // vmulps %ymm2,%ymm13,%ymm2
- .byte 197,172,89,219 // vmulps %ymm3,%ymm10,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_uniform_color_hsw_lowp
-.globl _sk_uniform_color_hsw_lowp
-FUNCTION(_sk_uniform_color_hsw_lowp)
-_sk_uniform_color_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,64,16 // vpbroadcastw 0x10(%rax),%ymm0
- .byte 196,226,125,121,72,18 // vpbroadcastw 0x12(%rax),%ymm1
- .byte 196,226,125,121,80,20 // vpbroadcastw 0x14(%rax),%ymm2
- .byte 196,226,125,121,88,22 // vpbroadcastw 0x16(%rax),%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_black_color_hsw_lowp
-.globl _sk_black_color_hsw_lowp
-FUNCTION(_sk_black_color_hsw_lowp)
-_sk_black_color_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,16,230,0,0 // vpbroadcastw 0xe610(%rip),%ymm3 # 3cc40 <_sk_srcover_bgra_8888_sse2_lowp+0x9f4>
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_white_color_hsw_lowp
-.globl _sk_white_color_hsw_lowp
-FUNCTION(_sk_white_color_hsw_lowp)
-_sk_white_color_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,5,249,229,0,0 // vpbroadcastw 0xe5f9(%rip),%ymm0 # 3cc42 <_sk_srcover_bgra_8888_sse2_lowp+0x9f6>
- .byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
- .byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
- .byte 197,253,111,216 // vmovdqa %ymm0,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_set_rgb_hsw_lowp
-.globl _sk_set_rgb_hsw_lowp
-FUNCTION(_sk_set_rgb_hsw_lowp)
-_sk_set_rgb_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,5,151,222,0,0 // vmovss 0xde97(%rip),%xmm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,250,16,21,191,222,0,0 // vmovss 0xdebf(%rip),%xmm2 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 197,250,16,0 // vmovss (%rax),%xmm0
- .byte 196,226,57,153,194 // vfmadd132ss %xmm2,%xmm8,%xmm0
- .byte 197,122,44,192 // vcvttss2si %xmm0,%r8d
- .byte 196,193,121,110,192 // vmovd %r8d,%xmm0
- .byte 196,226,125,121,192 // vpbroadcastw %xmm0,%ymm0
- .byte 197,250,16,72,4 // vmovss 0x4(%rax),%xmm1
- .byte 196,226,57,153,202 // vfmadd132ss %xmm2,%xmm8,%xmm1
- .byte 197,122,44,193 // vcvttss2si %xmm1,%r8d
- .byte 196,193,121,110,200 // vmovd %r8d,%xmm1
- .byte 196,226,125,121,201 // vpbroadcastw %xmm1,%ymm1
- .byte 196,226,57,153,80,8 // vfmadd132ss 0x8(%rax),%xmm8,%xmm2
- .byte 197,250,44,194 // vcvttss2si %xmm2,%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,226,125,121,210 // vpbroadcastw %xmm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_hsw_lowp
-.globl _sk_clamp_a_hsw_lowp
-FUNCTION(_sk_clamp_a_hsw_lowp)
-_sk_clamp_a_hsw_lowp:
- .byte 196,226,125,58,195 // vpminuw %ymm3,%ymm0,%ymm0
- .byte 196,226,117,58,203 // vpminuw %ymm3,%ymm1,%ymm1
- .byte 196,226,109,58,211 // vpminuw %ymm3,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_dst_hsw_lowp
-.globl _sk_clamp_a_dst_hsw_lowp
-FUNCTION(_sk_clamp_a_dst_hsw_lowp)
-_sk_clamp_a_dst_hsw_lowp:
- .byte 196,226,93,58,231 // vpminuw %ymm7,%ymm4,%ymm4
- .byte 196,226,85,58,239 // vpminuw %ymm7,%ymm5,%ymm5
- .byte 196,226,77,58,247 // vpminuw %ymm7,%ymm6,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_hsw_lowp
-.globl _sk_premul_hsw_lowp
-FUNCTION(_sk_premul_hsw_lowp)
-_sk_premul_hsw_lowp:
- .byte 197,229,213,192 // vpmullw %ymm0,%ymm3,%ymm0
- .byte 196,98,125,121,5,98,229,0,0 // vpbroadcastw 0xe562(%rip),%ymm8 # 3cc44 <_sk_srcover_bgra_8888_sse2_lowp+0x9f8>
- .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,229,213,201 // vpmullw %ymm1,%ymm3,%ymm1
- .byte 196,193,117,253,200 // vpaddw %ymm8,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,229,213,210 // vpmullw %ymm2,%ymm3,%ymm2
- .byte 196,193,109,253,208 // vpaddw %ymm8,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_dst_hsw_lowp
-.globl _sk_premul_dst_hsw_lowp
-FUNCTION(_sk_premul_dst_hsw_lowp)
-_sk_premul_dst_hsw_lowp:
- .byte 197,197,213,228 // vpmullw %ymm4,%ymm7,%ymm4
- .byte 196,98,125,121,5,45,229,0,0 // vpbroadcastw 0xe52d(%rip),%ymm8 # 3cc46 <_sk_srcover_bgra_8888_sse2_lowp+0x9fa>
- .byte 196,193,93,253,224 // vpaddw %ymm8,%ymm4,%ymm4
- .byte 197,221,113,212,8 // vpsrlw $0x8,%ymm4,%ymm4
- .byte 197,197,213,237 // vpmullw %ymm5,%ymm7,%ymm5
- .byte 196,193,85,253,232 // vpaddw %ymm8,%ymm5,%ymm5
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,197,213,246 // vpmullw %ymm6,%ymm7,%ymm6
- .byte 196,193,77,253,240 // vpaddw %ymm8,%ymm6,%ymm6
- .byte 197,205,113,214,8 // vpsrlw $0x8,%ymm6,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_hsw_lowp
-.globl _sk_force_opaque_hsw_lowp
-FUNCTION(_sk_force_opaque_hsw_lowp)
-_sk_force_opaque_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,250,228,0,0 // vpbroadcastw 0xe4fa(%rip),%ymm3 # 3cc48 <_sk_srcover_bgra_8888_sse2_lowp+0x9fc>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_dst_hsw_lowp
-.globl _sk_force_opaque_dst_hsw_lowp
-FUNCTION(_sk_force_opaque_dst_hsw_lowp)
-_sk_force_opaque_dst_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,239,228,0,0 // vpbroadcastw 0xe4ef(%rip),%ymm7 # 3cc4a <_sk_srcover_bgra_8888_sse2_lowp+0x9fe>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_swap_rb_hsw_lowp
-.globl _sk_swap_rb_hsw_lowp
-FUNCTION(_sk_swap_rb_hsw_lowp)
-_sk_swap_rb_hsw_lowp:
- .byte 197,124,40,192 // vmovaps %ymm0,%ymm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,194 // vmovaps %ymm2,%ymm0
- .byte 197,124,41,194 // vmovaps %ymm8,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_src_dst_hsw_lowp
-.globl _sk_move_src_dst_hsw_lowp
-FUNCTION(_sk_move_src_dst_hsw_lowp)
-_sk_move_src_dst_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,224 // vmovaps %ymm0,%ymm4
- .byte 197,252,40,233 // vmovaps %ymm1,%ymm5
- .byte 197,252,40,242 // vmovaps %ymm2,%ymm6
- .byte 197,252,40,251 // vmovaps %ymm3,%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_dst_src_hsw_lowp
-.globl _sk_move_dst_src_hsw_lowp
-FUNCTION(_sk_move_dst_src_hsw_lowp)
-_sk_move_dst_src_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,196 // vmovaps %ymm4,%ymm0
- .byte 197,252,40,205 // vmovaps %ymm5,%ymm1
- .byte 197,252,40,214 // vmovaps %ymm6,%ymm2
- .byte 197,252,40,223 // vmovaps %ymm7,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_invert_hsw_lowp
-.globl _sk_invert_hsw_lowp
-FUNCTION(_sk_invert_hsw_lowp)
-_sk_invert_hsw_lowp:
- .byte 196,98,125,121,5,174,228,0,0 // vpbroadcastw 0xe4ae(%rip),%ymm8 # 3cc4c <_sk_srcover_bgra_8888_sse2_lowp+0xa00>
- .byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
- .byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
- .byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
- .byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clear_hsw_lowp
-.globl _sk_clear_hsw_lowp
-FUNCTION(_sk_clear_hsw_lowp)
-_sk_clear_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,87,192 // vxorps %ymm0,%ymm0,%ymm0
- .byte 197,244,87,201 // vxorps %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcatop_hsw_lowp
-.globl _sk_srcatop_hsw_lowp
-FUNCTION(_sk_srcatop_hsw_lowp)
-_sk_srcatop_hsw_lowp:
- .byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,123,228,0,0 // vpbroadcastw 0xe47b(%rip),%ymm8 # 3cc4e <_sk_srcover_bgra_8888_sse2_lowp+0xa02>
- .byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
- .byte 197,101,213,204 // vpmullw %ymm4,%ymm3,%ymm9
- .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
- .byte 197,181,253,192 // vpaddw %ymm0,%ymm9,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
- .byte 197,101,213,205 // vpmullw %ymm5,%ymm3,%ymm9
- .byte 196,193,117,253,200 // vpaddw %ymm8,%ymm1,%ymm1
- .byte 197,181,253,201 // vpaddw %ymm1,%ymm9,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,197,213,210 // vpmullw %ymm2,%ymm7,%ymm2
- .byte 197,229,213,222 // vpmullw %ymm6,%ymm3,%ymm3
- .byte 196,193,109,253,208 // vpaddw %ymm8,%ymm2,%ymm2
- .byte 197,229,253,210 // vpaddw %ymm2,%ymm3,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 196,193,69,213,216 // vpmullw %ymm8,%ymm7,%ymm3
- .byte 196,193,101,253,216 // vpaddw %ymm8,%ymm3,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstatop_hsw_lowp
-.globl _sk_dstatop_hsw_lowp
-FUNCTION(_sk_dstatop_hsw_lowp)
-_sk_dstatop_hsw_lowp:
- .byte 197,93,213,195 // vpmullw %ymm3,%ymm4,%ymm8
- .byte 196,98,125,121,13,27,228,0,0 // vpbroadcastw 0xe41b(%rip),%ymm9 # 3cc50 <_sk_srcover_bgra_8888_sse2_lowp+0xa04>
- .byte 197,53,249,215 // vpsubw %ymm7,%ymm9,%ymm10
- .byte 197,173,213,192 // vpmullw %ymm0,%ymm10,%ymm0
- .byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
- .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,85,213,195 // vpmullw %ymm3,%ymm5,%ymm8
- .byte 197,173,213,201 // vpmullw %ymm1,%ymm10,%ymm1
- .byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
- .byte 196,193,117,253,200 // vpaddw %ymm8,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,77,213,195 // vpmullw %ymm3,%ymm6,%ymm8
- .byte 197,173,213,210 // vpmullw %ymm2,%ymm10,%ymm2
- .byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
- .byte 196,193,109,253,208 // vpaddw %ymm8,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 196,193,101,213,217 // vpmullw %ymm9,%ymm3,%ymm3
- .byte 196,193,101,253,217 // vpaddw %ymm9,%ymm3,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcin_hsw_lowp
-.globl _sk_srcin_hsw_lowp
-FUNCTION(_sk_srcin_hsw_lowp)
-_sk_srcin_hsw_lowp:
- .byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 196,98,125,121,5,184,227,0,0 // vpbroadcastw 0xe3b8(%rip),%ymm8 # 3cc52 <_sk_srcover_bgra_8888_sse2_lowp+0xa06>
- .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
- .byte 196,193,117,253,200 // vpaddw %ymm8,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,197,213,210 // vpmullw %ymm2,%ymm7,%ymm2
- .byte 196,193,109,253,208 // vpaddw %ymm8,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,197,213,219 // vpmullw %ymm3,%ymm7,%ymm3
- .byte 196,193,101,253,216 // vpaddw %ymm8,%ymm3,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstin_hsw_lowp
-.globl _sk_dstin_hsw_lowp
-FUNCTION(_sk_dstin_hsw_lowp)
-_sk_dstin_hsw_lowp:
- .byte 197,221,213,195 // vpmullw %ymm3,%ymm4,%ymm0
- .byte 196,98,125,121,5,117,227,0,0 // vpbroadcastw 0xe375(%rip),%ymm8 # 3cc54 <_sk_srcover_bgra_8888_sse2_lowp+0xa08>
- .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,213,213,203 // vpmullw %ymm3,%ymm5,%ymm1
- .byte 196,193,117,253,200 // vpaddw %ymm8,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,205,213,211 // vpmullw %ymm3,%ymm6,%ymm2
- .byte 196,193,109,253,208 // vpaddw %ymm8,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,197,213,219 // vpmullw %ymm3,%ymm7,%ymm3
- .byte 196,193,101,253,216 // vpaddw %ymm8,%ymm3,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcout_hsw_lowp
-.globl _sk_srcout_hsw_lowp
-FUNCTION(_sk_srcout_hsw_lowp)
-_sk_srcout_hsw_lowp:
- .byte 196,98,125,121,5,54,227,0,0 // vpbroadcastw 0xe336(%rip),%ymm8 # 3cc56 <_sk_srcover_bgra_8888_sse2_lowp+0xa0a>
- .byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
- .byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
- .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
- .byte 196,193,117,253,200 // vpaddw %ymm8,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,181,213,210 // vpmullw %ymm2,%ymm9,%ymm2
- .byte 196,193,109,253,208 // vpaddw %ymm8,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,181,213,219 // vpmullw %ymm3,%ymm9,%ymm3
- .byte 196,193,101,253,216 // vpaddw %ymm8,%ymm3,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstout_hsw_lowp
-.globl _sk_dstout_hsw_lowp
-FUNCTION(_sk_dstout_hsw_lowp)
-_sk_dstout_hsw_lowp:
- .byte 196,98,125,121,5,239,226,0,0 // vpbroadcastw 0xe2ef(%rip),%ymm8 # 3cc58 <_sk_srcover_bgra_8888_sse2_lowp+0xa0c>
- .byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
- .byte 197,229,213,196 // vpmullw %ymm4,%ymm3,%ymm0
- .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,229,213,205 // vpmullw %ymm5,%ymm3,%ymm1
- .byte 196,193,117,253,200 // vpaddw %ymm8,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,229,213,214 // vpmullw %ymm6,%ymm3,%ymm2
- .byte 196,193,109,253,208 // vpaddw %ymm8,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,229,213,223 // vpmullw %ymm7,%ymm3,%ymm3
- .byte 196,193,101,253,216 // vpaddw %ymm8,%ymm3,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_hsw_lowp
-.globl _sk_srcover_hsw_lowp
-FUNCTION(_sk_srcover_hsw_lowp)
-_sk_srcover_hsw_lowp:
- .byte 196,98,125,121,5,168,226,0,0 // vpbroadcastw 0xe2a8(%rip),%ymm8 # 3cc5a <_sk_srcover_bgra_8888_sse2_lowp+0xa0e>
- .byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
- .byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
- .byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
- .byte 196,193,45,113,210,8 // vpsrlw $0x8,%ymm10,%ymm10
- .byte 197,173,253,192 // vpaddw %ymm0,%ymm10,%ymm0
- .byte 197,53,213,213 // vpmullw %ymm5,%ymm9,%ymm10
- .byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
- .byte 196,193,45,113,210,8 // vpsrlw $0x8,%ymm10,%ymm10
- .byte 197,173,253,201 // vpaddw %ymm1,%ymm10,%ymm1
- .byte 197,53,213,214 // vpmullw %ymm6,%ymm9,%ymm10
- .byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
- .byte 196,193,45,113,210,8 // vpsrlw $0x8,%ymm10,%ymm10
- .byte 197,173,253,210 // vpaddw %ymm2,%ymm10,%ymm2
- .byte 197,53,213,207 // vpmullw %ymm7,%ymm9,%ymm9
- .byte 196,65,53,253,192 // vpaddw %ymm8,%ymm9,%ymm8
- .byte 196,193,61,113,208,8 // vpsrlw $0x8,%ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstover_hsw_lowp
-.globl _sk_dstover_hsw_lowp
-FUNCTION(_sk_dstover_hsw_lowp)
-_sk_dstover_hsw_lowp:
- .byte 196,98,125,121,5,77,226,0,0 // vpbroadcastw 0xe24d(%rip),%ymm8 # 3cc5c <_sk_srcover_bgra_8888_sse2_lowp+0xa10>
- .byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
- .byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
- .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,253,253,196 // vpaddw %ymm4,%ymm0,%ymm0
- .byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
- .byte 196,193,117,253,200 // vpaddw %ymm8,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,245,253,205 // vpaddw %ymm5,%ymm1,%ymm1
- .byte 197,181,213,210 // vpmullw %ymm2,%ymm9,%ymm2
- .byte 196,193,109,253,208 // vpaddw %ymm8,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,237,253,214 // vpaddw %ymm6,%ymm2,%ymm2
- .byte 197,181,213,219 // vpmullw %ymm3,%ymm9,%ymm3
- .byte 196,193,101,253,216 // vpaddw %ymm8,%ymm3,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 197,229,253,223 // vpaddw %ymm7,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_modulate_hsw_lowp
-.globl _sk_modulate_hsw_lowp
-FUNCTION(_sk_modulate_hsw_lowp)
-_sk_modulate_hsw_lowp:
- .byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,242,225,0,0 // vpbroadcastw 0xe1f2(%rip),%ymm8 # 3cc5e <_sk_srcover_bgra_8888_sse2_lowp+0xa12>
- .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1
- .byte 196,193,117,253,200 // vpaddw %ymm8,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,205,213,210 // vpmullw %ymm2,%ymm6,%ymm2
- .byte 196,193,109,253,208 // vpaddw %ymm8,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,197,213,219 // vpmullw %ymm3,%ymm7,%ymm3
- .byte 196,193,101,253,216 // vpaddw %ymm8,%ymm3,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_multiply_hsw_lowp
-.globl _sk_multiply_hsw_lowp
-FUNCTION(_sk_multiply_hsw_lowp)
-_sk_multiply_hsw_lowp:
- .byte 196,98,125,121,5,179,225,0,0 // vpbroadcastw 0xe1b3(%rip),%ymm8 # 3cc60 <_sk_srcover_bgra_8888_sse2_lowp+0xa14>
- .byte 197,61,249,203 // vpsubw %ymm3,%ymm8,%ymm9
- .byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
- .byte 196,65,93,253,216 // vpaddw %ymm8,%ymm4,%ymm11
- .byte 197,37,249,223 // vpsubw %ymm7,%ymm11,%ymm11
- .byte 197,165,213,192 // vpmullw %ymm0,%ymm11,%ymm0
- .byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
- .byte 196,193,125,253,194 // vpaddw %ymm10,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,53,213,213 // vpmullw %ymm5,%ymm9,%ymm10
- .byte 196,65,85,253,216 // vpaddw %ymm8,%ymm5,%ymm11
- .byte 197,37,249,223 // vpsubw %ymm7,%ymm11,%ymm11
- .byte 197,165,213,201 // vpmullw %ymm1,%ymm11,%ymm1
- .byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
- .byte 196,193,117,253,202 // vpaddw %ymm10,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,53,213,214 // vpmullw %ymm6,%ymm9,%ymm10
- .byte 196,65,77,253,216 // vpaddw %ymm8,%ymm6,%ymm11
- .byte 197,37,249,223 // vpsubw %ymm7,%ymm11,%ymm11
- .byte 197,165,213,210 // vpmullw %ymm2,%ymm11,%ymm2
- .byte 196,65,45,253,208 // vpaddw %ymm8,%ymm10,%ymm10
- .byte 196,193,109,253,210 // vpaddw %ymm10,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,53,213,207 // vpmullw %ymm7,%ymm9,%ymm9
- .byte 196,193,101,213,216 // vpmullw %ymm8,%ymm3,%ymm3
- .byte 196,193,101,253,216 // vpaddw %ymm8,%ymm3,%ymm3
- .byte 197,181,253,219 // vpaddw %ymm3,%ymm9,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_plus__hsw_lowp
-.globl _sk_plus__hsw_lowp
-FUNCTION(_sk_plus__hsw_lowp)
-_sk_plus__hsw_lowp:
- .byte 197,221,253,192 // vpaddw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,5,41,225,0,0 // vpbroadcastw 0xe129(%rip),%ymm8 # 3cc62 <_sk_srcover_bgra_8888_sse2_lowp+0xa16>
- .byte 196,194,125,58,192 // vpminuw %ymm8,%ymm0,%ymm0
- .byte 197,213,253,201 // vpaddw %ymm1,%ymm5,%ymm1
- .byte 196,194,117,58,200 // vpminuw %ymm8,%ymm1,%ymm1
- .byte 197,205,253,210 // vpaddw %ymm2,%ymm6,%ymm2
- .byte 196,194,109,58,208 // vpminuw %ymm8,%ymm2,%ymm2
- .byte 197,197,253,219 // vpaddw %ymm3,%ymm7,%ymm3
- .byte 196,194,101,58,216 // vpminuw %ymm8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_screen_hsw_lowp
-.globl _sk_screen_hsw_lowp
-FUNCTION(_sk_screen_hsw_lowp)
-_sk_screen_hsw_lowp:
- .byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
- .byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,246,224,0,0 // vpbroadcastw 0xe0f6(%rip),%ymm9 # 3cc64 <_sk_srcover_bgra_8888_sse2_lowp+0xa18>
- .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
- .byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
- .byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1
- .byte 196,193,117,253,201 // vpaddw %ymm9,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
- .byte 197,77,253,194 // vpaddw %ymm2,%ymm6,%ymm8
- .byte 197,205,213,210 // vpmullw %ymm2,%ymm6,%ymm2
- .byte 196,193,109,253,209 // vpaddw %ymm9,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
- .byte 197,69,253,195 // vpaddw %ymm3,%ymm7,%ymm8
- .byte 197,197,213,219 // vpmullw %ymm3,%ymm7,%ymm3
- .byte 196,193,101,253,217 // vpaddw %ymm9,%ymm3,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 197,189,249,219 // vpsubw %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xor__hsw_lowp
-.globl _sk_xor__hsw_lowp
-FUNCTION(_sk_xor__hsw_lowp)
-_sk_xor__hsw_lowp:
- .byte 196,98,125,121,5,155,224,0,0 // vpbroadcastw 0xe09b(%rip),%ymm8 # 3cc66 <_sk_srcover_bgra_8888_sse2_lowp+0xa1a>
- .byte 197,61,249,207 // vpsubw %ymm7,%ymm8,%ymm9
- .byte 197,181,213,192 // vpmullw %ymm0,%ymm9,%ymm0
- .byte 197,61,249,211 // vpsubw %ymm3,%ymm8,%ymm10
- .byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
- .byte 197,165,253,192 // vpaddw %ymm0,%ymm11,%ymm0
- .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
- .byte 197,45,213,221 // vpmullw %ymm5,%ymm10,%ymm11
- .byte 197,165,253,201 // vpaddw %ymm1,%ymm11,%ymm1
- .byte 196,193,117,253,200 // vpaddw %ymm8,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,181,213,210 // vpmullw %ymm2,%ymm9,%ymm2
- .byte 197,45,213,222 // vpmullw %ymm6,%ymm10,%ymm11
- .byte 197,165,253,210 // vpaddw %ymm2,%ymm11,%ymm2
- .byte 196,193,109,253,208 // vpaddw %ymm8,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,181,213,219 // vpmullw %ymm3,%ymm9,%ymm3
- .byte 197,45,213,207 // vpmullw %ymm7,%ymm10,%ymm9
- .byte 197,181,253,219 // vpaddw %ymm3,%ymm9,%ymm3
- .byte 196,193,101,253,216 // vpaddw %ymm8,%ymm3,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_darken_hsw_lowp
-.globl _sk_darken_hsw_lowp
-FUNCTION(_sk_darken_hsw_lowp)
-_sk_darken_hsw_lowp:
- .byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
- .byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
- .byte 196,194,125,62,193 // vpmaxuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,31,224,0,0 // vpbroadcastw 0xe01f(%rip),%ymm9 # 3cc68 <_sk_srcover_bgra_8888_sse2_lowp+0xa1c>
- .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
- .byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
- .byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
- .byte 197,85,213,211 // vpmullw %ymm3,%ymm5,%ymm10
- .byte 196,194,117,62,202 // vpmaxuw %ymm10,%ymm1,%ymm1
- .byte 196,193,117,253,201 // vpaddw %ymm9,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
- .byte 197,77,253,194 // vpaddw %ymm2,%ymm6,%ymm8
- .byte 197,197,213,210 // vpmullw %ymm2,%ymm7,%ymm2
- .byte 197,77,213,211 // vpmullw %ymm3,%ymm6,%ymm10
- .byte 196,194,109,62,210 // vpmaxuw %ymm10,%ymm2,%ymm2
- .byte 196,193,109,253,209 // vpaddw %ymm9,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
- .byte 197,53,249,195 // vpsubw %ymm3,%ymm9,%ymm8
- .byte 197,61,213,199 // vpmullw %ymm7,%ymm8,%ymm8
- .byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
- .byte 196,193,61,113,208,8 // vpsrlw $0x8,%ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lighten_hsw_lowp
-.globl _sk_lighten_hsw_lowp
-FUNCTION(_sk_lighten_hsw_lowp)
-_sk_lighten_hsw_lowp:
- .byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
- .byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
- .byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,160,223,0,0 // vpbroadcastw 0xdfa0(%rip),%ymm9 # 3cc6a <_sk_srcover_bgra_8888_sse2_lowp+0xa1e>
- .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
- .byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
- .byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
- .byte 197,85,213,211 // vpmullw %ymm3,%ymm5,%ymm10
- .byte 196,194,117,58,202 // vpminuw %ymm10,%ymm1,%ymm1
- .byte 196,193,117,253,201 // vpaddw %ymm9,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
- .byte 197,77,253,194 // vpaddw %ymm2,%ymm6,%ymm8
- .byte 197,197,213,210 // vpmullw %ymm2,%ymm7,%ymm2
- .byte 197,77,213,211 // vpmullw %ymm3,%ymm6,%ymm10
- .byte 196,194,109,58,210 // vpminuw %ymm10,%ymm2,%ymm2
- .byte 196,193,109,253,209 // vpaddw %ymm9,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
- .byte 197,53,249,195 // vpsubw %ymm3,%ymm9,%ymm8
- .byte 197,61,213,199 // vpmullw %ymm7,%ymm8,%ymm8
- .byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
- .byte 196,193,61,113,208,8 // vpsrlw $0x8,%ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_difference_hsw_lowp
-.globl _sk_difference_hsw_lowp
-FUNCTION(_sk_difference_hsw_lowp)
-_sk_difference_hsw_lowp:
- .byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
- .byte 197,197,213,192 // vpmullw %ymm0,%ymm7,%ymm0
- .byte 197,93,213,203 // vpmullw %ymm3,%ymm4,%ymm9
- .byte 196,194,125,58,193 // vpminuw %ymm9,%ymm0,%ymm0
- .byte 196,98,125,121,13,33,223,0,0 // vpbroadcastw 0xdf21(%rip),%ymm9 # 3cc6c <_sk_srcover_bgra_8888_sse2_lowp+0xa20>
- .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
- .byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,16,223,0,0 // vpbroadcastw 0xdf10(%rip),%ymm10 # 3cc6e <_sk_srcover_bgra_8888_sse2_lowp+0xa22>
- .byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
- .byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
- .byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
- .byte 197,197,213,201 // vpmullw %ymm1,%ymm7,%ymm1
- .byte 197,85,213,219 // vpmullw %ymm3,%ymm5,%ymm11
- .byte 196,194,117,58,203 // vpminuw %ymm11,%ymm1,%ymm1
- .byte 196,193,117,253,201 // vpaddw %ymm9,%ymm1,%ymm1
- .byte 197,245,113,209,7 // vpsrlw $0x7,%ymm1,%ymm1
- .byte 196,193,117,219,202 // vpand %ymm10,%ymm1,%ymm1
- .byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
- .byte 197,77,253,194 // vpaddw %ymm2,%ymm6,%ymm8
- .byte 197,197,213,210 // vpmullw %ymm2,%ymm7,%ymm2
- .byte 197,77,213,219 // vpmullw %ymm3,%ymm6,%ymm11
- .byte 196,194,109,58,211 // vpminuw %ymm11,%ymm2,%ymm2
- .byte 196,193,109,253,209 // vpaddw %ymm9,%ymm2,%ymm2
- .byte 197,237,113,210,7 // vpsrlw $0x7,%ymm2,%ymm2
- .byte 196,193,109,219,210 // vpand %ymm10,%ymm2,%ymm2
- .byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
- .byte 197,53,249,195 // vpsubw %ymm3,%ymm9,%ymm8
- .byte 197,61,213,199 // vpmullw %ymm7,%ymm8,%ymm8
- .byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
- .byte 196,193,61,113,208,8 // vpsrlw $0x8,%ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_exclusion_hsw_lowp
-.globl _sk_exclusion_hsw_lowp
-FUNCTION(_sk_exclusion_hsw_lowp)
-_sk_exclusion_hsw_lowp:
- .byte 197,93,253,192 // vpaddw %ymm0,%ymm4,%ymm8
- .byte 197,221,213,192 // vpmullw %ymm0,%ymm4,%ymm0
- .byte 196,98,125,121,13,149,222,0,0 // vpbroadcastw 0xde95(%rip),%ymm9 # 3cc70 <_sk_srcover_bgra_8888_sse2_lowp+0xa24>
- .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
- .byte 197,253,113,208,7 // vpsrlw $0x7,%ymm0,%ymm0
- .byte 196,98,125,121,21,132,222,0,0 // vpbroadcastw 0xde84(%rip),%ymm10 # 3cc72 <_sk_srcover_bgra_8888_sse2_lowp+0xa26>
- .byte 196,193,125,219,194 // vpand %ymm10,%ymm0,%ymm0
- .byte 197,189,249,192 // vpsubw %ymm0,%ymm8,%ymm0
- .byte 197,85,253,193 // vpaddw %ymm1,%ymm5,%ymm8
- .byte 197,213,213,201 // vpmullw %ymm1,%ymm5,%ymm1
- .byte 196,193,117,253,201 // vpaddw %ymm9,%ymm1,%ymm1
- .byte 197,245,113,209,7 // vpsrlw $0x7,%ymm1,%ymm1
- .byte 196,193,117,219,202 // vpand %ymm10,%ymm1,%ymm1
- .byte 197,189,249,201 // vpsubw %ymm1,%ymm8,%ymm1
- .byte 197,77,253,194 // vpaddw %ymm2,%ymm6,%ymm8
- .byte 197,205,213,210 // vpmullw %ymm2,%ymm6,%ymm2
- .byte 196,193,109,253,209 // vpaddw %ymm9,%ymm2,%ymm2
- .byte 197,237,113,210,7 // vpsrlw $0x7,%ymm2,%ymm2
- .byte 196,193,109,219,210 // vpand %ymm10,%ymm2,%ymm2
- .byte 197,189,249,210 // vpsubw %ymm2,%ymm8,%ymm2
- .byte 197,53,249,195 // vpsubw %ymm3,%ymm9,%ymm8
- .byte 197,61,213,199 // vpmullw %ymm7,%ymm8,%ymm8
- .byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
- .byte 196,193,61,113,208,8 // vpsrlw $0x8,%ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hardlight_hsw_lowp
-.globl _sk_hardlight_hsw_lowp
-FUNCTION(_sk_hardlight_hsw_lowp)
-_sk_hardlight_hsw_lowp:
- .byte 197,125,253,192 // vpaddw %ymm0,%ymm0,%ymm8
- .byte 196,98,125,121,13,33,222,0,0 // vpbroadcastw 0xde21(%rip),%ymm9 # 3cc76 <_sk_srcover_bgra_8888_sse2_lowp+0xa2a>
- .byte 196,65,101,239,209 // vpxor %ymm9,%ymm3,%ymm10
- .byte 196,65,61,239,217 // vpxor %ymm9,%ymm8,%ymm11
- .byte 196,65,37,101,218 // vpcmpgtw %ymm10,%ymm11,%ymm11
- .byte 197,61,213,228 // vpmullw %ymm4,%ymm8,%ymm12
- .byte 197,69,213,195 // vpmullw %ymm3,%ymm7,%ymm8
- .byte 197,101,249,232 // vpsubw %ymm0,%ymm3,%ymm13
- .byte 197,69,249,244 // vpsubw %ymm4,%ymm7,%ymm14
- .byte 196,65,21,213,238 // vpmullw %ymm14,%ymm13,%ymm13
- .byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
- .byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
- .byte 196,67,29,76,221,176 // vpblendvb %ymm11,%ymm13,%ymm12,%ymm11
- .byte 197,117,253,225 // vpaddw %ymm1,%ymm1,%ymm12
- .byte 197,101,249,233 // vpsubw %ymm1,%ymm3,%ymm13
- .byte 197,69,249,245 // vpsubw %ymm5,%ymm7,%ymm14
- .byte 196,65,21,213,238 // vpmullw %ymm14,%ymm13,%ymm13
- .byte 196,65,29,239,241 // vpxor %ymm9,%ymm12,%ymm14
- .byte 196,65,13,101,242 // vpcmpgtw %ymm10,%ymm14,%ymm14
- .byte 197,29,213,229 // vpmullw %ymm5,%ymm12,%ymm12
- .byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
- .byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
- .byte 196,67,29,76,229,224 // vpblendvb %ymm14,%ymm13,%ymm12,%ymm12
- .byte 197,109,253,234 // vpaddw %ymm2,%ymm2,%ymm13
- .byte 196,65,21,239,201 // vpxor %ymm9,%ymm13,%ymm9
- .byte 196,65,53,101,202 // vpcmpgtw %ymm10,%ymm9,%ymm9
- .byte 197,101,249,210 // vpsubw %ymm2,%ymm3,%ymm10
- .byte 197,69,249,246 // vpsubw %ymm6,%ymm7,%ymm14
- .byte 196,65,45,213,214 // vpmullw %ymm14,%ymm10,%ymm10
- .byte 196,98,125,121,53,152,221,0,0 // vpbroadcastw 0xdd98(%rip),%ymm14 # 3cc74 <_sk_srcover_bgra_8888_sse2_lowp+0xa28>
- .byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10
- .byte 196,65,61,249,194 // vpsubw %ymm10,%ymm8,%ymm8
- .byte 197,13,249,215 // vpsubw %ymm7,%ymm14,%ymm10
- .byte 197,173,213,192 // vpmullw %ymm0,%ymm10,%ymm0
- .byte 197,21,213,238 // vpmullw %ymm6,%ymm13,%ymm13
- .byte 196,67,21,76,192,144 // vpblendvb %ymm9,%ymm8,%ymm13,%ymm8
- .byte 197,13,249,203 // vpsubw %ymm3,%ymm14,%ymm9
- .byte 197,53,213,236 // vpmullw %ymm4,%ymm9,%ymm13
- .byte 197,149,253,192 // vpaddw %ymm0,%ymm13,%ymm0
- .byte 196,65,37,253,222 // vpaddw %ymm14,%ymm11,%ymm11
- .byte 196,193,125,253,195 // vpaddw %ymm11,%ymm0,%ymm0
- .byte 197,173,213,201 // vpmullw %ymm1,%ymm10,%ymm1
- .byte 197,53,213,221 // vpmullw %ymm5,%ymm9,%ymm11
- .byte 197,165,253,201 // vpaddw %ymm1,%ymm11,%ymm1
- .byte 196,65,29,253,222 // vpaddw %ymm14,%ymm12,%ymm11
- .byte 196,193,117,253,203 // vpaddw %ymm11,%ymm1,%ymm1
- .byte 197,173,213,210 // vpmullw %ymm2,%ymm10,%ymm2
- .byte 197,53,213,214 // vpmullw %ymm6,%ymm9,%ymm10
- .byte 197,173,253,210 // vpaddw %ymm2,%ymm10,%ymm2
- .byte 196,65,61,253,198 // vpaddw %ymm14,%ymm8,%ymm8
- .byte 196,193,109,253,208 // vpaddw %ymm8,%ymm2,%ymm2
- .byte 197,53,213,199 // vpmullw %ymm7,%ymm9,%ymm8
- .byte 196,65,61,253,198 // vpaddw %ymm14,%ymm8,%ymm8
- .byte 196,193,61,113,208,8 // vpsrlw $0x8,%ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_overlay_hsw_lowp
-.globl _sk_overlay_hsw_lowp
-FUNCTION(_sk_overlay_hsw_lowp)
-_sk_overlay_hsw_lowp:
- .byte 197,93,253,196 // vpaddw %ymm4,%ymm4,%ymm8
- .byte 196,98,125,121,13,13,221,0,0 // vpbroadcastw 0xdd0d(%rip),%ymm9 # 3cc7a <_sk_srcover_bgra_8888_sse2_lowp+0xa2e>
- .byte 196,65,69,239,209 // vpxor %ymm9,%ymm7,%ymm10
- .byte 196,65,61,239,193 // vpxor %ymm9,%ymm8,%ymm8
- .byte 196,65,61,101,218 // vpcmpgtw %ymm10,%ymm8,%ymm11
- .byte 197,125,213,196 // vpmullw %ymm4,%ymm0,%ymm8
- .byte 196,65,61,253,224 // vpaddw %ymm8,%ymm8,%ymm12
- .byte 197,69,213,195 // vpmullw %ymm3,%ymm7,%ymm8
- .byte 197,101,249,232 // vpsubw %ymm0,%ymm3,%ymm13
- .byte 197,69,249,244 // vpsubw %ymm4,%ymm7,%ymm14
- .byte 196,65,21,213,238 // vpmullw %ymm14,%ymm13,%ymm13
- .byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
- .byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
- .byte 196,67,29,76,221,176 // vpblendvb %ymm11,%ymm13,%ymm12,%ymm11
- .byte 197,85,253,229 // vpaddw %ymm5,%ymm5,%ymm12
- .byte 196,65,29,239,225 // vpxor %ymm9,%ymm12,%ymm12
- .byte 196,65,29,101,226 // vpcmpgtw %ymm10,%ymm12,%ymm12
- .byte 197,101,249,233 // vpsubw %ymm1,%ymm3,%ymm13
- .byte 197,69,249,245 // vpsubw %ymm5,%ymm7,%ymm14
- .byte 196,65,21,213,238 // vpmullw %ymm14,%ymm13,%ymm13
- .byte 197,117,213,245 // vpmullw %ymm5,%ymm1,%ymm14
- .byte 196,65,13,253,246 // vpaddw %ymm14,%ymm14,%ymm14
- .byte 196,65,21,253,237 // vpaddw %ymm13,%ymm13,%ymm13
- .byte 196,65,61,249,237 // vpsubw %ymm13,%ymm8,%ymm13
- .byte 196,67,13,76,229,192 // vpblendvb %ymm12,%ymm13,%ymm14,%ymm12
- .byte 196,98,125,121,45,149,220,0,0 // vpbroadcastw 0xdc95(%rip),%ymm13 # 3cc78 <_sk_srcover_bgra_8888_sse2_lowp+0xa2c>
- .byte 197,77,253,246 // vpaddw %ymm6,%ymm6,%ymm14
- .byte 196,65,13,239,201 // vpxor %ymm9,%ymm14,%ymm9
- .byte 196,65,53,101,202 // vpcmpgtw %ymm10,%ymm9,%ymm9
- .byte 197,101,249,210 // vpsubw %ymm2,%ymm3,%ymm10
- .byte 197,69,249,246 // vpsubw %ymm6,%ymm7,%ymm14
- .byte 196,65,45,213,214 // vpmullw %ymm14,%ymm10,%ymm10
- .byte 197,21,249,247 // vpsubw %ymm7,%ymm13,%ymm14
- .byte 197,141,213,192 // vpmullw %ymm0,%ymm14,%ymm0
- .byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10
- .byte 196,65,61,249,194 // vpsubw %ymm10,%ymm8,%ymm8
- .byte 197,109,213,214 // vpmullw %ymm6,%ymm2,%ymm10
- .byte 196,65,45,253,210 // vpaddw %ymm10,%ymm10,%ymm10
- .byte 196,67,45,76,192,144 // vpblendvb %ymm9,%ymm8,%ymm10,%ymm8
- .byte 197,21,249,203 // vpsubw %ymm3,%ymm13,%ymm9
- .byte 197,53,213,212 // vpmullw %ymm4,%ymm9,%ymm10
- .byte 197,173,253,192 // vpaddw %ymm0,%ymm10,%ymm0
- .byte 196,65,37,253,213 // vpaddw %ymm13,%ymm11,%ymm10
- .byte 196,193,125,253,194 // vpaddw %ymm10,%ymm0,%ymm0
- .byte 197,141,213,201 // vpmullw %ymm1,%ymm14,%ymm1
- .byte 197,53,213,213 // vpmullw %ymm5,%ymm9,%ymm10
- .byte 197,173,253,201 // vpaddw %ymm1,%ymm10,%ymm1
- .byte 196,65,29,253,213 // vpaddw %ymm13,%ymm12,%ymm10
- .byte 196,193,117,253,202 // vpaddw %ymm10,%ymm1,%ymm1
- .byte 197,141,213,210 // vpmullw %ymm2,%ymm14,%ymm2
- .byte 197,53,213,214 // vpmullw %ymm6,%ymm9,%ymm10
- .byte 197,173,253,210 // vpaddw %ymm2,%ymm10,%ymm2
- .byte 196,65,61,253,197 // vpaddw %ymm13,%ymm8,%ymm8
- .byte 196,193,109,253,208 // vpaddw %ymm8,%ymm2,%ymm2
- .byte 197,53,213,199 // vpmullw %ymm7,%ymm9,%ymm8
- .byte 196,65,61,253,197 // vpaddw %ymm13,%ymm8,%ymm8
- .byte 196,193,61,113,208,8 // vpsrlw $0x8,%ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_8888_hsw_lowp
-.globl _sk_load_8888_hsw_lowp
-FUNCTION(_sk_load_8888_hsw_lowp)
-_sk_load_8888_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2f0d9 <_sk_load_8888_hsw_lowp+0x52>
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,160,1,0,0 // lea 0x1a0(%rip),%r9 # 2f250 <_sk_load_8888_hsw_lowp+0x1c9>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2f200 <_sk_load_8888_hsw_lowp+0x179>
- .byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2f200 <_sk_load_8888_hsw_lowp+0x179>
- .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,227,101,2,192,4 // vpblendd $0x4,%ymm0,%ymm3,%ymm0
- .byte 196,194,121,53,12,144 // vpmovzxdq (%r8,%rdx,4),%xmm1
- .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
- .byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
- .byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2f200 <_sk_load_8888_hsw_lowp+0x179>
- .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,192,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm0
- .byte 196,227,125,57,194,1 // vextracti128 $0x1,%ymm0,%xmm2
- .byte 196,195,105,34,84,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm2,%xmm2
- .byte 196,227,125,56,194,1 // vinserti128 $0x1,%xmm2,%ymm0,%ymm0
- .byte 197,253,111,209 // vmovdqa %ymm1,%ymm2
- .byte 196,227,125,57,193,1 // vextracti128 $0x1,%ymm0,%xmm1
- .byte 196,195,113,34,76,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm1,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 197,125,111,194 // vmovdqa %ymm2,%ymm8
- .byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
- .byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
- .byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2f200 <_sk_load_8888_hsw_lowp+0x179>
- .byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,192,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm0
- .byte 196,195,121,34,76,144,36,1 // vpinsrd $0x1,0x24(%r8,%rdx,4),%xmm0,%xmm1
- .byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
- .byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
- .byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2f200 <_sk_load_8888_hsw_lowp+0x179>
- .byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,192,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm0
- .byte 196,227,125,57,193,1 // vextracti128 $0x1,%ymm0,%xmm1
- .byte 196,195,113,34,76,144,52,1 // vpinsrd $0x1,0x34(%r8,%rdx,4),%xmm1,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,227,125,57,193,1 // vextracti128 $0x1,%ymm0,%xmm1
- .byte 196,195,113,34,76,144,48,0 // vpinsrd $0x0,0x30(%r8,%rdx,4),%xmm1,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 196,193,122,111,84,144,32 // vmovdqu 0x20(%r8,%rdx,4),%xmm2
- .byte 196,227,109,2,192,240 // vpblendd $0xf0,%ymm0,%ymm2,%ymm0
- .byte 196,227,117,56,208,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm2
- .byte 196,227,117,70,216,49 // vperm2i128 $0x31,%ymm0,%ymm1,%ymm3
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 196,227,101,14,200,170 // vpblendw $0xaa,%ymm0,%ymm3,%ymm1
- .byte 196,227,109,14,192,170 // vpblendw $0xaa,%ymm0,%ymm2,%ymm0
- .byte 196,226,125,43,201 // vpackusdw %ymm1,%ymm0,%ymm1
- .byte 197,125,111,5,87,218,0,0 // vmovdqa 0xda57(%rip),%ymm8 # 3cc80 <_sk_srcover_bgra_8888_sse2_lowp+0xa34>
- .byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
- .byte 197,237,114,210,16 // vpsrld $0x10,%ymm2,%ymm2
- .byte 196,226,109,43,219 // vpackusdw %ymm3,%ymm2,%ymm3
- .byte 196,193,101,219,208 // vpand %ymm8,%ymm3,%ymm2
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 122,254 // jp 2f250 <_sk_load_8888_hsw_lowp+0x1c9>
- .byte 255 // (bad)
- .byte 255,177,254,255,255,155 // pushq -0x64000002(%rcx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,17 // callq *(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 249 // stc
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,225 // jmpq *%rcx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,203 // dec %ebx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,87,255 // callq *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,74,255 // decl -0x1(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 60,255 // cmp $0xff,%al
- .byte 255 // (bad)
- .byte 255,38 // jmpq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,157,255,255,255,137 // lcall *-0x76000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,117,255 // pushq -0x1(%rbp)
- .byte 255 // (bad)
- .byte 255,95,255 // lcall *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_8888_dst_hsw_lowp
-.globl _sk_load_8888_dst_hsw_lowp
-FUNCTION(_sk_load_8888_dst_hsw_lowp)
-_sk_load_8888_dst_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2f2de <_sk_load_8888_dst_hsw_lowp+0x52>
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2f458 <_sk_load_8888_dst_hsw_lowp+0x1cc>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 197,205,239,246 // vpxor %ymm6,%ymm6,%ymm6
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2f405 <_sk_load_8888_dst_hsw_lowp+0x179>
- .byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2f405 <_sk_load_8888_dst_hsw_lowp+0x179>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 196,227,69,2,228,4 // vpblendd $0x4,%ymm4,%ymm7,%ymm4
- .byte 196,194,121,53,44,144 // vpmovzxdq (%r8,%rdx,4),%xmm5
- .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
- .byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
- .byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2f405 <_sk_load_8888_dst_hsw_lowp+0x179>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,228,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm4
- .byte 196,227,125,57,230,1 // vextracti128 $0x1,%ymm4,%xmm6
- .byte 196,195,73,34,116,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm6,%xmm6
- .byte 196,227,93,56,230,1 // vinserti128 $0x1,%xmm6,%ymm4,%ymm4
- .byte 197,253,111,245 // vmovdqa %ymm5,%ymm6
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,195,81,34,108,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 197,125,111,198 // vmovdqa %ymm6,%ymm8
- .byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
- .byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
- .byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2f405 <_sk_load_8888_dst_hsw_lowp+0x179>
- .byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,228,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm4
- .byte 196,195,89,34,108,144,36,1 // vpinsrd $0x1,0x24(%r8,%rdx,4),%xmm4,%xmm5
- .byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
- .byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
- .byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2f405 <_sk_load_8888_dst_hsw_lowp+0x179>
- .byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,228,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,195,81,34,108,144,52,1 // vpinsrd $0x1,0x34(%r8,%rdx,4),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,195,81,34,108,144,48,0 // vpinsrd $0x0,0x30(%r8,%rdx,4),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 196,193,122,111,116,144,32 // vmovdqu 0x20(%r8,%rdx,4),%xmm6
- .byte 196,227,77,2,228,240 // vpblendd $0xf0,%ymm4,%ymm6,%ymm4
- .byte 196,227,85,56,244,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,227,85,70,252,49 // vperm2i128 $0x31,%ymm4,%ymm5,%ymm7
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
- .byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
- .byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,114,216,0,0 // vmovdqa 0xd872(%rip),%ymm8 # 3cca0 <_sk_srcover_bgra_8888_sse2_lowp+0xa54>
- .byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
- .byte 197,205,114,214,16 // vpsrld $0x10,%ymm6,%ymm6
- .byte 196,226,77,43,255 // vpackusdw %ymm7,%ymm6,%ymm7
- .byte 196,193,69,219,240 // vpand %ymm8,%ymm7,%ymm6
- .byte 197,197,113,215,8 // vpsrlw $0x8,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2f458 <_sk_load_8888_dst_hsw_lowp+0x1cc>
- .byte 255 // (bad)
- .byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,246 // push %rsi
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 222,254 // fdivrp %st,%st(6)
- .byte 255 // (bad)
- .byte 255,200 // dec %eax
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
- .byte 255,71,255 // incl -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 57,255 // cmp %edi,%edi
- .byte 255 // (bad)
- .byte 255,35 // jmpq *(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,154,255,255,255,134 // lcall *-0x79000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,114,255 // pushq -0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_8888_hsw_lowp
-.globl _sk_store_8888_hsw_lowp
-FUNCTION(_sk_store_8888_hsw_lowp)
-_sk_store_8888_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 197,189,113,241,8 // vpsllw $0x8,%ymm1,%ymm8
- .byte 197,61,235,192 // vpor %ymm0,%ymm8,%ymm8
- .byte 196,66,125,51,200 // vpmovzxwd %xmm8,%ymm9
- .byte 196,67,125,57,192,1 // vextracti128 $0x1,%ymm8,%xmm8
- .byte 196,66,125,51,208 // vpmovzxwd %xmm8,%ymm10
- .byte 197,189,113,243,8 // vpsllw $0x8,%ymm3,%ymm8
- .byte 197,61,235,194 // vpor %ymm2,%ymm8,%ymm8
- .byte 196,67,125,57,195,1 // vextracti128 $0x1,%ymm8,%xmm11
- .byte 196,66,125,51,219 // vpmovzxwd %xmm11,%ymm11
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,193,61,114,240,16 // vpslld $0x10,%ymm8,%ymm8
- .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
- .byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
- .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2f515 <_sk_store_8888_hsw_lowp+0x81>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2f5c4 <_sk_store_8888_hsw_lowp+0x130>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2f5c0 <_sk_store_8888_hsw_lowp+0x12c>
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2f5c0 <_sk_store_8888_hsw_lowp+0x12c>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2f5c0 <_sk_store_8888_hsw_lowp+0x12c>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2f5c0 <_sk_store_8888_hsw_lowp+0x12c>
- .byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
- .byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
- .byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2f5c0 <_sk_store_8888_hsw_lowp+0x12c>
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,67,121,22,84,144,52,1 // vpextrd $0x1,%xmm10,0x34(%r8,%rdx,4)
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,65,121,126,84,144,48 // vmovd %xmm10,0x30(%r8,%rdx,4)
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 196,65,122,127,76,144,32 // vmovdqu %xmm9,0x20(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 70,255 // rex.RX (bad)
- .byte 255 // (bad)
- .byte 255,107,255 // ljmp *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,99,255 // jmpq *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,132,255,255,255,118,255 // incl -0x890001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190,255,255,255,183 // mov $0xb7ffffff,%esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,175,255,255,255,167 // ljmp *-0x58000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,226 // jmpq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_hsw_lowp
-.globl _sk_load_bgra_hsw_lowp
-FUNCTION(_sk_load_bgra_hsw_lowp)
-_sk_load_bgra_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2f652 <_sk_load_bgra_hsw_lowp+0x52>
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2f7cc <_sk_load_bgra_hsw_lowp+0x1cc>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,12,144 // vmovd (%r8,%rdx,4),%xmm1
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 233,39,1,0,0 // jmpq 2f779 <_sk_load_bgra_hsw_lowp+0x179>
- .byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 196,193,126,111,68,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm0
- .byte 233,21,1,0,0 // jmpq 2f779 <_sk_load_bgra_hsw_lowp+0x179>
- .byte 196,193,121,110,68,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,227,101,2,192,4 // vpblendd $0x4,%ymm0,%ymm3,%ymm0
- .byte 196,194,121,53,12,144 // vpmovzxdq (%r8,%rdx,4),%xmm1
- .byte 197,249,112,201,232 // vpshufd $0xe8,%xmm1,%xmm1
- .byte 196,227,125,2,201,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm1
- .byte 197,253,111,195 // vmovdqa %ymm3,%ymm0
- .byte 233,229,0,0,0 // jmpq 2f779 <_sk_load_bgra_hsw_lowp+0x179>
- .byte 196,193,121,110,68,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,192,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm0
- .byte 196,227,125,57,194,1 // vextracti128 $0x1,%ymm0,%xmm2
- .byte 196,195,105,34,84,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm2,%xmm2
- .byte 196,227,125,56,194,1 // vinserti128 $0x1,%xmm2,%ymm0,%ymm0
- .byte 197,253,111,209 // vmovdqa %ymm1,%ymm2
- .byte 196,227,125,57,193,1 // vextracti128 $0x1,%ymm0,%xmm1
- .byte 196,195,113,34,76,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm1,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 197,125,111,194 // vmovdqa %ymm2,%ymm8
- .byte 196,193,122,111,12,144 // vmovdqu (%r8,%rdx,4),%xmm1
- .byte 196,227,117,2,200,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm1
- .byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 233,138,0,0,0 // jmpq 2f779 <_sk_load_bgra_hsw_lowp+0x179>
- .byte 196,193,121,110,68,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm0
- .byte 196,226,121,89,192 // vpbroadcastq %xmm0,%xmm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,192,4 // vpblendd $0x4,%ymm0,%ymm1,%ymm0
- .byte 196,195,121,34,76,144,36,1 // vpinsrd $0x1,0x24(%r8,%rdx,4),%xmm0,%xmm1
- .byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
- .byte 196,193,121,110,76,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm1
- .byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 235,81 // jmp 2f779 <_sk_load_bgra_hsw_lowp+0x179>
- .byte 196,193,121,110,68,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm0
- .byte 196,226,125,89,192 // vpbroadcastq %xmm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,117,2,192,64 // vpblendd $0x40,%ymm0,%ymm1,%ymm0
- .byte 196,227,125,57,193,1 // vextracti128 $0x1,%ymm0,%xmm1
- .byte 196,195,113,34,76,144,52,1 // vpinsrd $0x1,0x34(%r8,%rdx,4),%xmm1,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,227,125,57,193,1 // vextracti128 $0x1,%ymm0,%xmm1
- .byte 196,195,113,34,76,144,48,0 // vpinsrd $0x0,0x30(%r8,%rdx,4),%xmm1,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,193,126,111,12,144 // vmovdqu (%r8,%rdx,4),%ymm1
- .byte 196,193,122,111,84,144,32 // vmovdqu 0x20(%r8,%rdx,4),%xmm2
- .byte 196,227,109,2,192,240 // vpblendd $0xf0,%ymm0,%ymm2,%ymm0
- .byte 196,227,117,56,216,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm3
- .byte 196,227,117,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm1,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 196,227,125,14,209,170 // vpblendw $0xaa,%ymm1,%ymm0,%ymm2
- .byte 196,227,101,14,201,170 // vpblendw $0xaa,%ymm1,%ymm3,%ymm1
- .byte 196,226,117,43,202 // vpackusdw %ymm2,%ymm1,%ymm1
- .byte 197,125,111,5,30,213,0,0 // vmovdqa 0xd51e(%rip),%ymm8 # 3ccc0 <_sk_srcover_bgra_8888_sse2_lowp+0xa74>
- .byte 196,193,117,219,208 // vpand %ymm8,%ymm1,%ymm2
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
- .byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
- .byte 196,226,101,43,216 // vpackusdw %ymm0,%ymm3,%ymm3
- .byte 196,193,101,219,192 // vpand %ymm8,%ymm3,%ymm0
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2f7cc <_sk_load_bgra_hsw_lowp+0x1cc>
- .byte 255 // (bad)
- .byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,246 // push %rsi
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 222,254 // fdivrp %st,%st(6)
- .byte 255 // (bad)
- .byte 255,200 // dec %eax
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
- .byte 255,71,255 // incl -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 57,255 // cmp %edi,%edi
- .byte 255 // (bad)
- .byte 255,35 // jmpq *(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,154,255,255,255,134 // lcall *-0x79000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,114,255 // pushq -0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_dst_hsw_lowp
-.globl _sk_load_bgra_dst_hsw_lowp
-FUNCTION(_sk_load_bgra_dst_hsw_lowp)
-_sk_load_bgra_dst_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,55 // ja 2f85a <_sk_load_bgra_dst_hsw_lowp+0x52>
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,163,1,0,0 // lea 0x1a3(%rip),%r9 # 2f9d4 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 197,205,239,246 // vpxor %ymm6,%ymm6,%ymm6
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,44,144 // vmovd (%r8,%rdx,4),%xmm5
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,39,1,0,0 // jmpq 2f981 <_sk_load_bgra_dst_hsw_lowp+0x179>
- .byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 196,193,126,111,100,144,32 // vmovdqu 0x20(%r8,%rdx,4),%ymm4
- .byte 233,21,1,0,0 // jmpq 2f981 <_sk_load_bgra_dst_hsw_lowp+0x179>
- .byte 196,193,121,110,100,144,8 // vmovd 0x8(%r8,%rdx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 196,227,69,2,228,4 // vpblendd $0x4,%ymm4,%ymm7,%ymm4
- .byte 196,194,121,53,44,144 // vpmovzxdq (%r8,%rdx,4),%xmm5
- .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
- .byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
- .byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,229,0,0,0 // jmpq 2f981 <_sk_load_bgra_dst_hsw_lowp+0x179>
- .byte 196,193,121,110,100,144,24 // vmovd 0x18(%r8,%rdx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,228,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm4
- .byte 196,227,125,57,230,1 // vextracti128 $0x1,%ymm4,%xmm6
- .byte 196,195,73,34,116,144,20,1 // vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm6,%xmm6
- .byte 196,227,93,56,230,1 // vinserti128 $0x1,%xmm6,%ymm4,%ymm4
- .byte 197,253,111,245 // vmovdqa %ymm5,%ymm6
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,195,81,34,108,144,16,0 // vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 197,125,111,198 // vmovdqa %ymm6,%ymm8
- .byte 196,193,122,111,44,144 // vmovdqu (%r8,%rdx,4),%xmm5
- .byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
- .byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,138,0,0,0 // jmpq 2f981 <_sk_load_bgra_dst_hsw_lowp+0x179>
- .byte 196,193,121,110,100,144,40 // vmovd 0x28(%r8,%rdx,4),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,228,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm4
- .byte 196,195,89,34,108,144,36,1 // vpinsrd $0x1,0x24(%r8,%rdx,4),%xmm4,%xmm5
- .byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
- .byte 196,193,121,110,108,144,32 // vmovd 0x20(%r8,%rdx,4),%xmm5
- .byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 235,81 // jmp 2f981 <_sk_load_bgra_dst_hsw_lowp+0x179>
- .byte 196,193,121,110,100,144,56 // vmovd 0x38(%r8,%rdx,4),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,228,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,195,81,34,108,144,52,1 // vpinsrd $0x1,0x34(%r8,%rdx,4),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,195,81,34,108,144,48,0 // vpinsrd $0x0,0x30(%r8,%rdx,4),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,193,126,111,44,144 // vmovdqu (%r8,%rdx,4),%ymm5
- .byte 196,193,122,111,116,144,32 // vmovdqu 0x20(%r8,%rdx,4),%xmm6
- .byte 196,227,77,2,228,240 // vpblendd $0xf0,%ymm4,%ymm6,%ymm4
- .byte 196,227,85,56,252,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,227,85,70,228,49 // vperm2i128 $0x31,%ymm4,%ymm5,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
- .byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
- .byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,54,211,0,0 // vmovdqa 0xd336(%rip),%ymm8 # 3cce0 <_sk_srcover_bgra_8888_sse2_lowp+0xa94>
- .byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
- .byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
- .byte 196,226,69,43,252 // vpackusdw %ymm4,%ymm7,%ymm7
- .byte 196,193,69,219,224 // vpand %ymm8,%ymm7,%ymm4
- .byte 197,197,113,215,8 // vpsrlw $0x8,%ymm7,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 119,254 // ja 2f9d4 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
- .byte 255 // (bad)
- .byte 255,174,254,255,255,152 // ljmp *-0x67000002(%rsi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,246 // push %rsi
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 222,254 // fdivrp %st,%st(6)
- .byte 255 // (bad)
- .byte 255,200 // dec %eax
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
- .byte 255,71,255 // incl -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 57,255 // cmp %edi,%edi
- .byte 255 // (bad)
- .byte 255,35 // jmpq *(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,154,255,255,255,134 // lcall *-0x79000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,114,255 // pushq -0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_bgra_hsw_lowp
-.globl _sk_store_bgra_hsw_lowp
-FUNCTION(_sk_store_bgra_hsw_lowp)
-_sk_store_bgra_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 197,189,113,241,8 // vpsllw $0x8,%ymm1,%ymm8
- .byte 197,61,235,194 // vpor %ymm2,%ymm8,%ymm8
- .byte 196,66,125,51,200 // vpmovzxwd %xmm8,%ymm9
- .byte 196,67,125,57,192,1 // vextracti128 $0x1,%ymm8,%xmm8
- .byte 196,66,125,51,208 // vpmovzxwd %xmm8,%ymm10
- .byte 197,189,113,243,8 // vpsllw $0x8,%ymm3,%ymm8
- .byte 197,61,235,192 // vpor %ymm0,%ymm8,%ymm8
- .byte 196,67,125,57,195,1 // vextracti128 $0x1,%ymm8,%xmm11
- .byte 196,66,125,51,219 // vpmovzxwd %xmm11,%ymm11
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,193,61,114,240,16 // vpslld $0x10,%ymm8,%ymm8
- .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
- .byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
- .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,30 // ja 2fa91 <_sk_store_bgra_hsw_lowp+0x81>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 2fb40 <_sk_store_bgra_hsw_lowp+0x130>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,4,144 // vmovd %xmm8,(%r8,%rdx,4)
- .byte 233,171,0,0,0 // jmpq 2fb3c <_sk_store_bgra_hsw_lowp+0x12c>
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 196,65,126,127,76,144,32 // vmovdqu %ymm9,0x20(%r8,%rdx,4)
- .byte 233,153,0,0,0 // jmpq 2fb3c <_sk_store_bgra_hsw_lowp+0x12c>
- .byte 196,67,121,22,68,144,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 196,65,121,214,4,144 // vmovq %xmm8,(%r8,%rdx,4)
- .byte 233,134,0,0,0 // jmpq 2fb3c <_sk_store_bgra_hsw_lowp+0x12c>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,24,2 // vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,76,144,20,1 // vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,76,144,16 // vmovd %xmm9,0x10(%r8,%rdx,4)
- .byte 196,65,122,127,4,144 // vmovdqu %xmm8,(%r8,%rdx,4)
- .byte 235,85 // jmp 2fb3c <_sk_store_bgra_hsw_lowp+0x12c>
- .byte 196,67,121,22,76,144,40,2 // vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
- .byte 196,67,121,22,76,144,36,1 // vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
- .byte 196,65,121,126,76,144,32 // vmovd %xmm9,0x20(%r8,%rdx,4)
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 235,54 // jmp 2fb3c <_sk_store_bgra_hsw_lowp+0x12c>
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,67,121,22,84,144,56,2 // vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,67,121,22,84,144,52,1 // vpextrd $0x1,%xmm10,0x34(%r8,%rdx,4)
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,65,121,126,84,144,48 // vmovd %xmm10,0x30(%r8,%rdx,4)
- .byte 196,65,126,127,4,144 // vmovdqu %ymm8,(%r8,%rdx,4)
- .byte 196,65,122,127,76,144,32 // vmovdqu %xmm9,0x20(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 70,255 // rex.RX (bad)
- .byte 255 // (bad)
- .byte 255,107,255 // ljmp *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,99,255 // jmpq *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,132,255,255,255,118,255 // incl -0x890001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190,255,255,255,183 // mov $0xb7ffffff,%esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,175,255,255,255,167 // ljmp *-0x58000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,226 // jmpq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_8888_hsw_lowp
-.globl _sk_gather_8888_hsw_lowp
-FUNCTION(_sk_gather_8888_hsw_lowp)
-_sk_gather_8888_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,88,64,12 // vpbroadcastd 0xc(%rax),%ymm8
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,65,61,254,193 // vpaddd %ymm9,%ymm8,%ymm8
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,193,124,95,194 // vmaxps %ymm10,%ymm0,%ymm0
- .byte 196,193,116,95,202 // vmaxps %ymm10,%ymm1,%ymm1
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,88,64,16 // vpbroadcastd 0x10(%rax),%ymm8
- .byte 196,65,61,254,193 // vpaddd %ymm9,%ymm8,%ymm8
- .byte 196,193,100,95,218 // vmaxps %ymm10,%ymm3,%ymm3
- .byte 196,193,108,95,210 // vmaxps %ymm10,%ymm2,%ymm2
- .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
- .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,219 // vcvttps2dq %ymm3,%ymm3
- .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
- .byte 196,98,125,88,64,8 // vpbroadcastd 0x8(%rax),%ymm8
- .byte 196,226,61,64,210 // vpmulld %ymm2,%ymm8,%ymm2
- .byte 196,226,61,64,219 // vpmulld %ymm3,%ymm8,%ymm3
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,237,254,192 // vpaddd %ymm0,%ymm2,%ymm0
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 197,229,254,201 // vpaddd %ymm1,%ymm3,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,194,109,144,28,128 // vpgatherdd %ymm2,(%r8,%ymm0,4),%ymm3
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 196,194,53,144,4,136 // vpgatherdd %ymm9,(%r8,%ymm1,4),%ymm0
- .byte 196,227,101,56,208,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm2
- .byte 196,227,101,70,216,49 // vperm2i128 $0x31,%ymm0,%ymm3,%ymm3
- .byte 196,195,101,14,194,170 // vpblendw $0xaa,%ymm10,%ymm3,%ymm0
- .byte 196,195,109,14,202,170 // vpblendw $0xaa,%ymm10,%ymm2,%ymm1
- .byte 196,226,117,43,200 // vpackusdw %ymm0,%ymm1,%ymm1
- .byte 197,125,111,5,210,208,0,0 // vmovdqa 0xd0d2(%rip),%ymm8 # 3cd00 <_sk_srcover_bgra_8888_sse2_lowp+0xab4>
- .byte 196,193,117,219,192 // vpand %ymm8,%ymm1,%ymm0
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,229,114,211,16 // vpsrld $0x10,%ymm3,%ymm3
- .byte 197,237,114,210,16 // vpsrld $0x10,%ymm2,%ymm2
- .byte 196,226,109,43,219 // vpackusdw %ymm3,%ymm2,%ymm3
- .byte 196,193,101,219,208 // vpand %ymm8,%ymm3,%ymm2
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gather_bgra_hsw_lowp
-.globl _sk_gather_bgra_hsw_lowp
-FUNCTION(_sk_gather_bgra_hsw_lowp)
-_sk_gather_bgra_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,88,64,12 // vpbroadcastd 0xc(%rax),%ymm8
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,65,61,254,193 // vpaddd %ymm9,%ymm8,%ymm8
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,193,124,95,194 // vmaxps %ymm10,%ymm0,%ymm0
- .byte 196,193,116,95,202 // vmaxps %ymm10,%ymm1,%ymm1
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,88,64,16 // vpbroadcastd 0x10(%rax),%ymm8
- .byte 196,65,61,254,193 // vpaddd %ymm9,%ymm8,%ymm8
- .byte 196,193,100,95,218 // vmaxps %ymm10,%ymm3,%ymm3
- .byte 196,193,108,95,210 // vmaxps %ymm10,%ymm2,%ymm2
- .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
- .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,219 // vcvttps2dq %ymm3,%ymm3
- .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
- .byte 196,98,125,88,64,8 // vpbroadcastd 0x8(%rax),%ymm8
- .byte 196,226,61,64,210 // vpmulld %ymm2,%ymm8,%ymm2
- .byte 196,226,61,64,219 // vpmulld %ymm3,%ymm8,%ymm3
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,237,254,192 // vpaddd %ymm0,%ymm2,%ymm0
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 197,229,254,201 // vpaddd %ymm1,%ymm3,%ymm1
- .byte 197,237,118,210 // vpcmpeqd %ymm2,%ymm2,%ymm2
- .byte 197,229,239,219 // vpxor %ymm3,%ymm3,%ymm3
- .byte 196,194,109,144,28,128 // vpgatherdd %ymm2,(%r8,%ymm0,4),%ymm3
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 196,194,53,144,4,136 // vpgatherdd %ymm9,(%r8,%ymm1,4),%ymm0
- .byte 196,99,101,56,192,1 // vinserti128 $0x1,%xmm0,%ymm3,%ymm8
- .byte 196,227,101,70,192,49 // vperm2i128 $0x31,%ymm0,%ymm3,%ymm0
- .byte 196,195,125,14,202,170 // vpblendw $0xaa,%ymm10,%ymm0,%ymm1
- .byte 196,195,61,14,210,170 // vpblendw $0xaa,%ymm10,%ymm8,%ymm2
- .byte 196,226,109,43,201 // vpackusdw %ymm1,%ymm2,%ymm1
- .byte 197,253,111,29,25,208,0,0 // vmovdqa 0xd019(%rip),%ymm3 # 3cd20 <_sk_srcover_bgra_8888_sse2_lowp+0xad4>
- .byte 197,245,219,211 // vpand %ymm3,%ymm1,%ymm2
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,253,114,208,16 // vpsrld $0x10,%ymm0,%ymm0
- .byte 196,193,61,114,208,16 // vpsrld $0x10,%ymm8,%ymm8
- .byte 196,98,61,43,192 // vpackusdw %ymm0,%ymm8,%ymm8
- .byte 197,189,219,195 // vpand %ymm3,%ymm8,%ymm0
- .byte 196,193,101,113,208,8 // vpsrlw $0x8,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_565_hsw_lowp
-.globl _sk_load_565_hsw_lowp
-FUNCTION(_sk_load_565_hsw_lowp)
-_sk_load_565_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2fd6d <_sk_load_565_hsw_lowp+0x3f>
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,130,1,0,0 // lea 0x182(%rip),%r9 # 2fed8 <_sk_load_565_hsw_lowp+0x1aa>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 2fe75 <_sk_load_565_hsw_lowp+0x147>
- .byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 2fe75 <_sk_load_565_hsw_lowp+0x147>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
- .byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
- .byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 2fe75 <_sk_load_565_hsw_lowp+0x147>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
- .byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 196,193,121,196,76,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm1
- .byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
- .byte 196,193,121,196,76,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm1
- .byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
- .byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
- .byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 2fe75 <_sk_load_565_hsw_lowp+0x147>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,227,125,57,193,1 // vextracti128 $0x1,%ymm0,%xmm1
- .byte 196,193,113,196,76,80,18,1 // vpinsrw $0x1,0x12(%r8,%rdx,2),%xmm1,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,227,125,57,193,1 // vextracti128 $0x1,%ymm0,%xmm1
- .byte 196,193,113,196,76,80,16,0 // vpinsrw $0x0,0x10(%r8,%rdx,2),%xmm1,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
- .byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 2fe75 <_sk_load_565_hsw_lowp+0x147>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,227,125,57,193,1 // vextracti128 $0x1,%ymm0,%xmm1
- .byte 196,193,113,196,76,80,26,5 // vpinsrw $0x5,0x1a(%r8,%rdx,2),%xmm1,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,227,125,57,193,1 // vextracti128 $0x1,%ymm0,%xmm1
- .byte 196,193,113,196,76,80,24,4 // vpinsrw $0x4,0x18(%r8,%rdx,2),%xmm1,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,193,122,126,76,80,16 // vmovq 0x10(%r8,%rdx,2),%xmm1
- .byte 196,193,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm2
- .byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1
- .byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,194,206,0,0 // vpbroadcastw 0xcec2(%rip),%ymm1 # 3cd40 <_sk_srcover_bgra_8888_sse2_lowp+0xaf4>
- .byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
- .byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
- .byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,173,206,0,0 // vpbroadcastw 0xcead(%rip),%ymm3 # 3cd42 <_sk_srcover_bgra_8888_sse2_lowp+0xaf6>
- .byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,162,206,0,0 // vpbroadcastw 0xcea2(%rip),%ymm3 # 3cd44 <_sk_srcover_bgra_8888_sse2_lowp+0xaf8>
- .byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
- .byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
- .byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
- .byte 197,245,113,242,2 // vpsllw $0x2,%ymm2,%ymm1
- .byte 197,237,113,210,4 // vpsrlw $0x4,%ymm2,%ymm2
- .byte 197,245,235,202 // vpor %ymm2,%ymm1,%ymm1
- .byte 197,237,113,243,3 // vpsllw $0x3,%ymm3,%ymm2
- .byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
- .byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,112,206,0,0 // vpbroadcastw 0xce70(%rip),%ymm3 # 3cd46 <_sk_srcover_bgra_8888_sse2_lowp+0xafa>
- .byte 255,224 // jmpq *%rax
- .byte 135,254 // xchg %edi,%esi
- .byte 255 // (bad)
- .byte 255,178,254,255,255,160 // pushq -0x5f000002(%rdx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,241 // push %rcx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,227 // jmpq *%rbx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,195 // inc %ebx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 60,255 // cmp $0xff,%al
- .byte 255 // (bad)
- .byte 255,40 // ljmp *(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,20,255 // callq *(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,2 // incl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,132,255,255,255,112,255 // incl -0x8f0001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255,74,255 // decl -0x1(%rdx)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_565_dst_hsw_lowp
-.globl _sk_load_565_dst_hsw_lowp
-FUNCTION(_sk_load_565_dst_hsw_lowp)
-_sk_load_565_dst_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 2ff53 <_sk_load_565_dst_hsw_lowp+0x3f>
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,132,1,0,0 // lea 0x184(%rip),%r9 # 300c0 <_sk_load_565_dst_hsw_lowp+0x1ac>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 3005b <_sk_load_565_dst_hsw_lowp+0x147>
- .byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 3005b <_sk_load_565_dst_hsw_lowp+0x147>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
- .byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
- .byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 3005b <_sk_load_565_dst_hsw_lowp+0x147>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
- .byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 196,193,89,196,108,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm5
- .byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
- .byte 196,193,89,196,108,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm5
- .byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
- .byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
- .byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 3005b <_sk_load_565_dst_hsw_lowp+0x147>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,193,81,196,108,80,18,1 // vpinsrw $0x1,0x12(%r8,%rdx,2),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,193,81,196,108,80,16,0 // vpinsrw $0x0,0x10(%r8,%rdx,2),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
- .byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 3005b <_sk_load_565_dst_hsw_lowp+0x147>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,193,81,196,108,80,26,5 // vpinsrw $0x5,0x1a(%r8,%rdx,2),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,193,81,196,108,80,24,4 // vpinsrw $0x4,0x18(%r8,%rdx,2),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,193,122,126,108,80,16 // vmovq 0x10(%r8,%rdx,2),%xmm5
- .byte 196,193,122,111,52,80 // vmovdqu (%r8,%rdx,2),%xmm6
- .byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- .byte 196,226,125,121,45,228,204,0,0 // vpbroadcastw 0xcce4(%rip),%ymm5 # 3cd48 <_sk_srcover_bgra_8888_sse2_lowp+0xafc>
- .byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
- .byte 197,205,219,237 // vpand %ymm5,%ymm6,%ymm5
- .byte 197,205,113,212,5 // vpsrlw $0x5,%ymm4,%ymm6
- .byte 196,226,125,121,61,207,204,0,0 // vpbroadcastw 0xcccf(%rip),%ymm7 # 3cd4a <_sk_srcover_bgra_8888_sse2_lowp+0xafe>
- .byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
- .byte 196,226,125,121,61,196,204,0,0 // vpbroadcastw 0xccc4(%rip),%ymm7 # 3cd4c <_sk_srcover_bgra_8888_sse2_lowp+0xb00>
- .byte 197,221,219,255 // vpand %ymm7,%ymm4,%ymm7
- .byte 197,221,113,212,13 // vpsrlw $0xd,%ymm4,%ymm4
- .byte 197,213,235,228 // vpor %ymm4,%ymm5,%ymm4
- .byte 197,213,113,246,2 // vpsllw $0x2,%ymm6,%ymm5
- .byte 197,205,113,214,4 // vpsrlw $0x4,%ymm6,%ymm6
- .byte 197,213,235,238 // vpor %ymm6,%ymm5,%ymm5
- .byte 197,205,113,247,3 // vpsllw $0x3,%ymm7,%ymm6
- .byte 197,197,113,215,2 // vpsrlw $0x2,%ymm7,%ymm7
- .byte 197,205,235,247 // vpor %ymm7,%ymm6,%ymm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,146,204,0,0 // vpbroadcastw 0xcc92(%rip),%ymm7 # 3cd4e <_sk_srcover_bgra_8888_sse2_lowp+0xb02>
- .byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 133,254 // test %edi,%esi
- .byte 255 // (bad)
- .byte 255,176,254,255,255,158 // pushq -0x61000002(%rax)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,225 // jmpq *%rcx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,193 // inc %ecx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 58,255 // cmp %bh,%bh
- .byte 255 // (bad)
- .byte 255,38 // jmpq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,130,255,255,255,110 // incl 0x6effffff(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,90,255 // lcall *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,72,255 // decl -0x1(%rax)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_565_hsw_lowp
-.globl _sk_store_565_hsw_lowp
-FUNCTION(_sk_store_565_hsw_lowp)
-_sk_store_565_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,59,204,0,0 // vpbroadcastw 0xcc3b(%rip),%ymm8 # 3cd50 <_sk_srcover_bgra_8888_sse2_lowp+0xb04>
- .byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
- .byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,42,204,0,0 // vpbroadcastw 0xcc2a(%rip),%ymm9 # 3cd52 <_sk_srcover_bgra_8888_sse2_lowp+0xb06>
- .byte 197,173,113,241,3 // vpsllw $0x3,%ymm1,%ymm10
- .byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 197,181,113,210,3 // vpsrlw $0x3,%ymm2,%ymm9
- .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 3016a <_sk_store_565_hsw_lowp+0x6e>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,195,0,0,0 // lea 0xc3(%rip),%r9 # 30218 <_sk_store_565_hsw_lowp+0x11c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 30211 <_sk_store_565_hsw_lowp+0x115>
- .byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 30211 <_sk_store_565_hsw_lowp+0x115>
- .byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- .byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 30211 <_sk_store_565_hsw_lowp+0x115>
- .byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- .byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 30211 <_sk_store_565_hsw_lowp+0x115>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 3020b <_sk_store_565_hsw_lowp+0x10f>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,21,76,80,26,5 // vpextrw $0x5,%xmm9,0x1a(%r8,%rdx,2)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,21,76,80,24,4 // vpextrw $0x4,%xmm9,0x18(%r8,%rdx,2)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,214,76,80,16 // vmovq %xmm9,0x10(%r8,%rdx,2)
- .byte 196,65,122,127,4,80 // vmovdqu %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 70,255 // rex.RX (bad)
- .byte 255 // (bad)
- .byte 255,101,255 // jmpq *-0x1(%rbp)
- .byte 255 // (bad)
- .byte 255,93,255 // lcall *-0x1(%rbp)
- .byte 255 // (bad)
- .byte 255,136,255,255,255,128 // decl -0x7f000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 120,255 // js 3022d <_sk_store_565_hsw_lowp+0x131>
- .byte 255 // (bad)
- .byte 255,112,255 // pushq -0x1(%rax)
- .byte 255 // (bad)
- .byte 255,243 // push %rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,172,255,255,255,158,255 // ljmp *-0x610001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,144,255,255,255,230 // callq *-0x19000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
- .byte 255 // (bad)
- .byte 255,202 // dec %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 188 // .byte 0xbc
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_565_hsw_lowp
-.globl _sk_gather_565_hsw_lowp
-FUNCTION(_sk_gather_565_hsw_lowp)
-_sk_gather_565_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,88,64,12 // vpbroadcastd 0xc(%rax),%ymm8
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,65,61,254,193 // vpaddd %ymm9,%ymm8,%ymm8
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,193,124,95,194 // vmaxps %ymm10,%ymm0,%ymm0
- .byte 196,193,116,95,202 // vmaxps %ymm10,%ymm1,%ymm1
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,88,64,16 // vpbroadcastd 0x10(%rax),%ymm8
- .byte 196,65,61,254,193 // vpaddd %ymm9,%ymm8,%ymm8
- .byte 196,193,100,95,218 // vmaxps %ymm10,%ymm3,%ymm3
- .byte 196,193,108,95,210 // vmaxps %ymm10,%ymm2,%ymm2
- .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
- .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,219 // vcvttps2dq %ymm3,%ymm3
- .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
- .byte 196,98,125,88,64,8 // vpbroadcastd 0x8(%rax),%ymm8
- .byte 196,226,61,64,210 // vpmulld %ymm2,%ymm8,%ymm2
- .byte 196,226,61,64,219 // vpmulld %ymm3,%ymm8,%ymm3
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,237,254,192 // vpaddd %ymm0,%ymm2,%ymm0
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 197,229,254,201 // vpaddd %ymm1,%ymm3,%ymm1
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,183,4,72 // movzwl (%r8,%r9,2),%eax
- .byte 197,233,196,208,1 // vpinsrw $0x1,%eax,%xmm2,%xmm2
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,233,196,208,2 // vpinsrw $0x2,%eax,%xmm2,%xmm2
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
- .byte 197,233,196,208,3 // vpinsrw $0x3,%eax,%xmm2,%xmm2
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,233,196,208,4 // vpinsrw $0x4,%eax,%xmm2,%xmm2
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,183,4,72 // movzwl (%r8,%r9,2),%eax
- .byte 197,233,196,200,5 // vpinsrw $0x5,%eax,%xmm2,%xmm1
- .byte 68,137,208 // mov %r10d,%eax
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,241,196,200,6 // vpinsrw $0x6,%eax,%xmm1,%xmm1
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
- .byte 197,241,196,200,7 // vpinsrw $0x7,%eax,%xmm1,%xmm1
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,183,4,72 // movzwl (%r8,%r9,2),%eax
- .byte 197,233,196,208,1 // vpinsrw $0x1,%eax,%xmm2,%xmm2
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,233,196,208,2 // vpinsrw $0x2,%eax,%xmm2,%xmm2
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
- .byte 197,233,196,208,3 // vpinsrw $0x3,%eax,%xmm2,%xmm2
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,233,196,208,4 // vpinsrw $0x4,%eax,%xmm2,%xmm2
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,183,4,72 // movzwl (%r8,%r9,2),%eax
- .byte 197,233,196,192,5 // vpinsrw $0x5,%eax,%xmm2,%xmm0
- .byte 68,137,208 // mov %r10d,%eax
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
- .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,226,125,121,13,110,201,0,0 // vpbroadcastw 0xc96e(%rip),%ymm1 # 3cd54 <_sk_srcover_bgra_8888_sse2_lowp+0xb08>
- .byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
- .byte 197,237,219,201 // vpand %ymm1,%ymm2,%ymm1
- .byte 197,237,113,208,5 // vpsrlw $0x5,%ymm0,%ymm2
- .byte 196,226,125,121,29,89,201,0,0 // vpbroadcastw 0xc959(%rip),%ymm3 # 3cd56 <_sk_srcover_bgra_8888_sse2_lowp+0xb0a>
- .byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 196,226,125,121,29,78,201,0,0 // vpbroadcastw 0xc94e(%rip),%ymm3 # 3cd58 <_sk_srcover_bgra_8888_sse2_lowp+0xb0c>
- .byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
- .byte 197,253,113,208,13 // vpsrlw $0xd,%ymm0,%ymm0
- .byte 197,245,235,192 // vpor %ymm0,%ymm1,%ymm0
- .byte 197,245,113,242,2 // vpsllw $0x2,%ymm2,%ymm1
- .byte 197,237,113,210,4 // vpsrlw $0x4,%ymm2,%ymm2
- .byte 197,245,235,202 // vpor %ymm2,%ymm1,%ymm1
- .byte 197,237,113,243,3 // vpsllw $0x3,%ymm3,%ymm2
- .byte 197,229,113,211,2 // vpsrlw $0x2,%ymm3,%ymm3
- .byte 197,237,235,211 // vpor %ymm3,%ymm2,%ymm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,28,201,0,0 // vpbroadcastw 0xc91c(%rip),%ymm3 # 3cd5a <_sk_srcover_bgra_8888_sse2_lowp+0xb0e>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_4444_hsw_lowp
-.globl _sk_load_4444_hsw_lowp
-FUNCTION(_sk_load_4444_hsw_lowp)
-_sk_load_4444_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 3047f <_sk_load_4444_hsw_lowp+0x3f>
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 305d8 <_sk_load_4444_hsw_lowp+0x198>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,8,1,0,0 // jmpq 30587 <_sk_load_4444_hsw_lowp+0x147>
- .byte 196,193,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm0
- .byte 233,253,0,0,0 // jmpq 30587 <_sk_load_4444_hsw_lowp+0x147>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
- .byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 196,193,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm1
- .byte 196,227,125,2,193,1 // vpblendd $0x1,%ymm1,%ymm0,%ymm0
- .byte 233,218,0,0,0 // jmpq 30587 <_sk_load_4444_hsw_lowp+0x147>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
- .byte 196,227,117,56,192,1 // vinserti128 $0x1,%xmm0,%ymm1,%ymm0
- .byte 196,193,121,196,76,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm1
- .byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
- .byte 196,193,121,196,76,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm1
- .byte 196,227,125,2,193,15 // vpblendd $0xf,%ymm1,%ymm0,%ymm0
- .byte 196,193,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm1
- .byte 196,227,125,2,193,3 // vpblendd $0x3,%ymm1,%ymm0,%ymm0
- .byte 233,155,0,0,0 // jmpq 30587 <_sk_load_4444_hsw_lowp+0x147>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,227,125,57,193,1 // vextracti128 $0x1,%ymm0,%xmm1
- .byte 196,193,113,196,76,80,18,1 // vpinsrw $0x1,0x12(%r8,%rdx,2),%xmm1,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,227,125,57,193,1 // vextracti128 $0x1,%ymm0,%xmm1
- .byte 196,193,113,196,76,80,16,0 // vpinsrw $0x0,0x10(%r8,%rdx,2),%xmm1,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,193,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm1
- .byte 196,227,117,2,192,240 // vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- .byte 235,83 // jmp 30587 <_sk_load_4444_hsw_lowp+0x147>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,193,121,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,227,125,57,193,1 // vextracti128 $0x1,%ymm0,%xmm1
- .byte 196,193,113,196,76,80,26,5 // vpinsrw $0x5,0x1a(%r8,%rdx,2),%xmm1,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,227,125,57,193,1 // vextracti128 $0x1,%ymm0,%xmm1
- .byte 196,193,113,196,76,80,24,4 // vpinsrw $0x4,0x18(%r8,%rdx,2),%xmm1,%xmm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,193,122,126,76,80,16 // vmovq 0x10(%r8,%rdx,2),%xmm1
- .byte 196,193,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm2
- .byte 196,227,109,56,201,1 // vinserti128 $0x1,%xmm1,%ymm2,%ymm1
- .byte 196,227,117,2,192,192 // vpblendd $0xc0,%ymm0,%ymm1,%ymm0
- .byte 197,245,113,208,12 // vpsrlw $0xc,%ymm0,%ymm1
- .byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
- .byte 196,226,125,121,29,194,199,0,0 // vpbroadcastw 0xc7c2(%rip),%ymm3 # 3cd5c <_sk_srcover_bgra_8888_sse2_lowp+0xb10>
- .byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 197,189,113,208,4 // vpsrlw $0x4,%ymm0,%ymm8
- .byte 197,61,219,195 // vpand %ymm3,%ymm8,%ymm8
- .byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
- .byte 197,253,113,241,4 // vpsllw $0x4,%ymm1,%ymm0
- .byte 197,253,235,193 // vpor %ymm1,%ymm0,%ymm0
- .byte 197,245,113,242,4 // vpsllw $0x4,%ymm2,%ymm1
- .byte 197,245,235,202 // vpor %ymm2,%ymm1,%ymm1
- .byte 196,193,109,113,240,4 // vpsllw $0x4,%ymm8,%ymm2
- .byte 196,193,109,235,208 // vpor %ymm8,%ymm2,%ymm2
- .byte 197,189,113,243,4 // vpsllw $0x4,%ymm3,%ymm8
- .byte 197,189,235,219 // vpor %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 153 // cltd
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,196 // inc %esp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,178,254,255,255,3 // pushq 0x3fffffe(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,245 // push %rbp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,78,255 // decl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 58,255 // cmp %bh,%bh
- .byte 255 // (bad)
- .byte 255,38 // jmpq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,20,255 // callq *(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,150,255,255,255,130 // callq *-0x7d000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,110,255 // ljmp *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_4444_dst_hsw_lowp
-.globl _sk_load_4444_dst_hsw_lowp
-FUNCTION(_sk_load_4444_dst_hsw_lowp)
-_sk_load_4444_dst_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 30653 <_sk_load_4444_dst_hsw_lowp+0x3f>
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,112,1,0,0 // lea 0x170(%rip),%r9 # 307ac <_sk_load_4444_dst_hsw_lowp+0x198>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,8,1,0,0 // jmpq 3075b <_sk_load_4444_dst_hsw_lowp+0x147>
- .byte 196,193,126,111,36,80 // vmovdqu (%r8,%rdx,2),%ymm4
- .byte 233,253,0,0,0 // jmpq 3075b <_sk_load_4444_dst_hsw_lowp+0x147>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,108,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
- .byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 196,193,121,110,44,80 // vmovd (%r8,%rdx,2),%xmm5
- .byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 233,218,0,0,0 // jmpq 3075b <_sk_load_4444_dst_hsw_lowp+0x147>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,108,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
- .byte 196,227,85,56,228,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm4
- .byte 196,193,89,196,108,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm5
- .byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
- .byte 196,193,89,196,108,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm5
- .byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
- .byte 196,193,122,126,44,80 // vmovq (%r8,%rdx,2),%xmm5
- .byte 196,227,93,2,229,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm4
- .byte 233,155,0,0,0 // jmpq 3075b <_sk_load_4444_dst_hsw_lowp+0x147>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,108,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,193,81,196,108,80,18,1 // vpinsrw $0x1,0x12(%r8,%rdx,2),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,193,81,196,108,80,16,0 // vpinsrw $0x0,0x10(%r8,%rdx,2),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,193,122,111,44,80 // vmovdqu (%r8,%rdx,2),%xmm5
- .byte 196,227,85,2,228,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- .byte 235,83 // jmp 3075b <_sk_load_4444_dst_hsw_lowp+0x147>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,193,89,196,108,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,193,81,196,108,80,26,5 // vpinsrw $0x5,0x1a(%r8,%rdx,2),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,193,81,196,108,80,24,4 // vpinsrw $0x4,0x18(%r8,%rdx,2),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,193,122,126,108,80,16 // vmovq 0x10(%r8,%rdx,2),%xmm5
- .byte 196,193,122,111,52,80 // vmovdqu (%r8,%rdx,2),%xmm6
- .byte 196,227,77,56,237,1 // vinserti128 $0x1,%xmm5,%ymm6,%ymm5
- .byte 196,227,85,2,228,192 // vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- .byte 197,213,113,212,12 // vpsrlw $0xc,%ymm4,%ymm5
- .byte 197,205,113,212,8 // vpsrlw $0x8,%ymm4,%ymm6
- .byte 196,226,125,121,61,240,197,0,0 // vpbroadcastw 0xc5f0(%rip),%ymm7 # 3cd5e <_sk_srcover_bgra_8888_sse2_lowp+0xb12>
- .byte 197,205,219,247 // vpand %ymm7,%ymm6,%ymm6
- .byte 197,189,113,212,4 // vpsrlw $0x4,%ymm4,%ymm8
- .byte 197,61,219,199 // vpand %ymm7,%ymm8,%ymm8
- .byte 197,221,219,255 // vpand %ymm7,%ymm4,%ymm7
- .byte 197,221,113,245,4 // vpsllw $0x4,%ymm5,%ymm4
- .byte 197,221,235,229 // vpor %ymm5,%ymm4,%ymm4
- .byte 197,213,113,246,4 // vpsllw $0x4,%ymm6,%ymm5
- .byte 197,213,235,238 // vpor %ymm6,%ymm5,%ymm5
- .byte 196,193,77,113,240,4 // vpsllw $0x4,%ymm8,%ymm6
- .byte 196,193,77,235,240 // vpor %ymm8,%ymm6,%ymm6
- .byte 197,189,113,247,4 // vpsllw $0x4,%ymm7,%ymm8
- .byte 197,189,235,255 // vpor %ymm7,%ymm8,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 153 // cltd
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,196 // inc %esp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,178,254,255,255,3 // pushq 0x3fffffe(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,245 // push %rbp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,231 // jmpq *%rdi
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,78,255 // decl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 58,255 // cmp %bh,%bh
- .byte 255 // (bad)
- .byte 255,38 // jmpq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,20,255 // callq *(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,150,255,255,255,130 // callq *-0x7d000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,110,255 // ljmp *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_4444_hsw_lowp
-.globl _sk_store_4444_hsw_lowp
-FUNCTION(_sk_store_4444_hsw_lowp)
-_sk_store_4444_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,98,125,121,5,95,197,0,0 // vpbroadcastw 0xc55f(%rip),%ymm8 # 3cd60 <_sk_srcover_bgra_8888_sse2_lowp+0xb14>
- .byte 197,181,113,240,8 // vpsllw $0x8,%ymm0,%ymm9
- .byte 196,65,53,219,192 // vpand %ymm8,%ymm9,%ymm8
- .byte 197,181,113,241,4 // vpsllw $0x4,%ymm1,%ymm9
- .byte 197,53,219,13,104,197,0,0 // vpand 0xc568(%rip),%ymm9,%ymm9 # 3cd80 <_sk_srcover_bgra_8888_sse2_lowp+0xb34>
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,122,197,0,0 // vpbroadcastw 0xc57a(%rip),%ymm9 # 3cda0 <_sk_srcover_bgra_8888_sse2_lowp+0xb54>
- .byte 196,65,109,219,201 // vpand %ymm9,%ymm2,%ymm9
- .byte 197,173,113,211,4 // vpsrlw $0x4,%ymm3,%ymm10
- .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
- .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,31 // ja 30863 <_sk_store_4444_hsw_lowp+0x7b>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,194,0,0,0 // lea 0xc2(%rip),%r9 # 30910 <_sk_store_4444_hsw_lowp+0x128>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,67,121,21,4,80,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 233,167,0,0,0 // jmpq 3090a <_sk_store_4444_hsw_lowp+0x122>
- .byte 196,65,126,127,4,80 // vmovdqu %ymm8,(%r8,%rdx,2)
- .byte 233,156,0,0,0 // jmpq 3090a <_sk_store_4444_hsw_lowp+0x122>
- .byte 196,67,121,21,68,80,4,2 // vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- .byte 196,65,121,126,4,80 // vmovd %xmm8,(%r8,%rdx,2)
- .byte 233,137,0,0,0 // jmpq 3090a <_sk_store_4444_hsw_lowp+0x122>
- .byte 196,67,121,21,68,80,12,6 // vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,10,5 // vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- .byte 196,67,121,21,68,80,8,4 // vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- .byte 196,65,121,214,4,80 // vmovq %xmm8,(%r8,%rdx,2)
- .byte 235,105 // jmp 3090a <_sk_store_4444_hsw_lowp+0x122>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,21,76,80,20,2 // vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,21,76,80,18,1 // vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,21,76,80,16,0 // vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- .byte 235,55 // jmp 30904 <_sk_store_4444_hsw_lowp+0x11c>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,21,76,80,28,6 // vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,21,76,80,26,5 // vpextrw $0x5,%xmm9,0x1a(%r8,%rdx,2)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,21,76,80,24,4 // vpextrw $0x4,%xmm9,0x18(%r8,%rdx,2)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,214,76,80,16 // vmovq %xmm9,0x10(%r8,%rdx,2)
- .byte 196,65,122,127,4,80 // vmovdqu %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 71,255 // rex.RXB (bad)
- .byte 255 // (bad)
- .byte 255,102,255 // jmpq *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,94,255 // lcall *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,137,255,255,255,129 // decl -0x7e000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 121,255 // jns 30925 <_sk_store_4444_hsw_lowp+0x13d>
- .byte 255 // (bad)
- .byte 255,113,255 // pushq -0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,244 // push %rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,173,255,255,255,159 // ljmp *-0x60000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,145,255,255,255,231 // callq *-0x18000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255,203 // dec %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 189 // .byte 0xbd
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_4444_hsw_lowp
-.globl _sk_gather_4444_hsw_lowp
-FUNCTION(_sk_gather_4444_hsw_lowp)
-_sk_gather_4444_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,88,64,12 // vpbroadcastd 0xc(%rax),%ymm8
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,65,61,254,193 // vpaddd %ymm9,%ymm8,%ymm8
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,193,124,95,194 // vmaxps %ymm10,%ymm0,%ymm0
- .byte 196,193,116,95,202 // vmaxps %ymm10,%ymm1,%ymm1
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,88,64,16 // vpbroadcastd 0x10(%rax),%ymm8
- .byte 196,65,61,254,193 // vpaddd %ymm9,%ymm8,%ymm8
- .byte 196,193,100,95,218 // vmaxps %ymm10,%ymm3,%ymm3
- .byte 196,193,108,95,210 // vmaxps %ymm10,%ymm2,%ymm2
- .byte 196,193,108,93,208 // vminps %ymm8,%ymm2,%ymm2
- .byte 196,193,100,93,216 // vminps %ymm8,%ymm3,%ymm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,219 // vcvttps2dq %ymm3,%ymm3
- .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
- .byte 196,98,125,88,64,8 // vpbroadcastd 0x8(%rax),%ymm8
- .byte 196,226,61,64,210 // vpmulld %ymm2,%ymm8,%ymm2
- .byte 196,226,61,64,219 // vpmulld %ymm3,%ymm8,%ymm3
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,237,254,192 // vpaddd %ymm0,%ymm2,%ymm0
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 197,229,254,201 // vpaddd %ymm1,%ymm3,%ymm1
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,183,4,72 // movzwl (%r8,%r9,2),%eax
- .byte 197,233,196,208,1 // vpinsrw $0x1,%eax,%xmm2,%xmm2
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,233,196,208,2 // vpinsrw $0x2,%eax,%xmm2,%xmm2
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
- .byte 197,233,196,208,3 // vpinsrw $0x3,%eax,%xmm2,%xmm2
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,233,196,208,4 // vpinsrw $0x4,%eax,%xmm2,%xmm2
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,183,4,72 // movzwl (%r8,%r9,2),%eax
- .byte 197,233,196,200,5 // vpinsrw $0x5,%eax,%xmm2,%xmm1
- .byte 68,137,208 // mov %r10d,%eax
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,241,196,200,6 // vpinsrw $0x6,%eax,%xmm1,%xmm1
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
- .byte 197,241,196,200,7 // vpinsrw $0x7,%eax,%xmm1,%xmm1
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,183,4,72 // movzwl (%r8,%r9,2),%eax
- .byte 197,233,196,208,1 // vpinsrw $0x1,%eax,%xmm2,%xmm2
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,233,196,208,2 // vpinsrw $0x2,%eax,%xmm2,%xmm2
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
- .byte 197,233,196,208,3 // vpinsrw $0x3,%eax,%xmm2,%xmm2
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,233,196,208,4 // vpinsrw $0x4,%eax,%xmm2,%xmm2
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,183,4,72 // movzwl (%r8,%r9,2),%eax
- .byte 197,233,196,192,5 // vpinsrw $0x5,%eax,%xmm2,%xmm0
- .byte 68,137,208 // mov %r10d,%eax
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 197,249,196,192,6 // vpinsrw $0x6,%eax,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 67,15,183,4,80 // movzwl (%r8,%r10,2),%eax
- .byte 197,249,196,192,7 // vpinsrw $0x7,%eax,%xmm0,%xmm0
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 197,245,113,208,12 // vpsrlw $0xc,%ymm0,%ymm1
- .byte 197,237,113,208,8 // vpsrlw $0x8,%ymm0,%ymm2
- .byte 196,226,125,121,29,186,194,0,0 // vpbroadcastw 0xc2ba(%rip),%ymm3 # 3cda2 <_sk_srcover_bgra_8888_sse2_lowp+0xb56>
- .byte 197,237,219,211 // vpand %ymm3,%ymm2,%ymm2
- .byte 197,189,113,208,4 // vpsrlw $0x4,%ymm0,%ymm8
- .byte 197,61,219,195 // vpand %ymm3,%ymm8,%ymm8
- .byte 197,253,219,219 // vpand %ymm3,%ymm0,%ymm3
- .byte 197,253,113,241,4 // vpsllw $0x4,%ymm1,%ymm0
- .byte 197,253,235,193 // vpor %ymm1,%ymm0,%ymm0
- .byte 197,245,113,242,4 // vpsllw $0x4,%ymm2,%ymm1
- .byte 197,245,235,202 // vpor %ymm2,%ymm1,%ymm1
- .byte 196,193,109,113,240,4 // vpsllw $0x4,%ymm8,%ymm2
- .byte 196,193,109,235,208 // vpor %ymm8,%ymm2,%ymm2
- .byte 197,189,113,243,4 // vpsllw $0x4,%ymm3,%ymm8
- .byte 197,189,235,219 // vpor %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_a8_hsw_lowp
-.globl _sk_load_a8_hsw_lowp
-FUNCTION(_sk_load_a8_hsw_lowp)
-_sk_load_a8_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 30b5f <_sk_load_a8_hsw_lowp+0x3c>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,220,0,0,0 // lea 0xdc(%rip),%r9 # 30c24 <_sk_load_a8_hsw_lowp+0x101>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 30c0e <_sk_load_a8_hsw_lowp+0xeb>
- .byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 30c0e <_sk_load_a8_hsw_lowp+0xeb>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 30c0e <_sk_load_a8_hsw_lowp+0xeb>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
- .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 30c0e <_sk_load_a8_hsw_lowp+0xeb>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
- .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 30c0e <_sk_load_a8_hsw_lowp+0xeb>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,16,12,12 // vpinsrb $0xc,0xc(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
- .byte 196,195,113,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm1,%xmm1
- .byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
- .byte 196,226,125,48,216 // vpmovzxbw %xmm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 45,255,255,255,82 // sub $0x52ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,70,255 // incl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,130,255,255,255,122 // incl 0x7affffff(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,114,255 // pushq -0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,102,255 // jmpq *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,172,255,255,255,164,255 // ljmp *-0x5b0001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,156,255,255,255,144,255 // lcall *-0x6f0001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,214 // callq *%rsi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,206 // dec %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 186 // .byte 0xba
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_dst_hsw_lowp
-.globl _sk_load_a8_dst_hsw_lowp
-FUNCTION(_sk_load_a8_dst_hsw_lowp)
-_sk_load_a8_dst_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 30c9c <_sk_load_a8_dst_hsw_lowp+0x3c>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,219,0,0,0 // lea 0xdb(%rip),%r9 # 30d60 <_sk_load_a8_dst_hsw_lowp+0x100>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 30d4b <_sk_load_a8_dst_hsw_lowp+0xeb>
- .byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 30d4b <_sk_load_a8_dst_hsw_lowp+0xeb>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,249,110,232 // vmovd %eax,%xmm5
- .byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 30d4b <_sk_load_a8_dst_hsw_lowp+0xeb>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
- .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 30d4b <_sk_load_a8_dst_hsw_lowp+0xeb>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
- .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 30d4b <_sk_load_a8_dst_hsw_lowp+0xeb>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,16,12,12 // vpinsrb $0xc,0xc(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
- .byte 196,195,81,34,108,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm5,%xmm5
- .byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
- .byte 196,226,125,48,252 // vpmovzxbw %xmm4,%ymm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 255,224 // jmpq *%rax
- .byte 46,255 // cs (bad)
- .byte 255 // (bad)
- .byte 255,83,255 // callq *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,71,255 // incl -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,131,255,255,255,123 // incl 0x7bffffff(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,115,255 // pushq -0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,103,255 // jmpq *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,173,255,255,255,165 // ljmp *-0x5a000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,157,255,255,255,145 // lcall *-0x6e000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,215 // callq *%rdi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,207 // dec %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 187 // .byte 0xbb
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_a8_hsw_lowp
-.globl _sk_store_a8_hsw_lowp
-FUNCTION(_sk_store_a8_hsw_lowp)
-_sk_store_a8_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 196,195,125,57,216,1 // vextracti128 $0x1,%ymm3,%xmm8
- .byte 197,121,111,13,105,200,0,0 // vmovdqa 0xc869(%rip),%xmm9 # 3d620 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
- .byte 196,66,57,0,193 // vpshufb %xmm9,%xmm8,%xmm8
- .byte 196,66,97,0,201 // vpshufb %xmm9,%xmm3,%xmm9
- .byte 196,65,49,108,192 // vpunpcklqdq %xmm8,%xmm9,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,28 // ja 30dec <_sk_store_a8_hsw_lowp+0x50>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 30e6c <_sk_store_a8_hsw_lowp+0xd0>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,67,121,20,4,16,0 // vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,121 // jmp 30e65 <_sk_store_a8_hsw_lowp+0xc9>
- .byte 196,65,122,127,4,16 // vmovdqu %xmm8,(%r8,%rdx,1)
- .byte 235,113 // jmp 30e65 <_sk_store_a8_hsw_lowp+0xc9>
- .byte 196,67,121,20,68,16,2,2 // vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1)
- .byte 196,67,121,21,4,16,0 // vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 30e65 <_sk_store_a8_hsw_lowp+0xc9>
- .byte 196,67,121,20,68,16,6,6 // vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1)
- .byte 196,67,121,20,68,16,5,5 // vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1)
- .byte 196,67,121,20,68,16,4,4 // vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1)
- .byte 196,65,121,126,4,16 // vmovd %xmm8,(%r8,%rdx,1)
- .byte 235,64 // jmp 30e65 <_sk_store_a8_hsw_lowp+0xc9>
- .byte 196,67,121,20,68,16,10,10 // vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1)
- .byte 196,67,121,20,68,16,9,9 // vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1)
- .byte 196,67,121,20,68,16,8,8 // vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1)
- .byte 235,32 // jmp 30e5f <_sk_store_a8_hsw_lowp+0xc3>
- .byte 196,67,121,20,68,16,14,14 // vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1)
- .byte 196,67,121,20,68,16,13,13 // vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1)
- .byte 196,67,121,20,68,16,12,12 // vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1)
- .byte 196,67,121,22,68,16,8,2 // vpextrd $0x2,%xmm8,0x8(%r8,%rdx,1)
- .byte 196,65,121,214,4,16 // vmovq %xmm8,(%r8,%rdx,1)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 30e6d <_sk_store_a8_hsw_lowp+0xd1>
- .byte 255 // (bad)
- .byte 255,144,255,255,255,136 // callq *-0x77000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,177,255,255,255,169 // pushq -0x56000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,161,255,255,255,153 // jmpq *-0x66000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,243 // push %rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,193 // inc %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 185,255,255,255,235 // mov $0xebffffff,%ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,227 // jmpq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_a8_hsw_lowp
-.globl _sk_gather_a8_hsw_lowp
-FUNCTION(_sk_gather_a8_hsw_lowp)
-_sk_gather_a8_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,88,64,12 // vpbroadcastd 0xc(%rax),%ymm8
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,65,61,254,193 // vpaddd %ymm9,%ymm8,%ymm8
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,193,124,95,194 // vmaxps %ymm10,%ymm0,%ymm0
- .byte 196,193,116,95,202 // vmaxps %ymm10,%ymm1,%ymm1
- .byte 196,65,116,93,216 // vminps %ymm8,%ymm1,%ymm11
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,226,125,88,72,16 // vpbroadcastd 0x10(%rax),%ymm1
- .byte 196,193,117,254,201 // vpaddd %ymm9,%ymm1,%ymm1
- .byte 196,193,100,95,218 // vmaxps %ymm10,%ymm3,%ymm3
- .byte 196,193,108,95,210 // vmaxps %ymm10,%ymm2,%ymm2
- .byte 197,236,93,209 // vminps %ymm1,%ymm2,%ymm2
- .byte 197,228,93,201 // vminps %ymm1,%ymm3,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
- .byte 196,226,125,88,88,8 // vpbroadcastd 0x8(%rax),%ymm3
- .byte 196,226,101,64,210 // vpmulld %ymm2,%ymm3,%ymm2
- .byte 196,226,101,64,217 // vpmulld %ymm1,%ymm3,%ymm3
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,237,254,200 // vpaddd %ymm0,%ymm2,%ymm1
- .byte 196,193,126,91,195 // vcvttps2dq %ymm11,%ymm0
- .byte 197,229,254,192 // vpaddd %ymm0,%ymm3,%ymm0
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,182,4,8 // movzbl (%r8,%r9,1),%eax
- .byte 196,227,105,32,208,1 // vpinsrb $0x1,%eax,%xmm2,%xmm2
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,105,32,208,2 // vpinsrb $0x2,%eax,%xmm2,%xmm2
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
- .byte 196,227,105,32,208,3 // vpinsrb $0x3,%eax,%xmm2,%xmm2
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,105,32,208,4 // vpinsrb $0x4,%eax,%xmm2,%xmm2
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,182,4,8 // movzbl (%r8,%r9,1),%eax
- .byte 196,227,105,32,200,5 // vpinsrb $0x5,%eax,%xmm2,%xmm1
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,113,32,200,6 // vpinsrb $0x6,%eax,%xmm1,%xmm1
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
- .byte 196,227,113,32,200,7 // vpinsrb $0x7,%eax,%xmm1,%xmm1
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,113,32,200,8 // vpinsrb $0x8,%eax,%xmm1,%xmm1
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,182,4,8 // movzbl (%r8,%r9,1),%eax
- .byte 196,227,113,32,200,9 // vpinsrb $0x9,%eax,%xmm1,%xmm1
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,113,32,200,10 // vpinsrb $0xa,%eax,%xmm1,%xmm1
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
- .byte 196,227,113,32,200,11 // vpinsrb $0xb,%eax,%xmm1,%xmm1
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,113,32,200,12 // vpinsrb $0xc,%eax,%xmm1,%xmm1
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,182,4,8 // movzbl (%r8,%r9,1),%eax
- .byte 196,227,113,32,192,13 // vpinsrb $0xd,%eax,%xmm1,%xmm0
- .byte 68,137,208 // mov %r10d,%eax
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,121,32,192,14 // vpinsrb $0xe,%eax,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
- .byte 196,227,121,32,192,15 // vpinsrb $0xf,%eax,%xmm0,%xmm0
- .byte 196,226,125,48,216 // vpmovzxbw %xmm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_g8_hsw_lowp
-.globl _sk_load_g8_hsw_lowp
-FUNCTION(_sk_load_g8_hsw_lowp)
-_sk_load_g8_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 3108b <_sk_load_g8_hsw_lowp+0x3c>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,224,0,0,0 // lea 0xe0(%rip),%r9 # 31154 <_sk_load_g8_hsw_lowp+0x105>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,192 // vmovd %eax,%xmm0
- .byte 233,175,0,0,0 // jmpq 3113a <_sk_load_g8_hsw_lowp+0xeb>
- .byte 196,193,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm0
- .byte 233,164,0,0,0 // jmpq 3113a <_sk_load_g8_hsw_lowp+0xeb>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,249,110,200 // vmovd %eax,%xmm1
- .byte 196,227,121,14,193,1 // vpblendw $0x1,%xmm1,%xmm0,%xmm0
- .byte 233,132,0,0,0 // jmpq 3113a <_sk_load_g8_hsw_lowp+0xeb>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,193,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm1
- .byte 196,227,121,2,193,1 // vpblendd $0x1,%xmm1,%xmm0,%xmm0
- .byte 235,90 // jmp 3113a <_sk_load_g8_hsw_lowp+0xeb>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
- .byte 196,227,113,2,192,12 // vpblendd $0xc,%xmm0,%xmm1,%xmm0
- .byte 235,48 // jmp 3113a <_sk_load_g8_hsw_lowp+0xeb>
- .byte 197,249,239,192 // vpxor %xmm0,%xmm0,%xmm0
- .byte 196,195,121,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,195,121,32,68,16,12,12 // vpinsrb $0xc,0xc(%r8,%rdx,1),%xmm0,%xmm0
- .byte 196,193,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm1
- .byte 196,195,113,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm1,%xmm1
- .byte 196,227,113,2,192,8 // vpblendd $0x8,%xmm0,%xmm1,%xmm0
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,90,188,0,0 // vpbroadcastw 0xbc5a(%rip),%ymm3 # 3cda4 <_sk_srcover_bgra_8888_sse2_lowp+0xb58>
- .byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
- .byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
- .byte 255,224 // jmpq *%rax
- .byte 41,255 // sub %edi,%edi
- .byte 255 // (bad)
- .byte 255,78,255 // decl -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,66,255 // incl -0x1(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 126,255 // jle 31161 <_sk_load_g8_hsw_lowp+0x112>
- .byte 255 // (bad)
- .byte 255,118,255 // pushq -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,110,255 // ljmp *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,98,255 // jmpq *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,168,255,255,255,160 // ljmp *-0x5f000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,152,255,255,255,140 // lcall *-0x73000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,202 // dec %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 182,255 // mov $0xff,%dh
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_dst_hsw_lowp
-.globl _sk_load_g8_dst_hsw_lowp
-FUNCTION(_sk_load_g8_dst_hsw_lowp)
-_sk_load_g8_dst_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,37 // ja 311cc <_sk_load_g8_dst_hsw_lowp+0x3c>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,227,0,0,0 // lea 0xe3(%rip),%r9 # 31298 <_sk_load_g8_dst_hsw_lowp+0x108>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,249,110,224 // vmovd %eax,%xmm4
- .byte 233,175,0,0,0 // jmpq 3127b <_sk_load_g8_dst_hsw_lowp+0xeb>
- .byte 196,193,122,111,36,16 // vmovdqu (%r8,%rdx,1),%xmm4
- .byte 233,164,0,0,0 // jmpq 3127b <_sk_load_g8_dst_hsw_lowp+0xeb>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,249,110,232 // vmovd %eax,%xmm5
- .byte 196,227,89,14,229,1 // vpblendw $0x1,%xmm5,%xmm4,%xmm4
- .byte 233,132,0,0,0 // jmpq 3127b <_sk_load_g8_dst_hsw_lowp+0xeb>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,193,121,110,44,16 // vmovd (%r8,%rdx,1),%xmm5
- .byte 196,227,89,2,229,1 // vpblendd $0x1,%xmm5,%xmm4,%xmm4
- .byte 235,90 // jmp 3127b <_sk_load_g8_dst_hsw_lowp+0xeb>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
- .byte 196,227,81,2,228,12 // vpblendd $0xc,%xmm4,%xmm5,%xmm4
- .byte 235,48 // jmp 3127b <_sk_load_g8_dst_hsw_lowp+0xeb>
- .byte 197,217,239,228 // vpxor %xmm4,%xmm4,%xmm4
- .byte 196,195,89,32,100,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,195,89,32,100,16,12,12 // vpinsrb $0xc,0xc(%r8,%rdx,1),%xmm4,%xmm4
- .byte 196,193,122,126,44,16 // vmovq (%r8,%rdx,1),%xmm5
- .byte 196,195,81,34,108,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm5,%xmm5
- .byte 196,227,81,2,228,8 // vpblendd $0x8,%xmm4,%xmm5,%xmm4
- .byte 196,226,125,48,228 // vpmovzxbw %xmm4,%ymm4
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,61,27,187,0,0 // vpbroadcastw 0xbb1b(%rip),%ymm7 # 3cda6 <_sk_srcover_bgra_8888_sse2_lowp+0xb5a>
- .byte 197,253,111,236 // vmovdqa %ymm4,%ymm5
- .byte 197,253,111,244 // vmovdqa %ymm4,%ymm6
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 38,255 // es (bad)
- .byte 255 // (bad)
- .byte 255,75,255 // decl -0x1(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 63 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 312a5 <_sk_load_g8_dst_hsw_lowp+0x115>
- .byte 255 // (bad)
- .byte 255,115,255 // pushq -0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,107,255 // ljmp *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,95,255 // lcall *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,165,255,255,255,157 // jmpq *-0x62000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,149,255,255,255,137 // callq *-0x76000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,207 // dec %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,179 // mov $0xb3ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_luminance_to_alpha_hsw_lowp
-.globl _sk_luminance_to_alpha_hsw_lowp
-FUNCTION(_sk_luminance_to_alpha_hsw_lowp)
-_sk_luminance_to_alpha_hsw_lowp:
- .byte 196,226,125,121,29,203,186,0,0 // vpbroadcastw 0xbacb(%rip),%ymm3 # 3cda8 <_sk_srcover_bgra_8888_sse2_lowp+0xb5c>
- .byte 197,253,213,195 // vpmullw %ymm3,%ymm0,%ymm0
- .byte 196,226,125,121,29,192,186,0,0 // vpbroadcastw 0xbac0(%rip),%ymm3 # 3cdaa <_sk_srcover_bgra_8888_sse2_lowp+0xb5e>
- .byte 197,245,213,203 // vpmullw %ymm3,%ymm1,%ymm1
- .byte 197,245,253,192 // vpaddw %ymm0,%ymm1,%ymm0
- .byte 196,226,125,121,13,177,186,0,0 // vpbroadcastw 0xbab1(%rip),%ymm1 # 3cdac <_sk_srcover_bgra_8888_sse2_lowp+0xb60>
- .byte 197,237,213,201 // vpmullw %ymm1,%ymm2,%ymm1
- .byte 197,253,253,193 // vpaddw %ymm1,%ymm0,%ymm0
- .byte 197,229,113,208,8 // vpsrlw $0x8,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,253,239,192 // vpxor %ymm0,%ymm0,%ymm0
- .byte 197,245,239,201 // vpxor %ymm1,%ymm1,%ymm1
- .byte 197,237,239,210 // vpxor %ymm2,%ymm2,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gather_g8_hsw_lowp
-.globl _sk_gather_g8_hsw_lowp
-FUNCTION(_sk_gather_g8_hsw_lowp)
-_sk_gather_g8_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,98,125,88,64,12 // vpbroadcastd 0xc(%rax),%ymm8
- .byte 196,65,53,118,201 // vpcmpeqd %ymm9,%ymm9,%ymm9
- .byte 196,65,61,254,193 // vpaddd %ymm9,%ymm8,%ymm8
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,193,124,95,194 // vmaxps %ymm10,%ymm0,%ymm0
- .byte 196,193,116,95,202 // vmaxps %ymm10,%ymm1,%ymm1
- .byte 196,65,116,93,216 // vminps %ymm8,%ymm1,%ymm11
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,226,125,88,72,16 // vpbroadcastd 0x10(%rax),%ymm1
- .byte 196,193,117,254,201 // vpaddd %ymm9,%ymm1,%ymm1
- .byte 196,193,100,95,218 // vmaxps %ymm10,%ymm3,%ymm3
- .byte 196,193,108,95,210 // vmaxps %ymm10,%ymm2,%ymm2
- .byte 197,236,93,209 // vminps %ymm1,%ymm2,%ymm2
- .byte 197,228,93,201 // vminps %ymm1,%ymm3,%ymm1
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,254,91,201 // vcvttps2dq %ymm1,%ymm1
- .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
- .byte 196,226,125,88,88,8 // vpbroadcastd 0x8(%rax),%ymm3
- .byte 196,226,101,64,210 // vpmulld %ymm2,%ymm3,%ymm2
- .byte 196,226,101,64,217 // vpmulld %ymm1,%ymm3,%ymm3
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 197,237,254,200 // vpaddd %ymm0,%ymm2,%ymm1
- .byte 196,193,126,91,195 // vcvttps2dq %ymm11,%ymm0
- .byte 197,229,254,192 // vpaddd %ymm0,%ymm3,%ymm0
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 197,249,110,208 // vmovd %eax,%xmm2
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,182,4,8 // movzbl (%r8,%r9,1),%eax
- .byte 196,227,105,32,208,1 // vpinsrb $0x1,%eax,%xmm2,%xmm2
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,201,1 // vextracti128 $0x1,%ymm1,%xmm1
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,105,32,208,2 // vpinsrb $0x2,%eax,%xmm2,%xmm2
- .byte 196,193,249,126,201 // vmovq %xmm1,%r9
- .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
- .byte 196,227,105,32,208,3 // vpinsrb $0x3,%eax,%xmm2,%xmm2
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,105,32,208,4 // vpinsrb $0x4,%eax,%xmm2,%xmm2
- .byte 196,195,249,22,202,1 // vpextrq $0x1,%xmm1,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,182,4,8 // movzbl (%r8,%r9,1),%eax
- .byte 196,227,105,32,200,5 // vpinsrb $0x5,%eax,%xmm2,%xmm1
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,113,32,200,6 // vpinsrb $0x6,%eax,%xmm1,%xmm1
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
- .byte 196,227,113,32,200,7 // vpinsrb $0x7,%eax,%xmm1,%xmm1
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,113,32,200,8 // vpinsrb $0x8,%eax,%xmm1,%xmm1
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,182,4,8 // movzbl (%r8,%r9,1),%eax
- .byte 196,227,113,32,200,9 // vpinsrb $0x9,%eax,%xmm1,%xmm1
- .byte 68,137,208 // mov %r10d,%eax
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 196,227,125,57,192,1 // vextracti128 $0x1,%ymm0,%xmm0
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,113,32,200,10 // vpinsrb $0xa,%eax,%xmm1,%xmm1
- .byte 196,193,249,126,193 // vmovq %xmm0,%r9
- .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
- .byte 196,227,113,32,200,11 // vpinsrb $0xb,%eax,%xmm1,%xmm1
- .byte 68,137,200 // mov %r9d,%eax
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,113,32,200,12 // vpinsrb $0xc,%eax,%xmm1,%xmm1
- .byte 196,195,249,22,194,1 // vpextrq $0x1,%xmm0,%r10
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 67,15,182,4,8 // movzbl (%r8,%r9,1),%eax
- .byte 196,227,113,32,192,13 // vpinsrb $0xd,%eax,%xmm1,%xmm0
- .byte 68,137,208 // mov %r10d,%eax
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 196,227,121,32,192,14 // vpinsrb $0xe,%eax,%xmm0,%xmm0
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 67,15,182,4,16 // movzbl (%r8,%r10,1),%eax
- .byte 196,227,121,32,192,15 // vpinsrb $0xf,%eax,%xmm0,%xmm0
- .byte 196,226,125,48,192 // vpmovzxbw %xmm0,%ymm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,121,29,244,184,0,0 // vpbroadcastw 0xb8f4(%rip),%ymm3 # 3cdae <_sk_srcover_bgra_8888_sse2_lowp+0xb62>
- .byte 197,253,111,200 // vmovdqa %ymm0,%ymm1
- .byte 197,253,111,208 // vmovdqa %ymm0,%ymm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_1_float_hsw_lowp
-.globl _sk_scale_1_float_hsw_lowp
-FUNCTION(_sk_scale_1_float_hsw_lowp)
-_sk_scale_1_float_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,86,176,0,0 // vmovss 0xb056(%rip),%xmm9 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,57,169,13,29,176,0,0 // vfmadd213ss 0xb01d(%rip),%xmm8,%xmm9 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,186,184,0,0 // vpbroadcastw 0xb8ba(%rip),%ymm9 # 3cdb0 <_sk_srcover_bgra_8888_sse2_lowp+0xb64>
- .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
- .byte 196,193,117,253,201 // vpaddw %ymm9,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,189,213,210 // vpmullw %ymm2,%ymm8,%ymm2
- .byte 196,193,109,253,209 // vpaddw %ymm9,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,189,213,219 // vpmullw %ymm3,%ymm8,%ymm3
- .byte 196,193,101,253,217 // vpaddw %ymm9,%ymm3,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lerp_1_float_hsw_lowp
-.globl _sk_lerp_1_float_hsw_lowp
-FUNCTION(_sk_lerp_1_float_hsw_lowp)
-_sk_lerp_1_float_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,122,16,0 // vmovss (%rax),%xmm8
- .byte 197,122,16,13,236,175,0,0 // vmovss 0xafec(%rip),%xmm9 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,57,169,13,179,175,0,0 // vfmadd213ss 0xafb3(%rip),%xmm8,%xmm9 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,193,122,44,193 // vcvttss2si %xmm9,%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 196,66,125,121,192 // vpbroadcastw %xmm8,%ymm8
- .byte 196,98,125,121,13,86,184,0,0 // vpbroadcastw 0xb856(%rip),%ymm9 # 3cdb2 <_sk_srcover_bgra_8888_sse2_lowp+0xb66>
- .byte 196,65,53,249,208 // vpsubw %ymm8,%ymm9,%ymm10
- .byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
- .byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
- .byte 197,165,253,192 // vpaddw %ymm0,%ymm11,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,45,213,221 // vpmullw %ymm5,%ymm10,%ymm11
- .byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
- .byte 196,193,117,253,201 // vpaddw %ymm9,%ymm1,%ymm1
- .byte 197,165,253,201 // vpaddw %ymm1,%ymm11,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,45,213,222 // vpmullw %ymm6,%ymm10,%ymm11
- .byte 197,189,213,210 // vpmullw %ymm2,%ymm8,%ymm2
- .byte 196,193,109,253,209 // vpaddw %ymm9,%ymm2,%ymm2
- .byte 197,165,253,210 // vpaddw %ymm2,%ymm11,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,45,213,215 // vpmullw %ymm7,%ymm10,%ymm10
- .byte 197,189,213,219 // vpmullw %ymm3,%ymm8,%ymm3
- .byte 196,193,101,253,217 // vpaddw %ymm9,%ymm3,%ymm3
- .byte 197,173,253,219 // vpaddw %ymm3,%ymm10,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_u8_hsw_lowp
-.globl _sk_scale_u8_hsw_lowp
-FUNCTION(_sk_scale_u8_hsw_lowp)
-_sk_scale_u8_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 315fa <_sk_scale_u8_hsw_lowp+0x3d>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,21,1,0,0 // lea 0x115(%rip),%r9 # 316f8 <_sk_scale_u8_hsw_lowp+0x13b>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 316ad <_sk_scale_u8_hsw_lowp+0xf0>
- .byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 316ad <_sk_scale_u8_hsw_lowp+0xf0>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 316ad <_sk_scale_u8_hsw_lowp+0xf0>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
- .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 316ad <_sk_scale_u8_hsw_lowp+0xf0>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
- .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 316ad <_sk_scale_u8_hsw_lowp+0xf0>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,16,12,12 // vpinsrb $0xc,0xc(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
- .byte 196,67,49,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
- .byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
- .byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,13,245,182,0,0 // vpbroadcastw 0xb6f5(%rip),%ymm9 # 3cdb4 <_sk_srcover_bgra_8888_sse2_lowp+0xb68>
- .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
- .byte 196,193,117,253,201 // vpaddw %ymm9,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,189,213,210 // vpmullw %ymm2,%ymm8,%ymm2
- .byte 196,193,109,253,209 // vpaddw %ymm9,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,189,213,219 // vpmullw %ymm3,%ymm8,%ymm3
- .byte 196,193,101,253,217 // vpaddw %ymm9,%ymm3,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 244 // hlt
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,26 // lcall *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,75 // decl 0x4bffffff(%rip) # 4c031704 <_sk_srcover_bgra_8888_sse2_lowp+0x4bff54b8>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,67,255 // incl -0x1(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 59,255 // cmp %edi,%edi
- .byte 255 // (bad)
- .byte 255,46 // ljmp *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,118,255 // pushq -0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,110,255 // ljmp *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,102,255 // jmpq *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,89,255 // lcall *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,161,255,255,255,153 // jmpq *-0x66000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,145,255,255,255,132 // callq *-0x7b000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_u8_hsw_lowp
-.globl _sk_lerp_u8_hsw_lowp
-FUNCTION(_sk_lerp_u8_hsw_lowp)
-_sk_lerp_u8_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 31771 <_sk_lerp_u8_hsw_lowp+0x3d>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,58,1,0,0 // lea 0x13a(%rip),%r9 # 31894 <_sk_lerp_u8_hsw_lowp+0x160>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,179,0,0,0 // jmpq 31824 <_sk_lerp_u8_hsw_lowp+0xf0>
- .byte 196,65,122,111,4,16 // vmovdqu (%r8,%rdx,1),%xmm8
- .byte 233,168,0,0,0 // jmpq 31824 <_sk_lerp_u8_hsw_lowp+0xf0>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,16,2,2 // vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 197,121,110,200 // vmovd %eax,%xmm9
- .byte 196,67,57,14,193,1 // vpblendw $0x1,%xmm9,%xmm8,%xmm8
- .byte 233,135,0,0,0 // jmpq 31824 <_sk_lerp_u8_hsw_lowp+0xf0>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,16,6,6 // vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,16,5,5 // vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,16,4,4 // vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,65,121,110,12,16 // vmovd (%r8,%rdx,1),%xmm9
- .byte 196,67,57,2,193,1 // vpblendd $0x1,%xmm9,%xmm8,%xmm8
- .byte 235,92 // jmp 31824 <_sk_lerp_u8_hsw_lowp+0xf0>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,16,10,10 // vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,16,9,9 // vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,16,8,8 // vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
- .byte 196,67,49,2,192,12 // vpblendd $0xc,%xmm8,%xmm9,%xmm8
- .byte 235,49 // jmp 31824 <_sk_lerp_u8_hsw_lowp+0xf0>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,67,57,32,68,16,14,14 // vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,16,13,13 // vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,67,57,32,68,16,12,12 // vpinsrb $0xc,0xc(%r8,%rdx,1),%xmm8,%xmm8
- .byte 196,65,122,126,12,16 // vmovq (%r8,%rdx,1),%xmm9
- .byte 196,67,49,34,76,16,8,2 // vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
- .byte 196,67,49,2,192,8 // vpblendd $0x8,%xmm8,%xmm9,%xmm8
- .byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,98,125,121,13,132,181,0,0 // vpbroadcastw 0xb584(%rip),%ymm9 # 3cdb6 <_sk_srcover_bgra_8888_sse2_lowp+0xb6a>
- .byte 196,65,61,239,209 // vpxor %ymm9,%ymm8,%ymm10
- .byte 197,45,213,220 // vpmullw %ymm4,%ymm10,%ymm11
- .byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,193,125,253,193 // vpaddw %ymm9,%ymm0,%ymm0
- .byte 197,165,253,192 // vpaddw %ymm0,%ymm11,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,45,213,221 // vpmullw %ymm5,%ymm10,%ymm11
- .byte 197,189,213,201 // vpmullw %ymm1,%ymm8,%ymm1
- .byte 196,193,117,253,201 // vpaddw %ymm9,%ymm1,%ymm1
- .byte 197,165,253,201 // vpaddw %ymm1,%ymm11,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,45,213,222 // vpmullw %ymm6,%ymm10,%ymm11
- .byte 197,189,213,210 // vpmullw %ymm2,%ymm8,%ymm2
- .byte 196,193,109,253,209 // vpaddw %ymm9,%ymm2,%ymm2
- .byte 197,165,253,210 // vpaddw %ymm2,%ymm11,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,45,213,215 // vpmullw %ymm7,%ymm10,%ymm10
- .byte 197,189,213,219 // vpmullw %ymm3,%ymm8,%ymm3
- .byte 196,193,101,253,217 // vpaddw %ymm9,%ymm3,%ymm3
- .byte 197,173,253,219 // vpaddw %ymm3,%ymm10,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 207 // iret
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,245 // push %rbp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,254,255,255,38 // callq 2703189f <_sk_srcover_bgra_8888_sse2_lowp+0x26ff5653>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,9 // decl (%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,81,255 // callq *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,73,255 // decl -0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,65,255 // incl -0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,52,255 // pushq (%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 124,255 // jl 318c1 <_sk_lerp_u8_hsw_lowp+0x18d>
- .byte 255 // (bad)
- .byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
- .byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
- .byte 255,95,255 // lcall *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_scale_565_hsw_lowp
-.globl _sk_scale_565_hsw_lowp
-FUNCTION(_sk_scale_565_hsw_lowp)
-_sk_scale_565_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 31910 <_sk_scale_565_hsw_lowp+0x40>
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,255,1,0,0 // lea 0x1ff(%rip),%r9 # 31af8 <_sk_scale_565_hsw_lowp+0x228>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 31a1c <_sk_scale_565_hsw_lowp+0x14c>
- .byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 31a1c <_sk_scale_565_hsw_lowp+0x14c>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
- .byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
- .byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 31a1c <_sk_scale_565_hsw_lowp+0x14c>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
- .byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,65,57,196,76,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm9
- .byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
- .byte 196,65,57,196,76,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm9
- .byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
- .byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
- .byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 31a1c <_sk_scale_565_hsw_lowp+0x14c>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
- .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,49,196,76,80,18,1 // vpinsrw $0x1,0x12(%r8,%rdx,2),%xmm9,%xmm9
- .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,49,196,76,80,16,0 // vpinsrw $0x0,0x10(%r8,%rdx,2),%xmm9,%xmm9
- .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- .byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
- .byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 31a1c <_sk_scale_565_hsw_lowp+0x14c>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
- .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,49,196,76,80,26,5 // vpinsrw $0x5,0x1a(%r8,%rdx,2),%xmm9,%xmm9
- .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,49,196,76,80,24,4 // vpinsrw $0x4,0x18(%r8,%rdx,2),%xmm9,%xmm9
- .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- .byte 196,65,122,126,76,80,16 // vmovq 0x10(%r8,%rdx,2),%xmm9
- .byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
- .byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,147,179,0,0 // vpbroadcastw 0xb393(%rip),%ymm9 # 3cdb8 <_sk_srcover_bgra_8888_sse2_lowp+0xb6c>
- .byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
- .byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
- .byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,123,179,0,0 // vpbroadcastw 0xb37b(%rip),%ymm11 # 3cdba <_sk_srcover_bgra_8888_sse2_lowp+0xb6e>
- .byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,111,179,0,0 // vpbroadcastw 0xb36f(%rip),%ymm11 # 3cdbc <_sk_srcover_bgra_8888_sse2_lowp+0xb70>
- .byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
- .byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 196,193,53,113,242,2 // vpsllw $0x2,%ymm10,%ymm9
- .byte 196,193,45,113,210,4 // vpsrlw $0x4,%ymm10,%ymm10
- .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
- .byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
- .byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
- .byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,54,179,0,0 // vpbroadcastw 0xb336(%rip),%ymm11 # 3cdbe <_sk_srcover_bgra_8888_sse2_lowp+0xb72>
- .byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
- .byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
- .byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
- .byte 196,66,53,58,226 // vpminuw %ymm10,%ymm9,%ymm12
- .byte 196,66,29,58,224 // vpminuw %ymm8,%ymm12,%ymm12
- .byte 196,66,53,62,234 // vpmaxuw %ymm10,%ymm9,%ymm13
- .byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
- .byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
- .byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,98,125,121,5,2,179,0,0 // vpbroadcastw 0xb302(%rip),%ymm8 # 3cdc0 <_sk_srcover_bgra_8888_sse2_lowp+0xb74>
- .byte 196,193,125,253,192 // vpaddw %ymm8,%ymm0,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
- .byte 196,193,117,253,200 // vpaddw %ymm8,%ymm1,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 197,173,213,210 // vpmullw %ymm2,%ymm10,%ymm2
- .byte 196,193,109,253,208 // vpaddw %ymm8,%ymm2,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 197,165,213,219 // vpmullw %ymm3,%ymm11,%ymm3
- .byte 196,193,101,253,216 // vpaddw %ymm8,%ymm3,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 10,254 // or %dh,%bh
- .byte 255 // (bad)
- .byte 255,54 // pushq (%rsi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,35 // jmpq *(%rbx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,118,254 // pushq -0x2(%rsi)
- .byte 255 // (bad)
- .byte 255,104,254 // ljmp *-0x2(%rax)
- .byte 255 // (bad)
- .byte 255,90,254 // lcall *-0x2(%rdx)
- .byte 255 // (bad)
- .byte 255,71,254 // incl -0x2(%rdi)
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,174,254,255,255,154 // ljmp *-0x65000002(%rsi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,135,254,255,255,11 // incl 0xbfffffe(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,247 // push %rdi
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,227 // jmpq *%rbx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,208 // callq *%rax
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_565_hsw_lowp
-.globl _sk_lerp_565_hsw_lowp
-FUNCTION(_sk_lerp_565_hsw_lowp)
-_sk_lerp_565_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,15 // and $0xf,%al
- .byte 254,200 // dec %al
- .byte 60,14 // cmp $0xe,%al
- .byte 119,38 // ja 31b74 <_sk_lerp_565_hsw_lowp+0x40>
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,51,2,0,0 // lea 0x233(%rip),%r9 # 31d90 <_sk_lerp_565_hsw_lowp+0x25c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 197,121,110,192 // vmovd %eax,%xmm8
- .byte 233,12,1,0,0 // jmpq 31c80 <_sk_lerp_565_hsw_lowp+0x14c>
- .byte 196,65,126,111,4,80 // vmovdqu (%r8,%rdx,2),%ymm8
- .byte 233,1,1,0,0 // jmpq 31c80 <_sk_lerp_565_hsw_lowp+0x14c>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,76,80,4,2 // vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
- .byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,65,121,110,12,80 // vmovd (%r8,%rdx,2),%xmm9
- .byte 196,67,61,2,193,1 // vpblendd $0x1,%ymm9,%ymm8,%ymm8
- .byte 233,221,0,0,0 // jmpq 31c80 <_sk_lerp_565_hsw_lowp+0x14c>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,76,80,12,6 // vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
- .byte 196,67,53,56,192,1 // vinserti128 $0x1,%xmm8,%ymm9,%ymm8
- .byte 196,65,57,196,76,80,10,5 // vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm9
- .byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
- .byte 196,65,57,196,76,80,8,4 // vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm9
- .byte 196,67,61,2,193,15 // vpblendd $0xf,%ymm9,%ymm8,%ymm8
- .byte 196,65,122,126,12,80 // vmovq (%r8,%rdx,2),%xmm9
- .byte 196,67,61,2,193,3 // vpblendd $0x3,%ymm9,%ymm8,%ymm8
- .byte 233,157,0,0,0 // jmpq 31c80 <_sk_lerp_565_hsw_lowp+0x14c>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,76,80,20,2 // vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
- .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,49,196,76,80,18,1 // vpinsrw $0x1,0x12(%r8,%rdx,2),%xmm9,%xmm9
- .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,49,196,76,80,16,0 // vpinsrw $0x0,0x10(%r8,%rdx,2),%xmm9,%xmm9
- .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- .byte 196,65,122,111,12,80 // vmovdqu (%r8,%rdx,2),%xmm9
- .byte 196,67,53,2,192,240 // vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- .byte 235,84 // jmp 31c80 <_sk_lerp_565_hsw_lowp+0x14c>
- .byte 196,65,57,239,192 // vpxor %xmm8,%xmm8,%xmm8
- .byte 196,65,57,196,76,80,28,6 // vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
- .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,49,196,76,80,26,5 // vpinsrw $0x5,0x1a(%r8,%rdx,2),%xmm9,%xmm9
- .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,49,196,76,80,24,4 // vpinsrw $0x4,0x18(%r8,%rdx,2),%xmm9,%xmm9
- .byte 196,67,61,56,193,1 // vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- .byte 196,65,122,126,76,80,16 // vmovq 0x10(%r8,%rdx,2),%xmm9
- .byte 196,65,122,111,20,80 // vmovdqu (%r8,%rdx,2),%xmm10
- .byte 196,67,45,56,201,1 // vinserti128 $0x1,%xmm9,%ymm10,%ymm9
- .byte 196,67,53,2,192,192 // vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- .byte 196,98,125,121,13,57,177,0,0 // vpbroadcastw 0xb139(%rip),%ymm9 # 3cdc2 <_sk_srcover_bgra_8888_sse2_lowp+0xb76>
- .byte 196,193,45,113,208,8 // vpsrlw $0x8,%ymm8,%ymm10
- .byte 196,65,45,219,201 // vpand %ymm9,%ymm10,%ymm9
- .byte 196,193,45,113,208,5 // vpsrlw $0x5,%ymm8,%ymm10
- .byte 196,98,125,121,29,33,177,0,0 // vpbroadcastw 0xb121(%rip),%ymm11 # 3cdc4 <_sk_srcover_bgra_8888_sse2_lowp+0xb78>
- .byte 196,65,45,219,211 // vpand %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,21,177,0,0 // vpbroadcastw 0xb115(%rip),%ymm11 # 3cdc6 <_sk_srcover_bgra_8888_sse2_lowp+0xb7a>
- .byte 196,65,61,219,219 // vpand %ymm11,%ymm8,%ymm11
- .byte 196,193,61,113,208,13 // vpsrlw $0xd,%ymm8,%ymm8
- .byte 196,65,53,235,192 // vpor %ymm8,%ymm9,%ymm8
- .byte 196,193,53,113,242,2 // vpsllw $0x2,%ymm10,%ymm9
- .byte 196,193,45,113,210,4 // vpsrlw $0x4,%ymm10,%ymm10
- .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
- .byte 196,193,45,113,243,3 // vpsllw $0x3,%ymm11,%ymm10
- .byte 196,193,37,113,211,2 // vpsrlw $0x2,%ymm11,%ymm11
- .byte 196,65,45,235,211 // vpor %ymm11,%ymm10,%ymm10
- .byte 196,98,125,121,29,220,176,0,0 // vpbroadcastw 0xb0dc(%rip),%ymm11 # 3cdc8 <_sk_srcover_bgra_8888_sse2_lowp+0xb7c>
- .byte 196,65,101,239,227 // vpxor %ymm11,%ymm3,%ymm12
- .byte 196,65,69,239,219 // vpxor %ymm11,%ymm7,%ymm11
- .byte 196,65,37,101,220 // vpcmpgtw %ymm12,%ymm11,%ymm11
- .byte 196,66,53,58,226 // vpminuw %ymm10,%ymm9,%ymm12
- .byte 196,66,29,58,224 // vpminuw %ymm8,%ymm12,%ymm12
- .byte 196,66,53,62,234 // vpmaxuw %ymm10,%ymm9,%ymm13
- .byte 196,66,21,62,232 // vpmaxuw %ymm8,%ymm13,%ymm13
- .byte 196,67,21,76,220,176 // vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
- .byte 196,98,125,121,37,172,176,0,0 // vpbroadcastw 0xb0ac(%rip),%ymm12 # 3cdca <_sk_srcover_bgra_8888_sse2_lowp+0xb7e>
- .byte 196,65,61,239,236 // vpxor %ymm12,%ymm8,%ymm13
- .byte 197,21,213,236 // vpmullw %ymm4,%ymm13,%ymm13
- .byte 197,189,213,192 // vpmullw %ymm0,%ymm8,%ymm0
- .byte 196,193,125,253,196 // vpaddw %ymm12,%ymm0,%ymm0
- .byte 197,149,253,192 // vpaddw %ymm0,%ymm13,%ymm0
- .byte 197,253,113,208,8 // vpsrlw $0x8,%ymm0,%ymm0
- .byte 196,65,53,239,196 // vpxor %ymm12,%ymm9,%ymm8
- .byte 197,61,213,197 // vpmullw %ymm5,%ymm8,%ymm8
- .byte 197,181,213,201 // vpmullw %ymm1,%ymm9,%ymm1
- .byte 196,193,117,253,204 // vpaddw %ymm12,%ymm1,%ymm1
- .byte 197,189,253,201 // vpaddw %ymm1,%ymm8,%ymm1
- .byte 197,245,113,209,8 // vpsrlw $0x8,%ymm1,%ymm1
- .byte 196,65,45,239,196 // vpxor %ymm12,%ymm10,%ymm8
- .byte 197,61,213,198 // vpmullw %ymm6,%ymm8,%ymm8
- .byte 197,173,213,210 // vpmullw %ymm2,%ymm10,%ymm2
- .byte 196,193,109,253,212 // vpaddw %ymm12,%ymm2,%ymm2
- .byte 197,189,253,210 // vpaddw %ymm2,%ymm8,%ymm2
- .byte 197,237,113,210,8 // vpsrlw $0x8,%ymm2,%ymm2
- .byte 196,65,37,239,196 // vpxor %ymm12,%ymm11,%ymm8
- .byte 197,61,213,199 // vpmullw %ymm7,%ymm8,%ymm8
- .byte 197,165,213,219 // vpmullw %ymm3,%ymm11,%ymm3
- .byte 196,193,101,253,220 // vpaddw %ymm12,%ymm3,%ymm3
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 197,229,113,211,8 // vpsrlw $0x8,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 214 // (bad)
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,2 // incl (%rdx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,66,254 // incl -0x2(%rdx)
- .byte 255 // (bad)
- .byte 255,52,254 // pushq (%rsi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,38 // jmpq *(%rsi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,19 // callq *(%rbx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,142,254,255,255,122 // decl 0x7afffffe(%rsi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,102,254 // jmpq *-0x2(%rsi)
- .byte 255 // (bad)
- .byte 255,83,254 // callq *-0x2(%rbx)
- .byte 255 // (bad)
- .byte 255,215 // callq *%rdi
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,195 // inc %ebx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,175,254,255,255,156 // ljmp *-0x63000002(%rdi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_clamp_x_1_hsw_lowp
-.globl _sk_clamp_x_1_hsw_lowp
-FUNCTION(_sk_clamp_x_1_hsw_lowp)
-_sk_clamp_x_1_hsw_lowp:
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,24,167,0,0 // vbroadcastss 0xa718(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_repeat_x_1_hsw_lowp
-.globl _sk_repeat_x_1_hsw_lowp
-FUNCTION(_sk_repeat_x_1_hsw_lowp)
-_sk_repeat_x_1_hsw_lowp:
- .byte 196,99,125,8,192,1 // vroundps $0x1,%ymm0,%ymm8
- .byte 196,99,125,8,201,1 // vroundps $0x1,%ymm1,%ymm9
- .byte 196,193,124,92,192 // vsubps %ymm8,%ymm0,%ymm0
- .byte 196,193,116,92,201 // vsubps %ymm9,%ymm1,%ymm1
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,220,166,0,0 // vbroadcastss 0xa6dc(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_x_1_hsw_lowp
-.globl _sk_mirror_x_1_hsw_lowp
-FUNCTION(_sk_mirror_x_1_hsw_lowp)
-_sk_mirror_x_1_hsw_lowp:
- .byte 196,98,125,24,5,221,166,0,0 // vbroadcastss 0xa6dd(%rip),%ymm8 # 3c514 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
- .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
- .byte 196,98,125,24,13,174,166,0,0 // vbroadcastss 0xa6ae(%rip),%ymm9 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,65,116,89,209 // vmulps %ymm9,%ymm1,%ymm10
- .byte 196,65,124,89,201 // vmulps %ymm9,%ymm0,%ymm9
- .byte 196,67,125,8,201,1 // vroundps $0x1,%ymm9,%ymm9
- .byte 196,67,125,8,210,1 // vroundps $0x1,%ymm10,%ymm10
- .byte 196,65,44,88,210 // vaddps %ymm10,%ymm10,%ymm10
- .byte 196,65,52,88,201 // vaddps %ymm9,%ymm9,%ymm9
- .byte 196,193,124,92,193 // vsubps %ymm9,%ymm0,%ymm0
- .byte 196,193,116,92,202 // vsubps %ymm10,%ymm1,%ymm1
- .byte 196,193,116,88,200 // vaddps %ymm8,%ymm1,%ymm1
- .byte 196,193,124,88,192 // vaddps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,17,168,0,0 // vbroadcastss 0xa811(%rip),%ymm8 # 3c698 <_sk_srcover_bgra_8888_sse2_lowp+0x44c>
- .byte 196,193,124,84,192 // vandps %ymm8,%ymm0,%ymm0
- .byte 196,193,116,84,200 // vandps %ymm8,%ymm1,%ymm1
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,193,116,95,200 // vmaxps %ymm8,%ymm1,%ymm1
- .byte 196,193,124,95,192 // vmaxps %ymm8,%ymm0,%ymm0
- .byte 196,98,125,24,5,83,166,0,0 // vbroadcastss 0xa653(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 196,193,124,93,192 // vminps %ymm8,%ymm0,%ymm0
- .byte 196,193,116,93,200 // vminps %ymm8,%ymm1,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_hsw_lowp
-.globl _sk_decal_x_hsw_lowp
-FUNCTION(_sk_decal_x_hsw_lowp)
-_sk_decal_x_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,194,201,2 // vcmpleps %ymm1,%ymm8,%ymm9
- .byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
- .byte 196,65,49,99,202 // vpacksswb %xmm10,%xmm9,%xmm9
- .byte 197,121,111,21,74,183,0,0 // vmovdqa 0xb74a(%rip),%xmm10 # 3d620 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
- .byte 196,66,49,0,202 // vpshufb %xmm10,%xmm9,%xmm9
- .byte 197,60,194,192,2 // vcmpleps %ymm0,%ymm8,%ymm8
- .byte 196,67,125,25,195,1 // vextractf128 $0x1,%ymm8,%xmm11
- .byte 196,65,57,99,195 // vpacksswb %xmm11,%xmm8,%xmm8
- .byte 196,66,57,0,194 // vpshufb %xmm10,%xmm8,%xmm8
- .byte 196,65,57,108,193 // vpunpcklqdq %xmm9,%xmm8,%xmm8
- .byte 196,98,125,24,72,64 // vbroadcastss 0x40(%rax),%ymm9
- .byte 196,65,116,194,217,1 // vcmpltps %ymm9,%ymm1,%ymm11
- .byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12
- .byte 196,65,33,99,220 // vpacksswb %xmm12,%xmm11,%xmm11
- .byte 196,66,33,0,218 // vpshufb %xmm10,%xmm11,%xmm11
- .byte 196,65,124,194,201,1 // vcmpltps %ymm9,%ymm0,%ymm9
- .byte 196,67,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm12
- .byte 196,65,49,99,204 // vpacksswb %xmm12,%xmm9,%xmm9
- .byte 196,66,49,0,202 // vpshufb %xmm10,%xmm9,%xmm9
- .byte 196,65,49,108,203 // vpunpcklqdq %xmm11,%xmm9,%xmm9
- .byte 196,65,49,219,192 // vpand %xmm8,%xmm9,%xmm8
- .byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,193,61,113,240,15 // vpsllw $0xf,%ymm8,%ymm8
- .byte 196,193,61,113,224,15 // vpsraw $0xf,%ymm8,%ymm8
- .byte 197,126,127,0 // vmovdqu %ymm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_y_hsw_lowp
-.globl _sk_decal_y_hsw_lowp
-FUNCTION(_sk_decal_y_hsw_lowp)
-_sk_decal_y_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,60,194,203,2 // vcmpleps %ymm3,%ymm8,%ymm9
- .byte 196,67,125,25,202,1 // vextractf128 $0x1,%ymm9,%xmm10
- .byte 196,65,49,99,202 // vpacksswb %xmm10,%xmm9,%xmm9
- .byte 197,121,111,21,183,182,0,0 // vmovdqa 0xb6b7(%rip),%xmm10 # 3d620 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
- .byte 196,66,49,0,202 // vpshufb %xmm10,%xmm9,%xmm9
- .byte 197,60,194,194,2 // vcmpleps %ymm2,%ymm8,%ymm8
- .byte 196,67,125,25,195,1 // vextractf128 $0x1,%ymm8,%xmm11
- .byte 196,65,57,99,195 // vpacksswb %xmm11,%xmm8,%xmm8
- .byte 196,66,57,0,194 // vpshufb %xmm10,%xmm8,%xmm8
- .byte 196,65,57,108,193 // vpunpcklqdq %xmm9,%xmm8,%xmm8
- .byte 196,98,125,24,72,68 // vbroadcastss 0x44(%rax),%ymm9
- .byte 196,65,100,194,217,1 // vcmpltps %ymm9,%ymm3,%ymm11
- .byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12
- .byte 196,65,33,99,220 // vpacksswb %xmm12,%xmm11,%xmm11
- .byte 196,66,33,0,218 // vpshufb %xmm10,%xmm11,%xmm11
- .byte 196,65,108,194,201,1 // vcmpltps %ymm9,%ymm2,%ymm9
- .byte 196,67,125,25,204,1 // vextractf128 $0x1,%ymm9,%xmm12
- .byte 196,65,49,99,204 // vpacksswb %xmm12,%xmm9,%xmm9
- .byte 196,66,49,0,202 // vpshufb %xmm10,%xmm9,%xmm9
- .byte 196,65,49,108,203 // vpunpcklqdq %xmm11,%xmm9,%xmm9
- .byte 196,65,49,219,192 // vpand %xmm8,%xmm9,%xmm8
- .byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,193,61,113,240,15 // vpsllw $0xf,%ymm8,%ymm8
- .byte 196,193,61,113,224,15 // vpsraw $0xf,%ymm8,%ymm8
- .byte 197,126,127,0 // vmovdqu %ymm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_and_y_hsw_lowp
-.globl _sk_decal_x_and_y_hsw_lowp
-FUNCTION(_sk_decal_x_and_y_hsw_lowp)
-_sk_decal_x_and_y_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,52,194,193,2 // vcmpleps %ymm1,%ymm9,%ymm8
- .byte 196,67,125,25,194,1 // vextractf128 $0x1,%ymm8,%xmm10
- .byte 196,65,57,99,210 // vpacksswb %xmm10,%xmm8,%xmm10
- .byte 197,121,111,5,36,182,0,0 // vmovdqa 0xb624(%rip),%xmm8 # 3d620 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
- .byte 196,66,41,0,208 // vpshufb %xmm8,%xmm10,%xmm10
- .byte 197,52,194,216,2 // vcmpleps %ymm0,%ymm9,%ymm11
- .byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12
- .byte 196,65,33,99,220 // vpacksswb %xmm12,%xmm11,%xmm11
- .byte 196,66,33,0,216 // vpshufb %xmm8,%xmm11,%xmm11
- .byte 196,65,33,108,210 // vpunpcklqdq %xmm10,%xmm11,%xmm10
- .byte 196,98,125,24,88,64 // vbroadcastss 0x40(%rax),%ymm11
- .byte 196,65,116,194,227,1 // vcmpltps %ymm11,%ymm1,%ymm12
- .byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,65,25,99,229 // vpacksswb %xmm13,%xmm12,%xmm12
- .byte 196,66,25,0,224 // vpshufb %xmm8,%xmm12,%xmm12
- .byte 196,65,124,194,219,1 // vcmpltps %ymm11,%ymm0,%ymm11
- .byte 196,67,125,25,221,1 // vextractf128 $0x1,%ymm11,%xmm13
- .byte 196,65,33,99,221 // vpacksswb %xmm13,%xmm11,%xmm11
- .byte 196,66,33,0,216 // vpshufb %xmm8,%xmm11,%xmm11
- .byte 196,65,33,108,220 // vpunpcklqdq %xmm12,%xmm11,%xmm11
- .byte 197,52,194,227,2 // vcmpleps %ymm3,%ymm9,%ymm12
- .byte 196,67,125,25,229,1 // vextractf128 $0x1,%ymm12,%xmm13
- .byte 196,65,25,99,229 // vpacksswb %xmm13,%xmm12,%xmm12
- .byte 196,66,25,0,224 // vpshufb %xmm8,%xmm12,%xmm12
- .byte 197,52,194,202,2 // vcmpleps %ymm2,%ymm9,%ymm9
- .byte 196,67,125,25,205,1 // vextractf128 $0x1,%ymm9,%xmm13
- .byte 196,65,49,99,205 // vpacksswb %xmm13,%xmm9,%xmm9
- .byte 196,66,49,0,200 // vpshufb %xmm8,%xmm9,%xmm9
- .byte 196,65,49,108,204 // vpunpcklqdq %xmm12,%xmm9,%xmm9
- .byte 196,65,49,219,202 // vpand %xmm10,%xmm9,%xmm9
- .byte 196,65,49,219,203 // vpand %xmm11,%xmm9,%xmm9
- .byte 196,98,125,24,80,68 // vbroadcastss 0x44(%rax),%ymm10
- .byte 196,65,100,194,218,1 // vcmpltps %ymm10,%ymm3,%ymm11
- .byte 196,67,125,25,220,1 // vextractf128 $0x1,%ymm11,%xmm12
- .byte 196,65,33,99,220 // vpacksswb %xmm12,%xmm11,%xmm11
- .byte 196,66,33,0,216 // vpshufb %xmm8,%xmm11,%xmm11
- .byte 196,65,108,194,210,1 // vcmpltps %ymm10,%ymm2,%ymm10
- .byte 196,67,125,25,212,1 // vextractf128 $0x1,%ymm10,%xmm12
- .byte 196,65,41,99,212 // vpacksswb %xmm12,%xmm10,%xmm10
- .byte 196,66,41,0,192 // vpshufb %xmm8,%xmm10,%xmm8
- .byte 196,65,57,108,195 // vpunpcklqdq %xmm11,%xmm8,%xmm8
- .byte 196,65,49,219,192 // vpand %xmm8,%xmm9,%xmm8
- .byte 196,66,125,48,192 // vpmovzxbw %xmm8,%ymm8
- .byte 196,193,61,113,240,15 // vpsllw $0xf,%ymm8,%ymm8
- .byte 196,193,61,113,224,15 // vpsraw $0xf,%ymm8,%ymm8
- .byte 197,126,127,0 // vmovdqu %ymm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_check_decal_mask_hsw_lowp
-.globl _sk_check_decal_mask_hsw_lowp
-FUNCTION(_sk_check_decal_mask_hsw_lowp)
-_sk_check_decal_mask_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,124,16,0 // vmovups (%rax),%ymm8
- .byte 197,188,84,192 // vandps %ymm0,%ymm8,%ymm0
- .byte 197,188,84,201 // vandps %ymm1,%ymm8,%ymm1
- .byte 197,188,84,210 // vandps %ymm2,%ymm8,%ymm2
- .byte 197,188,84,219 // vandps %ymm3,%ymm8,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gradient_hsw_lowp
-.globl _sk_gradient_hsw_lowp
-FUNCTION(_sk_gradient_hsw_lowp)
-_sk_gradient_hsw_lowp:
- .byte 72,129,236,152,0,0,0 // sub $0x98,%rsp
- .byte 197,254,127,124,36,96 // vmovdqu %ymm7,0x60(%rsp)
- .byte 197,252,17,116,36,64 // vmovups %ymm6,0x40(%rsp)
- .byte 197,254,127,108,36,32 // vmovdqu %ymm5,0x20(%rsp)
- .byte 197,254,127,36,36 // vmovdqu %ymm4,(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 73,131,248,2 // cmp $0x2,%r8
- .byte 114,60 // jb 32167 <_sk_gradient_hsw_lowp+0x6d>
- .byte 76,139,72,72 // mov 0x48(%rax),%r9
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 65,186,1,0,0,0 // mov $0x1,%r10d
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,130,125,24,20,145 // vbroadcastss (%r9,%r10,4),%ymm2
- .byte 197,236,194,216,2 // vcmpleps %ymm0,%ymm2,%ymm3
- .byte 197,197,250,251 // vpsubd %ymm3,%ymm7,%ymm7
- .byte 197,236,194,209,2 // vcmpleps %ymm1,%ymm2,%ymm2
- .byte 197,213,250,234 // vpsubd %ymm2,%ymm5,%ymm5
- .byte 73,255,194 // inc %r10
- .byte 77,57,208 // cmp %r10,%r8
- .byte 117,224 // jne 3213d <_sk_gradient_hsw_lowp+0x43>
- .byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,135,180,0,0,0 // ja 3221b <_sk_gradient_hsw_lowp+0x121>
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 196,193,124,16,24 // vmovups (%r8),%ymm3
- .byte 196,226,69,22,211 // vpermps %ymm3,%ymm7,%ymm2
- .byte 196,226,85,22,219 // vpermps %ymm3,%ymm5,%ymm3
- .byte 76,139,64,40 // mov 0x28(%rax),%r8
- .byte 196,193,124,16,32 // vmovups (%r8),%ymm4
- .byte 196,98,69,22,244 // vpermps %ymm4,%ymm7,%ymm14
- .byte 196,226,85,22,228 // vpermps %ymm4,%ymm5,%ymm4
- .byte 197,252,17,100,36,224 // vmovups %ymm4,-0x20(%rsp)
- .byte 196,193,124,16,33 // vmovups (%r9),%ymm4
- .byte 196,98,69,22,196 // vpermps %ymm4,%ymm7,%ymm8
- .byte 196,98,85,22,204 // vpermps %ymm4,%ymm5,%ymm9
- .byte 76,139,64,48 // mov 0x30(%rax),%r8
- .byte 196,193,124,16,32 // vmovups (%r8),%ymm4
- .byte 196,98,69,22,236 // vpermps %ymm4,%ymm7,%ymm13
- .byte 196,226,85,22,228 // vpermps %ymm4,%ymm5,%ymm4
- .byte 197,252,17,100,36,128 // vmovups %ymm4,-0x80(%rsp)
- .byte 76,139,64,24 // mov 0x18(%rax),%r8
- .byte 196,193,124,16,32 // vmovups (%r8),%ymm4
- .byte 196,98,69,22,212 // vpermps %ymm4,%ymm7,%ymm10
- .byte 196,98,85,22,220 // vpermps %ymm4,%ymm5,%ymm11
- .byte 76,139,64,56 // mov 0x38(%rax),%r8
- .byte 196,193,124,16,48 // vmovups (%r8),%ymm6
- .byte 196,226,69,22,230 // vpermps %ymm6,%ymm7,%ymm4
- .byte 196,226,85,22,246 // vpermps %ymm6,%ymm5,%ymm6
- .byte 76,139,64,32 // mov 0x20(%rax),%r8
- .byte 196,65,124,16,32 // vmovups (%r8),%ymm12
- .byte 196,66,69,22,252 // vpermps %ymm12,%ymm7,%ymm15
- .byte 197,124,17,124,36,192 // vmovups %ymm15,-0x40(%rsp)
- .byte 196,66,85,22,228 // vpermps %ymm12,%ymm5,%ymm12
- .byte 197,124,17,100,36,160 // vmovups %ymm12,-0x60(%rsp)
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 197,124,16,56 // vmovups (%rax),%ymm15
- .byte 196,66,69,22,231 // vpermps %ymm15,%ymm7,%ymm12
- .byte 196,194,85,22,255 // vpermps %ymm15,%ymm5,%ymm7
- .byte 233,34,1,0,0 // jmpq 3233d <_sk_gradient_hsw_lowp+0x243>
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 196,194,101,146,20,184 // vgatherdps %ymm3,(%r8,%ymm7,4),%ymm2
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 196,194,93,146,28,168 // vgatherdps %ymm4,(%r8,%ymm5,4),%ymm3
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 196,66,93,146,4,185 // vgatherdps %ymm4,(%r9,%ymm7,4),%ymm8
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,66,93,146,12,169 // vgatherdps %ymm4,(%r9,%ymm5,4),%ymm9
- .byte 76,139,64,24 // mov 0x18(%rax),%r8
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 196,66,93,146,20,184 // vgatherdps %ymm4,(%r8,%ymm7,4),%ymm10
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
- .byte 196,66,93,146,28,168 // vgatherdps %ymm4,(%r8,%ymm5,4),%ymm11
- .byte 76,139,64,32 // mov 0x20(%rax),%r8
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 196,194,93,146,52,184 // vgatherdps %ymm4,(%r8,%ymm7,4),%ymm6
- .byte 197,252,17,116,36,192 // vmovups %ymm6,-0x40(%rsp)
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 196,194,93,146,52,168 // vgatherdps %ymm4,(%r8,%ymm5,4),%ymm6
- .byte 197,252,17,116,36,160 // vmovups %ymm6,-0x60(%rsp)
- .byte 76,139,64,40 // mov 0x28(%rax),%r8
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,65,12,87,246 // vxorps %ymm14,%ymm14,%ymm14
- .byte 196,66,93,146,52,184 // vgatherdps %ymm4,(%r8,%ymm7,4),%ymm14
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 196,194,93,146,52,168 // vgatherdps %ymm4,(%r8,%ymm5,4),%ymm6
- .byte 197,252,17,116,36,224 // vmovups %ymm6,-0x20(%rsp)
- .byte 76,139,64,48 // mov 0x30(%rax),%r8
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
- .byte 196,66,93,146,44,184 // vgatherdps %ymm4,(%r8,%ymm7,4),%ymm13
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 196,194,93,146,52,168 // vgatherdps %ymm4,(%r8,%ymm5,4),%ymm6
- .byte 197,252,17,116,36,128 // vmovups %ymm6,-0x80(%rsp)
- .byte 76,139,64,56 // mov 0x38(%rax),%r8
- .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 196,194,77,146,36,184 // vgatherdps %ymm6,(%r8,%ymm7,4),%ymm4
- .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 196,194,29,146,52,168 // vgatherdps %ymm12,(%r8,%ymm5,4),%ymm6
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
- .byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
- .byte 196,98,5,146,36,184 // vgatherdps %ymm15,(%rax,%ymm7,4),%ymm12
- .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 196,226,5,146,60,168 // vgatherdps %ymm15,(%rax,%ymm5,4),%ymm7
- .byte 196,194,125,168,214 // vfmadd213ps %ymm14,%ymm0,%ymm2
- .byte 196,66,125,168,197 // vfmadd213ps %ymm13,%ymm0,%ymm8
- .byte 196,98,125,168,212 // vfmadd213ps %ymm4,%ymm0,%ymm10
- .byte 196,98,125,184,100,36,192 // vfmadd231ps -0x40(%rsp),%ymm0,%ymm12
- .byte 196,226,117,168,92,36,224 // vfmadd213ps -0x20(%rsp),%ymm1,%ymm3
- .byte 196,98,117,168,76,36,128 // vfmadd213ps -0x80(%rsp),%ymm1,%ymm9
- .byte 196,98,117,168,222 // vfmadd213ps %ymm6,%ymm1,%ymm11
- .byte 196,226,117,184,124,36,160 // vfmadd231ps -0x60(%rsp),%ymm1,%ymm7
- .byte 196,226,125,24,5,178,161,0,0 // vbroadcastss 0xa1b2(%rip),%ymm0 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,226,125,24,13,121,161,0,0 // vbroadcastss 0xa179(%rip),%ymm1 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,226,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm3
- .byte 196,226,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm2
- .byte 196,98,125,168,201 // vfmadd213ps %ymm1,%ymm0,%ymm9
- .byte 196,98,125,168,193 // vfmadd213ps %ymm1,%ymm0,%ymm8
- .byte 196,98,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm11
- .byte 196,98,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm10
- .byte 196,226,125,168,249 // vfmadd213ps %ymm1,%ymm0,%ymm7
- .byte 196,98,125,168,225 // vfmadd213ps %ymm1,%ymm0,%ymm12
- .byte 197,254,91,194 // vcvttps2dq %ymm2,%ymm0
- .byte 197,253,111,37,45,170,0,0 // vmovdqa 0xaa2d(%rip),%ymm4 # 3cde0 <_sk_srcover_bgra_8888_sse2_lowp+0xb94>
- .byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
- .byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
- .byte 197,254,91,203 // vcvttps2dq %ymm3,%ymm1
- .byte 196,226,117,0,204 // vpshufb %ymm4,%ymm1,%ymm1
- .byte 196,227,253,0,201,232 // vpermq $0xe8,%ymm1,%ymm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,193,126,91,200 // vcvttps2dq %ymm8,%ymm1
- .byte 196,226,117,0,204 // vpshufb %ymm4,%ymm1,%ymm1
- .byte 196,227,253,0,201,232 // vpermq $0xe8,%ymm1,%ymm1
- .byte 196,193,126,91,209 // vcvttps2dq %ymm9,%ymm2
- .byte 196,226,109,0,212 // vpshufb %ymm4,%ymm2,%ymm2
- .byte 196,227,253,0,210,232 // vpermq $0xe8,%ymm2,%ymm2
- .byte 196,227,117,56,202,1 // vinserti128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,193,126,91,210 // vcvttps2dq %ymm10,%ymm2
- .byte 196,226,109,0,212 // vpshufb %ymm4,%ymm2,%ymm2
- .byte 196,227,253,0,210,232 // vpermq $0xe8,%ymm2,%ymm2
- .byte 196,193,126,91,219 // vcvttps2dq %ymm11,%ymm3
- .byte 196,226,101,0,220 // vpshufb %ymm4,%ymm3,%ymm3
- .byte 196,227,253,0,219,232 // vpermq $0xe8,%ymm3,%ymm3
- .byte 196,227,109,56,211,1 // vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,193,126,91,220 // vcvttps2dq %ymm12,%ymm3
- .byte 196,226,101,0,220 // vpshufb %ymm4,%ymm3,%ymm3
- .byte 197,254,91,239 // vcvttps2dq %ymm7,%ymm5
- .byte 196,226,85,0,228 // vpshufb %ymm4,%ymm5,%ymm4
- .byte 196,227,253,0,219,232 // vpermq $0xe8,%ymm3,%ymm3
- .byte 196,227,253,0,228,232 // vpermq $0xe8,%ymm4,%ymm4
- .byte 196,227,101,56,220,1 // vinserti128 $0x1,%xmm4,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,36,36 // vmovups (%rsp),%ymm4
- .byte 197,252,16,108,36,32 // vmovups 0x20(%rsp),%ymm5
- .byte 197,252,16,116,36,64 // vmovups 0x40(%rsp),%ymm6
- .byte 197,252,16,124,36,96 // vmovups 0x60(%rsp),%ymm7
- .byte 72,129,196,152,0,0,0 // add $0x98,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_gradient_hsw_lowp
-.globl _sk_evenly_spaced_gradient_hsw_lowp
-FUNCTION(_sk_evenly_spaced_gradient_hsw_lowp)
-_sk_evenly_spaced_gradient_hsw_lowp:
- .byte 72,129,236,152,0,0,0 // sub $0x98,%rsp
- .byte 197,252,17,124,36,96 // vmovups %ymm7,0x60(%rsp)
- .byte 197,252,17,116,36,64 // vmovups %ymm6,0x40(%rsp)
- .byte 197,252,17,108,36,32 // vmovups %ymm5,0x20(%rsp)
- .byte 197,254,127,36,36 // vmovdqu %ymm4,(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 77,137,193 // mov %r8,%r9
- .byte 73,255,201 // dec %r9
- .byte 120,7 // js 32498 <_sk_evenly_spaced_gradient_hsw_lowp+0x32>
- .byte 196,193,234,42,209 // vcvtsi2ss %r9,%xmm2,%xmm2
- .byte 235,22 // jmp 324ae <_sk_evenly_spaced_gradient_hsw_lowp+0x48>
- .byte 77,137,202 // mov %r9,%r10
- .byte 73,209,234 // shr %r10
- .byte 65,131,225,1 // and $0x1,%r9d
- .byte 77,9,209 // or %r10,%r9
- .byte 196,193,234,42,209 // vcvtsi2ss %r9,%xmm2,%xmm2
- .byte 197,234,88,210 // vaddss %xmm2,%xmm2,%xmm2
- .byte 196,226,125,24,210 // vbroadcastss %xmm2,%ymm2
- .byte 197,252,89,218 // vmulps %ymm2,%ymm0,%ymm3
- .byte 197,244,89,210 // vmulps %ymm2,%ymm1,%ymm2
- .byte 197,126,91,242 // vcvttps2dq %ymm2,%ymm14
- .byte 197,254,91,251 // vcvttps2dq %ymm3,%ymm7
- .byte 73,131,248,8 // cmp $0x8,%r8
- .byte 15,135,180,0,0,0 // ja 32581 <_sk_evenly_spaced_gradient_hsw_lowp+0x11b>
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 196,193,124,16,24 // vmovups (%r8),%ymm3
- .byte 196,226,69,22,211 // vpermps %ymm3,%ymm7,%ymm2
- .byte 196,226,13,22,219 // vpermps %ymm3,%ymm14,%ymm3
- .byte 76,139,64,40 // mov 0x28(%rax),%r8
- .byte 196,193,124,16,32 // vmovups (%r8),%ymm4
- .byte 196,98,69,22,236 // vpermps %ymm4,%ymm7,%ymm13
- .byte 196,226,13,22,228 // vpermps %ymm4,%ymm14,%ymm4
- .byte 197,252,17,100,36,224 // vmovups %ymm4,-0x20(%rsp)
- .byte 196,193,124,16,33 // vmovups (%r9),%ymm4
- .byte 196,98,69,22,196 // vpermps %ymm4,%ymm7,%ymm8
- .byte 196,98,13,22,204 // vpermps %ymm4,%ymm14,%ymm9
- .byte 76,139,64,48 // mov 0x30(%rax),%r8
- .byte 196,193,124,16,40 // vmovups (%r8),%ymm5
- .byte 196,226,69,22,229 // vpermps %ymm5,%ymm7,%ymm4
- .byte 196,226,13,22,237 // vpermps %ymm5,%ymm14,%ymm5
- .byte 197,252,17,108,36,128 // vmovups %ymm5,-0x80(%rsp)
- .byte 76,139,64,24 // mov 0x18(%rax),%r8
- .byte 196,193,124,16,40 // vmovups (%r8),%ymm5
- .byte 196,98,69,22,213 // vpermps %ymm5,%ymm7,%ymm10
- .byte 196,98,13,22,221 // vpermps %ymm5,%ymm14,%ymm11
- .byte 76,139,64,56 // mov 0x38(%rax),%r8
- .byte 196,193,124,16,48 // vmovups (%r8),%ymm6
- .byte 196,226,69,22,238 // vpermps %ymm6,%ymm7,%ymm5
- .byte 196,226,13,22,246 // vpermps %ymm6,%ymm14,%ymm6
- .byte 76,139,64,32 // mov 0x20(%rax),%r8
- .byte 196,65,124,16,32 // vmovups (%r8),%ymm12
- .byte 196,66,69,22,252 // vpermps %ymm12,%ymm7,%ymm15
- .byte 197,124,17,124,36,192 // vmovups %ymm15,-0x40(%rsp)
- .byte 196,66,13,22,228 // vpermps %ymm12,%ymm14,%ymm12
- .byte 197,124,17,100,36,160 // vmovups %ymm12,-0x60(%rsp)
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 197,124,16,56 // vmovups (%rax),%ymm15
- .byte 196,66,69,22,231 // vpermps %ymm15,%ymm7,%ymm12
- .byte 196,194,13,22,255 // vpermps %ymm15,%ymm14,%ymm7
- .byte 233,33,1,0,0 // jmpq 326a2 <_sk_evenly_spaced_gradient_hsw_lowp+0x23c>
- .byte 76,139,64,8 // mov 0x8(%rax),%r8
- .byte 76,139,72,16 // mov 0x10(%rax),%r9
- .byte 197,236,87,210 // vxorps %ymm2,%ymm2,%ymm2
- .byte 197,229,118,219 // vpcmpeqd %ymm3,%ymm3,%ymm3
- .byte 196,194,101,146,20,184 // vgatherdps %ymm3,(%r8,%ymm7,4),%ymm2
- .byte 197,228,87,219 // vxorps %ymm3,%ymm3,%ymm3
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,130,93,146,28,176 // vgatherdps %ymm4,(%r8,%ymm14,4),%ymm3
- .byte 196,65,60,87,192 // vxorps %ymm8,%ymm8,%ymm8
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,66,93,146,4,185 // vgatherdps %ymm4,(%r9,%ymm7,4),%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,2,93,146,12,177 // vgatherdps %ymm4,(%r9,%ymm14,4),%ymm9
- .byte 76,139,64,24 // mov 0x18(%rax),%r8
- .byte 196,65,44,87,210 // vxorps %ymm10,%ymm10,%ymm10
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,66,93,146,20,184 // vgatherdps %ymm4,(%r8,%ymm7,4),%ymm10
- .byte 196,65,36,87,219 // vxorps %ymm11,%ymm11,%ymm11
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,2,93,146,28,176 // vgatherdps %ymm4,(%r8,%ymm14,4),%ymm11
- .byte 76,139,64,32 // mov 0x20(%rax),%r8
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,194,93,146,44,184 // vgatherdps %ymm4,(%r8,%ymm7,4),%ymm5
- .byte 197,252,17,108,36,192 // vmovups %ymm5,-0x40(%rsp)
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,130,93,146,44,176 // vgatherdps %ymm4,(%r8,%ymm14,4),%ymm5
- .byte 197,252,17,108,36,160 // vmovups %ymm5,-0x60(%rsp)
- .byte 76,139,64,40 // mov 0x28(%rax),%r8
- .byte 196,65,20,87,237 // vxorps %ymm13,%ymm13,%ymm13
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,66,93,146,44,184 // vgatherdps %ymm4,(%r8,%ymm7,4),%ymm13
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,221,118,228 // vpcmpeqd %ymm4,%ymm4,%ymm4
- .byte 196,130,93,146,44,176 // vgatherdps %ymm4,(%r8,%ymm14,4),%ymm5
- .byte 197,252,17,108,36,224 // vmovups %ymm5,-0x20(%rsp)
- .byte 76,139,64,48 // mov 0x30(%rax),%r8
- .byte 197,220,87,228 // vxorps %ymm4,%ymm4,%ymm4
- .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
- .byte 196,194,85,146,36,184 // vgatherdps %ymm5,(%r8,%ymm7,4),%ymm4
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 197,213,118,237 // vpcmpeqd %ymm5,%ymm5,%ymm5
- .byte 196,130,85,146,52,176 // vgatherdps %ymm5,(%r8,%ymm14,4),%ymm6
- .byte 197,252,17,116,36,128 // vmovups %ymm6,-0x80(%rsp)
- .byte 76,139,64,56 // mov 0x38(%rax),%r8
- .byte 197,212,87,237 // vxorps %ymm5,%ymm5,%ymm5
- .byte 197,205,118,246 // vpcmpeqd %ymm6,%ymm6,%ymm6
- .byte 196,194,77,146,44,184 // vgatherdps %ymm6,(%r8,%ymm7,4),%ymm5
- .byte 197,204,87,246 // vxorps %ymm6,%ymm6,%ymm6
- .byte 196,65,29,118,228 // vpcmpeqd %ymm12,%ymm12,%ymm12
- .byte 196,130,29,146,52,176 // vgatherdps %ymm12,(%r8,%ymm14,4),%ymm6
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 196,65,28,87,228 // vxorps %ymm12,%ymm12,%ymm12
- .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
- .byte 196,98,5,146,36,184 // vgatherdps %ymm15,(%rax,%ymm7,4),%ymm12
- .byte 196,65,5,118,255 // vpcmpeqd %ymm15,%ymm15,%ymm15
- .byte 197,196,87,255 // vxorps %ymm7,%ymm7,%ymm7
- .byte 196,162,5,146,60,176 // vgatherdps %ymm15,(%rax,%ymm14,4),%ymm7
- .byte 196,194,125,168,213 // vfmadd213ps %ymm13,%ymm0,%ymm2
- .byte 196,98,125,168,196 // vfmadd213ps %ymm4,%ymm0,%ymm8
- .byte 196,98,125,168,213 // vfmadd213ps %ymm5,%ymm0,%ymm10
- .byte 196,98,125,184,100,36,192 // vfmadd231ps -0x40(%rsp),%ymm0,%ymm12
- .byte 196,226,117,168,92,36,224 // vfmadd213ps -0x20(%rsp),%ymm1,%ymm3
- .byte 196,98,117,168,76,36,128 // vfmadd213ps -0x80(%rsp),%ymm1,%ymm9
- .byte 196,98,117,168,222 // vfmadd213ps %ymm6,%ymm1,%ymm11
- .byte 196,226,117,184,124,36,160 // vfmadd231ps -0x60(%rsp),%ymm1,%ymm7
- .byte 196,226,125,24,5,77,158,0,0 // vbroadcastss 0x9e4d(%rip),%ymm0 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,226,125,24,13,20,158,0,0 // vbroadcastss 0x9e14(%rip),%ymm1 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,226,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm3
- .byte 196,226,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm2
- .byte 196,98,125,168,201 // vfmadd213ps %ymm1,%ymm0,%ymm9
- .byte 196,98,125,168,193 // vfmadd213ps %ymm1,%ymm0,%ymm8
- .byte 196,98,125,168,217 // vfmadd213ps %ymm1,%ymm0,%ymm11
- .byte 196,98,125,168,209 // vfmadd213ps %ymm1,%ymm0,%ymm10
- .byte 196,226,125,168,249 // vfmadd213ps %ymm1,%ymm0,%ymm7
- .byte 196,98,125,168,225 // vfmadd213ps %ymm1,%ymm0,%ymm12
- .byte 197,254,91,194 // vcvttps2dq %ymm2,%ymm0
- .byte 197,253,111,37,232,166,0,0 // vmovdqa 0xa6e8(%rip),%ymm4 # 3ce00 <_sk_srcover_bgra_8888_sse2_lowp+0xbb4>
- .byte 196,226,125,0,196 // vpshufb %ymm4,%ymm0,%ymm0
- .byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
- .byte 197,254,91,203 // vcvttps2dq %ymm3,%ymm1
- .byte 196,226,117,0,204 // vpshufb %ymm4,%ymm1,%ymm1
- .byte 196,227,253,0,201,232 // vpermq $0xe8,%ymm1,%ymm1
- .byte 196,227,125,56,193,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- .byte 196,193,126,91,200 // vcvttps2dq %ymm8,%ymm1
- .byte 196,226,117,0,204 // vpshufb %ymm4,%ymm1,%ymm1
- .byte 196,227,253,0,201,232 // vpermq $0xe8,%ymm1,%ymm1
- .byte 196,193,126,91,209 // vcvttps2dq %ymm9,%ymm2
- .byte 196,226,109,0,212 // vpshufb %ymm4,%ymm2,%ymm2
- .byte 196,227,253,0,210,232 // vpermq $0xe8,%ymm2,%ymm2
- .byte 196,227,117,56,202,1 // vinserti128 $0x1,%xmm2,%ymm1,%ymm1
- .byte 196,193,126,91,210 // vcvttps2dq %ymm10,%ymm2
- .byte 196,226,109,0,212 // vpshufb %ymm4,%ymm2,%ymm2
- .byte 196,227,253,0,210,232 // vpermq $0xe8,%ymm2,%ymm2
- .byte 196,193,126,91,219 // vcvttps2dq %ymm11,%ymm3
- .byte 196,226,101,0,220 // vpshufb %ymm4,%ymm3,%ymm3
- .byte 196,227,253,0,219,232 // vpermq $0xe8,%ymm3,%ymm3
- .byte 196,227,109,56,211,1 // vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- .byte 196,193,126,91,220 // vcvttps2dq %ymm12,%ymm3
- .byte 196,226,101,0,220 // vpshufb %ymm4,%ymm3,%ymm3
- .byte 197,254,91,239 // vcvttps2dq %ymm7,%ymm5
- .byte 196,226,85,0,228 // vpshufb %ymm4,%ymm5,%ymm4
- .byte 196,227,253,0,219,232 // vpermq $0xe8,%ymm3,%ymm3
- .byte 196,227,253,0,228,232 // vpermq $0xe8,%ymm4,%ymm4
- .byte 196,227,101,56,220,1 // vinserti128 $0x1,%xmm4,%ymm3,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,16,36,36 // vmovups (%rsp),%ymm4
- .byte 197,252,16,108,36,32 // vmovups 0x20(%rsp),%ymm5
- .byte 197,252,16,116,36,64 // vmovups 0x40(%rsp),%ymm6
- .byte 197,252,16,124,36,96 // vmovups 0x60(%rsp),%ymm7
- .byte 72,129,196,152,0,0,0 // add $0x98,%rsp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_2_stop_gradient_hsw_lowp
-.globl _sk_evenly_spaced_2_stop_gradient_hsw_lowp
-FUNCTION(_sk_evenly_spaced_2_stop_gradient_hsw_lowp)
-_sk_evenly_spaced_2_stop_gradient_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 196,226,125,24,16 // vbroadcastss (%rax),%ymm2
- .byte 196,226,125,24,88,16 // vbroadcastss 0x10(%rax),%ymm3
- .byte 197,124,40,194 // vmovaps %ymm2,%ymm8
- .byte 196,98,125,168,195 // vfmadd213ps %ymm3,%ymm0,%ymm8
- .byte 196,226,117,168,211 // vfmadd213ps %ymm3,%ymm1,%ymm2
- .byte 196,226,125,24,29,57,157,0,0 // vbroadcastss 0x9d39(%rip),%ymm3 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 196,98,125,24,29,0,157,0,0 // vbroadcastss 0x9d00(%rip),%ymm11 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 196,194,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm2
- .byte 196,66,101,168,195 // vfmadd213ps %ymm11,%ymm3,%ymm8
- .byte 196,65,126,91,192 // vcvttps2dq %ymm8,%ymm8
- .byte 197,125,111,21,17,166,0,0 // vmovdqa 0xa611(%rip),%ymm10 # 3ce20 <_sk_srcover_bgra_8888_sse2_lowp+0xbd4>
- .byte 196,66,61,0,194 // vpshufb %ymm10,%ymm8,%ymm8
- .byte 196,67,253,0,192,232 // vpermq $0xe8,%ymm8,%ymm8
- .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
- .byte 196,194,109,0,210 // vpshufb %ymm10,%ymm2,%ymm2
- .byte 196,227,253,0,210,232 // vpermq $0xe8,%ymm2,%ymm2
- .byte 196,99,61,56,194,1 // vinserti128 $0x1,%xmm2,%ymm8,%ymm8
- .byte 196,226,125,24,80,4 // vbroadcastss 0x4(%rax),%ymm2
- .byte 196,98,125,24,72,20 // vbroadcastss 0x14(%rax),%ymm9
- .byte 197,124,40,226 // vmovaps %ymm2,%ymm12
- .byte 196,66,125,168,225 // vfmadd213ps %ymm9,%ymm0,%ymm12
- .byte 196,194,117,168,209 // vfmadd213ps %ymm9,%ymm1,%ymm2
- .byte 196,194,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm2
- .byte 196,66,101,168,227 // vfmadd213ps %ymm11,%ymm3,%ymm12
- .byte 196,65,126,91,204 // vcvttps2dq %ymm12,%ymm9
- .byte 196,66,53,0,202 // vpshufb %ymm10,%ymm9,%ymm9
- .byte 196,67,253,0,201,232 // vpermq $0xe8,%ymm9,%ymm9
- .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
- .byte 196,194,109,0,210 // vpshufb %ymm10,%ymm2,%ymm2
- .byte 196,227,253,0,210,232 // vpermq $0xe8,%ymm2,%ymm2
- .byte 196,99,53,56,202,1 // vinserti128 $0x1,%xmm2,%ymm9,%ymm9
- .byte 196,226,125,24,80,8 // vbroadcastss 0x8(%rax),%ymm2
- .byte 196,98,125,24,96,24 // vbroadcastss 0x18(%rax),%ymm12
- .byte 197,124,40,234 // vmovaps %ymm2,%ymm13
- .byte 196,66,125,168,236 // vfmadd213ps %ymm12,%ymm0,%ymm13
- .byte 196,194,117,168,212 // vfmadd213ps %ymm12,%ymm1,%ymm2
- .byte 196,194,101,168,211 // vfmadd213ps %ymm11,%ymm3,%ymm2
- .byte 196,66,101,168,235 // vfmadd213ps %ymm11,%ymm3,%ymm13
- .byte 196,65,126,91,229 // vcvttps2dq %ymm13,%ymm12
- .byte 196,66,29,0,226 // vpshufb %ymm10,%ymm12,%ymm12
- .byte 196,67,253,0,228,232 // vpermq $0xe8,%ymm12,%ymm12
- .byte 197,254,91,210 // vcvttps2dq %ymm2,%ymm2
- .byte 196,194,109,0,210 // vpshufb %ymm10,%ymm2,%ymm2
- .byte 196,227,253,0,210,232 // vpermq $0xe8,%ymm2,%ymm2
- .byte 196,227,29,56,210,1 // vinserti128 $0x1,%xmm2,%ymm12,%ymm2
- .byte 196,98,125,24,96,12 // vbroadcastss 0xc(%rax),%ymm12
- .byte 196,98,125,24,104,28 // vbroadcastss 0x1c(%rax),%ymm13
- .byte 196,194,29,168,197 // vfmadd213ps %ymm13,%ymm12,%ymm0
- .byte 196,66,117,168,229 // vfmadd213ps %ymm13,%ymm1,%ymm12
- .byte 196,66,101,168,227 // vfmadd213ps %ymm11,%ymm3,%ymm12
- .byte 196,194,101,168,195 // vfmadd213ps %ymm11,%ymm3,%ymm0
- .byte 197,254,91,192 // vcvttps2dq %ymm0,%ymm0
- .byte 196,194,125,0,194 // vpshufb %ymm10,%ymm0,%ymm0
- .byte 196,227,253,0,192,232 // vpermq $0xe8,%ymm0,%ymm0
- .byte 196,193,126,91,204 // vcvttps2dq %ymm12,%ymm1
- .byte 196,194,117,0,202 // vpshufb %ymm10,%ymm1,%ymm1
- .byte 196,227,253,0,201,232 // vpermq $0xe8,%ymm1,%ymm1
- .byte 196,227,125,56,217,1 // vinserti128 $0x1,%xmm1,%ymm0,%ymm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,125,127,192 // vmovdqa %ymm8,%ymm0
- .byte 197,125,127,201 // vmovdqa %ymm9,%ymm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_unit_angle_hsw_lowp
-.globl _sk_xy_to_unit_angle_hsw_lowp
-FUNCTION(_sk_xy_to_unit_angle_hsw_lowp)
-_sk_xy_to_unit_angle_hsw_lowp:
- .byte 197,252,17,124,36,200 // vmovups %ymm7,-0x38(%rsp)
- .byte 197,252,40,254 // vmovaps %ymm6,%ymm7
- .byte 197,252,40,245 // vmovaps %ymm5,%ymm6
- .byte 197,252,40,236 // vmovaps %ymm4,%ymm5
- .byte 197,252,40,227 // vmovaps %ymm3,%ymm4
- .byte 197,252,40,217 // vmovaps %ymm1,%ymm3
- .byte 197,252,40,200 // vmovaps %ymm0,%ymm1
- .byte 196,98,125,24,5,95,157,0,0 // vbroadcastss 0x9d5f(%rip),%ymm8 # 3c698 <_sk_srcover_bgra_8888_sse2_lowp+0x44c>
- .byte 196,65,116,84,200 // vandps %ymm8,%ymm1,%ymm9
- .byte 196,65,100,84,208 // vandps %ymm8,%ymm3,%ymm10
- .byte 196,65,108,84,216 // vandps %ymm8,%ymm2,%ymm11
- .byte 196,65,92,84,192 // vandps %ymm8,%ymm4,%ymm8
- .byte 196,65,44,194,224,1 // vcmpltps %ymm8,%ymm10,%ymm12
- .byte 196,65,52,194,235,1 // vcmpltps %ymm11,%ymm9,%ymm13
- .byte 196,67,37,74,241,208 // vblendvps %ymm13,%ymm9,%ymm11,%ymm14
- .byte 196,67,61,74,250,192 // vblendvps %ymm12,%ymm10,%ymm8,%ymm15
- .byte 196,67,53,74,203,208 // vblendvps %ymm13,%ymm11,%ymm9,%ymm9
- .byte 196,65,12,94,201 // vdivps %ymm9,%ymm14,%ymm9
- .byte 196,67,45,74,192,192 // vblendvps %ymm12,%ymm8,%ymm10,%ymm8
- .byte 196,65,4,94,192 // vdivps %ymm8,%ymm15,%ymm8
- .byte 196,65,60,89,208 // vmulps %ymm8,%ymm8,%ymm10
- .byte 196,98,125,24,29,175,156,0,0 // vbroadcastss 0x9caf(%rip),%ymm11 # 3c638 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
- .byte 196,98,125,24,53,170,156,0,0 // vbroadcastss 0x9caa(%rip),%ymm14 # 3c63c <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
- .byte 196,65,124,40,251 // vmovaps %ymm11,%ymm15
- .byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
- .byte 196,193,52,89,193 // vmulps %ymm9,%ymm9,%ymm0
- .byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
- .byte 196,98,125,24,53,145,156,0,0 // vbroadcastss 0x9c91(%rip),%ymm14 # 3c640 <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
- .byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
- .byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
- .byte 196,98,125,24,53,130,156,0,0 // vbroadcastss 0x9c82(%rip),%ymm14 # 3c644 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
- .byte 196,66,45,168,254 // vfmadd213ps %ymm14,%ymm10,%ymm15
- .byte 196,66,125,168,222 // vfmadd213ps %ymm14,%ymm0,%ymm11
- .byte 196,193,52,89,195 // vmulps %ymm11,%ymm9,%ymm0
- .byte 196,98,125,24,13,110,156,0,0 // vbroadcastss 0x9c6e(%rip),%ymm9 # 3c648 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- .byte 197,52,92,208 // vsubps %ymm0,%ymm9,%ymm10
- .byte 196,195,125,74,194,208 // vblendvps %ymm13,%ymm10,%ymm0,%ymm0
- .byte 196,65,60,89,199 // vmulps %ymm15,%ymm8,%ymm8
- .byte 196,65,52,92,200 // vsubps %ymm8,%ymm9,%ymm9
- .byte 196,67,61,74,193,192 // vblendvps %ymm12,%ymm9,%ymm8,%ymm8
- .byte 196,65,52,87,201 // vxorps %ymm9,%ymm9,%ymm9
- .byte 196,193,116,194,201,1 // vcmpltps %ymm9,%ymm1,%ymm1
- .byte 196,98,125,24,21,240,154,0,0 // vbroadcastss 0x9af0(%rip),%ymm10 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 197,44,92,216 // vsubps %ymm0,%ymm10,%ymm11
- .byte 196,195,125,74,195,16 // vblendvps %ymm1,%ymm11,%ymm0,%ymm0
- .byte 196,193,100,194,201,1 // vcmpltps %ymm9,%ymm3,%ymm1
- .byte 196,193,44,92,216 // vsubps %ymm8,%ymm10,%ymm3
- .byte 196,227,61,74,203,16 // vblendvps %ymm1,%ymm3,%ymm8,%ymm1
- .byte 196,193,108,194,217,1 // vcmpltps %ymm9,%ymm2,%ymm3
- .byte 196,98,125,24,5,202,154,0,0 // vbroadcastss 0x9aca(%rip),%ymm8 # 3c4fc <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- .byte 197,60,92,208 // vsubps %ymm0,%ymm8,%ymm10
- .byte 196,195,125,74,194,48 // vblendvps %ymm3,%ymm10,%ymm0,%ymm0
- .byte 196,193,92,194,217,1 // vcmpltps %ymm9,%ymm4,%ymm3
- .byte 197,60,92,193 // vsubps %ymm1,%ymm8,%ymm8
- .byte 196,195,117,74,200,48 // vblendvps %ymm3,%ymm8,%ymm1,%ymm1
- .byte 196,193,124,194,217,7 // vcmpordps %ymm9,%ymm0,%ymm3
- .byte 197,228,84,192 // vandps %ymm0,%ymm3,%ymm0
- .byte 196,193,116,194,217,7 // vcmpordps %ymm9,%ymm1,%ymm3
- .byte 197,228,84,201 // vandps %ymm1,%ymm3,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 197,252,40,220 // vmovaps %ymm4,%ymm3
- .byte 197,252,40,229 // vmovaps %ymm5,%ymm4
- .byte 197,252,40,238 // vmovaps %ymm6,%ymm5
- .byte 197,252,40,247 // vmovaps %ymm7,%ymm6
- .byte 197,252,16,124,36,200 // vmovups -0x38(%rsp),%ymm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_radius_hsw_lowp
-.globl _sk_xy_to_radius_hsw_lowp
-FUNCTION(_sk_xy_to_radius_hsw_lowp)
-_sk_xy_to_radius_hsw_lowp:
- .byte 197,108,89,194 // vmulps %ymm2,%ymm2,%ymm8
- .byte 197,100,89,203 // vmulps %ymm3,%ymm3,%ymm9
- .byte 196,98,117,184,201 // vfmadd231ps %ymm1,%ymm1,%ymm9
- .byte 196,98,125,184,192 // vfmadd231ps %ymm0,%ymm0,%ymm8
- .byte 196,193,124,81,192 // vsqrtps %ymm8,%ymm0
- .byte 196,193,124,81,201 // vsqrtps %ymm9,%ymm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_rgba_8888_hsw_lowp
-.globl _sk_srcover_rgba_8888_hsw_lowp
-FUNCTION(_sk_srcover_rgba_8888_hsw_lowp)
-_sk_srcover_rgba_8888_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 77,141,12,144 // lea (%r8,%rdx,4),%r9
- .byte 65,137,250 // mov %edi,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 65,254,202 // dec %r10b
- .byte 69,15,182,194 // movzbl %r10b,%r8d
- .byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 32af6 <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,234,2,0,0 // lea 0x2ea(%rip),%r11 # 32db8 <_sk_srcover_rgba_8888_hsw_lowp+0x31e>
- .byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 197,205,239,246 // vpxor %ymm6,%ymm6,%ymm6
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,41 // vmovd (%r9),%xmm5
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 32c0c <_sk_srcover_rgba_8888_hsw_lowp+0x172>
- .byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 32c0c <_sk_srcover_rgba_8888_hsw_lowp+0x172>
- .byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 196,227,69,2,228,4 // vpblendd $0x4,%ymm4,%ymm7,%ymm4
- .byte 196,194,121,53,41 // vpmovzxdq (%r9),%xmm5
- .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
- .byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
- .byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 32c0c <_sk_srcover_rgba_8888_hsw_lowp+0x172>
- .byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,228,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm4
- .byte 196,227,125,57,230,1 // vextracti128 $0x1,%ymm4,%xmm6
- .byte 196,195,73,34,113,20,1 // vpinsrd $0x1,0x14(%r9),%xmm6,%xmm6
- .byte 196,227,93,56,230,1 // vinserti128 $0x1,%xmm6,%ymm4,%ymm4
- .byte 197,253,111,245 // vmovdqa %ymm5,%ymm6
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,195,81,34,105,16,0 // vpinsrd $0x0,0x10(%r9),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 197,125,111,198 // vmovdqa %ymm6,%ymm8
- .byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
- .byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
- .byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 32c0c <_sk_srcover_rgba_8888_hsw_lowp+0x172>
- .byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,228,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm4
- .byte 196,195,89,34,105,36,1 // vpinsrd $0x1,0x24(%r9),%xmm4,%xmm5
- .byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
- .byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
- .byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 32c0c <_sk_srcover_rgba_8888_hsw_lowp+0x172>
- .byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,228,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,195,81,34,105,52,1 // vpinsrd $0x1,0x34(%r9),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,195,81,34,105,48,0 // vpinsrd $0x0,0x30(%r9),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 196,193,122,111,113,32 // vmovdqu 0x20(%r9),%xmm6
- .byte 196,227,77,2,228,240 // vpblendd $0xf0,%ymm4,%ymm6,%ymm4
- .byte 196,227,85,56,244,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm6
- .byte 196,227,85,70,252,49 // vperm2i128 $0x31,%ymm4,%ymm5,%ymm7
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 196,227,69,14,236,170 // vpblendw $0xaa,%ymm4,%ymm7,%ymm5
- .byte 196,227,77,14,228,170 // vpblendw $0xaa,%ymm4,%ymm6,%ymm4
- .byte 196,226,93,43,237 // vpackusdw %ymm5,%ymm4,%ymm5
- .byte 197,125,111,5,11,162,0,0 // vmovdqa 0xa20b(%rip),%ymm8 # 3ce40 <_sk_srcover_bgra_8888_sse2_lowp+0xbf4>
- .byte 196,193,85,219,224 // vpand %ymm8,%ymm5,%ymm4
- .byte 196,98,125,121,13,29,162,0,0 // vpbroadcastw 0xa21d(%rip),%ymm9 # 3ce60 <_sk_srcover_bgra_8888_sse2_lowp+0xc14>
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
- .byte 197,205,114,214,16 // vpsrld $0x10,%ymm6,%ymm6
- .byte 196,226,77,43,255 // vpackusdw %ymm7,%ymm6,%ymm7
- .byte 196,193,69,219,240 // vpand %ymm8,%ymm7,%ymm6
- .byte 197,197,113,215,8 // vpsrlw $0x8,%ymm7,%ymm7
- .byte 197,53,249,195 // vpsubw %ymm3,%ymm9,%ymm8
- .byte 196,65,93,213,208 // vpmullw %ymm8,%ymm4,%ymm10
- .byte 196,65,45,253,209 // vpaddw %ymm9,%ymm10,%ymm10
- .byte 196,193,45,113,210,8 // vpsrlw $0x8,%ymm10,%ymm10
- .byte 197,173,253,192 // vpaddw %ymm0,%ymm10,%ymm0
- .byte 196,65,85,213,208 // vpmullw %ymm8,%ymm5,%ymm10
- .byte 196,65,45,253,209 // vpaddw %ymm9,%ymm10,%ymm10
- .byte 196,193,45,113,210,8 // vpsrlw $0x8,%ymm10,%ymm10
- .byte 197,173,253,201 // vpaddw %ymm1,%ymm10,%ymm1
- .byte 196,65,77,213,208 // vpmullw %ymm8,%ymm6,%ymm10
- .byte 196,65,45,253,209 // vpaddw %ymm9,%ymm10,%ymm10
- .byte 196,193,45,113,210,8 // vpsrlw $0x8,%ymm10,%ymm10
- .byte 197,173,253,210 // vpaddw %ymm2,%ymm10,%ymm2
- .byte 196,65,69,213,192 // vpmullw %ymm8,%ymm7,%ymm8
- .byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
- .byte 196,193,61,113,208,8 // vpsrlw $0x8,%ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 197,189,113,241,8 // vpsllw $0x8,%ymm1,%ymm8
- .byte 197,61,235,192 // vpor %ymm0,%ymm8,%ymm8
- .byte 196,66,125,51,200 // vpmovzxwd %xmm8,%ymm9
- .byte 196,67,125,57,192,1 // vextracti128 $0x1,%ymm8,%xmm8
- .byte 196,66,125,51,208 // vpmovzxwd %xmm8,%ymm10
- .byte 197,189,113,243,8 // vpsllw $0x8,%ymm3,%ymm8
- .byte 197,61,235,194 // vpor %ymm2,%ymm8,%ymm8
- .byte 196,67,125,57,195,1 // vextracti128 $0x1,%ymm8,%xmm11
- .byte 196,66,125,51,219 // vpmovzxwd %xmm11,%ymm11
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,193,61,114,240,16 // vpslld $0x10,%ymm8,%ymm8
- .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
- .byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
- .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 32d1d <_sk_srcover_rgba_8888_hsw_lowp+0x283>
- .byte 76,141,21,234,0,0,0 // lea 0xea(%rip),%r10 # 32df4 <_sk_srcover_rgba_8888_hsw_lowp+0x35a>
- .byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 32db4 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
- .byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 32db4 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
- .byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
- .byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 32db4 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,73,20,1 // vpextrd $0x1,%xmm9,0x14(%r9)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
- .byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 32db4 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
- .byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
- .byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
- .byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
- .byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 32db4 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,67,121,22,81,52,1 // vpextrd $0x1,%xmm10,0x34(%r9)
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,65,121,126,81,48 // vmovd %xmm10,0x30(%r9)
- .byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 196,65,122,127,73,32 // vmovdqu %xmm9,0x20(%r9)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 48,253 // xor %bh,%ch
- .byte 255 // (bad)
- .byte 255,99,253 // jmpq *-0x3(%rbx)
- .byte 255 // (bad)
- .byte 255,78,253 // decl -0x3(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,253,255,255,168 // mov $0xa8fffffd,%edi
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,145,253,255,255,124 // callq *0x7cfffffd(%rcx)
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,1 // incl (%rcx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,245 // push %rbp
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 232,253,255,255,211 // callq ffffffffd4032dde <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffd3ff6b92>
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,67,254 // incl -0x2(%rbx)
- .byte 255 // (bad)
- .byte 255,48 // pushq (%rax)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,29,254,255,255,8 // lcall *0x8fffffe(%rip) # 9032def <_sk_srcover_bgra_8888_sse2_lowp+0x8ff6ba3>
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,31 // lcall *(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,64,255 // incl -0x1(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 57,255 // cmp %edi,%edi
- .byte 255 // (bad)
- .byte 255,109,255 // ljmp *-0x1(%rbp)
- .byte 255 // (bad)
- .byte 255,97,255 // jmpq *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
- .byte 255,71,255 // incl -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,136,255,255,255,130 // decl -0x7d000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 32e19 <_sk_srcover_rgba_8888_hsw_lowp+0x37f>
- .byte 255 // (bad)
- .byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
- .byte 255,181,255,255,255,169 // pushq -0x56000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,156,255,255,255,143,255 // lcall *-0x700001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_srcover_bgra_8888_hsw_lowp
-.globl _sk_srcover_bgra_8888_hsw_lowp
-FUNCTION(_sk_srcover_bgra_8888_hsw_lowp)
-_sk_srcover_bgra_8888_hsw_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 77,141,12,144 // lea (%r8,%rdx,4),%r9
- .byte 65,137,250 // mov %edi,%r10d
- .byte 65,128,226,15 // and $0xf,%r10b
- .byte 65,254,202 // dec %r10b
- .byte 69,15,182,194 // movzbl %r10b,%r8d
- .byte 65,128,248,14 // cmp $0xe,%r8b
- .byte 119,51 // ja 32e8c <_sk_srcover_bgra_8888_hsw_lowp+0x5c>
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 76,141,29,236,2,0,0 // lea 0x2ec(%rip),%r11 # 33150 <_sk_srcover_bgra_8888_hsw_lowp+0x320>
- .byte 75,99,4,131 // movslq (%r11,%r8,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 197,205,239,246 // vpxor %ymm6,%ymm6,%ymm6
- .byte 196,65,61,239,192 // vpxor %ymm8,%ymm8,%ymm8
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 255,224 // jmpq *%rax
- .byte 196,193,121,110,41 // vmovd (%r9),%xmm5
- .byte 197,221,239,228 // vpxor %ymm4,%ymm4,%ymm4
- .byte 233,22,1,0,0 // jmpq 32fa2 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
- .byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 196,193,126,111,97,32 // vmovdqu 0x20(%r9),%ymm4
- .byte 233,6,1,0,0 // jmpq 32fa2 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
- .byte 196,193,121,110,97,8 // vmovd 0x8(%r9),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,197,239,255 // vpxor %ymm7,%ymm7,%ymm7
- .byte 196,227,69,2,228,4 // vpblendd $0x4,%ymm4,%ymm7,%ymm4
- .byte 196,194,121,53,41 // vpmovzxdq (%r9),%xmm5
- .byte 197,249,112,237,232 // vpshufd $0xe8,%xmm5,%xmm5
- .byte 196,227,93,2,237,3 // vpblendd $0x3,%ymm5,%ymm4,%ymm5
- .byte 197,253,111,231 // vmovdqa %ymm7,%ymm4
- .byte 233,216,0,0,0 // jmpq 32fa2 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
- .byte 196,193,121,110,97,24 // vmovd 0x18(%r9),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,228,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm4
- .byte 196,227,125,57,230,1 // vextracti128 $0x1,%ymm4,%xmm6
- .byte 196,195,73,34,113,20,1 // vpinsrd $0x1,0x14(%r9),%xmm6,%xmm6
- .byte 196,227,93,56,230,1 // vinserti128 $0x1,%xmm6,%ymm4,%ymm4
- .byte 197,253,111,245 // vmovdqa %ymm5,%ymm6
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,195,81,34,105,16,0 // vpinsrd $0x0,0x10(%r9),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 197,125,111,198 // vmovdqa %ymm6,%ymm8
- .byte 196,193,122,111,41 // vmovdqu (%r9),%xmm5
- .byte 196,227,85,2,236,240 // vpblendd $0xf0,%ymm4,%ymm5,%ymm5
- .byte 197,125,127,196 // vmovdqa %ymm8,%ymm4
- .byte 233,129,0,0,0 // jmpq 32fa2 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
- .byte 196,193,121,110,97,40 // vmovd 0x28(%r9),%xmm4
- .byte 196,226,121,89,228 // vpbroadcastq %xmm4,%xmm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,228,4 // vpblendd $0x4,%ymm4,%ymm5,%ymm4
- .byte 196,195,89,34,105,36,1 // vpinsrd $0x1,0x24(%r9),%xmm4,%xmm5
- .byte 196,227,93,2,229,15 // vpblendd $0xf,%ymm5,%ymm4,%ymm4
- .byte 196,193,121,110,105,32 // vmovd 0x20(%r9),%xmm5
- .byte 196,227,93,2,229,1 // vpblendd $0x1,%ymm5,%ymm4,%ymm4
- .byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 235,76 // jmp 32fa2 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
- .byte 196,193,121,110,97,56 // vmovd 0x38(%r9),%xmm4
- .byte 196,226,125,89,228 // vpbroadcastq %xmm4,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,85,2,228,64 // vpblendd $0x40,%ymm4,%ymm5,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,195,81,34,105,52,1 // vpinsrd $0x1,0x34(%r9),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,227,125,57,229,1 // vextracti128 $0x1,%ymm4,%xmm5
- .byte 196,195,81,34,105,48,0 // vpinsrd $0x0,0x30(%r9),%xmm5,%xmm5
- .byte 196,227,93,56,229,1 // vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- .byte 196,193,126,111,41 // vmovdqu (%r9),%ymm5
- .byte 196,193,122,111,113,32 // vmovdqu 0x20(%r9),%xmm6
- .byte 196,227,77,2,228,240 // vpblendd $0xf0,%ymm4,%ymm6,%ymm4
- .byte 196,227,85,56,252,1 // vinserti128 $0x1,%xmm4,%ymm5,%ymm7
- .byte 196,227,85,70,228,49 // vperm2i128 $0x31,%ymm4,%ymm5,%ymm4
- .byte 197,213,239,237 // vpxor %ymm5,%ymm5,%ymm5
- .byte 196,227,93,14,245,170 // vpblendw $0xaa,%ymm5,%ymm4,%ymm6
- .byte 196,227,69,14,237,170 // vpblendw $0xaa,%ymm5,%ymm7,%ymm5
- .byte 196,226,85,43,238 // vpackusdw %ymm6,%ymm5,%ymm5
- .byte 197,125,111,5,181,158,0,0 // vmovdqa 0x9eb5(%rip),%ymm8 # 3ce80 <_sk_srcover_bgra_8888_sse2_lowp+0xc34>
- .byte 196,193,85,219,240 // vpand %ymm8,%ymm5,%ymm6
- .byte 196,98,125,121,13,199,158,0,0 // vpbroadcastw 0x9ec7(%rip),%ymm9 # 3cea0 <_sk_srcover_bgra_8888_sse2_lowp+0xc54>
- .byte 197,213,113,213,8 // vpsrlw $0x8,%ymm5,%ymm5
- .byte 197,221,114,212,16 // vpsrld $0x10,%ymm4,%ymm4
- .byte 197,197,114,215,16 // vpsrld $0x10,%ymm7,%ymm7
- .byte 196,226,69,43,252 // vpackusdw %ymm4,%ymm7,%ymm7
- .byte 196,193,69,219,224 // vpand %ymm8,%ymm7,%ymm4
- .byte 197,197,113,215,8 // vpsrlw $0x8,%ymm7,%ymm7
- .byte 197,53,249,195 // vpsubw %ymm3,%ymm9,%ymm8
- .byte 196,65,93,213,208 // vpmullw %ymm8,%ymm4,%ymm10
- .byte 196,65,45,253,209 // vpaddw %ymm9,%ymm10,%ymm10
- .byte 196,193,45,113,210,8 // vpsrlw $0x8,%ymm10,%ymm10
- .byte 197,173,253,192 // vpaddw %ymm0,%ymm10,%ymm0
- .byte 196,65,85,213,208 // vpmullw %ymm8,%ymm5,%ymm10
- .byte 196,65,45,253,209 // vpaddw %ymm9,%ymm10,%ymm10
- .byte 196,193,45,113,210,8 // vpsrlw $0x8,%ymm10,%ymm10
- .byte 197,173,253,201 // vpaddw %ymm1,%ymm10,%ymm1
- .byte 196,65,77,213,208 // vpmullw %ymm8,%ymm6,%ymm10
- .byte 196,65,45,253,209 // vpaddw %ymm9,%ymm10,%ymm10
- .byte 196,193,45,113,210,8 // vpsrlw $0x8,%ymm10,%ymm10
- .byte 197,173,253,210 // vpaddw %ymm2,%ymm10,%ymm2
- .byte 196,65,69,213,192 // vpmullw %ymm8,%ymm7,%ymm8
- .byte 196,65,61,253,193 // vpaddw %ymm9,%ymm8,%ymm8
- .byte 196,193,61,113,208,8 // vpsrlw $0x8,%ymm8,%ymm8
- .byte 197,189,253,219 // vpaddw %ymm3,%ymm8,%ymm3
- .byte 197,189,113,241,8 // vpsllw $0x8,%ymm1,%ymm8
- .byte 197,61,235,194 // vpor %ymm2,%ymm8,%ymm8
- .byte 196,66,125,51,200 // vpmovzxwd %xmm8,%ymm9
- .byte 196,67,125,57,192,1 // vextracti128 $0x1,%ymm8,%xmm8
- .byte 196,66,125,51,208 // vpmovzxwd %xmm8,%ymm10
- .byte 197,189,113,243,8 // vpsllw $0x8,%ymm3,%ymm8
- .byte 197,61,235,192 // vpor %ymm0,%ymm8,%ymm8
- .byte 196,67,125,57,195,1 // vextracti128 $0x1,%ymm8,%xmm11
- .byte 196,66,125,51,219 // vpmovzxwd %xmm11,%ymm11
- .byte 196,66,125,51,192 // vpmovzxwd %xmm8,%ymm8
- .byte 196,193,61,114,240,16 // vpslld $0x10,%ymm8,%ymm8
- .byte 196,65,61,235,193 // vpor %ymm9,%ymm8,%ymm8
- .byte 196,193,53,114,243,16 // vpslld $0x10,%ymm11,%ymm9
- .byte 196,65,53,235,202 // vpor %ymm10,%ymm9,%ymm9
- .byte 65,128,250,14 // cmp $0xe,%r10b
- .byte 119,26 // ja 330b3 <_sk_srcover_bgra_8888_hsw_lowp+0x283>
- .byte 76,141,21,236,0,0,0 // lea 0xec(%rip),%r10 # 3318c <_sk_srcover_bgra_8888_hsw_lowp+0x35c>
- .byte 75,99,4,130 // movslq (%r10,%r8,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 196,65,121,126,1 // vmovd %xmm8,(%r9)
- .byte 233,151,0,0,0 // jmpq 3314a <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
- .byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 196,65,126,127,73,32 // vmovdqu %ymm9,0x20(%r9)
- .byte 233,135,0,0,0 // jmpq 3314a <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
- .byte 196,67,121,22,65,8,2 // vpextrd $0x2,%xmm8,0x8(%r9)
- .byte 196,65,121,214,1 // vmovq %xmm8,(%r9)
- .byte 235,121 // jmp 3314a <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,73,24,2 // vpextrd $0x2,%xmm9,0x18(%r9)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,67,121,22,73,20,1 // vpextrd $0x1,%xmm9,0x14(%r9)
- .byte 196,67,125,57,193,1 // vextracti128 $0x1,%ymm8,%xmm9
- .byte 196,65,121,126,73,16 // vmovd %xmm9,0x10(%r9)
- .byte 196,65,122,127,1 // vmovdqu %xmm8,(%r9)
- .byte 235,76 // jmp 3314a <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
- .byte 196,67,121,22,73,40,2 // vpextrd $0x2,%xmm9,0x28(%r9)
- .byte 196,67,121,22,73,36,1 // vpextrd $0x1,%xmm9,0x24(%r9)
- .byte 196,65,121,126,73,32 // vmovd %xmm9,0x20(%r9)
- .byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 235,49 // jmp 3314a <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,67,121,22,81,56,2 // vpextrd $0x2,%xmm10,0x38(%r9)
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,67,121,22,81,52,1 // vpextrd $0x1,%xmm10,0x34(%r9)
- .byte 196,67,125,57,202,1 // vextracti128 $0x1,%ymm9,%xmm10
- .byte 196,65,121,126,81,48 // vmovd %xmm10,0x30(%r9)
- .byte 196,65,126,127,1 // vmovdqu %ymm8,(%r9)
- .byte 196,65,122,127,73,32 // vmovdqu %xmm9,0x20(%r9)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 46,253 // cs std
- .byte 255 // (bad)
- .byte 255,97,253 // jmpq *-0x3(%rcx)
- .byte 255 // (bad)
- .byte 255,76,253,255 // decl -0x1(%rbp,%rdi,8)
- .byte 255 // (bad)
- .byte 189,253,255,255,166 // mov $0xa6fffffd,%ebp
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,143,253,255,255,122 // decl 0x7afffffd(%rdi)
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,243 // push %rbx
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,65,254 // incl -0x2(%rcx)
- .byte 255 // (bad)
- .byte 255,46 // ljmp *(%rsi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,27 // lcall *(%rbx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,6 // incl (%rsi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,29,255,255,255,62 // lcall *0x3effffff(%rip) # 3f033190 <_sk_srcover_bgra_8888_sse2_lowp+0x3eff6f44>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,55 // pushq (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,107,255 // ljmp *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,95,255 // lcall *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,82,255 // callq *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,69,255 // incl -0x1(%rbp)
- .byte 255 // (bad)
- .byte 255,134,255,255,255,128 // incl -0x7f000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 121,255 // jns 331b1 <_sk_srcover_bgra_8888_hsw_lowp+0x381>
- .byte 255 // (bad)
- .byte 255,114,255 // pushq -0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,179,255,255,255,167 // pushq -0x58000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,154,255,255,255,141 // lcall *-0x72000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_start_pipeline_sse41_lowp
-.globl _sk_start_pipeline_sse41_lowp
-FUNCTION(_sk_start_pipeline_sse41_lowp)
-_sk_start_pipeline_sse41_lowp:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 73,137,215 // mov %rdx,%r15
- .byte 72,137,243 // mov %rsi,%rbx
- .byte 72,137,125,208 // mov %rdi,-0x30(%rbp)
- .byte 76,137,198 // mov %r8,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 73,137,197 // mov %rax,%r13
- .byte 73,137,246 // mov %rsi,%r14
- .byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
- .byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 3327e <_sk_start_pipeline_sse41_lowp+0xb6>
- .byte 72,139,69,208 // mov -0x30(%rbp),%rax
- .byte 72,141,64,8 // lea 0x8(%rax),%rax
- .byte 72,137,69,200 // mov %rax,-0x38(%rbp)
- .byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 3324c <_sk_start_pipeline_sse41_lowp+0x84>
- .byte 76,139,101,208 // mov -0x30(%rbp),%r12
- .byte 49,255 // xor %edi,%edi
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 76,137,226 // mov %r12,%rdx
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 73,141,84,36,8 // lea 0x8(%r12),%rdx
- .byte 73,131,196,16 // add $0x10,%r12
- .byte 77,57,252 // cmp %r15,%r12
- .byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 33215 <_sk_start_pipeline_sse41_lowp+0x4d>
- .byte 76,137,255 // mov %r15,%rdi
- .byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 33275 <_sk_start_pipeline_sse41_lowp+0xad>
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 72,255,195 // inc %rbx
- .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 33207 <_sk_start_pipeline_sse41_lowp+0x3f>
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 195 // retq
-
-HIDDEN _sk_just_return_sse41_lowp
-.globl _sk_just_return_sse41_lowp
-FUNCTION(_sk_just_return_sse41_lowp)
-_sk_just_return_sse41_lowp:
- .byte 195 // retq
-
-HIDDEN _sk_seed_shader_sse41_lowp
-.globl _sk_seed_shader_sse41_lowp
-FUNCTION(_sk_seed_shader_sse41_lowp)
-_sk_seed_shader_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,110,194 // movd %edx,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 15,16,72,16 // movups 0x10(%rax),%xmm1
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 102,15,110,209 // movd %ecx,%xmm2
- .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,21,68,156,0,0 // addps 0x9c44(%rip),%xmm2 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_translate_sse41_lowp
-.globl _sk_matrix_translate_sse41_lowp
-FUNCTION(_sk_matrix_translate_sse41_lowp)
-_sk_matrix_translate_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 65,15,88,217 // addps %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_scale_translate_sse41_lowp
-.globl _sk_matrix_scale_translate_sse41_lowp
-FUNCTION(_sk_matrix_scale_translate_sse41_lowp)
-_sk_matrix_scale_translate_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,89,217 // mulps %xmm9,%xmm3
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 65,15,88,216 // addps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_2x3_sse41_lowp
-.globl _sk_matrix_2x3_sse41_lowp
-FUNCTION(_sk_matrix_2x3_sse41_lowp)
-_sk_matrix_2x3_sse41_lowp:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,68,15,16,88,4 // movss 0x4(%rax),%xmm11
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,72,16 // movss 0x10(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,40,226 // movaps %xmm2,%xmm12
- .byte 69,15,89,226 // mulps %xmm10,%xmm12
- .byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 69,15,88,209 // addps %xmm9,%xmm10
- .byte 69,15,88,225 // addps %xmm9,%xmm12
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,80,12 // movss 0xc(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 65,15,89,210 // mulps %xmm10,%xmm2
- .byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 69,15,88,212 // addps %xmm12,%xmm10
- .byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 68,15,88,209 // addps %xmm1,%xmm10
- .byte 69,15,89,216 // mulps %xmm8,%xmm11
- .byte 65,15,88,211 // addps %xmm11,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 65,15,40,218 // movaps %xmm10,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_perspective_sse41_lowp
-.globl _sk_matrix_perspective_sse41_lowp
-FUNCTION(_sk_matrix_perspective_sse41_lowp)
-_sk_matrix_perspective_sse41_lowp:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,8 // movss (%rax),%xmm1
- .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,72,8 // movss 0x8(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,40,219 // movaps %xmm3,%xmm11
- .byte 69,15,89,218 // mulps %xmm10,%xmm11
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 69,15,88,209 // addps %xmm9,%xmm10
- .byte 69,15,88,217 // addps %xmm9,%xmm11
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,88,203 // addps %xmm11,%xmm1
- .byte 243,68,15,16,96,12 // movss 0xc(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,104,20 // movss 0x14(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 68,15,40,219 // movaps %xmm3,%xmm11
- .byte 69,15,89,218 // mulps %xmm10,%xmm11
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 69,15,88,213 // addps %xmm13,%xmm10
- .byte 69,15,88,221 // addps %xmm13,%xmm11
- .byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 69,15,88,213 // addps %xmm13,%xmm10
- .byte 69,15,89,224 // mulps %xmm8,%xmm12
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 243,68,15,16,96,24 // movss 0x18(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 243,68,15,16,104,28 // movss 0x1c(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 243,68,15,16,112,32 // movss 0x20(%rax),%xmm14
- .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14
- .byte 65,15,89,221 // mulps %xmm13,%xmm3
- .byte 68,15,89,234 // mulps %xmm2,%xmm13
- .byte 69,15,88,238 // addps %xmm14,%xmm13
- .byte 65,15,88,222 // addps %xmm14,%xmm3
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 65,15,88,197 // addps %xmm13,%xmm0
- .byte 69,15,89,224 // mulps %xmm8,%xmm12
- .byte 68,15,88,227 // addps %xmm3,%xmm12
- .byte 15,83,192 // rcpps %xmm0,%xmm0
- .byte 65,15,83,212 // rcpps %xmm12,%xmm2
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,40,219 // movaps %xmm11,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_uniform_color_sse41_lowp
-.globl _sk_uniform_color_sse41_lowp
-FUNCTION(_sk_uniform_color_sse41_lowp)
-_sk_uniform_color_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,110,64,16 // movd 0x10(%rax),%xmm0
- .byte 242,15,112,192,0 // pshuflw $0x0,%xmm0,%xmm0
- .byte 102,15,112,192,80 // pshufd $0x50,%xmm0,%xmm0
- .byte 68,15,183,64,18 // movzwl 0x12(%rax),%r8d
- .byte 102,65,15,110,200 // movd %r8d,%xmm1
- .byte 242,15,112,201,0 // pshuflw $0x0,%xmm1,%xmm1
- .byte 102,15,112,201,80 // pshufd $0x50,%xmm1,%xmm1
- .byte 102,15,110,80,20 // movd 0x14(%rax),%xmm2
- .byte 242,15,112,210,0 // pshuflw $0x0,%xmm2,%xmm2
- .byte 102,15,112,210,80 // pshufd $0x50,%xmm2,%xmm2
- .byte 15,183,64,22 // movzwl 0x16(%rax),%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 242,15,112,219,0 // pshuflw $0x0,%xmm3,%xmm3
- .byte 102,15,112,219,80 // pshufd $0x50,%xmm3,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_black_color_sse41_lowp
-.globl _sk_black_color_sse41_lowp
-FUNCTION(_sk_black_color_sse41_lowp)
-_sk_black_color_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,137,153,0,0 // movaps 0x9989(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_white_color_sse41_lowp
-.globl _sk_white_color_sse41_lowp
-FUNCTION(_sk_white_color_sse41_lowp)
-_sk_white_color_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,117,153,0,0 // movaps 0x9975(%rip),%xmm0 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_set_rgb_sse41_lowp
-.globl _sk_set_rgb_sse41_lowp
-FUNCTION(_sk_set_rgb_sse41_lowp)
-_sk_set_rgb_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,216,143,0,0 // movss 0x8fd8(%rip),%xmm2 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,151,143,0,0 // movss 0x8f97(%rip),%xmm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 243,65,15,88,192 // addss %xmm8,%xmm0
- .byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
- .byte 102,65,15,110,192 // movd %r8d,%xmm0
- .byte 242,15,112,192,0 // pshuflw $0x0,%xmm0,%xmm0
- .byte 102,15,112,192,80 // pshufd $0x50,%xmm0,%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 243,15,89,202 // mulss %xmm2,%xmm1
- .byte 243,65,15,88,200 // addss %xmm8,%xmm1
- .byte 243,68,15,44,193 // cvttss2si %xmm1,%r8d
- .byte 102,65,15,110,200 // movd %r8d,%xmm1
- .byte 242,15,112,201,0 // pshuflw $0x0,%xmm1,%xmm1
- .byte 102,15,112,201,80 // pshufd $0x50,%xmm1,%xmm1
- .byte 243,15,89,80,8 // mulss 0x8(%rax),%xmm2
- .byte 243,65,15,88,208 // addss %xmm8,%xmm2
- .byte 243,15,44,194 // cvttss2si %xmm2,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 242,15,112,210,0 // pshuflw $0x0,%xmm2,%xmm2
- .byte 102,15,112,210,80 // pshufd $0x50,%xmm2,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_sse41_lowp
-.globl _sk_clamp_a_sse41_lowp
-FUNCTION(_sk_clamp_a_sse41_lowp)
-_sk_clamp_a_sse41_lowp:
- .byte 102,15,56,58,195 // pminuw %xmm3,%xmm0
- .byte 102,15,56,58,203 // pminuw %xmm3,%xmm1
- .byte 102,15,56,58,211 // pminuw %xmm3,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_dst_sse41_lowp
-.globl _sk_clamp_a_dst_sse41_lowp
-FUNCTION(_sk_clamp_a_dst_sse41_lowp)
-_sk_clamp_a_dst_sse41_lowp:
- .byte 102,15,56,58,231 // pminuw %xmm7,%xmm4
- .byte 102,15,56,58,239 // pminuw %xmm7,%xmm5
- .byte 102,15,56,58,247 // pminuw %xmm7,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_sse41_lowp
-.globl _sk_premul_sse41_lowp
-FUNCTION(_sk_premul_sse41_lowp)
-_sk_premul_sse41_lowp:
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,193,152,0,0 // movdqa 0x98c1(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,213,211 // pmullw %xmm3,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_dst_sse41_lowp
-.globl _sk_premul_dst_sse41_lowp
-FUNCTION(_sk_premul_dst_sse41_lowp)
-_sk_premul_dst_sse41_lowp:
- .byte 102,15,213,231 // pmullw %xmm7,%xmm4
- .byte 102,68,15,111,5,138,152,0,0 // movdqa 0x988a(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,224 // paddw %xmm8,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,213,239 // pmullw %xmm7,%xmm5
- .byte 102,65,15,253,232 // paddw %xmm8,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,213,247 // pmullw %xmm7,%xmm6
- .byte 102,65,15,253,240 // paddw %xmm8,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_sse41_lowp
-.globl _sk_force_opaque_sse41_lowp
-FUNCTION(_sk_force_opaque_sse41_lowp)
-_sk_force_opaque_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,87,152,0,0 // movaps 0x9857(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_dst_sse41_lowp
-.globl _sk_force_opaque_dst_sse41_lowp
-FUNCTION(_sk_force_opaque_dst_sse41_lowp)
-_sk_force_opaque_dst_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,76,152,0,0 // movaps 0x984c(%rip),%xmm7 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_swap_rb_sse41_lowp
-.globl _sk_swap_rb_sse41_lowp
-FUNCTION(_sk_swap_rb_sse41_lowp)
-_sk_swap_rb_sse41_lowp:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_src_dst_sse41_lowp
-.globl _sk_move_src_dst_sse41_lowp
-FUNCTION(_sk_move_src_dst_sse41_lowp)
-_sk_move_src_dst_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_dst_src_sse41_lowp
-.globl _sk_move_dst_src_sse41_lowp
-FUNCTION(_sk_move_dst_src_sse41_lowp)
-_sk_move_dst_src_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_invert_sse41_lowp
-.globl _sk_invert_sse41_lowp
-FUNCTION(_sk_invert_sse41_lowp)
-_sk_invert_sse41_lowp:
- .byte 102,68,15,111,5,18,152,0,0 // movdqa 0x9812(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,68,15,249,200 // psubw %xmm0,%xmm9
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,249,209 // psubw %xmm1,%xmm10
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,68,15,249,218 // psubw %xmm2,%xmm11
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
- .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clear_sse41_lowp
-.globl _sk_clear_sse41_lowp
-FUNCTION(_sk_clear_sse41_lowp)
-_sk_clear_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcatop_sse41_lowp
-.globl _sk_srcatop_sse41_lowp
-FUNCTION(_sk_srcatop_sse41_lowp)
-_sk_srcatop_sse41_lowp:
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,182,151,0,0 // movdqa 0x97b6(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
- .byte 102,69,15,249,200 // psubw %xmm8,%xmm9
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,213,196 // pmullw %xmm4,%xmm8
- .byte 102,15,253,195 // paddw %xmm3,%xmm0
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,213,207 // pmullw %xmm7,%xmm1
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
- .byte 102,15,253,203 // paddw %xmm3,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,68,15,213,206 // pmullw %xmm6,%xmm9
- .byte 102,15,253,211 // paddw %xmm3,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
- .byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstatop_sse41_lowp
-.globl _sk_dstatop_sse41_lowp
-FUNCTION(_sk_dstatop_sse41_lowp)
-_sk_dstatop_sse41_lowp:
- .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,54,151,0,0 // movdqa 0x9736(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,253,193 // paddw %xmm9,%xmm8
- .byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
- .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
- .byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,69,15,253,217 // paddw %xmm9,%xmm11
- .byte 102,65,15,213,217 // pmullw %xmm9,%xmm3
- .byte 102,65,15,253,217 // paddw %xmm9,%xmm3
- .byte 102,68,15,249,207 // psubw %xmm7,%xmm9
- .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,65,15,213,201 // pmullw %xmm9,%xmm1
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,65,15,213,209 // pmullw %xmm9,%xmm2
- .byte 102,65,15,253,211 // paddw %xmm11,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcin_sse41_lowp
-.globl _sk_srcin_sse41_lowp
-FUNCTION(_sk_srcin_sse41_lowp)
-_sk_srcin_sse41_lowp:
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,193,150,0,0 // movdqa 0x96c1(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,213,207 // pmullw %xmm7,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstin_sse41_lowp
-.globl _sk_dstin_sse41_lowp
-FUNCTION(_sk_dstin_sse41_lowp)
-_sk_dstin_sse41_lowp:
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,120,150,0,0 // movdqa 0x9678(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,15,213,211 // pmullw %xmm3,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcout_sse41_lowp
-.globl _sk_srcout_sse41_lowp
-FUNCTION(_sk_srcout_sse41_lowp)
-_sk_srcout_sse41_lowp:
- .byte 102,68,15,111,5,47,150,0,0 // movdqa 0x962f(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,68,15,249,207 // psubw %xmm7,%xmm9
- .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,65,15,213,201 // pmullw %xmm9,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,65,15,213,209 // pmullw %xmm9,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,65,15,213,217 // pmullw %xmm9,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstout_sse41_lowp
-.globl _sk_dstout_sse41_lowp
-FUNCTION(_sk_dstout_sse41_lowp)
-_sk_dstout_sse41_lowp:
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,216,149,0,0 // movdqa 0x95d8(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,249,216 // psubw %xmm0,%xmm3
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,213,214 // pmullw %xmm6,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_sse41_lowp
-.globl _sk_srcover_sse41_lowp
-FUNCTION(_sk_srcover_sse41_lowp)
-_sk_srcover_sse41_lowp:
- .byte 102,68,15,111,13,126,149,0,0 // movdqa 0x957e(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,213,212 // pmullw %xmm4,%xmm10
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,213,213 // pmullw %xmm5,%xmm10
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,213,214 // pmullw %xmm6,%xmm10
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,65,15,253,210 // paddw %xmm10,%xmm2
- .byte 102,68,15,213,199 // pmullw %xmm7,%xmm8
- .byte 102,69,15,253,193 // paddw %xmm9,%xmm8
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstover_sse41_lowp
-.globl _sk_dstover_sse41_lowp
-FUNCTION(_sk_dstover_sse41_lowp)
-_sk_dstover_sse41_lowp:
- .byte 102,68,15,111,5,4,149,0,0 // movdqa 0x9504(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,68,15,249,207 // psubw %xmm7,%xmm9
- .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,65,15,213,201 // pmullw %xmm9,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,253,205 // paddw %xmm5,%xmm1
- .byte 102,65,15,213,209 // pmullw %xmm9,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,253,214 // paddw %xmm6,%xmm2
- .byte 102,65,15,213,217 // pmullw %xmm9,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,253,223 // paddw %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_modulate_sse41_lowp
-.globl _sk_modulate_sse41_lowp
-FUNCTION(_sk_modulate_sse41_lowp)
-_sk_modulate_sse41_lowp:
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,157,148,0,0 // movdqa 0x949d(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,213,214 // pmullw %xmm6,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_multiply_sse41_lowp
-.globl _sk_multiply_sse41_lowp
-FUNCTION(_sk_multiply_sse41_lowp)
-_sk_multiply_sse41_lowp:
- .byte 102,68,15,111,13,92,148,0,0 // movdqa 0x945c(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,213,212 // pmullw %xmm4,%xmm10
- .byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
- .byte 102,69,15,253,217 // paddw %xmm9,%xmm11
- .byte 102,68,15,249,223 // psubw %xmm7,%xmm11
- .byte 102,65,15,213,195 // pmullw %xmm11,%xmm0
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,213,213 // pmullw %xmm5,%xmm10
- .byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
- .byte 102,69,15,253,217 // paddw %xmm9,%xmm11
- .byte 102,68,15,249,223 // psubw %xmm7,%xmm11
- .byte 102,65,15,213,203 // pmullw %xmm11,%xmm1
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,213,214 // pmullw %xmm6,%xmm10
- .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
- .byte 102,69,15,253,217 // paddw %xmm9,%xmm11
- .byte 102,68,15,249,223 // psubw %xmm7,%xmm11
- .byte 102,65,15,213,211 // pmullw %xmm11,%xmm2
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,253,210 // paddw %xmm10,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,68,15,213,199 // pmullw %xmm7,%xmm8
- .byte 102,65,15,213,217 // pmullw %xmm9,%xmm3
- .byte 102,65,15,253,217 // paddw %xmm9,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_plus__sse41_lowp
-.globl _sk_plus__sse41_lowp
-FUNCTION(_sk_plus__sse41_lowp)
-_sk_plus__sse41_lowp:
- .byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,68,15,111,5,161,147,0,0 // movdqa 0x93a1(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,56,58,192 // pminuw %xmm8,%xmm0
- .byte 102,15,253,205 // paddw %xmm5,%xmm1
- .byte 102,65,15,56,58,200 // pminuw %xmm8,%xmm1
- .byte 102,15,253,214 // paddw %xmm6,%xmm2
- .byte 102,65,15,56,58,208 // pminuw %xmm8,%xmm2
- .byte 102,15,253,223 // paddw %xmm7,%xmm3
- .byte 102,65,15,56,58,216 // pminuw %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_screen_sse41_lowp
-.globl _sk_screen_sse41_lowp
-FUNCTION(_sk_screen_sse41_lowp)
-_sk_screen_sse41_lowp:
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,91,147,0,0 // movdqa 0x935b(%rip),%xmm10 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
- .byte 102,69,15,253,194 // paddw %xmm10,%xmm8
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,65,15,249,200 // psubw %xmm8,%xmm1
- .byte 102,68,15,111,198 // movdqa %xmm6,%xmm8
- .byte 102,68,15,253,194 // paddw %xmm2,%xmm8
- .byte 102,15,213,214 // pmullw %xmm6,%xmm2
- .byte 102,65,15,253,210 // paddw %xmm10,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,68,15,249,194 // psubw %xmm2,%xmm8
- .byte 102,68,15,111,207 // movdqa %xmm7,%xmm9
- .byte 102,68,15,253,203 // paddw %xmm3,%xmm9
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,65,15,253,218 // paddw %xmm10,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,68,15,249,203 // psubw %xmm3,%xmm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xor__sse41_lowp
-.globl _sk_xor__sse41_lowp
-FUNCTION(_sk_xor__sse41_lowp)
-_sk_xor__sse41_lowp:
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,217,146,0,0 // movdqa 0x92d9(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
- .byte 102,68,15,249,215 // psubw %xmm7,%xmm10
- .byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,65,15,249,216 // psubw %xmm8,%xmm3
- .byte 102,68,15,111,219 // movdqa %xmm3,%xmm11
- .byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
- .byte 102,65,15,253,195 // paddw %xmm11,%xmm0
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,65,15,213,202 // pmullw %xmm10,%xmm1
- .byte 102,68,15,111,219 // movdqa %xmm3,%xmm11
- .byte 102,68,15,213,221 // pmullw %xmm5,%xmm11
- .byte 102,65,15,253,203 // paddw %xmm11,%xmm1
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,65,15,213,210 // pmullw %xmm10,%xmm2
- .byte 102,68,15,111,219 // movdqa %xmm3,%xmm11
- .byte 102,68,15,213,222 // pmullw %xmm6,%xmm11
- .byte 102,65,15,253,211 // paddw %xmm11,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,69,15,213,208 // pmullw %xmm8,%xmm10
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,65,15,253,218 // paddw %xmm10,%xmm3
- .byte 102,65,15,253,217 // paddw %xmm9,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_darken_sse41_lowp
-.globl _sk_darken_sse41_lowp
-FUNCTION(_sk_darken_sse41_lowp)
-_sk_darken_sse41_lowp:
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,65,15,56,62,201 // pmaxuw %xmm9,%xmm1
- .byte 102,68,15,111,13,32,146,0,0 // movdqa 0x9220(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,68,15,213,199 // pmullw %xmm7,%xmm8
- .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,69,15,56,62,208 // pmaxuw %xmm8,%xmm10
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,65,15,249,202 // psubw %xmm10,%xmm1
- .byte 102,68,15,111,214 // movdqa %xmm6,%xmm10
- .byte 102,68,15,111,198 // movdqa %xmm6,%xmm8
- .byte 102,68,15,253,194 // paddw %xmm2,%xmm8
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,56,62,210 // pmaxuw %xmm2,%xmm10
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,69,15,249,194 // psubw %xmm10,%xmm8
- .byte 102,65,15,111,209 // movdqa %xmm9,%xmm2
- .byte 102,15,249,211 // psubw %xmm3,%xmm2
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,253,218 // paddw %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lighten_sse41_lowp
-.globl _sk_lighten_sse41_lowp
-FUNCTION(_sk_lighten_sse41_lowp)
-_sk_lighten_sse41_lowp:
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,99,145,0,0 // movdqa 0x9163(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,68,15,213,199 // pmullw %xmm7,%xmm8
- .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,69,15,56,58,208 // pminuw %xmm8,%xmm10
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,65,15,249,202 // psubw %xmm10,%xmm1
- .byte 102,68,15,111,214 // movdqa %xmm6,%xmm10
- .byte 102,68,15,111,198 // movdqa %xmm6,%xmm8
- .byte 102,68,15,253,194 // paddw %xmm2,%xmm8
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,56,58,210 // pminuw %xmm2,%xmm10
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,69,15,249,194 // psubw %xmm10,%xmm8
- .byte 102,65,15,111,209 // movdqa %xmm9,%xmm2
- .byte 102,15,249,211 // psubw %xmm3,%xmm2
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,253,218 // paddw %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_difference_sse41_lowp
-.globl _sk_difference_sse41_lowp
-FUNCTION(_sk_difference_sse41_lowp)
-_sk_difference_sse41_lowp:
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,65,15,56,58,201 // pminuw %xmm9,%xmm1
- .byte 102,68,15,111,13,166,144,0,0 // movdqa 0x90a6(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,19,152,0,0 // movdqa 0x9813(%rip),%xmm10 # 3d630 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
- .byte 102,65,15,219,202 // pand %xmm10,%xmm1
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,68,15,213,199 // pmullw %xmm7,%xmm8
- .byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,69,15,56,58,216 // pminuw %xmm8,%xmm11
- .byte 102,69,15,253,217 // paddw %xmm9,%xmm11
- .byte 102,65,15,113,211,7 // psrlw $0x7,%xmm11
- .byte 102,69,15,219,218 // pand %xmm10,%xmm11
- .byte 102,65,15,249,203 // psubw %xmm11,%xmm1
- .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
- .byte 102,68,15,111,198 // movdqa %xmm6,%xmm8
- .byte 102,68,15,253,194 // paddw %xmm2,%xmm8
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,68,15,56,58,218 // pminuw %xmm2,%xmm11
- .byte 102,69,15,253,217 // paddw %xmm9,%xmm11
- .byte 102,65,15,113,211,7 // psrlw $0x7,%xmm11
- .byte 102,69,15,219,218 // pand %xmm10,%xmm11
- .byte 102,69,15,249,195 // psubw %xmm11,%xmm8
- .byte 102,65,15,111,209 // movdqa %xmm9,%xmm2
- .byte 102,15,249,211 // psubw %xmm3,%xmm2
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,253,218 // paddw %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_exclusion_sse41_lowp
-.globl _sk_exclusion_sse41_lowp
-FUNCTION(_sk_exclusion_sse41_lowp)
-_sk_exclusion_sse41_lowp:
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,226,143,0,0 // movdqa 0x8fe2(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,79,151,0,0 // movdqa 0x974f(%rip),%xmm10 # 3d630 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
- .byte 102,65,15,219,202 // pand %xmm10,%xmm1
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
- .byte 102,69,15,253,193 // paddw %xmm9,%xmm8
- .byte 102,65,15,113,208,7 // psrlw $0x7,%xmm8
- .byte 102,69,15,219,194 // pand %xmm10,%xmm8
- .byte 102,65,15,249,200 // psubw %xmm8,%xmm1
- .byte 102,68,15,111,198 // movdqa %xmm6,%xmm8
- .byte 102,68,15,253,194 // paddw %xmm2,%xmm8
- .byte 102,15,213,214 // pmullw %xmm6,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,7 // psrlw $0x7,%xmm2
- .byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,68,15,249,194 // psubw %xmm2,%xmm8
- .byte 102,65,15,111,209 // movdqa %xmm9,%xmm2
- .byte 102,15,249,211 // psubw %xmm3,%xmm2
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,253,218 // paddw %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hardlight_sse41_lowp
-.globl _sk_hardlight_sse41_lowp
-FUNCTION(_sk_hardlight_sse41_lowp)
-_sk_hardlight_sse41_lowp:
- .byte 102,68,15,111,231 // movdqa %xmm7,%xmm12
- .byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,61,143,0,0 // movdqa 0x8f3d(%rip),%xmm11 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,249,220 // psubw %xmm12,%xmm11
- .byte 102,65,15,111,227 // movdqa %xmm11,%xmm4
- .byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
- .byte 102,68,15,111,251 // movdqa %xmm3,%xmm15
- .byte 102,69,15,249,248 // psubw %xmm8,%xmm15
- .byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,68,15,111,13,166,150,0,0 // movdqa 0x96a6(%rip),%xmm9 # 3d640 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
- .byte 102,69,15,239,241 // pxor %xmm9,%xmm14
- .byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
- .byte 102,69,15,111,212 // movdqa %xmm12,%xmm10
- .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,15,249,197 // psubw %xmm5,%xmm0
- .byte 102,65,15,213,199 // pmullw %xmm15,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,69,15,111,250 // movdqa %xmm10,%xmm15
- .byte 102,68,15,249,248 // psubw %xmm0,%xmm15
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,65,15,239,193 // pxor %xmm9,%xmm0
- .byte 102,65,15,101,198 // pcmpgtw %xmm14,%xmm0
- .byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
- .byte 102,69,15,56,16,199 // pblendvb %xmm0,%xmm15,%xmm8
- .byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
- .byte 102,68,15,111,251 // movdqa %xmm3,%xmm15
- .byte 102,68,15,249,249 // psubw %xmm1,%xmm15
- .byte 102,15,249,198 // psubw %xmm6,%xmm0
- .byte 102,65,15,213,199 // pmullw %xmm15,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,69,15,111,234 // movdqa %xmm10,%xmm13
- .byte 102,68,15,249,232 // psubw %xmm0,%xmm13
- .byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
- .byte 102,68,15,213,249 // pmullw %xmm1,%xmm15
- .byte 102,15,253,201 // paddw %xmm1,%xmm1
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,65,15,239,193 // pxor %xmm9,%xmm0
- .byte 102,65,15,101,198 // pcmpgtw %xmm14,%xmm0
- .byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,65,15,56,16,205 // pblendvb %xmm0,%xmm13,%xmm1
- .byte 102,68,15,213,218 // pmullw %xmm2,%xmm11
- .byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
- .byte 102,68,15,249,234 // psubw %xmm2,%xmm13
- .byte 102,15,253,210 // paddw %xmm2,%xmm2
- .byte 102,68,15,239,202 // pxor %xmm2,%xmm9
- .byte 102,69,15,101,206 // pcmpgtw %xmm14,%xmm9
- .byte 102,15,111,68,36,232 // movdqa -0x18(%rsp),%xmm0
- .byte 102,15,249,248 // psubw %xmm0,%xmm7
- .byte 102,65,15,213,253 // pmullw %xmm13,%xmm7
- .byte 102,15,253,255 // paddw %xmm7,%xmm7
- .byte 102,68,15,249,215 // psubw %xmm7,%xmm10
- .byte 102,15,213,208 // pmullw %xmm0,%xmm2
- .byte 102,68,15,111,232 // movdqa %xmm0,%xmm13
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,46,142,0,0 // movdqa 0x8e2e(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,15,249,195 // psubw %xmm3,%xmm0
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,69,15,253,193 // paddw %xmm9,%xmm8
- .byte 102,68,15,253,199 // paddw %xmm7,%xmm8
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,213,230 // pmullw %xmm6,%xmm4
- .byte 102,65,15,253,231 // paddw %xmm15,%xmm4
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,65,15,213,229 // pmullw %xmm13,%xmm4
- .byte 102,65,15,253,227 // paddw %xmm11,%xmm4
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,253,212 // paddw %xmm4,%xmm2
- .byte 102,65,15,213,196 // pmullw %xmm12,%xmm0
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,252 // movdqa %xmm12,%xmm7
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,65,15,111,245 // movdqa %xmm13,%xmm6
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_overlay_sse41_lowp
-.globl _sk_overlay_sse41_lowp
-FUNCTION(_sk_overlay_sse41_lowp)
-_sk_overlay_sse41_lowp:
- .byte 102,68,15,111,231 // movdqa %xmm7,%xmm12
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,68,15,111,29,145,141,0,0 // movdqa 0x8d91(%rip),%xmm11 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,249,220 // psubw %xmm12,%xmm11
- .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
- .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,15,127,68,36,232 // movdqa %xmm0,-0x18(%rsp)
- .byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
- .byte 102,69,15,249,240 // psubw %xmm8,%xmm14
- .byte 102,68,15,213,196 // pmullw %xmm4,%xmm8
- .byte 102,69,15,111,252 // movdqa %xmm12,%xmm15
- .byte 102,68,15,249,252 // psubw %xmm4,%xmm15
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,111,13,226,148,0,0 // movdqa 0x94e2(%rip),%xmm9 # 3d640 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,69,15,111,212 // movdqa %xmm12,%xmm10
- .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,69,15,213,254 // pmullw %xmm14,%xmm15
- .byte 102,69,15,253,255 // paddw %xmm15,%xmm15
- .byte 102,69,15,111,234 // movdqa %xmm10,%xmm13
- .byte 102,69,15,249,239 // psubw %xmm15,%xmm13
- .byte 102,69,15,111,244 // movdqa %xmm12,%xmm14
- .byte 102,69,15,239,241 // pxor %xmm9,%xmm14
- .byte 102,65,15,239,193 // pxor %xmm9,%xmm0
- .byte 102,65,15,101,198 // pcmpgtw %xmm14,%xmm0
- .byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,69,15,56,16,197 // pblendvb %xmm0,%xmm13,%xmm8
- .byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
- .byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
- .byte 102,68,15,249,233 // psubw %xmm1,%xmm13
- .byte 102,15,249,197 // psubw %xmm5,%xmm0
- .byte 102,65,15,213,197 // pmullw %xmm13,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,69,15,111,234 // movdqa %xmm10,%xmm13
- .byte 102,68,15,249,232 // psubw %xmm0,%xmm13
- .byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
- .byte 102,68,15,213,249 // pmullw %xmm1,%xmm15
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,65,15,239,193 // pxor %xmm9,%xmm0
- .byte 102,65,15,101,198 // pcmpgtw %xmm14,%xmm0
- .byte 102,15,253,201 // paddw %xmm1,%xmm1
- .byte 102,65,15,56,16,205 // pblendvb %xmm0,%xmm13,%xmm1
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,239,200 // pxor %xmm0,%xmm9
- .byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
- .byte 102,15,249,198 // psubw %xmm6,%xmm0
- .byte 102,69,15,101,206 // pcmpgtw %xmm14,%xmm9
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,15,249,250 // psubw %xmm2,%xmm7
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,68,15,249,208 // psubw %xmm0,%xmm10
- .byte 102,68,15,213,218 // pmullw %xmm2,%xmm11
- .byte 102,15,213,214 // pmullw %xmm6,%xmm2
- .byte 102,15,253,210 // paddw %xmm2,%xmm2
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,65,15,56,16,210 // pblendvb %xmm0,%xmm10,%xmm2
- .byte 102,68,15,111,13,116,140,0,0 // movdqa 0x8c74(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,15,249,195 // psubw %xmm3,%xmm0
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,213,252 // pmullw %xmm4,%xmm7
- .byte 102,15,253,124,36,232 // paddw -0x18(%rsp),%xmm7
- .byte 102,69,15,253,193 // paddw %xmm9,%xmm8
- .byte 102,68,15,253,199 // paddw %xmm7,%xmm8
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,65,15,253,255 // paddw %xmm15,%xmm7
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,253,207 // paddw %xmm7,%xmm1
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,213,254 // pmullw %xmm6,%xmm7
- .byte 102,65,15,253,251 // paddw %xmm11,%xmm7
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 102,65,15,213,196 // pmullw %xmm12,%xmm0
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,252 // movdqa %xmm12,%xmm7
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_8888_sse41_lowp
-.globl _sk_load_8888_sse41_lowp
-FUNCTION(_sk_load_8888_sse41_lowp)
-_sk_load_8888_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 342fe <_sk_load_8888_sse41_lowp+0x44>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,240,0,0,0 // lea 0xf0(%rip),%r9 # 343d4 <_sk_load_8888_sse41_lowp+0x11a>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 255,224 // jmpq *%rax
- .byte 102,65,15,110,20,144 // movd (%r8,%rdx,4),%xmm2
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 34357 <_sk_load_8888_sse41_lowp+0x9d>
- .byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
- .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 34357 <_sk_load_8888_sse41_lowp+0x9d>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 243,65,15,126,20,144 // movq (%r8,%rdx,4),%xmm2
- .byte 102,65,15,58,14,208,240 // pblendw $0xf0,%xmm8,%xmm2
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,37 // jmp 34357 <_sk_load_8888_sse41_lowp+0x9d>
- .byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
- .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
- .byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
- .byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
- .byte 243,65,15,111,20,144 // movdqu (%r8,%rdx,4),%xmm2
- .byte 102,15,111,5,241,146,0,0 // movdqa 0x92f1(%rip),%xmm0 # 3d650 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
- .byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,49,139,0,0 // movdqa 0x8b31(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,65,15,219,193 // pand %xmm9,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,202,146,0,0 // movdqa 0x92ca(%rip),%xmm10 # 3d660 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
- .byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,183,146,0,0 // movdqa 0x92b7(%rip),%xmm10 # 3d670 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
- .byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
- .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
- .byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
- .byte 102,65,15,219,209 // pand %xmm9,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 29,255,255,255,74 // sbb $0x4affffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 57,255 // cmp %edi,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 125,255 // jge 343e1 <_sk_load_8888_sse41_lowp+0x127>
- .byte 255 // (bad)
- .byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
- .byte 255,107,255 // ljmp *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,94,255 // lcall *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_8888_dst_sse41_lowp
-.globl _sk_load_8888_dst_sse41_lowp
-FUNCTION(_sk_load_8888_dst_sse41_lowp)
-_sk_load_8888_dst_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 34434 <_sk_load_8888_dst_sse41_lowp+0x44>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 3450c <_sk_load_8888_dst_sse41_lowp+0x11c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 255,224 // jmpq *%rax
- .byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 3448d <_sk_load_8888_dst_sse41_lowp+0x9d>
- .byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 3448d <_sk_load_8888_dst_sse41_lowp+0x9d>
- .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
- .byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
- .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 3448d <_sk_load_8888_dst_sse41_lowp+0x9d>
- .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
- .byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
- .byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,187,145,0,0 // movdqa 0x91bb(%rip),%xmm4 # 3d650 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
- .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
- .byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
- .byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,251,137,0,0 // movdqa 0x89fb(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,65,15,219,225 // pand %xmm9,%xmm4
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,148,145,0,0 // movdqa 0x9194(%rip),%xmm10 # 3d660 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
- .byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,129,145,0,0 // movdqa 0x9181(%rip),%xmm10 # 3d670 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
- .byte 102,65,15,56,0,242 // pshufb %xmm10,%xmm6
- .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
- .byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
- .byte 102,65,15,219,241 // pand %xmm9,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 27,255 // sbb %edi,%edi
- .byte 255 // (bad)
- .byte 255,72,255 // decl -0x1(%rax)
- .byte 255 // (bad)
- .byte 255,55 // pushq (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 34519 <_sk_load_8888_dst_sse41_lowp+0x129>
- .byte 255 // (bad)
- .byte 255,114,255 // pushq -0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,105,255 // ljmp *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_8888_sse41_lowp
-.globl _sk_store_8888_sse41_lowp
-FUNCTION(_sk_store_8888_sse41_lowp)
-_sk_store_8888_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,235,192 // por %xmm0,%xmm8
- .byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
- .byte 102,69,15,56,51,209 // pmovzxwd %xmm9,%xmm10
- .byte 102,69,15,56,51,216 // pmovzxwd %xmm8,%xmm11
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,65,15,113,244,8 // psllw $0x8,%xmm12
- .byte 102,68,15,235,226 // por %xmm2,%xmm12
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,69,15,105,204 // punpckhwd %xmm12,%xmm9
- .byte 102,69,15,235,202 // por %xmm10,%xmm9
- .byte 102,69,15,97,196 // punpcklwd %xmm12,%xmm8
- .byte 102,69,15,235,195 // por %xmm11,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 345ae <_sk_store_8888_sse41_lowp+0x86>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 345f4 <_sk_store_8888_sse41_lowp+0xcc>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 345ed <_sk_store_8888_sse41_lowp+0xc5>
- .byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
- .byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 345ed <_sk_store_8888_sse41_lowp+0xc5>
- .byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 345ed <_sk_store_8888_sse41_lowp+0xc5>
- .byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
- .byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 178,255 // mov $0xff,%dl
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,243 // push %rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 236 // in (%dx),%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,227 // jmpq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_sse41_lowp
-.globl _sk_load_bgra_sse41_lowp
-FUNCTION(_sk_load_bgra_sse41_lowp)
-_sk_load_bgra_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 34654 <_sk_load_bgra_sse41_lowp+0x44>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 3472c <_sk_load_bgra_sse41_lowp+0x11c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 255,224 // jmpq *%rax
- .byte 102,65,15,110,4,144 // movd (%r8,%rdx,4),%xmm0
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 346ad <_sk_load_bgra_sse41_lowp+0x9d>
- .byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 346ad <_sk_load_bgra_sse41_lowp+0x9d>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 243,65,15,126,4,144 // movq (%r8,%rdx,4),%xmm0
- .byte 102,65,15,58,14,192,240 // pblendw $0xf0,%xmm8,%xmm0
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 235,37 // jmp 346ad <_sk_load_bgra_sse41_lowp+0x9d>
- .byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
- .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
- .byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
- .byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
- .byte 243,65,15,111,4,144 // movdqu (%r8,%rdx,4),%xmm0
- .byte 102,15,111,21,155,143,0,0 // movdqa 0x8f9b(%rip),%xmm2 # 3d650 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,56,0,202 // pshufb %xmm2,%xmm1
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,56,0,218 // pshufb %xmm2,%xmm3
- .byte 102,15,108,203 // punpcklqdq %xmm3,%xmm1
- .byte 102,68,15,111,13,219,135,0,0 // movdqa 0x87db(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,65,15,219,209 // pand %xmm9,%xmm2
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,116,143,0,0 // movdqa 0x8f74(%rip),%xmm10 # 3d660 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
- .byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,97,143,0,0 // movdqa 0x8f61(%rip),%xmm10 # 3d670 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
- .byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
- .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
- .byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
- .byte 102,65,15,219,193 // pand %xmm9,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 27,255 // sbb %edi,%edi
- .byte 255 // (bad)
- .byte 255,72,255 // decl -0x1(%rax)
- .byte 255 // (bad)
- .byte 255,55 // pushq (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 34739 <_sk_load_bgra_sse41_lowp+0x129>
- .byte 255 // (bad)
- .byte 255,114,255 // pushq -0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,105,255 // ljmp *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_dst_sse41_lowp
-.globl _sk_load_bgra_dst_sse41_lowp
-FUNCTION(_sk_load_bgra_dst_sse41_lowp)
-_sk_load_bgra_dst_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 3478c <_sk_load_bgra_dst_sse41_lowp+0x44>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,242,0,0,0 // lea 0xf2(%rip),%r9 # 34864 <_sk_load_bgra_dst_sse41_lowp+0x11c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 255,224 // jmpq *%rax
- .byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 347e5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
- .byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 347e5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
- .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
- .byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
- .byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 347e5 <_sk_load_bgra_dst_sse41_lowp+0x9d>
- .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
- .byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
- .byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,99,142,0,0 // movdqa 0x8e63(%rip),%xmm6 # 3d650 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
- .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
- .byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
- .byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,13,163,134,0,0 // movdqa 0x86a3(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,65,15,219,241 // pand %xmm9,%xmm6
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,21,60,142,0,0 // movdqa 0x8e3c(%rip),%xmm10 # 3d660 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,65,15,56,0,250 // pshufb %xmm10,%xmm7
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
- .byte 102,65,15,108,251 // punpcklqdq %xmm11,%xmm7
- .byte 102,68,15,111,21,41,142,0,0 // movdqa 0x8e29(%rip),%xmm10 # 3d670 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
- .byte 102,65,15,56,0,226 // pshufb %xmm10,%xmm4
- .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
- .byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
- .byte 102,65,15,219,225 // pand %xmm9,%xmm4
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 27,255 // sbb %edi,%edi
- .byte 255 // (bad)
- .byte 255,72,255 // decl -0x1(%rax)
- .byte 255 // (bad)
- .byte 255,55 // pushq (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 34871 <_sk_load_bgra_dst_sse41_lowp+0x129>
- .byte 255 // (bad)
- .byte 255,114,255 // pushq -0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,105,255 // ljmp *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,92,255,255 // lcall *-0x1(%rdi,%rdi,8)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_bgra_sse41_lowp
-.globl _sk_store_bgra_sse41_lowp
-FUNCTION(_sk_store_bgra_sse41_lowp)
-_sk_store_bgra_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,235,194 // por %xmm2,%xmm8
- .byte 102,69,15,112,200,78 // pshufd $0x4e,%xmm8,%xmm9
- .byte 102,69,15,56,51,209 // pmovzxwd %xmm9,%xmm10
- .byte 102,69,15,56,51,216 // pmovzxwd %xmm8,%xmm11
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,65,15,113,244,8 // psllw $0x8,%xmm12
- .byte 102,68,15,235,224 // por %xmm0,%xmm12
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,69,15,105,204 // punpckhwd %xmm12,%xmm9
- .byte 102,69,15,235,202 // por %xmm10,%xmm9
- .byte 102,69,15,97,196 // punpcklwd %xmm12,%xmm8
- .byte 102,69,15,235,195 // por %xmm11,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 34906 <_sk_store_bgra_sse41_lowp+0x86>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,87,0,0,0 // lea 0x57(%rip),%r9 # 3494c <_sk_store_bgra_sse41_lowp+0xcc>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,126,4,144 // movd %xmm8,(%r8,%rdx,4)
- .byte 235,63 // jmp 34945 <_sk_store_bgra_sse41_lowp+0xc5>
- .byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
- .byte 243,69,15,127,76,144,16 // movdqu %xmm9,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 34945 <_sk_store_bgra_sse41_lowp+0xc5>
- .byte 102,69,15,58,22,68,144,8,2 // pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- .byte 102,69,15,214,4,144 // movq %xmm8,(%r8,%rdx,4)
- .byte 235,31 // jmp 34945 <_sk_store_bgra_sse41_lowp+0xc5>
- .byte 102,69,15,58,22,76,144,24,2 // pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- .byte 102,69,15,58,22,76,144,20,1 // pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- .byte 102,69,15,126,76,144,16 // movd %xmm9,0x10(%r8,%rdx,4)
- .byte 243,69,15,127,4,144 // movdqu %xmm8,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 178,255 // mov $0xff,%dl
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,243 // push %rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 236 // in (%dx),%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,227 // jmpq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 218,255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_8888_sse41_lowp
-.globl _sk_gather_8888_sse41_lowp
-FUNCTION(_sk_gather_8888_sse41_lowp)
-_sk_gather_8888_sse41_lowp:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 65,15,95,194 // maxps %xmm10,%xmm0
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 243,68,15,16,64,16 // movss 0x10(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 65,15,95,218 // maxps %xmm10,%xmm3
- .byte 65,15,95,210 // maxps %xmm10,%xmm2
- .byte 65,15,93,208 // minps %xmm8,%xmm2
- .byte 65,15,93,216 // minps %xmm8,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,15,110,88,8 // movd 0x8(%rax),%xmm3
- .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3
- .byte 102,15,56,64,211 // pmulld %xmm3,%xmm2
- .byte 102,68,15,56,64,195 // pmulld %xmm3,%xmm8
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,194 // paddd %xmm2,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,65,15,254,200 // paddd %xmm8,%xmm1
- .byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,73,15,126,199 // movq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 67,139,44,184 // mov (%r8,%r15,4),%ebp
- .byte 71,139,52,176 // mov (%r8,%r14,4),%r14d
- .byte 65,139,28,152 // mov (%r8,%rbx,4),%ebx
- .byte 71,139,28,152 // mov (%r8,%r11,4),%r11d
- .byte 71,139,20,144 // mov (%r8,%r10,4),%r10d
- .byte 71,139,12,136 // mov (%r8,%r9,4),%r9d
- .byte 65,139,4,128 // mov (%r8,%rax,4),%eax
- .byte 102,69,15,110,195 // movd %r11d,%xmm8
- .byte 102,69,15,58,34,194,1 // pinsrd $0x1,%r10d,%xmm8
- .byte 102,69,15,58,34,193,2 // pinsrd $0x2,%r9d,%xmm8
- .byte 102,68,15,58,34,192,3 // pinsrd $0x3,%eax,%xmm8
- .byte 102,67,15,110,12,160 // movd (%r8,%r12,4),%xmm1
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,58,34,213,1 // pinsrd $0x1,%ebp,%xmm2
- .byte 102,65,15,58,34,214,2 // pinsrd $0x2,%r14d,%xmm2
- .byte 102,15,58,34,211,3 // pinsrd $0x3,%ebx,%xmm2
- .byte 102,15,196,205,1 // pinsrw $0x1,%ebp,%xmm1
- .byte 102,65,15,196,206,2 // pinsrw $0x2,%r14d,%xmm1
- .byte 102,15,196,203,3 // pinsrw $0x3,%ebx,%xmm1
- .byte 102,65,15,196,203,4 // pinsrw $0x4,%r11d,%xmm1
- .byte 102,65,15,196,202,5 // pinsrw $0x5,%r10d,%xmm1
- .byte 102,65,15,196,201,6 // pinsrw $0x6,%r9d,%xmm1
- .byte 102,15,196,200,7 // pinsrw $0x7,%eax,%xmm1
- .byte 102,68,15,111,13,12,132,0,0 // movdqa 0x840c(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,65,15,219,193 // pand %xmm9,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,165,139,0,0 // movdqa 0x8ba5(%rip),%xmm10 # 3d660 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
- .byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,146,139,0,0 // movdqa 0x8b92(%rip),%xmm10 # 3d670 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
- .byte 102,65,15,56,0,210 // pshufb %xmm10,%xmm2
- .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
- .byte 102,65,15,108,208 // punpcklqdq %xmm8,%xmm2
- .byte 102,65,15,219,209 // pand %xmm9,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gather_bgra_sse41_lowp
-.globl _sk_gather_bgra_sse41_lowp
-FUNCTION(_sk_gather_bgra_sse41_lowp)
-_sk_gather_bgra_sse41_lowp:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 65,15,95,194 // maxps %xmm10,%xmm0
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 243,68,15,16,64,16 // movss 0x10(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 65,15,95,218 // maxps %xmm10,%xmm3
- .byte 65,15,95,210 // maxps %xmm10,%xmm2
- .byte 65,15,93,208 // minps %xmm8,%xmm2
- .byte 65,15,93,216 // minps %xmm8,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,15,110,88,8 // movd 0x8(%rax),%xmm3
- .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3
- .byte 102,15,56,64,211 // pmulld %xmm3,%xmm2
- .byte 102,68,15,56,64,195 // pmulld %xmm3,%xmm8
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,194 // paddd %xmm2,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,65,15,254,200 // paddd %xmm8,%xmm1
- .byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,73,15,126,199 // movq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 67,139,44,184 // mov (%r8,%r15,4),%ebp
- .byte 71,139,52,176 // mov (%r8,%r14,4),%r14d
- .byte 65,139,28,152 // mov (%r8,%rbx,4),%ebx
- .byte 71,139,28,152 // mov (%r8,%r11,4),%r11d
- .byte 71,139,20,144 // mov (%r8,%r10,4),%r10d
- .byte 71,139,12,136 // mov (%r8,%r9,4),%r9d
- .byte 65,139,4,128 // mov (%r8,%rax,4),%eax
- .byte 102,69,15,110,195 // movd %r11d,%xmm8
- .byte 102,69,15,58,34,194,1 // pinsrd $0x1,%r10d,%xmm8
- .byte 102,69,15,58,34,193,2 // pinsrd $0x2,%r9d,%xmm8
- .byte 102,68,15,58,34,192,3 // pinsrd $0x3,%eax,%xmm8
- .byte 102,67,15,110,12,160 // movd (%r8,%r12,4),%xmm1
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,58,34,197,1 // pinsrd $0x1,%ebp,%xmm0
- .byte 102,65,15,58,34,198,2 // pinsrd $0x2,%r14d,%xmm0
- .byte 102,15,58,34,195,3 // pinsrd $0x3,%ebx,%xmm0
- .byte 102,15,196,205,1 // pinsrw $0x1,%ebp,%xmm1
- .byte 102,65,15,196,206,2 // pinsrw $0x2,%r14d,%xmm1
- .byte 102,15,196,203,3 // pinsrw $0x3,%ebx,%xmm1
- .byte 102,65,15,196,203,4 // pinsrw $0x4,%r11d,%xmm1
- .byte 102,65,15,196,202,5 // pinsrw $0x5,%r10d,%xmm1
- .byte 102,65,15,196,201,6 // pinsrw $0x6,%r9d,%xmm1
- .byte 102,15,196,200,7 // pinsrw $0x7,%eax,%xmm1
- .byte 102,68,15,111,13,116,130,0,0 // movdqa 0x8274(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,65,15,219,209 // pand %xmm9,%xmm2
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,68,15,111,21,13,138,0,0 // movdqa 0x8a0d(%rip),%xmm10 # 3d660 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,65,15,56,0,218 // pshufb %xmm10,%xmm3
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
- .byte 102,65,15,108,219 // punpcklqdq %xmm11,%xmm3
- .byte 102,68,15,111,21,250,137,0,0 // movdqa 0x89fa(%rip),%xmm10 # 3d670 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
- .byte 102,65,15,56,0,194 // pshufb %xmm10,%xmm0
- .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
- .byte 102,65,15,108,192 // punpcklqdq %xmm8,%xmm0
- .byte 102,65,15,219,193 // pand %xmm9,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_565_sse41_lowp
-.globl _sk_load_565_sse41_lowp
-FUNCTION(_sk_load_565_sse41_lowp)
-_sk_load_565_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 34cd4 <_sk_load_565_sse41_lowp+0x3c>
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 34d84 <_sk_load_565_sse41_lowp+0xec>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,74 // jmp 34d1e <_sk_load_565_sse41_lowp+0x86>
- .byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,66 // jmp 34d1e <_sk_load_565_sse41_lowp+0x86>
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,65,15,196,76,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm1
- .byte 102,65,15,110,4,80 // movd (%r8,%rdx,2),%xmm0
- .byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,40 // jmp 34d1e <_sk_load_565_sse41_lowp+0x86>
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,65,15,196,76,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm1
- .byte 102,65,15,196,76,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm1
- .byte 102,65,15,196,76,80,8,4 // pinsrw $0x4,0x8(%r8,%rdx,2),%xmm1
- .byte 243,65,15,126,4,80 // movq (%r8,%rdx,2),%xmm0
- .byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,81,137,0,0 // pand 0x8951(%rip),%xmm3 # 3d680 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,80,137,0,0 // pand 0x8950(%rip),%xmm1 # 3d690 <_sk_srcover_bgra_8888_sse2_lowp+0x1444>
- .byte 102,15,111,21,88,137,0,0 // movdqa 0x8958(%rip),%xmm2 # 3d6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,15,113,208,13 // psrlw $0xd,%xmm0
- .byte 102,15,235,195 // por %xmm3,%xmm0
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,113,243,2 // psllw $0x2,%xmm3
- .byte 102,15,113,209,4 // psrlw $0x4,%xmm1
- .byte 102,15,235,203 // por %xmm3,%xmm1
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,113,243,3 // psllw $0x3,%xmm3
- .byte 102,15,113,210,2 // psrlw $0x2,%xmm2
- .byte 102,15,235,211 // por %xmm3,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,46,129,0,0 // movaps 0x812e(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 255,224 // jmpq *%rax
- .byte 69,255 // rex.RB (bad)
- .byte 255 // (bad)
- .byte 255,100,255,255 // jmpq *-0x1(%rdi,%rdi,8)
- .byte 255,88,255 // lcall *-0x1(%rax)
- .byte 255 // (bad)
- .byte 255,142,255,255,255,134 // decl -0x79000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 126,255 // jle 34d99 <_sk_load_565_sse41_lowp+0x101>
- .byte 255 // (bad)
- .byte 255,114,255 // pushq -0x1(%rdx)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_565_dst_sse41_lowp
-.globl _sk_load_565_dst_sse41_lowp
-FUNCTION(_sk_load_565_dst_sse41_lowp)
-_sk_load_565_dst_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 34ddc <_sk_load_565_dst_sse41_lowp+0x3c>
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,196,0,0,0 // lea 0xc4(%rip),%r9 # 34e8c <_sk_load_565_dst_sse41_lowp+0xec>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,74 // jmp 34e26 <_sk_load_565_dst_sse41_lowp+0x86>
- .byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,66 // jmp 34e26 <_sk_load_565_dst_sse41_lowp+0x86>
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,65,15,196,108,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5
- .byte 102,65,15,110,36,80 // movd (%r8,%rdx,2),%xmm4
- .byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,40 // jmp 34e26 <_sk_load_565_dst_sse41_lowp+0x86>
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,65,15,196,108,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5
- .byte 102,65,15,196,108,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5
- .byte 102,65,15,196,108,80,8,4 // pinsrw $0x4,0x8(%r8,%rdx,2),%xmm5
- .byte 243,65,15,126,36,80 // movq (%r8,%rdx,2),%xmm4
- .byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,73,136,0,0 // pand 0x8849(%rip),%xmm7 # 3d680 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,72,136,0,0 // pand 0x8848(%rip),%xmm5 # 3d690 <_sk_srcover_bgra_8888_sse2_lowp+0x1444>
- .byte 102,15,111,53,80,136,0,0 // movdqa 0x8850(%rip),%xmm6 # 3d6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
- .byte 102,15,219,244 // pand %xmm4,%xmm6
- .byte 102,15,113,212,13 // psrlw $0xd,%xmm4
- .byte 102,15,235,231 // por %xmm7,%xmm4
- .byte 102,15,111,253 // movdqa %xmm5,%xmm7
- .byte 102,15,113,247,2 // psllw $0x2,%xmm7
- .byte 102,15,113,213,4 // psrlw $0x4,%xmm5
- .byte 102,15,235,239 // por %xmm7,%xmm5
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,15,113,247,3 // psllw $0x3,%xmm7
- .byte 102,15,113,214,2 // psrlw $0x2,%xmm6
- .byte 102,15,235,247 // por %xmm7,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,38,128,0,0 // movaps 0x8026(%rip),%xmm7 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 255,224 // jmpq *%rax
- .byte 69,255 // rex.RB (bad)
- .byte 255 // (bad)
- .byte 255,100,255,255 // jmpq *-0x1(%rdi,%rdi,8)
- .byte 255,88,255 // lcall *-0x1(%rax)
- .byte 255 // (bad)
- .byte 255,142,255,255,255,134 // decl -0x79000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 126,255 // jle 34ea1 <_sk_load_565_dst_sse41_lowp+0x101>
- .byte 255 // (bad)
- .byte 255,114,255 // pushq -0x1(%rdx)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_565_sse41_lowp
-.globl _sk_store_565_sse41_lowp
-FUNCTION(_sk_store_565_sse41_lowp)
-_sk_store_565_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,228,135,0,0 // pand 0x87e4(%rip),%xmm8 # 3d6b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1464>
- .byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
- .byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,224,135,0,0 // pand 0x87e0(%rip),%xmm9 # 3d6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1474>
- .byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
- .byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 34f1c <_sk_store_565_sse41_lowp+0x74>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,83,0,0,0 // lea 0x53(%rip),%r9 # 34f5c <_sk_store_565_sse41_lowp+0xb4>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 34f56 <_sk_store_565_sse41_lowp+0xae>
- .byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 34f56 <_sk_store_565_sse41_lowp+0xae>
- .byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- .byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 34f56 <_sk_store_565_sse41_lowp+0xae>
- .byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- .byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- .byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- .byte 102,69,15,214,4,80 // movq %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 182,255 // mov $0xff,%dh
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,200 // dec %eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,244 // push %rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 235,255 // jmp 34f6d <_sk_store_565_sse41_lowp+0xc5>
- .byte 255 // (bad)
- .byte 255,226 // jmpq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 217,255 // fcos
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_565_sse41_lowp
-.globl _sk_gather_565_sse41_lowp
-FUNCTION(_sk_gather_565_sse41_lowp)
-_sk_gather_565_sse41_lowp:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 65,15,95,194 // maxps %xmm10,%xmm0
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 243,68,15,16,64,16 // movss 0x10(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 65,15,95,218 // maxps %xmm10,%xmm3
- .byte 65,15,95,210 // maxps %xmm10,%xmm2
- .byte 65,15,93,208 // minps %xmm8,%xmm2
- .byte 65,15,93,216 // minps %xmm8,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,15,110,88,8 // movd 0x8(%rax),%xmm3
- .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3
- .byte 102,15,56,64,211 // pmulld %xmm3,%xmm2
- .byte 102,68,15,56,64,195 // pmulld %xmm3,%xmm8
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,194 // paddd %xmm2,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,65,15,254,200 // paddd %xmm8,%xmm1
- .byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,73,15,126,199 // movq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,183,60,120 // movzwl (%r8,%r15,2),%r15d
- .byte 67,15,183,44,96 // movzwl (%r8,%r12,2),%ebp
- .byte 102,15,110,197 // movd %ebp,%xmm0
- .byte 102,65,15,196,199,1 // pinsrw $0x1,%r15d,%xmm0
- .byte 67,15,183,44,112 // movzwl (%r8,%r14,2),%ebp
- .byte 102,15,196,197,2 // pinsrw $0x2,%ebp,%xmm0
- .byte 65,15,183,28,88 // movzwl (%r8,%rbx,2),%ebx
- .byte 102,15,196,195,3 // pinsrw $0x3,%ebx,%xmm0
- .byte 67,15,183,44,88 // movzwl (%r8,%r11,2),%ebp
- .byte 102,15,196,197,4 // pinsrw $0x4,%ebp,%xmm0
- .byte 67,15,183,44,80 // movzwl (%r8,%r10,2),%ebp
- .byte 102,15,196,197,5 // pinsrw $0x5,%ebp,%xmm0
- .byte 67,15,183,44,72 // movzwl (%r8,%r9,2),%ebp
- .byte 102,15,196,197,6 // pinsrw $0x6,%ebp,%xmm0
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 102,15,196,192,7 // pinsrw $0x7,%eax,%xmm0
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,238,133,0,0 // pand 0x85ee(%rip),%xmm3 # 3d680 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,237,133,0,0 // pand 0x85ed(%rip),%xmm1 # 3d690 <_sk_srcover_bgra_8888_sse2_lowp+0x1444>
- .byte 102,15,111,21,245,133,0,0 // movdqa 0x85f5(%rip),%xmm2 # 3d6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,15,113,208,13 // psrlw $0xd,%xmm0
- .byte 102,15,235,195 // por %xmm3,%xmm0
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,113,243,2 // psllw $0x2,%xmm3
- .byte 102,15,113,209,4 // psrlw $0x4,%xmm1
- .byte 102,15,235,203 // por %xmm3,%xmm1
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,113,243,3 // psllw $0x3,%xmm3
- .byte 102,15,113,210,2 // psrlw $0x2,%xmm2
- .byte 102,15,235,211 // por %xmm3,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,203,125,0,0 // movaps 0x7dcb(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_4444_sse41_lowp
-.globl _sk_load_4444_sse41_lowp
-FUNCTION(_sk_load_4444_sse41_lowp)
-_sk_load_4444_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 3512c <_sk_load_4444_sse41_lowp+0x3d>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,209,0,0,0 // lea 0xd1(%rip),%r9 # 351e8 <_sk_load_4444_sse41_lowp+0xf9>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,76 // jmp 35178 <_sk_load_4444_sse41_lowp+0x89>
- .byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,68 // jmp 35178 <_sk_load_4444_sse41_lowp+0x89>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
- .byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8
- .byte 102,68,15,58,14,192,252 // pblendw $0xfc,%xmm0,%xmm8
- .byte 235,41 // jmp 35178 <_sk_load_4444_sse41_lowp+0x89>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
- .byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
- .byte 102,65,15,196,68,80,8,4 // pinsrw $0x4,0x8(%r8,%rdx,2),%xmm0
- .byte 243,69,15,126,4,80 // movq (%r8,%rdx,2),%xmm8
- .byte 102,68,15,58,14,192,240 // pblendw $0xf0,%xmm0,%xmm8
- .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,113,209,12 // psrlw $0xc,%xmm1
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,60,133,0,0 // movdqa 0x853c(%rip),%xmm0 # 3d6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1484>
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,113,211,4 // psrlw $0x4,%xmm3
- .byte 102,15,219,216 // pand %xmm0,%xmm3
- .byte 102,68,15,219,192 // pand %xmm0,%xmm8
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,113,240,4 // psllw $0x4,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,113,241,4 // psllw $0x4,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,113,242,4 // psllw $0x4,%xmm2
- .byte 102,15,235,211 // por %xmm3,%xmm2
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,113,243,4 // psllw $0x4,%xmm3
- .byte 102,65,15,235,216 // por %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 56,255 // cmp %bh,%bh
- .byte 255 // (bad)
- .byte 255,88,255 // lcall *-0x1(%rax)
- .byte 255 // (bad)
- .byte 255,76,255,255 // decl -0x1(%rdi,%rdi,8)
- .byte 255,131,255,255,255,123 // incl 0x7bffffff(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,115,255 // pushq -0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,103,255 // jmpq *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_4444_dst_sse41_lowp
-.globl _sk_load_4444_dst_sse41_lowp
-FUNCTION(_sk_load_4444_dst_sse41_lowp)
-_sk_load_4444_dst_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 35241 <_sk_load_4444_dst_sse41_lowp+0x3d>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,208,0,0,0 // lea 0xd0(%rip),%r9 # 352fc <_sk_load_4444_dst_sse41_lowp+0xf8>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,76 // jmp 3528d <_sk_load_4444_dst_sse41_lowp+0x89>
- .byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,68 // jmp 3528d <_sk_load_4444_dst_sse41_lowp+0x89>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
- .byte 102,69,15,110,4,80 // movd (%r8,%rdx,2),%xmm8
- .byte 102,68,15,58,14,196,252 // pblendw $0xfc,%xmm4,%xmm8
- .byte 235,41 // jmp 3528d <_sk_load_4444_dst_sse41_lowp+0x89>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
- .byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
- .byte 102,65,15,196,100,80,8,4 // pinsrw $0x4,0x8(%r8,%rdx,2),%xmm4
- .byte 243,69,15,126,4,80 // movq (%r8,%rdx,2),%xmm8
- .byte 102,68,15,58,14,196,240 // pblendw $0xf0,%xmm4,%xmm8
- .byte 102,65,15,111,232 // movdqa %xmm8,%xmm5
- .byte 102,15,113,213,12 // psrlw $0xc,%xmm5
- .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,37,39,132,0,0 // movdqa 0x8427(%rip),%xmm4 # 3d6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1484>
- .byte 102,15,219,244 // pand %xmm4,%xmm6
- .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
- .byte 102,15,113,215,4 // psrlw $0x4,%xmm7
- .byte 102,15,219,252 // pand %xmm4,%xmm7
- .byte 102,68,15,219,196 // pand %xmm4,%xmm8
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,113,244,4 // psllw $0x4,%xmm4
- .byte 102,15,235,229 // por %xmm5,%xmm4
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,15,113,245,4 // psllw $0x4,%xmm5
- .byte 102,15,235,238 // por %xmm6,%xmm5
- .byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,113,246,4 // psllw $0x4,%xmm6
- .byte 102,15,235,247 // por %xmm7,%xmm6
- .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
- .byte 102,15,113,247,4 // psllw $0x4,%xmm7
- .byte 102,65,15,235,248 // por %xmm8,%xmm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 57,255 // cmp %edi,%edi
- .byte 255 // (bad)
- .byte 255,89,255 // lcall *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,77,255 // decl -0x1(%rbp)
- .byte 255 // (bad)
- .byte 255,132,255,255,255,124,255 // incl -0x830001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,116,255,255 // pushq -0x1(%rdi,%rdi,8)
- .byte 255,104,255 // ljmp *-0x1(%rax)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_4444_sse41_lowp
-.globl _sk_store_4444_sse41_lowp
-FUNCTION(_sk_store_4444_sse41_lowp)
-_sk_store_4444_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,164,131,0,0 // pand 0x83a4(%rip),%xmm8 # 3d6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1494>
- .byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
- .byte 102,65,15,113,241,4 // psllw $0x4,%xmm9
- .byte 102,68,15,219,13,160,131,0,0 // pand 0x83a0(%rip),%xmm9 # 3d6f0 <_sk_srcover_bgra_8888_sse2_lowp+0x14a4>
- .byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,68,15,111,21,162,131,0,0 // movdqa 0x83a2(%rip),%xmm10 # 3d700 <_sk_srcover_bgra_8888_sse2_lowp+0x14b4>
- .byte 102,68,15,219,210 // pand %xmm2,%xmm10
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,65,15,113,208,4 // psrlw $0x4,%xmm8
- .byte 102,69,15,235,194 // por %xmm10,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 3539f <_sk_store_4444_sse41_lowp+0x87>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,84,0,0,0 // lea 0x54(%rip),%r9 # 353e0 <_sk_store_4444_sse41_lowp+0xc8>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,58,21,4,80,0 // pextrw $0x0,%xmm8,(%r8,%rdx,2)
- .byte 235,58 // jmp 353d9 <_sk_store_4444_sse41_lowp+0xc1>
- .byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,50 // jmp 353d9 <_sk_store_4444_sse41_lowp+0xc1>
- .byte 102,69,15,58,21,68,80,4,2 // pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- .byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,33 // jmp 353d9 <_sk_store_4444_sse41_lowp+0xc1>
- .byte 102,69,15,58,21,68,80,12,6 // pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- .byte 102,69,15,58,21,68,80,10,5 // pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- .byte 102,69,15,58,21,68,80,8,4 // pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- .byte 102,69,15,214,4,80 // movq %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 181,255 // mov $0xff,%ch
- .byte 255 // (bad)
- .byte 255,208 // callq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,199 // inc %edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,243 // push %rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,225 // jmpq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_4444_sse41_lowp
-.globl _sk_gather_4444_sse41_lowp
-FUNCTION(_sk_gather_4444_sse41_lowp)
-_sk_gather_4444_sse41_lowp:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 65,15,95,194 // maxps %xmm10,%xmm0
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 243,68,15,16,64,16 // movss 0x10(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 65,15,95,218 // maxps %xmm10,%xmm3
- .byte 65,15,95,210 // maxps %xmm10,%xmm2
- .byte 65,15,93,208 // minps %xmm8,%xmm2
- .byte 65,15,93,216 // minps %xmm8,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,15,110,88,8 // movd 0x8(%rax),%xmm3
- .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3
- .byte 102,15,56,64,211 // pmulld %xmm3,%xmm2
- .byte 102,68,15,56,64,195 // pmulld %xmm3,%xmm8
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,194 // paddd %xmm2,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,65,15,254,200 // paddd %xmm8,%xmm1
- .byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,73,15,126,199 // movq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,183,60,120 // movzwl (%r8,%r15,2),%r15d
- .byte 67,15,183,44,96 // movzwl (%r8,%r12,2),%ebp
- .byte 102,68,15,110,197 // movd %ebp,%xmm8
- .byte 102,69,15,196,199,1 // pinsrw $0x1,%r15d,%xmm8
- .byte 67,15,183,44,112 // movzwl (%r8,%r14,2),%ebp
- .byte 102,68,15,196,197,2 // pinsrw $0x2,%ebp,%xmm8
- .byte 65,15,183,28,88 // movzwl (%r8,%rbx,2),%ebx
- .byte 102,68,15,196,195,3 // pinsrw $0x3,%ebx,%xmm8
- .byte 67,15,183,44,88 // movzwl (%r8,%r11,2),%ebp
- .byte 102,68,15,196,197,4 // pinsrw $0x4,%ebp,%xmm8
- .byte 67,15,183,44,80 // movzwl (%r8,%r10,2),%ebp
- .byte 102,68,15,196,197,5 // pinsrw $0x5,%ebp,%xmm8
- .byte 67,15,183,44,72 // movzwl (%r8,%r9,2),%ebp
- .byte 102,68,15,196,197,6 // pinsrw $0x6,%ebp,%xmm8
- .byte 65,15,183,4,64 // movzwl (%r8,%rax,2),%eax
- .byte 102,68,15,196,192,7 // pinsrw $0x7,%eax,%xmm8
- .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,113,209,12 // psrlw $0xc,%xmm1
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,168,129,0,0 // movdqa 0x81a8(%rip),%xmm0 # 3d6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1484>
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,113,211,4 // psrlw $0x4,%xmm3
- .byte 102,15,219,216 // pand %xmm0,%xmm3
- .byte 102,68,15,219,192 // pand %xmm0,%xmm8
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,113,240,4 // psllw $0x4,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,113,241,4 // psllw $0x4,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,113,242,4 // psllw $0x4,%xmm2
- .byte 102,15,235,211 // por %xmm3,%xmm2
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,113,243,4 // psllw $0x4,%xmm3
- .byte 102,65,15,235,216 // por %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_a8_sse41_lowp
-.globl _sk_load_a8_sse41_lowp
-FUNCTION(_sk_load_a8_sse41_lowp)
-_sk_load_a8_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 355ba <_sk_load_a8_sse41_lowp+0x39>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,146,0,0,0 // lea 0x92(%rip),%r9 # 35638 <_sk_load_a8_sse41_lowp+0xb7>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,100 // jmp 3561e <_sk_load_a8_sse41_lowp+0x9d>
- .byte 102,65,15,56,48,28,16 // pmovzxbw (%r8,%rdx,1),%xmm3
- .byte 235,91 // jmp 3561e <_sk_load_a8_sse41_lowp+0x9d>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
- .byte 102,15,58,14,216,252 // pblendw $0xfc,%xmm0,%xmm3
- .byte 235,54 // jmp 3561e <_sk_load_a8_sse41_lowp+0x9d>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 102,15,196,192,5 // pinsrw $0x5,%eax,%xmm0
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 102,15,196,192,4 // pinsrw $0x4,%eax,%xmm0
- .byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
- .byte 102,15,56,48,217 // pmovzxbw %xmm1,%xmm3
- .byte 102,15,58,14,216,240 // pblendw $0xf0,%xmm0,%xmm3
- .byte 102,15,219,29,138,120,0,0 // pand 0x788a(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 119,255 // ja 35639 <_sk_load_a8_sse41_lowp+0xb8>
- .byte 255 // (bad)
- .byte 255,154,255,255,255,139 // lcall *-0x74000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,202 // dec %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,176 // mov $0xb0ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_dst_sse41_lowp
-.globl _sk_load_a8_dst_sse41_lowp
-FUNCTION(_sk_load_a8_dst_sse41_lowp)
-_sk_load_a8_dst_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3568d <_sk_load_a8_dst_sse41_lowp+0x39>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,143,0,0,0 // lea 0x8f(%rip),%r9 # 35708 <_sk_load_a8_dst_sse41_lowp+0xb4>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,100 // jmp 356f1 <_sk_load_a8_dst_sse41_lowp+0x9d>
- .byte 102,65,15,56,48,60,16 // pmovzxbw (%r8,%rdx,1),%xmm7
- .byte 235,91 // jmp 356f1 <_sk_load_a8_dst_sse41_lowp+0x9d>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,232 // movd %eax,%xmm5
- .byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
- .byte 102,15,58,14,252,252 // pblendw $0xfc,%xmm4,%xmm7
- .byte 235,54 // jmp 356f1 <_sk_load_a8_dst_sse41_lowp+0x9d>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 102,15,196,224,5 // pinsrw $0x5,%eax,%xmm4
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 102,15,196,224,4 // pinsrw $0x4,%eax,%xmm4
- .byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
- .byte 102,15,56,48,253 // pmovzxbw %xmm5,%xmm7
- .byte 102,15,58,14,252,240 // pblendw $0xf0,%xmm4,%xmm7
- .byte 102,15,219,61,183,119,0,0 // pand 0x77b7(%rip),%xmm7 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 255,224 // jmpq *%rax
- .byte 122,255 // jp 35709 <_sk_load_a8_dst_sse41_lowp+0xb5>
- .byte 255 // (bad)
- .byte 255,157,255,255,255,142 // lcall *-0x71000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
- .byte 255 // (bad)
- .byte 255,205 // dec %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,194 // inc %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 179,255 // mov $0xff,%bl
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_a8_sse41_lowp
-.globl _sk_store_a8_sse41_lowp
-FUNCTION(_sk_store_a8_sse41_lowp)
-_sk_store_a8_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 35758 <_sk_store_a8_sse41_lowp+0x34>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,131,0,0,0 // lea 0x83(%rip),%r9 # 357c8 <_sk_store_a8_sse41_lowp+0xa4>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,65,15,58,20,28,16,0 // pextrb $0x0,%xmm3,(%r8,%rdx,1)
- .byte 235,105 // jmp 357c1 <_sk_store_a8_sse41_lowp+0x9d>
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,185,126,0,0 // pshufb 0x7eb9(%rip),%xmm8 # 3d620 <_sk_srcover_bgra_8888_sse2_lowp+0x13d4>
- .byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,82 // jmp 357c1 <_sk_store_a8_sse41_lowp+0x9d>
- .byte 102,65,15,58,20,92,16,2,4 // pextrb $0x4,%xmm3,0x2(%r8,%rdx,1)
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,57,119,0,0 // pshufb 0x7739(%rip),%xmm8 # 3cec0 <_sk_srcover_bgra_8888_sse2_lowp+0xc74>
- .byte 102,69,15,58,21,4,16,0 // pextrw $0x0,%xmm8,(%r8,%rdx,1)
- .byte 235,48 // jmp 357c1 <_sk_store_a8_sse41_lowp+0x9d>
- .byte 102,65,15,58,20,92,16,6,12 // pextrb $0xc,%xmm3,0x6(%r8,%rdx,1)
- .byte 102,65,15,58,20,92,16,5,10 // pextrb $0xa,%xmm3,0x5(%r8,%rdx,1)
- .byte 102,65,15,58,20,92,16,4,8 // pextrb $0x8,%xmm3,0x4(%r8,%rdx,1)
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,56,0,5,21,119,0,0 // pshufb 0x7715(%rip),%xmm8 # 3ced0 <_sk_srcover_bgra_8888_sse2_lowp+0xc84>
- .byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 134,255 // xchg %bh,%bh
- .byte 255 // (bad)
- .byte 255,176,255,255,255,167 // pushq -0x58000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,228 // jmpq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_a8_sse41_lowp
-.globl _sk_gather_a8_sse41_lowp
-FUNCTION(_sk_gather_a8_sse41_lowp)
-_sk_gather_a8_sse41_lowp:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 65,15,95,194 // maxps %xmm10,%xmm0
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 243,68,15,16,64,16 // movss 0x10(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 65,15,95,218 // maxps %xmm10,%xmm3
- .byte 65,15,95,210 // maxps %xmm10,%xmm2
- .byte 65,15,93,208 // minps %xmm8,%xmm2
- .byte 65,15,93,216 // minps %xmm8,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,15,110,88,8 // movd 0x8(%rax),%xmm3
- .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3
- .byte 102,15,56,64,211 // pmulld %xmm3,%xmm2
- .byte 102,68,15,56,64,195 // pmulld %xmm3,%xmm8
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,194 // paddd %xmm2,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,65,15,254,200 // paddd %xmm8,%xmm1
- .byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,73,15,126,199 // movq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,182,60,56 // movzbl (%r8,%r15,1),%r15d
- .byte 67,15,182,44,32 // movzbl (%r8,%r12,1),%ebp
- .byte 102,15,110,197 // movd %ebp,%xmm0
- .byte 102,65,15,58,32,199,1 // pinsrb $0x1,%r15d,%xmm0
- .byte 67,15,182,44,48 // movzbl (%r8,%r14,1),%ebp
- .byte 102,15,58,32,197,2 // pinsrb $0x2,%ebp,%xmm0
- .byte 65,15,182,28,24 // movzbl (%r8,%rbx,1),%ebx
- .byte 102,15,58,32,195,3 // pinsrb $0x3,%ebx,%xmm0
- .byte 67,15,182,44,24 // movzbl (%r8,%r11,1),%ebp
- .byte 102,15,58,32,197,4 // pinsrb $0x4,%ebp,%xmm0
- .byte 67,15,182,44,16 // movzbl (%r8,%r10,1),%ebp
- .byte 102,15,58,32,197,5 // pinsrb $0x5,%ebp,%xmm0
- .byte 67,15,182,44,8 // movzbl (%r8,%r9,1),%ebp
- .byte 102,15,58,32,197,6 // pinsrb $0x6,%ebp,%xmm0
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 102,15,58,32,192,7 // pinsrb $0x7,%eax,%xmm0
- .byte 102,15,56,48,216 // pmovzxbw %xmm0,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_g8_sse41_lowp
-.globl _sk_load_g8_sse41_lowp
-FUNCTION(_sk_load_g8_sse41_lowp)
-_sk_load_g8_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3594a <_sk_load_g8_sse41_lowp+0x39>
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,150,0,0,0 // lea 0x96(%rip),%r9 # 359cc <_sk_load_g8_sse41_lowp+0xbb>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,100 // jmp 359ae <_sk_load_g8_sse41_lowp+0x9d>
- .byte 102,65,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm0
- .byte 235,91 // jmp 359ae <_sk_load_g8_sse41_lowp+0x9d>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,196,200,2 // pinsrw $0x2,%eax,%xmm1
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,58,14,193,252 // pblendw $0xfc,%xmm1,%xmm0
- .byte 235,54 // jmp 359ae <_sk_load_g8_sse41_lowp+0x9d>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,196,200,6 // pinsrw $0x6,%eax,%xmm1
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 102,15,196,200,5 // pinsrw $0x5,%eax,%xmm1
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 102,15,196,200,4 // pinsrw $0x4,%eax,%xmm1
- .byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 102,15,58,14,193,240 // pblendw $0xf0,%xmm1,%xmm0
- .byte 102,15,219,5,250,116,0,0 // pand 0x74fa(%rip),%xmm0 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,241,116,0,0 // movaps 0x74f1(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 115,255 // jae 359cd <_sk_load_g8_sse41_lowp+0xbc>
- .byte 255 // (bad)
- .byte 255,150,255,255,255,135 // callq *-0x78000001(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 187,255,255,255,172 // mov $0xacffffff,%ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_dst_sse41_lowp
-.globl _sk_load_g8_dst_sse41_lowp
-FUNCTION(_sk_load_g8_dst_sse41_lowp)
-_sk_load_g8_dst_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 35a21 <_sk_load_g8_dst_sse41_lowp+0x39>
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 35aa0 <_sk_load_g8_dst_sse41_lowp+0xb8>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,100 // jmp 35a85 <_sk_load_g8_dst_sse41_lowp+0x9d>
- .byte 102,65,15,56,48,36,16 // pmovzxbw (%r8,%rdx,1),%xmm4
- .byte 235,91 // jmp 35a85 <_sk_load_g8_dst_sse41_lowp+0x9d>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,15,196,232,2 // pinsrw $0x2,%eax,%xmm5
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,15,58,14,229,252 // pblendw $0xfc,%xmm5,%xmm4
- .byte 235,54 // jmp 35a85 <_sk_load_g8_dst_sse41_lowp+0x9d>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 102,15,196,232,6 // pinsrw $0x6,%eax,%xmm5
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 102,15,196,232,5 // pinsrw $0x5,%eax,%xmm5
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 102,15,196,232,4 // pinsrw $0x4,%eax,%xmm5
- .byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
- .byte 102,15,56,48,228 // pmovzxbw %xmm4,%xmm4
- .byte 102,15,58,14,229,240 // pblendw $0xf0,%xmm5,%xmm4
- .byte 102,15,219,37,35,116,0,0 // pand 0x7423(%rip),%xmm4 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,26,116,0,0 // movaps 0x741a(%rip),%xmm7 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 255,224 // jmpq *%rax
- .byte 118,255 // jbe 35aa1 <_sk_load_g8_dst_sse41_lowp+0xb9>
- .byte 255 // (bad)
- .byte 255,153,255,255,255,138 // lcall *-0x75000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190,255,255,255,175 // mov $0xafffffff,%esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_luminance_to_alpha_sse41_lowp
-.globl _sk_luminance_to_alpha_sse41_lowp
-FUNCTION(_sk_luminance_to_alpha_sse41_lowp)
-_sk_luminance_to_alpha_sse41_lowp:
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,72,124,0,0 // pmullw 0x7c48(%rip),%xmm0 # 3d710 <_sk_srcover_bgra_8888_sse2_lowp+0x14c4>
- .byte 102,15,213,13,80,124,0,0 // pmullw 0x7c50(%rip),%xmm1 # 3d720 <_sk_srcover_bgra_8888_sse2_lowp+0x14d4>
- .byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,84,124,0,0 // pmullw 0x7c54(%rip),%xmm3 # 3d730 <_sk_srcover_bgra_8888_sse2_lowp+0x14e4>
- .byte 102,15,253,217 // paddw %xmm1,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gather_g8_sse41_lowp
-.globl _sk_gather_g8_sse41_lowp
-FUNCTION(_sk_gather_g8_sse41_lowp)
-_sk_gather_g8_sse41_lowp:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 65,15,95,194 // maxps %xmm10,%xmm0
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 243,68,15,16,64,16 // movss 0x10(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 65,15,95,218 // maxps %xmm10,%xmm3
- .byte 65,15,95,210 // maxps %xmm10,%xmm2
- .byte 65,15,93,208 // minps %xmm8,%xmm2
- .byte 65,15,93,216 // minps %xmm8,%xmm3
- .byte 76,139,0 // mov (%rax),%r8
- .byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,15,110,88,8 // movd 0x8(%rax),%xmm3
- .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3
- .byte 102,15,56,64,211 // pmulld %xmm3,%xmm2
- .byte 102,68,15,56,64,195 // pmulld %xmm3,%xmm8
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,194 // paddd %xmm2,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,65,15,254,200 // paddd %xmm8,%xmm1
- .byte 102,72,15,58,22,200,1 // pextrq $0x1,%xmm1,%rax
- .byte 65,137,193 // mov %eax,%r9d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,72,15,58,22,195,1 // pextrq $0x1,%xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,73,15,126,199 // movq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,182,60,56 // movzbl (%r8,%r15,1),%r15d
- .byte 67,15,182,44,32 // movzbl (%r8,%r12,1),%ebp
- .byte 102,15,110,197 // movd %ebp,%xmm0
- .byte 102,65,15,58,32,199,1 // pinsrb $0x1,%r15d,%xmm0
- .byte 67,15,182,44,48 // movzbl (%r8,%r14,1),%ebp
- .byte 102,15,58,32,197,2 // pinsrb $0x2,%ebp,%xmm0
- .byte 65,15,182,28,24 // movzbl (%r8,%rbx,1),%ebx
- .byte 102,15,58,32,195,3 // pinsrb $0x3,%ebx,%xmm0
- .byte 67,15,182,44,24 // movzbl (%r8,%r11,1),%ebp
- .byte 102,15,58,32,197,4 // pinsrb $0x4,%ebp,%xmm0
- .byte 67,15,182,44,16 // movzbl (%r8,%r10,1),%ebp
- .byte 102,15,58,32,197,5 // pinsrb $0x5,%ebp,%xmm0
- .byte 67,15,182,44,8 // movzbl (%r8,%r9,1),%ebp
- .byte 102,15,58,32,197,6 // pinsrb $0x6,%ebp,%xmm0
- .byte 65,15,182,4,0 // movzbl (%r8,%rax,1),%eax
- .byte 102,15,58,32,192,7 // pinsrb $0x7,%eax,%xmm0
- .byte 102,15,56,48,192 // pmovzxbw %xmm0,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,157,114,0,0 // movaps 0x729d(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_1_float_sse41_lowp
-.globl _sk_scale_1_float_sse41_lowp
-FUNCTION(_sk_scale_1_float_sse41_lowp)
-_sk_scale_1_float_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,243,104,0,0 // mulss 0x68f3(%rip),%xmm8 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,186,104,0,0 // addss 0x68ba(%rip),%xmm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
- .byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,78,114,0,0 // movdqa 0x724e(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,65,15,213,208 // pmullw %xmm8,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,65,15,213,216 // pmullw %xmm8,%xmm3
- .byte 102,65,15,253,217 // paddw %xmm9,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lerp_1_float_sse41_lowp
-.globl _sk_lerp_1_float_sse41_lowp
-FUNCTION(_sk_lerp_1_float_sse41_lowp)
-_sk_lerp_1_float_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,123,104,0,0 // mulss 0x687b(%rip),%xmm8 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,66,104,0,0 // addss 0x6842(%rip),%xmm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
- .byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,219,113,0,0 // movdqa 0x71db(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,65,15,213,208 // pmullw %xmm8,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,65,15,213,216 // pmullw %xmm8,%xmm3
- .byte 102,65,15,253,217 // paddw %xmm9,%xmm3
- .byte 102,69,15,249,200 // psubw %xmm8,%xmm9
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,213,196 // pmullw %xmm4,%xmm8
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,213,198 // pmullw %xmm6,%xmm8
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
- .byte 102,65,15,253,217 // paddw %xmm9,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_u8_sse41_lowp
-.globl _sk_scale_u8_sse41_lowp
-FUNCTION(_sk_scale_u8_sse41_lowp)
-_sk_scale_u8_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 35d8c <_sk_scale_u8_sse41_lowp+0x3b>
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,221,0,0,0 // lea 0xdd(%rip),%r9 # 35e54 <_sk_scale_u8_sse41_lowp+0x103>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 35dfb <_sk_scale_u8_sse41_lowp+0xaa>
- .byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 35dfb <_sk_scale_u8_sse41_lowp+0xaa>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
- .byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 35dfb <_sk_scale_u8_sse41_lowp+0xaa>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 102,68,15,196,200,5 // pinsrw $0x5,%eax,%xmm9
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 102,68,15,196,200,4 // pinsrw $0x4,%eax,%xmm9
- .byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
- .byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
- .byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,172,112,0,0 // pand 0x70ac(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,158,112,0,0 // movdqa 0x709e(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,65,15,213,208 // pmullw %xmm8,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,69,15,253,193 // paddw %xmm9,%xmm8
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 44,255 // sub $0xff,%al
- .byte 255 // (bad)
- .byte 255,82,255 // callq *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,65,255 // incl -0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,148,255,255,255,136,255 // callq *-0x770001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 124,255 // jl 35e69 <_sk_scale_u8_sse41_lowp+0x118>
- .byte 255 // (bad)
- .byte 255,107,255 // ljmp *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_u8_sse41_lowp
-.globl _sk_lerp_u8_sse41_lowp
-FUNCTION(_sk_lerp_u8_sse41_lowp)
-_sk_lerp_u8_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 35eab <_sk_lerp_u8_sse41_lowp+0x3b>
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 35fb4 <_sk_lerp_u8_sse41_lowp+0x144>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,111 // jmp 35f1a <_sk_lerp_u8_sse41_lowp+0xaa>
- .byte 102,69,15,56,48,4,16 // pmovzxbw (%r8,%rdx,1),%xmm8
- .byte 235,102 // jmp 35f1a <_sk_lerp_u8_sse41_lowp+0xaa>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,68,15,196,200,2 // pinsrw $0x2,%eax,%xmm9
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
- .byte 102,69,15,58,14,193,252 // pblendw $0xfc,%xmm9,%xmm8
- .byte 235,60 // jmp 35f1a <_sk_lerp_u8_sse41_lowp+0xaa>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,68,15,196,200,6 // pinsrw $0x6,%eax,%xmm9
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 102,68,15,196,200,5 // pinsrw $0x5,%eax,%xmm9
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 102,68,15,196,200,4 // pinsrw $0x4,%eax,%xmm9
- .byte 102,69,15,110,4,16 // movd (%r8,%rdx,1),%xmm8
- .byte 102,69,15,56,48,192 // pmovzxbw %xmm8,%xmm8
- .byte 102,69,15,58,14,193,240 // pblendw $0xf0,%xmm9,%xmm8
- .byte 102,68,15,219,5,141,111,0,0 // pand 0x6f8d(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,68,15,111,21,132,111,0,0 // movdqa 0x6f84(%rip),%xmm10 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,69,15,239,202 // pxor %xmm10,%xmm9
- .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
- .byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
- .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,65,15,253,195 // paddw %xmm11,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
- .byte 102,68,15,213,221 // pmullw %xmm5,%xmm11
- .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,65,15,253,203 // paddw %xmm11,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
- .byte 102,68,15,213,222 // pmullw %xmm6,%xmm11
- .byte 102,65,15,213,208 // pmullw %xmm8,%xmm2
- .byte 102,65,15,253,210 // paddw %xmm10,%xmm2
- .byte 102,65,15,253,211 // paddw %xmm11,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
- .byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,69,15,253,194 // paddw %xmm10,%xmm8
- .byte 102,69,15,253,193 // paddw %xmm9,%xmm8
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 235,254 // jmp 35fb4 <_sk_lerp_u8_sse41_lowp+0x144>
- .byte 255 // (bad)
- .byte 255,17 // callq *(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,83,255 // callq *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,71,255 // incl -0x1(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 59,255 // cmp %edi,%edi
- .byte 255 // (bad)
- .byte 255,42 // ljmp *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_scale_565_sse41_lowp
-.globl _sk_scale_565_sse41_lowp
-FUNCTION(_sk_scale_565_sse41_lowp)
-_sk_scale_565_sse41_lowp:
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 36012 <_sk_scale_565_sse41_lowp+0x42>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,111,1,0,0 // lea 0x16f(%rip),%r9 # 3616c <_sk_scale_565_sse41_lowp+0x19c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 3605e <_sk_scale_565_sse41_lowp+0x8e>
- .byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 3605e <_sk_scale_565_sse41_lowp+0x8e>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
- .byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
- .byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 3605e <_sk_scale_565_sse41_lowp+0x8e>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
- .byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
- .byte 102,65,15,196,68,80,8,4 // pinsrw $0x4,0x8(%r8,%rdx,2),%xmm0
- .byte 243,69,15,126,12,80 // movq (%r8,%rdx,2),%xmm9
- .byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,16,118,0,0 // pand 0x7610(%rip),%xmm0 # 3d680 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
- .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
- .byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,12,118,0,0 // pand 0x760c(%rip),%xmm10 # 3d690 <_sk_srcover_bgra_8888_sse2_lowp+0x1444>
- .byte 102,68,15,111,29,19,118,0,0 // movdqa 0x7613(%rip),%xmm11 # 3d6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
- .byte 102,69,15,219,217 // pand %xmm9,%xmm11
- .byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
- .byte 102,68,15,235,200 // por %xmm0,%xmm9
- .byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
- .byte 102,15,113,240,2 // psllw $0x2,%xmm0
- .byte 102,65,15,113,210,4 // psrlw $0x4,%xmm10
- .byte 102,68,15,235,208 // por %xmm0,%xmm10
- .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
- .byte 102,15,113,240,3 // psllw $0x3,%xmm0
- .byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
- .byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,113,117,0,0 // movdqa 0x7571(%rip),%xmm0 # 3d640 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,68,15,239,224 // pxor %xmm0,%xmm12
- .byte 102,15,239,199 // pxor %xmm7,%xmm0
- .byte 102,65,15,101,196 // pcmpgtw %xmm12,%xmm0
- .byte 102,69,15,111,234 // movdqa %xmm10,%xmm13
- .byte 102,69,15,56,58,235 // pminuw %xmm11,%xmm13
- .byte 102,69,15,56,58,233 // pminuw %xmm9,%xmm13
- .byte 102,69,15,111,226 // movdqa %xmm10,%xmm12
- .byte 102,69,15,56,62,227 // pmaxuw %xmm11,%xmm12
- .byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
- .byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
- .byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,15,111,5,153,109,0,0 // movdqa 0x6d99(%rip),%xmm0 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,68,15,253,200 // paddw %xmm0,%xmm9
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,68,15,213,209 // pmullw %xmm1,%xmm10
- .byte 102,68,15,253,208 // paddw %xmm0,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,68,15,213,218 // pmullw %xmm2,%xmm11
- .byte 102,68,15,253,216 // paddw %xmm0,%xmm11
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,68,15,253,224 // paddw %xmm0,%xmm12
- .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
- .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2
- .byte 102,65,15,111,220 // movdqa %xmm12,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 154 // (bad)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 186,254,255,255,174 // mov $0xaefffffe,%edx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,229 // jmpq *%rbp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 221,254 // (bad)
- .byte 255 // (bad)
- .byte 255,213 // callq *%rbp
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_565_sse41_lowp
-.globl _sk_lerp_565_sse41_lowp
-FUNCTION(_sk_lerp_565_sse41_lowp)
-_sk_lerp_565_sse41_lowp:
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,35 // ja 361ca <_sk_lerp_565_sse41_lowp+0x42>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,187,1,0,0 // lea 0x1bb(%rip),%r9 # 36370 <_sk_lerp_565_sse41_lowp+0x1e8>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 235,76 // jmp 36216 <_sk_lerp_565_sse41_lowp+0x8e>
- .byte 243,69,15,111,12,80 // movdqu (%r8,%rdx,2),%xmm9
- .byte 235,68 // jmp 36216 <_sk_lerp_565_sse41_lowp+0x8e>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
- .byte 102,69,15,110,12,80 // movd (%r8,%rdx,2),%xmm9
- .byte 102,68,15,58,14,200,252 // pblendw $0xfc,%xmm0,%xmm9
- .byte 235,41 // jmp 36216 <_sk_lerp_565_sse41_lowp+0x8e>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
- .byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
- .byte 102,65,15,196,68,80,8,4 // pinsrw $0x4,0x8(%r8,%rdx,2),%xmm0
- .byte 243,69,15,126,12,80 // movq (%r8,%rdx,2),%xmm9
- .byte 102,68,15,58,14,200,240 // pblendw $0xf0,%xmm0,%xmm9
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,219,5,88,116,0,0 // pand 0x7458(%rip),%xmm0 # 3d680 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
- .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
- .byte 102,65,15,113,210,5 // psrlw $0x5,%xmm10
- .byte 102,68,15,219,21,84,116,0,0 // pand 0x7454(%rip),%xmm10 # 3d690 <_sk_srcover_bgra_8888_sse2_lowp+0x1444>
- .byte 102,68,15,111,29,91,116,0,0 // movdqa 0x745b(%rip),%xmm11 # 3d6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
- .byte 102,69,15,219,217 // pand %xmm9,%xmm11
- .byte 102,65,15,113,209,13 // psrlw $0xd,%xmm9
- .byte 102,68,15,235,200 // por %xmm0,%xmm9
- .byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
- .byte 102,15,113,240,2 // psllw $0x2,%xmm0
- .byte 102,65,15,113,210,4 // psrlw $0x4,%xmm10
- .byte 102,68,15,235,208 // por %xmm0,%xmm10
- .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
- .byte 102,15,113,240,3 // psllw $0x3,%xmm0
- .byte 102,65,15,113,211,2 // psrlw $0x2,%xmm11
- .byte 102,68,15,235,216 // por %xmm0,%xmm11
- .byte 102,15,111,5,185,115,0,0 // movdqa 0x73b9(%rip),%xmm0 # 3d640 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,68,15,239,224 // pxor %xmm0,%xmm12
- .byte 102,15,239,199 // pxor %xmm7,%xmm0
- .byte 102,65,15,101,196 // pcmpgtw %xmm12,%xmm0
- .byte 102,69,15,111,234 // movdqa %xmm10,%xmm13
- .byte 102,69,15,56,58,235 // pminuw %xmm11,%xmm13
- .byte 102,69,15,56,58,233 // pminuw %xmm9,%xmm13
- .byte 102,69,15,111,226 // movdqa %xmm10,%xmm12
- .byte 102,69,15,56,62,227 // pmaxuw %xmm11,%xmm12
- .byte 102,69,15,56,62,225 // pmaxuw %xmm9,%xmm12
- .byte 102,69,15,56,16,229 // pblendvb %xmm0,%xmm13,%xmm12
- .byte 102,68,15,111,45,229,107,0,0 // movdqa 0x6be5(%rip),%xmm13 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,65,15,239,197 // pxor %xmm13,%xmm0
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,69,15,253,205 // paddw %xmm13,%xmm9
- .byte 102,68,15,253,200 // paddw %xmm0,%xmm9
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
- .byte 102,65,15,239,197 // pxor %xmm13,%xmm0
- .byte 102,15,213,197 // pmullw %xmm5,%xmm0
- .byte 102,68,15,213,209 // pmullw %xmm1,%xmm10
- .byte 102,69,15,253,213 // paddw %xmm13,%xmm10
- .byte 102,68,15,253,208 // paddw %xmm0,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
- .byte 102,65,15,239,197 // pxor %xmm13,%xmm0
- .byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,68,15,213,218 // pmullw %xmm2,%xmm11
- .byte 102,69,15,253,221 // paddw %xmm13,%xmm11
- .byte 102,68,15,253,216 // paddw %xmm0,%xmm11
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
- .byte 102,65,15,239,197 // pxor %xmm13,%xmm0
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,69,15,253,229 // paddw %xmm13,%xmm12
- .byte 102,68,15,253,224 // paddw %xmm0,%xmm12
- .byte 102,65,15,113,212,8 // psrlw $0x8,%xmm12
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
- .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2
- .byte 102,65,15,111,220 // movdqa %xmm12,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 78,254 // rex.WRX (bad)
- .byte 255 // (bad)
- .byte 255,110,254 // ljmp *-0x2(%rsi)
- .byte 255 // (bad)
- .byte 255,98,254 // jmpq *-0x2(%rdx)
- .byte 255 // (bad)
- .byte 255,153,254,255,255,145 // lcall *-0x6e000002(%rcx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,137,254,255,255,125 // decl 0x7dfffffe(%rcx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_clamp_x_1_sse41_lowp
-.globl _sk_clamp_x_1_sse41_lowp
-FUNCTION(_sk_clamp_x_1_sse41_lowp)
-_sk_clamp_x_1_sse41_lowp:
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 65,15,95,200 // maxps %xmm8,%xmm1
- .byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,112,107,0,0 // movaps 0x6b70(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_repeat_x_1_sse41_lowp
-.globl _sk_repeat_x_1_sse41_lowp
-FUNCTION(_sk_repeat_x_1_sse41_lowp)
-_sk_repeat_x_1_sse41_lowp:
- .byte 102,68,15,58,8,192,1 // roundps $0x1,%xmm0,%xmm8
- .byte 102,68,15,58,8,201,1 // roundps $0x1,%xmm1,%xmm9
- .byte 65,15,92,192 // subps %xmm8,%xmm0
- .byte 65,15,92,201 // subps %xmm9,%xmm1
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 65,15,95,200 // maxps %xmm8,%xmm1
- .byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,58,107,0,0 // movaps 0x6b3a(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_x_1_sse41_lowp
-.globl _sk_mirror_x_1_sse41_lowp
-FUNCTION(_sk_mirror_x_1_sse41_lowp)
-_sk_mirror_x_1_sse41_lowp:
- .byte 68,15,40,5,134,107,0,0 // movaps 0x6b86(%rip),%xmm8 # 3cf70 <_sk_srcover_bgra_8888_sse2_lowp+0xd24>
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,13,6,107,0,0 // movaps 0x6b06(%rip),%xmm9 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 69,15,89,209 // mulps %xmm9,%xmm10
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 102,69,15,58,8,201,1 // roundps $0x1,%xmm9,%xmm9
- .byte 102,69,15,58,8,210,1 // roundps $0x1,%xmm10,%xmm10
- .byte 69,15,88,210 // addps %xmm10,%xmm10
- .byte 69,15,88,201 // addps %xmm9,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 65,15,92,202 // subps %xmm10,%xmm1
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,5,60,112,0,0 // movaps 0x703c(%rip),%xmm8 # 3d470 <_sk_srcover_bgra_8888_sse2_lowp+0x1224>
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 65,15,84,200 // andps %xmm8,%xmm1
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 65,15,95,200 // maxps %xmm8,%xmm1
- .byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,192,106,0,0 // movaps 0x6ac0(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_sse41_lowp
-.globl _sk_decal_x_sse41_lowp
-FUNCTION(_sk_decal_x_sse41_lowp)
-_sk_decal_x_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,194,201,2 // cmpleps %xmm1,%xmm9
- .byte 102,68,15,111,21,220,113,0,0 // movdqa 0x71dc(%rip),%xmm10 # 3d650 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
- .byte 102,69,15,56,0,202 // pshufb %xmm10,%xmm9
- .byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
- .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
- .byte 102,69,15,108,193 // punpcklqdq %xmm9,%xmm8
- .byte 102,65,15,113,240,15 // psllw $0xf,%xmm8
- .byte 102,65,15,113,224,15 // psraw $0xf,%xmm8
- .byte 243,68,15,16,72,64 // movss 0x40(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,40,217 // movaps %xmm1,%xmm11
- .byte 69,15,194,217,1 // cmpltps %xmm9,%xmm11
- .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
- .byte 68,15,40,224 // movaps %xmm0,%xmm12
- .byte 69,15,194,225,1 // cmpltps %xmm9,%xmm12
- .byte 102,69,15,56,0,226 // pshufb %xmm10,%xmm12
- .byte 102,69,15,108,227 // punpcklqdq %xmm11,%xmm12
- .byte 102,65,15,113,244,15 // psllw $0xf,%xmm12
- .byte 102,65,15,113,228,15 // psraw $0xf,%xmm12
- .byte 102,69,15,219,224 // pand %xmm8,%xmm12
- .byte 243,68,15,127,32 // movdqu %xmm12,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_y_sse41_lowp
-.globl _sk_decal_y_sse41_lowp
-FUNCTION(_sk_decal_y_sse41_lowp)
-_sk_decal_y_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,194,203,2 // cmpleps %xmm3,%xmm9
- .byte 102,68,15,111,21,90,113,0,0 // movdqa 0x715a(%rip),%xmm10 # 3d650 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
- .byte 102,69,15,56,0,202 // pshufb %xmm10,%xmm9
- .byte 68,15,194,194,2 // cmpleps %xmm2,%xmm8
- .byte 102,69,15,56,0,194 // pshufb %xmm10,%xmm8
- .byte 102,69,15,108,193 // punpcklqdq %xmm9,%xmm8
- .byte 102,65,15,113,240,15 // psllw $0xf,%xmm8
- .byte 102,65,15,113,224,15 // psraw $0xf,%xmm8
- .byte 243,68,15,16,72,68 // movss 0x44(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,40,219 // movaps %xmm3,%xmm11
- .byte 69,15,194,217,1 // cmpltps %xmm9,%xmm11
- .byte 102,69,15,56,0,218 // pshufb %xmm10,%xmm11
- .byte 68,15,40,226 // movaps %xmm2,%xmm12
- .byte 69,15,194,225,1 // cmpltps %xmm9,%xmm12
- .byte 102,69,15,56,0,226 // pshufb %xmm10,%xmm12
- .byte 102,69,15,108,227 // punpcklqdq %xmm11,%xmm12
- .byte 102,65,15,113,244,15 // psllw $0xf,%xmm12
- .byte 102,65,15,113,228,15 // psraw $0xf,%xmm12
- .byte 102,69,15,219,224 // pand %xmm8,%xmm12
- .byte 243,68,15,127,32 // movdqu %xmm12,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_and_y_sse41_lowp
-.globl _sk_decal_x_and_y_sse41_lowp
-FUNCTION(_sk_decal_x_and_y_sse41_lowp)
-_sk_decal_x_and_y_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,219 // xorps %xmm11,%xmm11
- .byte 68,15,194,217,2 // cmpleps %xmm1,%xmm11
- .byte 102,68,15,111,13,216,112,0,0 // movdqa 0x70d8(%rip),%xmm9 # 3d650 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
- .byte 102,69,15,56,0,217 // pshufb %xmm9,%xmm11
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 68,15,194,208,2 // cmpleps %xmm0,%xmm10
- .byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
- .byte 102,69,15,108,211 // punpcklqdq %xmm11,%xmm10
- .byte 102,65,15,113,242,15 // psllw $0xf,%xmm10
- .byte 102,65,15,113,226,15 // psraw $0xf,%xmm10
- .byte 243,68,15,16,96,64 // movss 0x40(%rax),%xmm12
- .byte 243,68,15,16,88,68 // movss 0x44(%rax),%xmm11
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 68,15,40,233 // movaps %xmm1,%xmm13
- .byte 69,15,194,236,1 // cmpltps %xmm12,%xmm13
- .byte 102,69,15,56,0,233 // pshufb %xmm9,%xmm13
- .byte 68,15,40,240 // movaps %xmm0,%xmm14
- .byte 69,15,194,244,1 // cmpltps %xmm12,%xmm14
- .byte 102,69,15,56,0,241 // pshufb %xmm9,%xmm14
- .byte 102,69,15,108,245 // punpcklqdq %xmm13,%xmm14
- .byte 102,65,15,113,246,15 // psllw $0xf,%xmm14
- .byte 102,65,15,113,230,15 // psraw $0xf,%xmm14
- .byte 69,15,87,228 // xorps %xmm12,%xmm12
- .byte 68,15,194,227,2 // cmpleps %xmm3,%xmm12
- .byte 102,69,15,56,0,225 // pshufb %xmm9,%xmm12
- .byte 68,15,194,194,2 // cmpleps %xmm2,%xmm8
- .byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
- .byte 102,69,15,108,196 // punpcklqdq %xmm12,%xmm8
- .byte 102,65,15,113,240,15 // psllw $0xf,%xmm8
- .byte 102,65,15,113,224,15 // psraw $0xf,%xmm8
- .byte 102,69,15,219,194 // pand %xmm10,%xmm8
- .byte 102,69,15,219,198 // pand %xmm14,%xmm8
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 69,15,194,211,1 // cmpltps %xmm11,%xmm10
- .byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
- .byte 68,15,40,226 // movaps %xmm2,%xmm12
- .byte 69,15,194,227,1 // cmpltps %xmm11,%xmm12
- .byte 102,69,15,56,0,225 // pshufb %xmm9,%xmm12
- .byte 102,69,15,108,226 // punpcklqdq %xmm10,%xmm12
- .byte 102,65,15,113,244,15 // psllw $0xf,%xmm12
- .byte 102,65,15,113,228,15 // psraw $0xf,%xmm12
- .byte 102,69,15,219,224 // pand %xmm8,%xmm12
- .byte 243,68,15,127,32 // movdqu %xmm12,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_check_decal_mask_sse41_lowp
-.globl _sk_check_decal_mask_sse41_lowp
-FUNCTION(_sk_check_decal_mask_sse41_lowp)
-_sk_check_decal_mask_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,16,0 // movups (%rax),%xmm8
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 65,15,84,200 // andps %xmm8,%xmm1
- .byte 65,15,84,208 // andps %xmm8,%xmm2
- .byte 65,15,84,216 // andps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gradient_sse41_lowp
-.globl _sk_gradient_sse41_lowp
-FUNCTION(_sk_gradient_sse41_lowp)
-_sk_gradient_sse41_lowp:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp)
- .byte 72,137,76,36,208 // mov %rcx,-0x30(%rsp)
- .byte 72,137,84,36,200 // mov %rdx,-0x38(%rsp)
- .byte 72,137,124,36,192 // mov %rdi,-0x40(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,137,116,36,184 // mov %rsi,-0x48(%rsp)
- .byte 72,139,8 // mov (%rax),%rcx
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 72,131,249,2 // cmp $0x2,%rcx
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 114,57 // jb 366e4 <_sk_gradient_sse41_lowp+0x75>
- .byte 72,139,80,72 // mov 0x48(%rax),%rdx
- .byte 72,255,201 // dec %rcx
- .byte 72,131,194,4 // add $0x4,%rdx
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 243,15,16,18 // movss (%rdx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,194,248,2 // cmpleps %xmm0,%xmm7
- .byte 102,68,15,250,207 // psubd %xmm7,%xmm9
- .byte 15,194,209,2 // cmpleps %xmm1,%xmm2
- .byte 102,15,250,218 // psubd %xmm2,%xmm3
- .byte 72,131,194,4 // add $0x4,%rdx
- .byte 72,255,201 // dec %rcx
- .byte 117,219 // jne 366bf <_sk_gradient_sse41_lowp+0x50>
- .byte 102,72,15,58,22,219,1 // pextrq $0x1,%xmm3,%rbx
- .byte 65,137,221 // mov %ebx,%r13d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,72,15,126,221 // movq %xmm3,%rbp
- .byte 137,239 // mov %ebp,%edi
- .byte 72,193,237,32 // shr $0x20,%rbp
- .byte 102,69,15,126,200 // movd %xmm9,%r8d
- .byte 102,69,15,58,22,201,1 // pextrd $0x1,%xmm9,%r9d
- .byte 102,69,15,58,22,202,2 // pextrd $0x2,%xmm9,%r10d
- .byte 72,139,72,8 // mov 0x8(%rax),%rcx
- .byte 243,68,15,16,44,185 // movss (%rcx,%rdi,4),%xmm13
- .byte 102,68,15,58,33,44,169,16 // insertps $0x10,(%rcx,%rbp,4),%xmm13
- .byte 243,66,15,16,20,169 // movss (%rcx,%r13,4),%xmm2
- .byte 243,68,15,16,4,153 // movss (%rcx,%rbx,4),%xmm8
- .byte 243,66,15,16,28,129 // movss (%rcx,%r8,4),%xmm3
- .byte 102,66,15,58,33,28,137,16 // insertps $0x10,(%rcx,%r9,4),%xmm3
- .byte 102,66,15,58,33,28,145,32 // insertps $0x20,(%rcx,%r10,4),%xmm3
- .byte 102,69,15,58,22,203,3 // pextrd $0x3,%xmm9,%r11d
- .byte 102,66,15,58,33,28,153,48 // insertps $0x30,(%rcx,%r11,4),%xmm3
- .byte 102,68,15,58,33,234,32 // insertps $0x20,%xmm2,%xmm13
- .byte 76,139,96,16 // mov 0x10(%rax),%r12
- .byte 243,69,15,16,12,188 // movss (%r12,%rdi,4),%xmm9
- .byte 76,139,120,24 // mov 0x18(%rax),%r15
- .byte 243,69,15,16,28,191 // movss (%r15,%rdi,4),%xmm11
- .byte 76,139,112,32 // mov 0x20(%rax),%r14
- .byte 243,69,15,16,20,190 // movss (%r14,%rdi,4),%xmm10
- .byte 72,139,112,40 // mov 0x28(%rax),%rsi
- .byte 243,68,15,16,60,190 // movss (%rsi,%rdi,4),%xmm15
- .byte 72,139,80,48 // mov 0x30(%rax),%rdx
- .byte 243,68,15,16,52,186 // movss (%rdx,%rdi,4),%xmm14
- .byte 72,139,72,56 // mov 0x38(%rax),%rcx
- .byte 243,15,16,20,185 // movss (%rcx,%rdi,4),%xmm2
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 243,68,15,16,36,184 // movss (%rax,%rdi,4),%xmm12
- .byte 102,69,15,58,33,12,172,16 // insertps $0x10,(%r12,%rbp,4),%xmm9
- .byte 102,69,15,58,33,28,175,16 // insertps $0x10,(%r15,%rbp,4),%xmm11
- .byte 102,69,15,58,33,20,174,16 // insertps $0x10,(%r14,%rbp,4),%xmm10
- .byte 102,68,15,58,33,60,174,16 // insertps $0x10,(%rsi,%rbp,4),%xmm15
- .byte 102,68,15,58,33,52,170,16 // insertps $0x10,(%rdx,%rbp,4),%xmm14
- .byte 102,15,58,33,20,169,16 // insertps $0x10,(%rcx,%rbp,4),%xmm2
- .byte 102,68,15,58,33,36,168,16 // insertps $0x10,(%rax,%rbp,4),%xmm12
- .byte 102,69,15,58,33,232,48 // insertps $0x30,%xmm8,%xmm13
- .byte 243,67,15,16,60,172 // movss (%r12,%r13,4),%xmm7
- .byte 102,68,15,58,33,207,32 // insertps $0x20,%xmm7,%xmm9
- .byte 243,65,15,16,60,156 // movss (%r12,%rbx,4),%xmm7
- .byte 102,68,15,58,33,207,48 // insertps $0x30,%xmm7,%xmm9
- .byte 243,67,15,16,60,175 // movss (%r15,%r13,4),%xmm7
- .byte 102,68,15,58,33,223,32 // insertps $0x20,%xmm7,%xmm11
- .byte 243,65,15,16,60,159 // movss (%r15,%rbx,4),%xmm7
- .byte 102,68,15,58,33,223,48 // insertps $0x30,%xmm7,%xmm11
- .byte 243,67,15,16,60,174 // movss (%r14,%r13,4),%xmm7
- .byte 102,68,15,58,33,215,32 // insertps $0x20,%xmm7,%xmm10
- .byte 243,65,15,16,60,158 // movss (%r14,%rbx,4),%xmm7
- .byte 102,68,15,58,33,215,48 // insertps $0x30,%xmm7,%xmm10
- .byte 243,66,15,16,60,174 // movss (%rsi,%r13,4),%xmm7
- .byte 102,68,15,58,33,255,32 // insertps $0x20,%xmm7,%xmm15
- .byte 243,15,16,60,158 // movss (%rsi,%rbx,4),%xmm7
- .byte 102,68,15,58,33,255,48 // insertps $0x30,%xmm7,%xmm15
- .byte 243,66,15,16,60,170 // movss (%rdx,%r13,4),%xmm7
- .byte 102,68,15,58,33,247,32 // insertps $0x20,%xmm7,%xmm14
- .byte 243,15,16,60,154 // movss (%rdx,%rbx,4),%xmm7
- .byte 102,68,15,58,33,247,48 // insertps $0x30,%xmm7,%xmm14
- .byte 243,66,15,16,60,169 // movss (%rcx,%r13,4),%xmm7
- .byte 102,15,58,33,215,32 // insertps $0x20,%xmm7,%xmm2
- .byte 243,15,16,60,153 // movss (%rcx,%rbx,4),%xmm7
- .byte 102,15,58,33,215,48 // insertps $0x30,%xmm7,%xmm2
- .byte 243,66,15,16,60,168 // movss (%rax,%r13,4),%xmm7
- .byte 102,68,15,58,33,231,32 // insertps $0x20,%xmm7,%xmm12
- .byte 243,15,16,60,152 // movss (%rax,%rbx,4),%xmm7
- .byte 102,68,15,58,33,231,48 // insertps $0x30,%xmm7,%xmm12
- .byte 243,66,15,16,60,134 // movss (%rsi,%r8,4),%xmm7
- .byte 102,66,15,58,33,60,142,16 // insertps $0x10,(%rsi,%r9,4),%xmm7
- .byte 102,66,15,58,33,60,150,32 // insertps $0x20,(%rsi,%r10,4),%xmm7
- .byte 102,66,15,58,33,60,158,48 // insertps $0x30,(%rsi,%r11,4),%xmm7
- .byte 68,15,89,233 // mulps %xmm1,%xmm13
- .byte 69,15,88,239 // addps %xmm15,%xmm13
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 15,40,61,48,103,0,0 // movaps 0x6730(%rip),%xmm7 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 68,15,89,239 // mulps %xmm7,%xmm13
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 68,15,40,61,49,102,0,0 // movaps 0x6631(%rip),%xmm15 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 69,15,88,239 // addps %xmm15,%xmm13
- .byte 65,15,88,223 // addps %xmm15,%xmm3
- .byte 243,65,15,91,245 // cvttps2dq %xmm13,%xmm6
- .byte 102,68,15,111,45,107,109,0,0 // movdqa 0x6d6b(%rip),%xmm13 # 3d650 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
- .byte 102,65,15,56,0,245 // pshufb %xmm13,%xmm6
- .byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
- .byte 102,69,15,56,0,197 // pshufb %xmm13,%xmm8
- .byte 102,68,15,108,198 // punpcklqdq %xmm6,%xmm8
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 69,15,88,206 // addps %xmm14,%xmm9
- .byte 243,67,15,16,28,132 // movss (%r12,%r8,4),%xmm3
- .byte 102,67,15,58,33,28,140,16 // insertps $0x10,(%r12,%r9,4),%xmm3
- .byte 102,67,15,58,33,28,148,32 // insertps $0x20,(%r12,%r10,4),%xmm3
- .byte 102,67,15,58,33,28,156,48 // insertps $0x30,(%r12,%r11,4),%xmm3
- .byte 243,66,15,16,52,130 // movss (%rdx,%r8,4),%xmm6
- .byte 102,66,15,58,33,52,138,16 // insertps $0x10,(%rdx,%r9,4),%xmm6
- .byte 102,66,15,58,33,52,146,32 // insertps $0x20,(%rdx,%r10,4),%xmm6
- .byte 102,66,15,58,33,52,154,48 // insertps $0x30,(%rdx,%r11,4),%xmm6
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,222 // addps %xmm6,%xmm3
- .byte 68,15,89,207 // mulps %xmm7,%xmm9
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 69,15,88,207 // addps %xmm15,%xmm9
- .byte 65,15,88,223 // addps %xmm15,%xmm3
- .byte 243,65,15,91,241 // cvttps2dq %xmm9,%xmm6
- .byte 102,65,15,56,0,245 // pshufb %xmm13,%xmm6
- .byte 243,68,15,91,203 // cvttps2dq %xmm3,%xmm9
- .byte 102,69,15,56,0,205 // pshufb %xmm13,%xmm9
- .byte 102,68,15,108,206 // punpcklqdq %xmm6,%xmm9
- .byte 243,67,15,16,28,135 // movss (%r15,%r8,4),%xmm3
- .byte 102,67,15,58,33,28,143,16 // insertps $0x10,(%r15,%r9,4),%xmm3
- .byte 102,67,15,58,33,28,151,32 // insertps $0x20,(%r15,%r10,4),%xmm3
- .byte 102,67,15,58,33,28,159,48 // insertps $0x30,(%r15,%r11,4),%xmm3
- .byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 68,15,88,218 // addps %xmm2,%xmm11
- .byte 243,66,15,16,20,129 // movss (%rcx,%r8,4),%xmm2
- .byte 102,66,15,58,33,20,137,16 // insertps $0x10,(%rcx,%r9,4),%xmm2
- .byte 102,66,15,58,33,20,145,32 // insertps $0x20,(%rcx,%r10,4),%xmm2
- .byte 102,66,15,58,33,20,153,48 // insertps $0x30,(%rcx,%r11,4),%xmm2
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 68,15,89,223 // mulps %xmm7,%xmm11
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 69,15,88,223 // addps %xmm15,%xmm11
- .byte 65,15,88,223 // addps %xmm15,%xmm3
- .byte 243,65,15,91,243 // cvttps2dq %xmm11,%xmm6
- .byte 102,65,15,56,0,245 // pshufb %xmm13,%xmm6
- .byte 243,15,91,211 // cvttps2dq %xmm3,%xmm2
- .byte 102,65,15,56,0,213 // pshufb %xmm13,%xmm2
- .byte 102,15,108,214 // punpcklqdq %xmm6,%xmm2
- .byte 68,15,89,209 // mulps %xmm1,%xmm10
- .byte 69,15,88,212 // addps %xmm12,%xmm10
- .byte 243,67,15,16,12,134 // movss (%r14,%r8,4),%xmm1
- .byte 102,67,15,58,33,12,142,16 // insertps $0x10,(%r14,%r9,4),%xmm1
- .byte 102,67,15,58,33,12,150,32 // insertps $0x20,(%r14,%r10,4),%xmm1
- .byte 102,67,15,58,33,12,158,48 // insertps $0x30,(%r14,%r11,4),%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 243,66,15,16,4,128 // movss (%rax,%r8,4),%xmm0
- .byte 102,66,15,58,33,4,136,16 // insertps $0x10,(%rax,%r9,4),%xmm0
- .byte 102,66,15,58,33,4,144,32 // insertps $0x20,(%rax,%r10,4),%xmm0
- .byte 102,66,15,58,33,4,152,48 // insertps $0x30,(%rax,%r11,4),%xmm0
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 68,15,89,215 // mulps %xmm7,%xmm10
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 69,15,88,215 // addps %xmm15,%xmm10
- .byte 65,15,88,207 // addps %xmm15,%xmm1
- .byte 243,65,15,91,194 // cvttps2dq %xmm10,%xmm0
- .byte 102,65,15,56,0,197 // pshufb %xmm13,%xmm0
- .byte 243,15,91,217 // cvttps2dq %xmm1,%xmm3
- .byte 102,65,15,56,0,221 // pshufb %xmm13,%xmm3
- .byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 72,139,116,36,184 // mov -0x48(%rsp),%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,139,124,36,192 // mov -0x40(%rsp),%rdi
- .byte 72,139,84,36,200 // mov -0x38(%rsp),%rdx
- .byte 72,139,76,36,208 // mov -0x30(%rsp),%rcx
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 15,40,116,36,216 // movaps -0x28(%rsp),%xmm6
- .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_gradient_sse41_lowp
-.globl _sk_evenly_spaced_gradient_sse41_lowp
-FUNCTION(_sk_evenly_spaced_gradient_sse41_lowp)
-_sk_evenly_spaced_gradient_sse41_lowp:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 80 // push %rax
- .byte 15,41,124,36,240 // movaps %xmm7,-0x10(%rsp)
- .byte 15,41,116,36,224 // movaps %xmm6,-0x20(%rsp)
- .byte 15,41,108,36,208 // movaps %xmm5,-0x30(%rsp)
- .byte 15,41,100,36,192 // movaps %xmm4,-0x40(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,139,24 // mov (%rax),%rbx
- .byte 72,139,104,8 // mov 0x8(%rax),%rbp
- .byte 72,255,203 // dec %rbx
- .byte 120,7 // js 36abd <_sk_evenly_spaced_gradient_sse41_lowp+0x34>
- .byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2
- .byte 235,21 // jmp 36ad2 <_sk_evenly_spaced_gradient_sse41_lowp+0x49>
- .byte 73,137,216 // mov %rbx,%r8
- .byte 73,209,232 // shr %r8
- .byte 131,227,1 // and $0x1,%ebx
- .byte 76,9,195 // or %r8,%rbx
- .byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2
- .byte 243,15,88,210 // addss %xmm2,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp)
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 243,15,91,194 // cvttps2dq %xmm2,%xmm0
- .byte 102,73,15,58,22,194,1 // pextrq $0x1,%xmm0,%r10
- .byte 69,137,214 // mov %r10d,%r14d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,73,15,126,197 // movq %xmm0,%r13
- .byte 69,137,236 // mov %r13d,%r12d
- .byte 73,193,237,32 // shr $0x20,%r13
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 102,73,15,58,22,192,1 // pextrq $0x1,%xmm0,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 102,73,15,126,195 // movq %xmm0,%r11
- .byte 69,137,223 // mov %r11d,%r15d
- .byte 73,193,235,32 // shr $0x20,%r11
- .byte 243,70,15,16,68,189,0 // movss 0x0(%rbp,%r15,4),%xmm8
- .byte 102,70,15,58,33,68,157,0,16 // insertps $0x10,0x0(%rbp,%r11,4),%xmm8
- .byte 243,66,15,16,68,141,0 // movss 0x0(%rbp,%r9,4),%xmm0
- .byte 243,66,15,16,84,133,0 // movss 0x0(%rbp,%r8,4),%xmm2
- .byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp)
- .byte 243,66,15,16,92,165,0 // movss 0x0(%rbp,%r12,4),%xmm3
- .byte 102,66,15,58,33,92,173,0,16 // insertps $0x10,0x0(%rbp,%r13,4),%xmm3
- .byte 243,66,15,16,100,181,0 // movss 0x0(%rbp,%r14,4),%xmm4
- .byte 243,66,15,16,108,149,0 // movss 0x0(%rbp,%r10,4),%xmm5
- .byte 102,68,15,58,33,192,32 // insertps $0x20,%xmm0,%xmm8
- .byte 102,68,15,58,33,194,48 // insertps $0x30,%xmm2,%xmm8
- .byte 72,139,88,16 // mov 0x10(%rax),%rbx
- .byte 243,70,15,16,12,187 // movss (%rbx,%r15,4),%xmm9
- .byte 102,70,15,58,33,12,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm9
- .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 243,66,15,16,20,163 // movss (%rbx,%r12,4),%xmm2
- .byte 102,66,15,58,33,20,171,16 // insertps $0x10,(%rbx,%r13,4),%xmm2
- .byte 243,66,15,16,52,179 // movss (%rbx,%r14,4),%xmm6
- .byte 243,66,15,16,60,147 // movss (%rbx,%r10,4),%xmm7
- .byte 102,15,58,33,220,32 // insertps $0x20,%xmm4,%xmm3
- .byte 102,15,58,33,221,48 // insertps $0x30,%xmm5,%xmm3
- .byte 102,68,15,58,33,200,32 // insertps $0x20,%xmm0,%xmm9
- .byte 102,68,15,58,33,201,48 // insertps $0x30,%xmm1,%xmm9
- .byte 102,15,58,33,214,32 // insertps $0x20,%xmm6,%xmm2
- .byte 102,15,58,33,215,48 // insertps $0x30,%xmm7,%xmm2
- .byte 72,139,88,24 // mov 0x18(%rax),%rbx
- .byte 243,70,15,16,28,187 // movss (%rbx,%r15,4),%xmm11
- .byte 102,70,15,58,33,28,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm11
- .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 243,70,15,16,44,163 // movss (%rbx,%r12,4),%xmm13
- .byte 102,70,15,58,33,44,171,16 // insertps $0x10,(%rbx,%r13,4),%xmm13
- .byte 243,66,15,16,36,179 // movss (%rbx,%r14,4),%xmm4
- .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5
- .byte 102,68,15,58,33,216,32 // insertps $0x20,%xmm0,%xmm11
- .byte 102,68,15,58,33,217,48 // insertps $0x30,%xmm1,%xmm11
- .byte 102,68,15,58,33,236,32 // insertps $0x20,%xmm4,%xmm13
- .byte 102,68,15,58,33,237,48 // insertps $0x30,%xmm5,%xmm13
- .byte 72,139,88,32 // mov 0x20(%rax),%rbx
- .byte 243,70,15,16,20,187 // movss (%rbx,%r15,4),%xmm10
- .byte 102,70,15,58,33,20,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm10
- .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
- .byte 102,68,15,58,33,208,32 // insertps $0x20,%xmm0,%xmm10
- .byte 243,66,15,16,4,131 // movss (%rbx,%r8,4),%xmm0
- .byte 102,68,15,58,33,208,48 // insertps $0x30,%xmm0,%xmm10
- .byte 243,70,15,16,36,163 // movss (%rbx,%r12,4),%xmm12
- .byte 102,70,15,58,33,36,171,16 // insertps $0x10,(%rbx,%r13,4),%xmm12
- .byte 243,66,15,16,4,179 // movss (%rbx,%r14,4),%xmm0
- .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1
- .byte 102,68,15,58,33,224,32 // insertps $0x20,%xmm0,%xmm12
- .byte 102,68,15,58,33,225,48 // insertps $0x30,%xmm1,%xmm12
- .byte 72,139,88,40 // mov 0x28(%rax),%rbx
- .byte 243,66,15,16,36,163 // movss (%rbx,%r12,4),%xmm4
- .byte 102,66,15,58,33,36,171,16 // insertps $0x10,(%rbx,%r13,4),%xmm4
- .byte 243,66,15,16,4,179 // movss (%rbx,%r14,4),%xmm0
- .byte 102,15,58,33,224,32 // insertps $0x20,%xmm0,%xmm4
- .byte 243,66,15,16,4,147 // movss (%rbx,%r10,4),%xmm0
- .byte 102,15,58,33,224,48 // insertps $0x30,%xmm0,%xmm4
- .byte 243,66,15,16,4,187 // movss (%rbx,%r15,4),%xmm0
- .byte 102,66,15,58,33,4,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm0
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 102,15,58,33,193,32 // insertps $0x20,%xmm1,%xmm0
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 102,15,58,33,193,48 // insertps $0x30,%xmm1,%xmm0
- .byte 72,139,88,48 // mov 0x30(%rax),%rbx
- .byte 243,66,15,16,60,163 // movss (%rbx,%r12,4),%xmm7
- .byte 102,66,15,58,33,60,171,16 // insertps $0x10,(%rbx,%r13,4),%xmm7
- .byte 243,66,15,16,12,179 // movss (%rbx,%r14,4),%xmm1
- .byte 102,15,58,33,249,32 // insertps $0x20,%xmm1,%xmm7
- .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1
- .byte 102,15,58,33,249,48 // insertps $0x30,%xmm1,%xmm7
- .byte 243,66,15,16,12,187 // movss (%rbx,%r15,4),%xmm1
- .byte 102,66,15,58,33,12,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm1
- .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
- .byte 102,15,58,33,205,32 // insertps $0x20,%xmm5,%xmm1
- .byte 243,66,15,16,44,131 // movss (%rbx,%r8,4),%xmm5
- .byte 102,15,58,33,205,48 // insertps $0x30,%xmm5,%xmm1
- .byte 72,139,88,56 // mov 0x38(%rax),%rbx
- .byte 243,66,15,16,52,163 // movss (%rbx,%r12,4),%xmm6
- .byte 102,66,15,58,33,52,171,16 // insertps $0x10,(%rbx,%r13,4),%xmm6
- .byte 243,66,15,16,44,179 // movss (%rbx,%r14,4),%xmm5
- .byte 102,15,58,33,245,32 // insertps $0x20,%xmm5,%xmm6
- .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5
- .byte 102,15,58,33,245,48 // insertps $0x30,%xmm5,%xmm6
- .byte 15,41,116,36,128 // movaps %xmm6,-0x80(%rsp)
- .byte 243,66,15,16,44,187 // movss (%rbx,%r15,4),%xmm5
- .byte 102,66,15,58,33,44,155,16 // insertps $0x10,(%rbx,%r11,4),%xmm5
- .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
- .byte 102,15,58,33,238,32 // insertps $0x20,%xmm6,%xmm5
- .byte 243,66,15,16,52,131 // movss (%rbx,%r8,4),%xmm6
- .byte 102,15,58,33,238,48 // insertps $0x30,%xmm6,%xmm5
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 243,70,15,16,52,160 // movss (%rax,%r12,4),%xmm14
- .byte 102,70,15,58,33,52,168,16 // insertps $0x10,(%rax,%r13,4),%xmm14
- .byte 243,66,15,16,52,176 // movss (%rax,%r14,4),%xmm6
- .byte 102,68,15,58,33,246,32 // insertps $0x20,%xmm6,%xmm14
- .byte 243,66,15,16,52,144 // movss (%rax,%r10,4),%xmm6
- .byte 102,68,15,58,33,246,48 // insertps $0x30,%xmm6,%xmm14
- .byte 68,15,41,116,36,144 // movaps %xmm14,-0x70(%rsp)
- .byte 243,70,15,16,60,184 // movss (%rax,%r15,4),%xmm15
- .byte 102,70,15,58,33,60,152,16 // insertps $0x10,(%rax,%r11,4),%xmm15
- .byte 243,70,15,16,52,136 // movss (%rax,%r9,4),%xmm14
- .byte 102,69,15,58,33,254,32 // insertps $0x20,%xmm14,%xmm15
- .byte 243,66,15,16,52,128 // movss (%rax,%r8,4),%xmm6
- .byte 102,68,15,58,33,254,48 // insertps $0x30,%xmm6,%xmm15
- .byte 15,40,116,36,160 // movaps -0x60(%rsp),%xmm6
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 15,88,220 // addps %xmm4,%xmm3
- .byte 15,40,100,36,176 // movaps -0x50(%rsp),%xmm4
- .byte 68,15,89,196 // mulps %xmm4,%xmm8
- .byte 68,15,88,192 // addps %xmm0,%xmm8
- .byte 15,40,5,13,98,0,0 // movaps 0x620d(%rip),%xmm0 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 68,15,40,53,14,97,0,0 // movaps 0x610e(%rip),%xmm14 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 69,15,88,198 // addps %xmm14,%xmm8
- .byte 65,15,88,222 // addps %xmm14,%xmm3
- .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 102,15,111,5,74,104,0,0 // movdqa 0x684a(%rip),%xmm0 # 3d650 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
- .byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
- .byte 243,69,15,91,192 // cvttps2dq %xmm8,%xmm8
- .byte 102,68,15,56,0,192 // pshufb %xmm0,%xmm8
- .byte 102,68,15,108,195 // punpcklqdq %xmm3,%xmm8
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 68,15,89,203 // mulps %xmm3,%xmm9
- .byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 15,40,13,189,97,0,0 // movaps 0x61bd(%rip),%xmm1 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 69,15,88,206 // addps %xmm14,%xmm9
- .byte 65,15,88,214 // addps %xmm14,%xmm2
- .byte 243,15,91,202 // cvttps2dq %xmm2,%xmm1
- .byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
- .byte 243,69,15,91,201 // cvttps2dq %xmm9,%xmm9
- .byte 102,68,15,56,0,200 // pshufb %xmm0,%xmm9
- .byte 102,68,15,108,201 // punpcklqdq %xmm1,%xmm9
- .byte 68,15,89,238 // mulps %xmm6,%xmm13
- .byte 68,15,88,108,36,128 // addps -0x80(%rsp),%xmm13
- .byte 68,15,89,219 // mulps %xmm3,%xmm11
- .byte 68,15,88,221 // addps %xmm5,%xmm11
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 68,15,89,233 // mulps %xmm1,%xmm13
- .byte 68,15,89,217 // mulps %xmm1,%xmm11
- .byte 69,15,88,222 // addps %xmm14,%xmm11
- .byte 69,15,88,238 // addps %xmm14,%xmm13
- .byte 243,65,15,91,205 // cvttps2dq %xmm13,%xmm1
- .byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
- .byte 243,65,15,91,211 // cvttps2dq %xmm11,%xmm2
- .byte 102,15,56,0,208 // pshufb %xmm0,%xmm2
- .byte 102,15,108,209 // punpcklqdq %xmm1,%xmm2
- .byte 68,15,89,230 // mulps %xmm6,%xmm12
- .byte 68,15,88,100,36,144 // addps -0x70(%rsp),%xmm12
- .byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 69,15,88,215 // addps %xmm15,%xmm10
- .byte 68,15,89,228 // mulps %xmm4,%xmm12
- .byte 68,15,89,212 // mulps %xmm4,%xmm10
- .byte 69,15,88,214 // addps %xmm14,%xmm10
- .byte 69,15,88,230 // addps %xmm14,%xmm12
- .byte 243,65,15,91,204 // cvttps2dq %xmm12,%xmm1
- .byte 102,15,56,0,200 // pshufb %xmm0,%xmm1
- .byte 243,65,15,91,218 // cvttps2dq %xmm10,%xmm3
- .byte 102,15,56,0,216 // pshufb %xmm0,%xmm3
- .byte 102,15,108,217 // punpcklqdq %xmm1,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 15,40,100,36,192 // movaps -0x40(%rsp),%xmm4
- .byte 15,40,108,36,208 // movaps -0x30(%rsp),%xmm5
- .byte 15,40,116,36,224 // movaps -0x20(%rsp),%xmm6
- .byte 15,40,124,36,240 // movaps -0x10(%rsp),%xmm7
- .byte 72,131,196,8 // add $0x8,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_2_stop_gradient_sse41_lowp
-.globl _sk_evenly_spaced_2_stop_gradient_sse41_lowp
-FUNCTION(_sk_evenly_spaced_2_stop_gradient_sse41_lowp)
-_sk_evenly_spaced_2_stop_gradient_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,24 // movss (%rax),%xmm3
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 243,68,15,16,64,16 // movss 0x10(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 65,15,88,216 // addps %xmm8,%xmm3
- .byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 68,15,40,21,183,96,0,0 // movaps 0x60b7(%rip),%xmm10 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 65,15,89,210 // mulps %xmm10,%xmm2
- .byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 68,15,40,37,183,95,0,0 // movaps 0x5fb7(%rip),%xmm12 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,68,15,111,29,242,102,0,0 // movdqa 0x66f2(%rip),%xmm11 # 3d650 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
- .byte 102,65,15,56,0,211 // pshufb %xmm11,%xmm2
- .byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
- .byte 102,69,15,56,0,195 // pshufb %xmm11,%xmm8
- .byte 102,68,15,108,194 // punpcklqdq %xmm2,%xmm8
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 65,15,89,217 // mulps %xmm9,%xmm3
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 68,15,88,202 // addps %xmm2,%xmm9
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 69,15,89,202 // mulps %xmm10,%xmm9
- .byte 69,15,88,204 // addps %xmm12,%xmm9
- .byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 243,15,91,211 // cvttps2dq %xmm3,%xmm2
- .byte 102,65,15,56,0,211 // pshufb %xmm11,%xmm2
- .byte 243,69,15,91,201 // cvttps2dq %xmm9,%xmm9
- .byte 102,69,15,56,0,203 // pshufb %xmm11,%xmm9
- .byte 102,68,15,108,202 // punpcklqdq %xmm2,%xmm9
- .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,68,15,16,104,24 // movss 0x18(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 65,15,88,213 // addps %xmm13,%xmm2
- .byte 65,15,88,221 // addps %xmm13,%xmm3
- .byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 65,15,89,210 // mulps %xmm10,%xmm2
- .byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 102,65,15,56,0,219 // pshufb %xmm11,%xmm3
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,65,15,56,0,211 // pshufb %xmm11,%xmm2
- .byte 102,15,108,211 // punpcklqdq %xmm3,%xmm2
- .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 243,68,15,16,104,28 // movss 0x1c(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 65,15,88,221 // addps %xmm13,%xmm3
- .byte 65,15,88,205 // addps %xmm13,%xmm1
- .byte 65,15,89,202 // mulps %xmm10,%xmm1
- .byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 243,15,91,193 // cvttps2dq %xmm1,%xmm0
- .byte 102,65,15,56,0,195 // pshufb %xmm11,%xmm0
- .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 102,65,15,56,0,219 // pshufb %xmm11,%xmm3
- .byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_unit_angle_sse41_lowp
-.globl _sk_xy_to_unit_angle_sse41_lowp
-FUNCTION(_sk_xy_to_unit_angle_sse41_lowp)
-_sk_xy_to_unit_angle_sse41_lowp:
- .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp)
- .byte 15,41,108,36,200 // movaps %xmm5,-0x38(%rsp)
- .byte 15,41,100,36,184 // movaps %xmm4,-0x48(%rsp)
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 15,40,37,232,99,0,0 // movaps 0x63e8(%rip),%xmm4 # 3d470 <_sk_srcover_bgra_8888_sse2_lowp+0x1224>
- .byte 68,15,40,233 // movaps %xmm1,%xmm13
- .byte 68,15,84,236 // andps %xmm4,%xmm13
- .byte 69,15,40,216 // movaps %xmm8,%xmm11
- .byte 68,15,84,220 // andps %xmm4,%xmm11
- .byte 68,15,40,231 // movaps %xmm7,%xmm12
- .byte 68,15,84,228 // andps %xmm4,%xmm12
- .byte 15,84,230 // andps %xmm6,%xmm4
- .byte 69,15,40,211 // movaps %xmm11,%xmm10
- .byte 68,15,194,212,1 // cmpltps %xmm4,%xmm10
- .byte 69,15,40,205 // movaps %xmm13,%xmm9
- .byte 69,15,194,204,1 // cmpltps %xmm12,%xmm9
- .byte 69,15,40,244 // movaps %xmm12,%xmm14
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,69,15,56,20,245 // blendvps %xmm0,%xmm13,%xmm14
- .byte 68,15,40,252 // movaps %xmm4,%xmm15
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 102,69,15,56,20,251 // blendvps %xmm0,%xmm11,%xmm15
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,69,15,56,20,236 // blendvps %xmm0,%xmm12,%xmm13
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 102,68,15,56,20,220 // blendvps %xmm0,%xmm4,%xmm11
- .byte 69,15,94,251 // divps %xmm11,%xmm15
- .byte 65,15,40,199 // movaps %xmm15,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,29,232,99,0,0 // movaps 0x63e8(%rip),%xmm11 # 3d4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
- .byte 68,15,40,224 // movaps %xmm0,%xmm12
- .byte 69,15,89,227 // mulps %xmm11,%xmm12
- .byte 68,15,88,37,232,99,0,0 // addps 0x63e8(%rip),%xmm12 # 3d4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12a4>
- .byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,45,237,99,0,0 // movaps 0x63ed(%rip),%xmm5 # 3d500 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
- .byte 68,15,88,229 // addps %xmm5,%xmm12
- .byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 15,40,37,238,99,0,0 // movaps 0x63ee(%rip),%xmm4 # 3d510 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
- .byte 68,15,88,228 // addps %xmm4,%xmm12
- .byte 69,15,89,231 // mulps %xmm15,%xmm12
- .byte 15,40,21,239,99,0,0 // movaps 0x63ef(%rip),%xmm2 # 3d520 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 65,15,92,212 // subps %xmm12,%xmm2
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 102,68,15,56,20,226 // blendvps %xmm0,%xmm2,%xmm12
- .byte 69,15,94,245 // divps %xmm13,%xmm14
- .byte 65,15,40,198 // movaps %xmm14,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,88,29,151,99,0,0 // addps 0x6397(%rip),%xmm11 # 3d4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12a4>
- .byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,88,221 // addps %xmm5,%xmm11
- .byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,88,220 // addps %xmm4,%xmm11
- .byte 69,15,89,222 // mulps %xmm14,%xmm11
- .byte 65,15,92,219 // subps %xmm11,%xmm3
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 102,68,15,56,20,219 // blendvps %xmm0,%xmm3,%xmm11
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 69,15,194,193,1 // cmpltps %xmm9,%xmm8
- .byte 15,40,21,117,93,0,0 // movaps 0x5d75(%rip),%xmm2 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 65,15,92,212 // subps %xmm12,%xmm2
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 102,68,15,56,20,226 // blendvps %xmm0,%xmm2,%xmm12
- .byte 65,15,194,201,1 // cmpltps %xmm9,%xmm1
- .byte 65,15,92,219 // subps %xmm11,%xmm3
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 102,68,15,56,20,219 // blendvps %xmm0,%xmm3,%xmm11
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 65,15,194,193,1 // cmpltps %xmm9,%xmm0
- .byte 15,40,13,83,93,0,0 // movaps 0x5d53(%rip),%xmm1 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 102,68,15,56,20,225 // blendvps %xmm0,%xmm1,%xmm12
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 65,15,194,193,1 // cmpltps %xmm9,%xmm0
- .byte 65,15,92,211 // subps %xmm11,%xmm2
- .byte 102,68,15,56,20,218 // blendvps %xmm0,%xmm2,%xmm11
- .byte 65,15,40,203 // movaps %xmm11,%xmm1
- .byte 65,15,194,201,7 // cmpordps %xmm9,%xmm1
- .byte 69,15,194,204,7 // cmpordps %xmm12,%xmm9
- .byte 69,15,84,204 // andps %xmm12,%xmm9
- .byte 65,15,84,203 // andps %xmm11,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 15,40,100,36,184 // movaps -0x48(%rsp),%xmm4
- .byte 15,40,108,36,200 // movaps -0x38(%rsp),%xmm5
- .byte 15,40,116,36,216 // movaps -0x28(%rsp),%xmm6
- .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_radius_sse41_lowp
-.globl _sk_xy_to_radius_sse41_lowp
-FUNCTION(_sk_xy_to_radius_sse41_lowp)
-_sk_xy_to_radius_sse41_lowp:
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,88,192 // addps %xmm0,%xmm8
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 65,15,81,192 // sqrtps %xmm8,%xmm0
- .byte 65,15,81,201 // sqrtps %xmm9,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_rgba_8888_sse41_lowp
-.globl _sk_srcover_rgba_8888_sse41_lowp
-FUNCTION(_sk_srcover_rgba_8888_sse41_lowp)
-_sk_srcover_rgba_8888_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 65,137,250 // mov %edi,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 65,254,202 // dec %r10b
- .byte 69,15,182,202 // movzbl %r10b,%r9d
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 37289 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,21,2,0,0 // lea 0x215(%rip),%r11 # 37484 <_sk_srcover_rgba_8888_sse41_lowp+0x246>
- .byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 255,224 // jmpq *%rax
- .byte 102,65,15,110,52,144 // movd (%r8,%rdx,4),%xmm6
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 372e2 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
- .byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 372e2 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
- .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 243,65,15,126,52,144 // movq (%r8,%rdx,4),%xmm6
- .byte 102,65,15,58,14,240,240 // pblendw $0xf0,%xmm8,%xmm6
- .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,37 // jmp 372e2 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
- .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
- .byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
- .byte 243,65,15,111,52,144 // movdqu (%r8,%rdx,4),%xmm6
- .byte 102,15,111,37,102,99,0,0 // movdqa 0x6366(%rip),%xmm4 # 3d650 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,15,56,0,236 // pshufb %xmm4,%xmm5
- .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
- .byte 102,15,56,0,252 // pshufb %xmm4,%xmm7
- .byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,166,91,0,0 // movdqa 0x5ba6(%rip),%xmm12 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,65,15,219,228 // pand %xmm12,%xmm4
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,63,99,0,0 // movdqa 0x633f(%rip),%xmm9 # 3d660 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
- .byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,44,99,0,0 // movdqa 0x632c(%rip),%xmm9 # 3d670 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
- .byte 102,65,15,56,0,241 // pshufb %xmm9,%xmm6
- .byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
- .byte 102,65,15,108,240 // punpcklqdq %xmm8,%xmm6
- .byte 102,65,15,219,244 // pand %xmm12,%xmm6
- .byte 102,69,15,111,196 // movdqa %xmm12,%xmm8
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 102,68,15,111,204 // movdqa %xmm4,%xmm9
- .byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,69,15,253,204 // paddw %xmm12,%xmm9
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,68,15,253,200 // paddw %xmm0,%xmm9
- .byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
- .byte 102,69,15,213,208 // pmullw %xmm8,%xmm10
- .byte 102,69,15,253,212 // paddw %xmm12,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,68,15,253,209 // paddw %xmm1,%xmm10
- .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
- .byte 102,69,15,213,216 // pmullw %xmm8,%xmm11
- .byte 102,69,15,253,220 // paddw %xmm12,%xmm11
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,253,218 // paddw %xmm2,%xmm11
- .byte 102,68,15,213,199 // pmullw %xmm7,%xmm8
- .byte 102,69,15,253,196 // paddw %xmm12,%xmm8
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,68,15,253,195 // paddw %xmm3,%xmm8
- .byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
- .byte 102,15,113,240,8 // psllw $0x8,%xmm0
- .byte 102,65,15,235,193 // por %xmm9,%xmm0
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,56,51,209 // pmovzxwd %xmm1,%xmm2
- .byte 102,68,15,56,51,224 // pmovzxwd %xmm0,%xmm12
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,65,15,235,219 // por %xmm11,%xmm3
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,105,203 // punpckhwd %xmm3,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
- .byte 102,65,15,235,196 // por %xmm12,%xmm0
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 3742c <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,133,0,0,0 // lea 0x85(%rip),%r10 # 374a0 <_sk_srcover_rgba_8888_sse41_lowp+0x262>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 3746b <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
- .byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
- .byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 3746b <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
- .byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
- .byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 3746b <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
- .byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
- .byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
- .byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
- .byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
- .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 248 // clc
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,37,254,255,255,20 // jmpq *0x14fffffe(%rip) # 1503748b <_sk_srcover_bgra_8888_sse2_lowp+0x14ffb23f>
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,88,254 // lcall *-0x2(%rax)
- .byte 255 // (bad)
- .byte 255,79,254 // decl -0x2(%rdi)
- .byte 255 // (bad)
- .byte 255,70,254 // incl -0x2(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 57,254 // cmp %edi,%esi
- .byte 255 // (bad)
- .byte 255,132,255,255,255,164,255 // incl -0x5b0001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,155,255,255,255,197 // lcall *-0x3a000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190,255,255,255,181 // mov $0xb5ffffff,%esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 172 // lods %ds:(%rsi),%al
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_srcover_bgra_8888_sse41_lowp
-.globl _sk_srcover_bgra_8888_sse41_lowp
-FUNCTION(_sk_srcover_bgra_8888_sse41_lowp)
-_sk_srcover_bgra_8888_sse41_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 65,137,250 // mov %edi,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 65,254,202 // dec %r10b
- .byte 69,15,182,202 // movzbl %r10b,%r9d
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 37507 <_sk_srcover_bgra_8888_sse41_lowp+0x4b>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,23,2,0,0 // lea 0x217(%rip),%r11 # 37704 <_sk_srcover_bgra_8888_sse41_lowp+0x248>
- .byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 255,224 // jmpq *%rax
- .byte 102,65,15,110,36,144 // movd (%r8,%rdx,4),%xmm4
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,89 // jmp 37560 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
- .byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,74 // jmp 37560 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
- .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 243,65,15,126,36,144 // movq (%r8,%rdx,4),%xmm4
- .byte 102,65,15,58,14,224,240 // pblendw $0xf0,%xmm8,%xmm4
- .byte 102,68,15,111,197 // movdqa %xmm5,%xmm8
- .byte 235,37 // jmp 37560 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
- .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,69,15,58,34,68,144,20,1 // pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
- .byte 102,69,15,58,34,68,144,16,0 // pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
- .byte 243,65,15,111,36,144 // movdqu (%r8,%rdx,4),%xmm4
- .byte 102,15,111,53,232,96,0,0 // movdqa 0x60e8(%rip),%xmm6 # 3d650 <_sk_srcover_bgra_8888_sse2_lowp+0x1404>
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,56,0,238 // pshufb %xmm6,%xmm5
- .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
- .byte 102,15,56,0,254 // pshufb %xmm6,%xmm7
- .byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 102,68,15,111,37,40,89,0,0 // movdqa 0x5928(%rip),%xmm12 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,65,15,219,244 // pand %xmm12,%xmm6
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,68,15,111,13,193,96,0,0 // movdqa 0x60c1(%rip),%xmm9 # 3d660 <_sk_srcover_bgra_8888_sse2_lowp+0x1414>
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,65,15,56,0,249 // pshufb %xmm9,%xmm7
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,69,15,56,0,209 // pshufb %xmm9,%xmm10
- .byte 102,65,15,108,250 // punpcklqdq %xmm10,%xmm7
- .byte 102,68,15,111,13,174,96,0,0 // movdqa 0x60ae(%rip),%xmm9 # 3d670 <_sk_srcover_bgra_8888_sse2_lowp+0x1424>
- .byte 102,65,15,56,0,225 // pshufb %xmm9,%xmm4
- .byte 102,69,15,56,0,193 // pshufb %xmm9,%xmm8
- .byte 102,65,15,108,224 // punpcklqdq %xmm8,%xmm4
- .byte 102,65,15,219,228 // pand %xmm12,%xmm4
- .byte 102,69,15,111,196 // movdqa %xmm12,%xmm8
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 102,68,15,111,204 // movdqa %xmm4,%xmm9
- .byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,69,15,253,204 // paddw %xmm12,%xmm9
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,68,15,253,200 // paddw %xmm0,%xmm9
- .byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
- .byte 102,69,15,213,208 // pmullw %xmm8,%xmm10
- .byte 102,69,15,253,212 // paddw %xmm12,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,68,15,253,209 // paddw %xmm1,%xmm10
- .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
- .byte 102,69,15,213,216 // pmullw %xmm8,%xmm11
- .byte 102,69,15,253,220 // paddw %xmm12,%xmm11
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,253,218 // paddw %xmm2,%xmm11
- .byte 102,68,15,213,199 // pmullw %xmm7,%xmm8
- .byte 102,69,15,253,196 // paddw %xmm12,%xmm8
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,68,15,253,195 // paddw %xmm3,%xmm8
- .byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
- .byte 102,15,113,240,8 // psllw $0x8,%xmm0
- .byte 102,65,15,235,195 // por %xmm11,%xmm0
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,56,51,209 // pmovzxwd %xmm1,%xmm2
- .byte 102,68,15,56,51,224 // pmovzxwd %xmm0,%xmm12
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,65,15,235,217 // por %xmm9,%xmm3
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,105,203 // punpckhwd %xmm3,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
- .byte 102,65,15,235,196 // por %xmm12,%xmm0
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 376aa <_sk_srcover_bgra_8888_sse41_lowp+0x1ee>
- .byte 76,141,21,135,0,0,0 // lea 0x87(%rip),%r10 # 37720 <_sk_srcover_bgra_8888_sse41_lowp+0x264>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,65,15,126,4,144 // movd %xmm0,(%r8,%rdx,4)
- .byte 235,63 // jmp 376e9 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
- .byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
- .byte 243,65,15,127,76,144,16 // movdqu %xmm1,0x10(%r8,%rdx,4)
- .byte 235,48 // jmp 376e9 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
- .byte 102,65,15,58,22,68,144,8,2 // pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
- .byte 102,65,15,214,4,144 // movq %xmm0,(%r8,%rdx,4)
- .byte 235,31 // jmp 376e9 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
- .byte 102,65,15,58,22,76,144,24,2 // pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
- .byte 102,65,15,58,22,76,144,20,1 // pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
- .byte 102,65,15,126,76,144,16 // movd %xmm1,0x10(%r8,%rdx,4)
- .byte 243,65,15,127,4,144 // movdqu %xmm0,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
- .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 246,253 // idiv %ch
- .byte 255 // (bad)
- .byte 255,35 // jmpq *(%rbx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,86,254 // callq *-0x2(%rsi)
- .byte 255 // (bad)
- .byte 255,77,254 // decl -0x2(%rbp)
- .byte 255 // (bad)
- .byte 255,68,254,255 // incl -0x1(%rsi,%rdi,8)
- .byte 255,55 // pushq (%rdi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,130,255,255,255,162 // incl -0x5d000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,153,255,255,255,195 // lcall *-0x3c000001(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 188,255,255,255,179 // mov $0xb3ffffff,%esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 170 // stos %al,%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_start_pipeline_sse2_lowp
-.globl _sk_start_pipeline_sse2_lowp
-FUNCTION(_sk_start_pipeline_sse2_lowp)
-_sk_start_pipeline_sse2_lowp:
- .byte 85 // push %rbp
- .byte 72,137,229 // mov %rsp,%rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,131,236,24 // sub $0x18,%rsp
- .byte 73,137,215 // mov %rdx,%r15
- .byte 72,137,243 // mov %rsi,%rbx
- .byte 72,137,125,208 // mov %rdi,-0x30(%rbp)
- .byte 76,137,198 // mov %r8,%rsi
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 73,137,197 // mov %rax,%r13
- .byte 73,137,246 // mov %rsi,%r14
- .byte 72,137,77,192 // mov %rcx,-0x40(%rbp)
- .byte 72,57,203 // cmp %rcx,%rbx
- .byte 15,131,131,0,0,0 // jae 377f2 <_sk_start_pipeline_sse2_lowp+0xb6>
- .byte 72,139,69,208 // mov -0x30(%rbp),%rax
- .byte 72,141,64,8 // lea 0x8(%rax),%rax
- .byte 72,137,69,200 // mov %rax,-0x38(%rbp)
- .byte 76,57,125,200 // cmp %r15,-0x38(%rbp)
- .byte 72,139,85,208 // mov -0x30(%rbp),%rdx
- .byte 119,59 // ja 377c0 <_sk_start_pipeline_sse2_lowp+0x84>
- .byte 76,139,101,208 // mov -0x30(%rbp),%r12
- .byte 49,255 // xor %edi,%edi
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 76,137,226 // mov %r12,%rdx
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 73,141,84,36,8 // lea 0x8(%r12),%rdx
- .byte 73,131,196,16 // add $0x10,%r12
- .byte 77,57,252 // cmp %r15,%r12
- .byte 73,137,212 // mov %rdx,%r12
- .byte 118,201 // jbe 37789 <_sk_start_pipeline_sse2_lowp+0x4d>
- .byte 76,137,255 // mov %r15,%rdi
- .byte 72,41,215 // sub %rdx,%rdi
- .byte 116,33 // je 377e9 <_sk_start_pipeline_sse2_lowp+0xad>
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 76,137,246 // mov %r14,%rsi
- .byte 72,137,217 // mov %rbx,%rcx
- .byte 65,255,213 // callq *%r13
- .byte 72,255,195 // inc %rbx
- .byte 72,59,93,192 // cmp -0x40(%rbp),%rbx
- .byte 117,137 // jne 3777b <_sk_start_pipeline_sse2_lowp+0x3f>
- .byte 72,131,196,24 // add $0x18,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 195 // retq
-
-HIDDEN _sk_just_return_sse2_lowp
-.globl _sk_just_return_sse2_lowp
-FUNCTION(_sk_just_return_sse2_lowp)
-_sk_just_return_sse2_lowp:
- .byte 195 // retq
-
-HIDDEN _sk_seed_shader_sse2_lowp
-.globl _sk_seed_shader_sse2_lowp
-FUNCTION(_sk_seed_shader_sse2_lowp)
-_sk_seed_shader_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,110,194 // movd %edx,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 15,91,208 // cvtdq2ps %xmm0,%xmm2
- .byte 15,16,0 // movups (%rax),%xmm0
- .byte 15,16,72,16 // movups 0x10(%rax),%xmm1
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 102,15,110,209 // movd %ecx,%xmm2
- .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,21,208,86,0,0 // addps 0x56d0(%rip),%xmm2 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_translate_sse2_lowp
-.globl _sk_matrix_translate_sse2_lowp
-FUNCTION(_sk_matrix_translate_sse2_lowp)
-_sk_matrix_translate_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 65,15,88,209 // addps %xmm9,%xmm2
- .byte 65,15,88,217 // addps %xmm9,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_scale_translate_sse2_lowp
-.globl _sk_matrix_scale_translate_sse2_lowp
-FUNCTION(_sk_matrix_scale_translate_sse2_lowp)
-_sk_matrix_scale_translate_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,88,194 // addps %xmm10,%xmm0
- .byte 65,15,88,202 // addps %xmm10,%xmm1
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 65,15,89,217 // mulps %xmm9,%xmm3
- .byte 65,15,89,209 // mulps %xmm9,%xmm2
- .byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 65,15,88,216 // addps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_2x3_sse2_lowp
-.globl _sk_matrix_2x3_sse2_lowp
-FUNCTION(_sk_matrix_2x3_sse2_lowp)
-_sk_matrix_2x3_sse2_lowp:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,68,15,16,88,4 // movss 0x4(%rax),%xmm11
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,68,15,16,80,8 // movss 0x8(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,72,16 // movss 0x10(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,40,226 // movaps %xmm2,%xmm12
- .byte 69,15,89,226 // mulps %xmm10,%xmm12
- .byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 69,15,88,209 // addps %xmm9,%xmm10
- .byte 69,15,88,225 // addps %xmm9,%xmm12
- .byte 68,15,40,201 // movaps %xmm1,%xmm9
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 65,15,89,192 // mulps %xmm8,%xmm0
- .byte 65,15,88,196 // addps %xmm12,%xmm0
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 243,68,15,16,80,12 // movss 0xc(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,96,20 // movss 0x14(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 65,15,89,210 // mulps %xmm10,%xmm2
- .byte 68,15,89,211 // mulps %xmm3,%xmm10
- .byte 69,15,88,212 // addps %xmm12,%xmm10
- .byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 65,15,89,203 // mulps %xmm11,%xmm1
- .byte 68,15,88,209 // addps %xmm1,%xmm10
- .byte 69,15,89,216 // mulps %xmm8,%xmm11
- .byte 65,15,88,211 // addps %xmm11,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,201 // movaps %xmm9,%xmm1
- .byte 65,15,40,218 // movaps %xmm10,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_matrix_perspective_sse2_lowp
-.globl _sk_matrix_perspective_sse2_lowp
-FUNCTION(_sk_matrix_perspective_sse2_lowp)
-_sk_matrix_perspective_sse2_lowp:
- .byte 68,15,40,193 // movaps %xmm1,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,8 // movss (%rax),%xmm1
- .byte 243,68,15,16,80,4 // movss 0x4(%rax),%xmm10
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,72,8 // movss 0x8(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,40,219 // movaps %xmm3,%xmm11
- .byte 69,15,89,218 // mulps %xmm10,%xmm11
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 69,15,88,209 // addps %xmm9,%xmm10
- .byte 69,15,88,217 // addps %xmm9,%xmm11
- .byte 68,15,40,200 // movaps %xmm0,%xmm9
- .byte 68,15,89,201 // mulps %xmm1,%xmm9
- .byte 69,15,88,202 // addps %xmm10,%xmm9
- .byte 65,15,89,200 // mulps %xmm8,%xmm1
- .byte 65,15,88,203 // addps %xmm11,%xmm1
- .byte 243,68,15,16,96,12 // movss 0xc(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 243,68,15,16,80,16 // movss 0x10(%rax),%xmm10
- .byte 69,15,198,210,0 // shufps $0x0,%xmm10,%xmm10
- .byte 243,68,15,16,104,20 // movss 0x14(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 68,15,40,219 // movaps %xmm3,%xmm11
- .byte 69,15,89,218 // mulps %xmm10,%xmm11
- .byte 68,15,89,210 // mulps %xmm2,%xmm10
- .byte 69,15,88,213 // addps %xmm13,%xmm10
- .byte 69,15,88,221 // addps %xmm13,%xmm11
- .byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 69,15,88,213 // addps %xmm13,%xmm10
- .byte 69,15,89,224 // mulps %xmm8,%xmm12
- .byte 69,15,88,220 // addps %xmm12,%xmm11
- .byte 243,68,15,16,96,24 // movss 0x18(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 243,68,15,16,104,28 // movss 0x1c(%rax),%xmm13
- .byte 69,15,198,237,0 // shufps $0x0,%xmm13,%xmm13
- .byte 243,68,15,16,112,32 // movss 0x20(%rax),%xmm14
- .byte 69,15,198,246,0 // shufps $0x0,%xmm14,%xmm14
- .byte 65,15,89,221 // mulps %xmm13,%xmm3
- .byte 68,15,89,234 // mulps %xmm2,%xmm13
- .byte 69,15,88,238 // addps %xmm14,%xmm13
- .byte 65,15,88,222 // addps %xmm14,%xmm3
- .byte 65,15,89,196 // mulps %xmm12,%xmm0
- .byte 65,15,88,197 // addps %xmm13,%xmm0
- .byte 69,15,89,224 // mulps %xmm8,%xmm12
- .byte 68,15,88,227 // addps %xmm3,%xmm12
- .byte 15,83,192 // rcpps %xmm0,%xmm0
- .byte 65,15,83,212 // rcpps %xmm12,%xmm2
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 68,15,89,218 // mulps %xmm2,%xmm11
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 65,15,40,193 // movaps %xmm9,%xmm0
- .byte 65,15,40,210 // movaps %xmm10,%xmm2
- .byte 65,15,40,219 // movaps %xmm11,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_uniform_color_sse2_lowp
-.globl _sk_uniform_color_sse2_lowp
-FUNCTION(_sk_uniform_color_sse2_lowp)
-_sk_uniform_color_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,110,64,16 // movd 0x10(%rax),%xmm0
- .byte 242,15,112,192,0 // pshuflw $0x0,%xmm0,%xmm0
- .byte 102,15,112,192,80 // pshufd $0x50,%xmm0,%xmm0
- .byte 68,15,183,64,18 // movzwl 0x12(%rax),%r8d
- .byte 102,65,15,110,200 // movd %r8d,%xmm1
- .byte 242,15,112,201,0 // pshuflw $0x0,%xmm1,%xmm1
- .byte 102,15,112,201,80 // pshufd $0x50,%xmm1,%xmm1
- .byte 102,15,110,80,20 // movd 0x14(%rax),%xmm2
- .byte 242,15,112,210,0 // pshuflw $0x0,%xmm2,%xmm2
- .byte 102,15,112,210,80 // pshufd $0x50,%xmm2,%xmm2
- .byte 15,183,64,22 // movzwl 0x16(%rax),%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 242,15,112,219,0 // pshuflw $0x0,%xmm3,%xmm3
- .byte 102,15,112,219,80 // pshufd $0x50,%xmm3,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_black_color_sse2_lowp
-.globl _sk_black_color_sse2_lowp
-FUNCTION(_sk_black_color_sse2_lowp)
-_sk_black_color_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,21,84,0,0 // movaps 0x5415(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_white_color_sse2_lowp
-.globl _sk_white_color_sse2_lowp
-FUNCTION(_sk_white_color_sse2_lowp)
-_sk_white_color_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,5,1,84,0,0 // movaps 0x5401(%rip),%xmm0 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_set_rgb_sse2_lowp
-.globl _sk_set_rgb_sse2_lowp
-FUNCTION(_sk_set_rgb_sse2_lowp)
-_sk_set_rgb_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,21,100,74,0,0 // movss 0x4a64(%rip),%xmm2 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,15,16,0 // movss (%rax),%xmm0
- .byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,68,15,16,5,35,74,0,0 // movss 0x4a23(%rip),%xmm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 243,65,15,88,192 // addss %xmm8,%xmm0
- .byte 243,68,15,44,192 // cvttss2si %xmm0,%r8d
- .byte 102,65,15,110,192 // movd %r8d,%xmm0
- .byte 242,15,112,192,0 // pshuflw $0x0,%xmm0,%xmm0
- .byte 102,15,112,192,80 // pshufd $0x50,%xmm0,%xmm0
- .byte 243,15,16,72,4 // movss 0x4(%rax),%xmm1
- .byte 243,15,89,202 // mulss %xmm2,%xmm1
- .byte 243,65,15,88,200 // addss %xmm8,%xmm1
- .byte 243,68,15,44,193 // cvttss2si %xmm1,%r8d
- .byte 102,65,15,110,200 // movd %r8d,%xmm1
- .byte 242,15,112,201,0 // pshuflw $0x0,%xmm1,%xmm1
- .byte 102,15,112,201,80 // pshufd $0x50,%xmm1,%xmm1
- .byte 243,15,89,80,8 // mulss 0x8(%rax),%xmm2
- .byte 243,65,15,88,208 // addss %xmm8,%xmm2
- .byte 243,15,44,194 // cvttss2si %xmm2,%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 242,15,112,210,0 // pshuflw $0x0,%xmm2,%xmm2
- .byte 102,15,112,210,80 // pshufd $0x50,%xmm2,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_sse2_lowp
-.globl _sk_clamp_a_sse2_lowp
-FUNCTION(_sk_clamp_a_sse2_lowp)
-_sk_clamp_a_sse2_lowp:
- .byte 102,68,15,111,5,7,91,0,0 // movdqa 0x5b07(%rip),%xmm8 # 3d640 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,211 // movdqa %xmm3,%xmm10
- .byte 102,69,15,239,208 // pxor %xmm8,%xmm10
- .byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
- .byte 102,69,15,101,217 // pcmpgtw %xmm9,%xmm11
- .byte 102,65,15,219,195 // pand %xmm11,%xmm0
- .byte 102,68,15,223,219 // pandn %xmm3,%xmm11
- .byte 102,65,15,235,195 // por %xmm11,%xmm0
- .byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
- .byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
- .byte 102,69,15,101,217 // pcmpgtw %xmm9,%xmm11
- .byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,68,15,223,219 // pandn %xmm3,%xmm11
- .byte 102,65,15,235,203 // por %xmm11,%xmm1
- .byte 102,68,15,239,194 // pxor %xmm2,%xmm8
- .byte 102,69,15,101,208 // pcmpgtw %xmm8,%xmm10
- .byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,68,15,223,211 // pandn %xmm3,%xmm10
- .byte 102,65,15,235,210 // por %xmm10,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clamp_a_dst_sse2_lowp
-.globl _sk_clamp_a_dst_sse2_lowp
-FUNCTION(_sk_clamp_a_dst_sse2_lowp)
-_sk_clamp_a_dst_sse2_lowp:
- .byte 102,68,15,111,5,145,90,0,0 // movdqa 0x5a91(%rip),%xmm8 # 3d640 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,68,15,111,204 // movdqa %xmm4,%xmm9
- .byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
- .byte 102,69,15,239,208 // pxor %xmm8,%xmm10
- .byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
- .byte 102,69,15,101,217 // pcmpgtw %xmm9,%xmm11
- .byte 102,65,15,219,227 // pand %xmm11,%xmm4
- .byte 102,68,15,223,223 // pandn %xmm7,%xmm11
- .byte 102,65,15,235,227 // por %xmm11,%xmm4
- .byte 102,68,15,111,205 // movdqa %xmm5,%xmm9
- .byte 102,69,15,239,200 // pxor %xmm8,%xmm9
- .byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
- .byte 102,69,15,101,217 // pcmpgtw %xmm9,%xmm11
- .byte 102,65,15,219,235 // pand %xmm11,%xmm5
- .byte 102,68,15,223,223 // pandn %xmm7,%xmm11
- .byte 102,65,15,235,235 // por %xmm11,%xmm5
- .byte 102,68,15,239,198 // pxor %xmm6,%xmm8
- .byte 102,69,15,101,208 // pcmpgtw %xmm8,%xmm10
- .byte 102,65,15,219,242 // pand %xmm10,%xmm6
- .byte 102,68,15,223,215 // pandn %xmm7,%xmm10
- .byte 102,65,15,235,242 // por %xmm10,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_sse2_lowp
-.globl _sk_premul_sse2_lowp
-FUNCTION(_sk_premul_sse2_lowp)
-_sk_premul_sse2_lowp:
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,135,82,0,0 // movdqa 0x5287(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,213,211 // pmullw %xmm3,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_premul_dst_sse2_lowp
-.globl _sk_premul_dst_sse2_lowp
-FUNCTION(_sk_premul_dst_sse2_lowp)
-_sk_premul_dst_sse2_lowp:
- .byte 102,15,213,231 // pmullw %xmm7,%xmm4
- .byte 102,68,15,111,5,80,82,0,0 // movdqa 0x5250(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,224 // paddw %xmm8,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,213,239 // pmullw %xmm7,%xmm5
- .byte 102,65,15,253,232 // paddw %xmm8,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,213,247 // pmullw %xmm7,%xmm6
- .byte 102,65,15,253,240 // paddw %xmm8,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_sse2_lowp
-.globl _sk_force_opaque_sse2_lowp
-FUNCTION(_sk_force_opaque_sse2_lowp)
-_sk_force_opaque_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,29,82,0,0 // movaps 0x521d(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_force_opaque_dst_sse2_lowp
-.globl _sk_force_opaque_dst_sse2_lowp
-FUNCTION(_sk_force_opaque_dst_sse2_lowp)
-_sk_force_opaque_dst_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,18,82,0,0 // movaps 0x5212(%rip),%xmm7 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_swap_rb_sse2_lowp
-.globl _sk_swap_rb_sse2_lowp
-FUNCTION(_sk_swap_rb_sse2_lowp)
-_sk_swap_rb_sse2_lowp:
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 65,15,40,208 // movaps %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_src_dst_sse2_lowp
-.globl _sk_move_src_dst_sse2_lowp
-FUNCTION(_sk_move_src_dst_sse2_lowp)
-_sk_move_src_dst_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_move_dst_src_sse2_lowp
-.globl _sk_move_dst_src_sse2_lowp
-FUNCTION(_sk_move_dst_src_sse2_lowp)
-_sk_move_dst_src_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_invert_sse2_lowp
-.globl _sk_invert_sse2_lowp
-FUNCTION(_sk_invert_sse2_lowp)
-_sk_invert_sse2_lowp:
- .byte 102,68,15,111,5,216,81,0,0 // movdqa 0x51d8(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,68,15,249,200 // psubw %xmm0,%xmm9
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,249,209 // psubw %xmm1,%xmm10
- .byte 102,69,15,111,216 // movdqa %xmm8,%xmm11
- .byte 102,68,15,249,218 // psubw %xmm2,%xmm11
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
- .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_clear_sse2_lowp
-.globl _sk_clear_sse2_lowp
-FUNCTION(_sk_clear_sse2_lowp)
-_sk_clear_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcatop_sse2_lowp
-.globl _sk_srcatop_sse2_lowp
-FUNCTION(_sk_srcatop_sse2_lowp)
-_sk_srcatop_sse2_lowp:
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,29,124,81,0,0 // movdqa 0x517c(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
- .byte 102,69,15,249,200 // psubw %xmm8,%xmm9
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,213,196 // pmullw %xmm4,%xmm8
- .byte 102,15,253,195 // paddw %xmm3,%xmm0
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,213,207 // pmullw %xmm7,%xmm1
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
- .byte 102,15,253,203 // paddw %xmm3,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,68,15,213,206 // pmullw %xmm6,%xmm9
- .byte 102,15,253,211 // paddw %xmm3,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,68,15,111,199 // movdqa %xmm7,%xmm8
- .byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstatop_sse2_lowp
-.globl _sk_dstatop_sse2_lowp
-FUNCTION(_sk_dstatop_sse2_lowp)
-_sk_dstatop_sse2_lowp:
- .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,68,15,111,13,252,80,0,0 // movdqa 0x50fc(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,253,193 // paddw %xmm9,%xmm8
- .byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
- .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
- .byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,69,15,253,217 // paddw %xmm9,%xmm11
- .byte 102,65,15,213,217 // pmullw %xmm9,%xmm3
- .byte 102,65,15,253,217 // paddw %xmm9,%xmm3
- .byte 102,68,15,249,207 // psubw %xmm7,%xmm9
- .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,65,15,213,201 // pmullw %xmm9,%xmm1
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,65,15,213,209 // pmullw %xmm9,%xmm2
- .byte 102,65,15,253,211 // paddw %xmm11,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcin_sse2_lowp
-.globl _sk_srcin_sse2_lowp
-FUNCTION(_sk_srcin_sse2_lowp)
-_sk_srcin_sse2_lowp:
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,111,5,135,80,0,0 // movdqa 0x5087(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,213,207 // pmullw %xmm7,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstin_sse2_lowp
-.globl _sk_dstin_sse2_lowp
-FUNCTION(_sk_dstin_sse2_lowp)
-_sk_dstin_sse2_lowp:
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,68,15,111,5,62,80,0,0 // movdqa 0x503e(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,15,213,211 // pmullw %xmm3,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcout_sse2_lowp
-.globl _sk_srcout_sse2_lowp
-FUNCTION(_sk_srcout_sse2_lowp)
-_sk_srcout_sse2_lowp:
- .byte 102,68,15,111,5,245,79,0,0 // movdqa 0x4ff5(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,68,15,249,207 // psubw %xmm7,%xmm9
- .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,65,15,213,201 // pmullw %xmm9,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,65,15,213,209 // pmullw %xmm9,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,65,15,213,217 // pmullw %xmm9,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstout_sse2_lowp
-.globl _sk_dstout_sse2_lowp
-FUNCTION(_sk_dstout_sse2_lowp)
-_sk_dstout_sse2_lowp:
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,68,15,111,5,158,79,0,0 // movdqa 0x4f9e(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,249,216 // psubw %xmm0,%xmm3
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,213,214 // pmullw %xmm6,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_sse2_lowp
-.globl _sk_srcover_sse2_lowp
-FUNCTION(_sk_srcover_sse2_lowp)
-_sk_srcover_sse2_lowp:
- .byte 102,68,15,111,13,68,79,0,0 // movdqa 0x4f44(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,213,212 // pmullw %xmm4,%xmm10
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,213,213 // pmullw %xmm5,%xmm10
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,213,214 // pmullw %xmm6,%xmm10
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,65,15,253,210 // paddw %xmm10,%xmm2
- .byte 102,68,15,213,199 // pmullw %xmm7,%xmm8
- .byte 102,69,15,253,193 // paddw %xmm9,%xmm8
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_dstover_sse2_lowp
-.globl _sk_dstover_sse2_lowp
-FUNCTION(_sk_dstover_sse2_lowp)
-_sk_dstover_sse2_lowp:
- .byte 102,68,15,111,5,202,78,0,0 // movdqa 0x4eca(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,68,15,249,207 // psubw %xmm7,%xmm9
- .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,253,196 // paddw %xmm4,%xmm0
- .byte 102,65,15,213,201 // pmullw %xmm9,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,253,205 // paddw %xmm5,%xmm1
- .byte 102,65,15,213,209 // pmullw %xmm9,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,253,214 // paddw %xmm6,%xmm2
- .byte 102,65,15,213,217 // pmullw %xmm9,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,253,223 // paddw %xmm7,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_modulate_sse2_lowp
-.globl _sk_modulate_sse2_lowp
-FUNCTION(_sk_modulate_sse2_lowp)
-_sk_modulate_sse2_lowp:
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,68,15,111,5,99,78,0,0 // movdqa 0x4e63(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,213,214 // pmullw %xmm6,%xmm2
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_multiply_sse2_lowp
-.globl _sk_multiply_sse2_lowp
-FUNCTION(_sk_multiply_sse2_lowp)
-_sk_multiply_sse2_lowp:
- .byte 102,68,15,111,13,34,78,0,0 // movdqa 0x4e22(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,213,212 // pmullw %xmm4,%xmm10
- .byte 102,68,15,111,220 // movdqa %xmm4,%xmm11
- .byte 102,69,15,253,217 // paddw %xmm9,%xmm11
- .byte 102,68,15,249,223 // psubw %xmm7,%xmm11
- .byte 102,65,15,213,195 // pmullw %xmm11,%xmm0
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,213,213 // pmullw %xmm5,%xmm10
- .byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
- .byte 102,69,15,253,217 // paddw %xmm9,%xmm11
- .byte 102,68,15,249,223 // psubw %xmm7,%xmm11
- .byte 102,65,15,213,203 // pmullw %xmm11,%xmm1
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,68,15,213,214 // pmullw %xmm6,%xmm10
- .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
- .byte 102,69,15,253,217 // paddw %xmm9,%xmm11
- .byte 102,68,15,249,223 // psubw %xmm7,%xmm11
- .byte 102,65,15,213,211 // pmullw %xmm11,%xmm2
- .byte 102,69,15,253,209 // paddw %xmm9,%xmm10
- .byte 102,65,15,253,210 // paddw %xmm10,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,68,15,213,199 // pmullw %xmm7,%xmm8
- .byte 102,65,15,213,217 // pmullw %xmm9,%xmm3
- .byte 102,65,15,253,217 // paddw %xmm9,%xmm3
- .byte 102,65,15,253,216 // paddw %xmm8,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_plus__sse2_lowp
-.globl _sk_plus__sse2_lowp
-FUNCTION(_sk_plus__sse2_lowp)
-_sk_plus__sse2_lowp:
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,68,15,111,21,238,85,0,0 // movdqa 0x55ee(%rip),%xmm10 # 3d740 <_sk_srcover_bgra_8888_sse2_lowp+0x14f4>
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,65,15,217,194 // psubusw %xmm10,%xmm0
- .byte 102,69,15,239,228 // pxor %xmm12,%xmm12
- .byte 102,65,15,117,196 // pcmpeqw %xmm12,%xmm0
- .byte 102,68,15,111,29,66,77,0,0 // movdqa 0x4d42(%rip),%xmm11 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,65,15,223,195 // pandn %xmm11,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 102,68,15,253,197 // paddw %xmm5,%xmm8
- .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,65,15,217,202 // psubusw %xmm10,%xmm1
- .byte 102,65,15,117,204 // pcmpeqw %xmm12,%xmm1
- .byte 102,68,15,219,193 // pand %xmm1,%xmm8
- .byte 102,65,15,223,203 // pandn %xmm11,%xmm1
- .byte 102,65,15,235,200 // por %xmm8,%xmm1
- .byte 102,15,253,214 // paddw %xmm6,%xmm2
- .byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
- .byte 102,69,15,217,194 // psubusw %xmm10,%xmm8
- .byte 102,69,15,117,196 // pcmpeqw %xmm12,%xmm8
- .byte 102,65,15,219,208 // pand %xmm8,%xmm2
- .byte 102,69,15,223,195 // pandn %xmm11,%xmm8
- .byte 102,68,15,235,194 // por %xmm2,%xmm8
- .byte 102,15,253,223 // paddw %xmm7,%xmm3
- .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
- .byte 102,69,15,217,202 // psubusw %xmm10,%xmm9
- .byte 102,69,15,117,204 // pcmpeqw %xmm12,%xmm9
- .byte 102,65,15,219,217 // pand %xmm9,%xmm3
- .byte 102,69,15,223,203 // pandn %xmm11,%xmm9
- .byte 102,68,15,235,203 // por %xmm3,%xmm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_screen_sse2_lowp
-.globl _sk_screen_sse2_lowp
-FUNCTION(_sk_screen_sse2_lowp)
-_sk_screen_sse2_lowp:
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,21,162,76,0,0 // movdqa 0x4ca2(%rip),%xmm10 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
- .byte 102,69,15,253,194 // paddw %xmm10,%xmm8
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,65,15,249,200 // psubw %xmm8,%xmm1
- .byte 102,68,15,111,198 // movdqa %xmm6,%xmm8
- .byte 102,68,15,253,194 // paddw %xmm2,%xmm8
- .byte 102,15,213,214 // pmullw %xmm6,%xmm2
- .byte 102,65,15,253,210 // paddw %xmm10,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,68,15,249,194 // psubw %xmm2,%xmm8
- .byte 102,68,15,111,207 // movdqa %xmm7,%xmm9
- .byte 102,68,15,253,203 // paddw %xmm3,%xmm9
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,65,15,253,218 // paddw %xmm10,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,68,15,249,203 // psubw %xmm3,%xmm9
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xor__sse2_lowp
-.globl _sk_xor__sse2_lowp
-FUNCTION(_sk_xor__sse2_lowp)
-_sk_xor__sse2_lowp:
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,68,15,111,13,32,76,0,0 // movdqa 0x4c20(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,111,209 // movdqa %xmm9,%xmm10
- .byte 102,68,15,249,215 // psubw %xmm7,%xmm10
- .byte 102,65,15,213,194 // pmullw %xmm10,%xmm0
- .byte 102,65,15,111,217 // movdqa %xmm9,%xmm3
- .byte 102,65,15,249,216 // psubw %xmm8,%xmm3
- .byte 102,68,15,111,219 // movdqa %xmm3,%xmm11
- .byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
- .byte 102,65,15,253,195 // paddw %xmm11,%xmm0
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,65,15,213,202 // pmullw %xmm10,%xmm1
- .byte 102,68,15,111,219 // movdqa %xmm3,%xmm11
- .byte 102,68,15,213,221 // pmullw %xmm5,%xmm11
- .byte 102,65,15,253,203 // paddw %xmm11,%xmm1
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,65,15,213,210 // pmullw %xmm10,%xmm2
- .byte 102,68,15,111,219 // movdqa %xmm3,%xmm11
- .byte 102,68,15,213,222 // pmullw %xmm6,%xmm11
- .byte 102,65,15,253,211 // paddw %xmm11,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,69,15,213,208 // pmullw %xmm8,%xmm10
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,65,15,253,218 // paddw %xmm10,%xmm3
- .byte 102,65,15,253,217 // paddw %xmm9,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_darken_sse2_lowp
-.globl _sk_darken_sse2_lowp
-FUNCTION(_sk_darken_sse2_lowp)
-_sk_darken_sse2_lowp:
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,68,15,111,208 // movdqa %xmm0,%xmm10
- .byte 102,68,15,111,228 // movdqa %xmm4,%xmm12
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,68,15,213,215 // pmullw %xmm7,%xmm10
- .byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,68,15,111,13,251,82,0,0 // movdqa 0x52fb(%rip),%xmm9 # 3d640 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
- .byte 102,69,15,239,217 // pxor %xmm9,%xmm11
- .byte 102,65,15,111,204 // movdqa %xmm12,%xmm1
- .byte 102,65,15,239,201 // pxor %xmm9,%xmm1
- .byte 102,65,15,101,203 // pcmpgtw %xmm11,%xmm1
- .byte 102,68,15,219,225 // pand %xmm1,%xmm12
- .byte 102,65,15,223,202 // pandn %xmm10,%xmm1
- .byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,58,75,0,0 // movdqa 0x4b3a(%rip),%xmm10 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,68,15,213,199 // pmullw %xmm7,%xmm8
- .byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,69,15,111,224 // movdqa %xmm8,%xmm12
- .byte 102,69,15,239,225 // pxor %xmm9,%xmm12
- .byte 102,69,15,111,235 // movdqa %xmm11,%xmm13
- .byte 102,69,15,239,233 // pxor %xmm9,%xmm13
- .byte 102,69,15,101,236 // pcmpgtw %xmm12,%xmm13
- .byte 102,69,15,219,221 // pand %xmm13,%xmm11
- .byte 102,69,15,223,232 // pandn %xmm8,%xmm13
- .byte 102,69,15,235,235 // por %xmm11,%xmm13
- .byte 102,69,15,253,234 // paddw %xmm10,%xmm13
- .byte 102,65,15,113,213,8 // psrlw $0x8,%xmm13
- .byte 102,65,15,249,205 // psubw %xmm13,%xmm1
- .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
- .byte 102,68,15,111,198 // movdqa %xmm6,%xmm8
- .byte 102,68,15,253,194 // paddw %xmm2,%xmm8
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
- .byte 102,69,15,239,225 // pxor %xmm9,%xmm12
- .byte 102,69,15,239,203 // pxor %xmm11,%xmm9
- .byte 102,69,15,101,204 // pcmpgtw %xmm12,%xmm9
- .byte 102,69,15,219,217 // pand %xmm9,%xmm11
- .byte 102,68,15,223,202 // pandn %xmm2,%xmm9
- .byte 102,69,15,235,203 // por %xmm11,%xmm9
- .byte 102,69,15,253,202 // paddw %xmm10,%xmm9
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,69,15,249,193 // psubw %xmm9,%xmm8
- .byte 102,65,15,111,210 // movdqa %xmm10,%xmm2
- .byte 102,15,249,211 // psubw %xmm3,%xmm2
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,65,15,253,210 // paddw %xmm10,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,253,218 // paddw %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lighten_sse2_lowp
-.globl _sk_lighten_sse2_lowp
-FUNCTION(_sk_lighten_sse2_lowp)
-_sk_lighten_sse2_lowp:
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
- .byte 102,68,15,111,212 // movdqa %xmm4,%xmm10
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,65,15,253,196 // paddw %xmm12,%xmm0
- .byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
- .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,210,81,0,0 // movdqa 0x51d2(%rip),%xmm9 # 3d640 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
- .byte 102,69,15,239,217 // pxor %xmm9,%xmm11
- .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
- .byte 102,65,15,239,201 // pxor %xmm9,%xmm1
- .byte 102,65,15,101,203 // pcmpgtw %xmm11,%xmm1
- .byte 102,68,15,219,225 // pand %xmm1,%xmm12
- .byte 102,65,15,223,202 // pandn %xmm10,%xmm1
- .byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,17,74,0,0 // movdqa 0x4a11(%rip),%xmm10 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,68,15,111,221 // movdqa %xmm5,%xmm11
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,68,15,213,199 // pmullw %xmm7,%xmm8
- .byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,69,15,111,224 // movdqa %xmm8,%xmm12
- .byte 102,69,15,239,225 // pxor %xmm9,%xmm12
- .byte 102,69,15,111,235 // movdqa %xmm11,%xmm13
- .byte 102,69,15,239,233 // pxor %xmm9,%xmm13
- .byte 102,69,15,101,236 // pcmpgtw %xmm12,%xmm13
- .byte 102,69,15,219,197 // pand %xmm13,%xmm8
- .byte 102,69,15,223,235 // pandn %xmm11,%xmm13
- .byte 102,69,15,235,232 // por %xmm8,%xmm13
- .byte 102,69,15,253,234 // paddw %xmm10,%xmm13
- .byte 102,65,15,113,213,8 // psrlw $0x8,%xmm13
- .byte 102,65,15,249,205 // psubw %xmm13,%xmm1
- .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
- .byte 102,68,15,111,198 // movdqa %xmm6,%xmm8
- .byte 102,68,15,253,194 // paddw %xmm2,%xmm8
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
- .byte 102,69,15,239,225 // pxor %xmm9,%xmm12
- .byte 102,69,15,239,203 // pxor %xmm11,%xmm9
- .byte 102,69,15,101,204 // pcmpgtw %xmm12,%xmm9
- .byte 102,65,15,219,209 // pand %xmm9,%xmm2
- .byte 102,69,15,223,203 // pandn %xmm11,%xmm9
- .byte 102,68,15,235,202 // por %xmm2,%xmm9
- .byte 102,69,15,253,202 // paddw %xmm10,%xmm9
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,69,15,249,193 // psubw %xmm9,%xmm8
- .byte 102,65,15,111,210 // movdqa %xmm10,%xmm2
- .byte 102,15,249,211 // psubw %xmm3,%xmm2
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,65,15,253,210 // paddw %xmm10,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,253,218 // paddw %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_difference_sse2_lowp
-.globl _sk_difference_sse2_lowp
-FUNCTION(_sk_difference_sse2_lowp)
-_sk_difference_sse2_lowp:
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,68,15,111,224 // movdqa %xmm0,%xmm12
- .byte 102,68,15,111,212 // movdqa %xmm4,%xmm10
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,65,15,253,196 // paddw %xmm12,%xmm0
- .byte 102,68,15,213,231 // pmullw %xmm7,%xmm12
- .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,68,15,111,13,169,80,0,0 // movdqa 0x50a9(%rip),%xmm9 # 3d640 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,69,15,111,220 // movdqa %xmm12,%xmm11
- .byte 102,69,15,239,217 // pxor %xmm9,%xmm11
- .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
- .byte 102,65,15,239,201 // pxor %xmm9,%xmm1
- .byte 102,65,15,101,203 // pcmpgtw %xmm11,%xmm1
- .byte 102,68,15,219,225 // pand %xmm1,%xmm12
- .byte 102,65,15,223,202 // pandn %xmm10,%xmm1
- .byte 102,65,15,235,204 // por %xmm12,%xmm1
- .byte 102,68,15,111,21,232,72,0,0 // movdqa 0x48e8(%rip),%xmm10 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,29,85,80,0,0 // movdqa 0x5055(%rip),%xmm11 # 3d630 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
- .byte 102,65,15,219,203 // pand %xmm11,%xmm1
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,68,15,111,229 // movdqa %xmm5,%xmm12
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,68,15,213,199 // pmullw %xmm7,%xmm8
- .byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,69,15,111,232 // movdqa %xmm8,%xmm13
- .byte 102,69,15,239,233 // pxor %xmm9,%xmm13
- .byte 102,69,15,111,244 // movdqa %xmm12,%xmm14
- .byte 102,69,15,239,241 // pxor %xmm9,%xmm14
- .byte 102,69,15,101,245 // pcmpgtw %xmm13,%xmm14
- .byte 102,69,15,219,198 // pand %xmm14,%xmm8
- .byte 102,69,15,223,244 // pandn %xmm12,%xmm14
- .byte 102,69,15,235,240 // por %xmm8,%xmm14
- .byte 102,69,15,253,242 // paddw %xmm10,%xmm14
- .byte 102,65,15,113,214,7 // psrlw $0x7,%xmm14
- .byte 102,69,15,219,243 // pand %xmm11,%xmm14
- .byte 102,65,15,249,206 // psubw %xmm14,%xmm1
- .byte 102,68,15,111,230 // movdqa %xmm6,%xmm12
- .byte 102,68,15,111,198 // movdqa %xmm6,%xmm8
- .byte 102,68,15,253,194 // paddw %xmm2,%xmm8
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,68,15,213,227 // pmullw %xmm3,%xmm12
- .byte 102,68,15,111,234 // movdqa %xmm2,%xmm13
- .byte 102,69,15,239,233 // pxor %xmm9,%xmm13
- .byte 102,69,15,239,204 // pxor %xmm12,%xmm9
- .byte 102,69,15,101,205 // pcmpgtw %xmm13,%xmm9
- .byte 102,65,15,219,209 // pand %xmm9,%xmm2
- .byte 102,69,15,223,204 // pandn %xmm12,%xmm9
- .byte 102,68,15,235,202 // por %xmm2,%xmm9
- .byte 102,69,15,253,202 // paddw %xmm10,%xmm9
- .byte 102,65,15,113,209,7 // psrlw $0x7,%xmm9
- .byte 102,69,15,219,203 // pand %xmm11,%xmm9
- .byte 102,69,15,249,193 // psubw %xmm9,%xmm8
- .byte 102,65,15,111,210 // movdqa %xmm10,%xmm2
- .byte 102,15,249,211 // psubw %xmm3,%xmm2
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,65,15,253,210 // paddw %xmm10,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,253,218 // paddw %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_exclusion_sse2_lowp
-.globl _sk_exclusion_sse2_lowp
-FUNCTION(_sk_exclusion_sse2_lowp)
-_sk_exclusion_sse2_lowp:
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,68,15,111,13,229,71,0,0 // movdqa 0x47e5(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,68,15,111,21,82,79,0,0 // movdqa 0x4f52(%rip),%xmm10 # 3d630 <_sk_srcover_bgra_8888_sse2_lowp+0x13e4>
- .byte 102,65,15,219,202 // pand %xmm10,%xmm1
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
- .byte 102,69,15,253,193 // paddw %xmm9,%xmm8
- .byte 102,65,15,113,208,7 // psrlw $0x7,%xmm8
- .byte 102,69,15,219,194 // pand %xmm10,%xmm8
- .byte 102,65,15,249,200 // psubw %xmm8,%xmm1
- .byte 102,68,15,111,198 // movdqa %xmm6,%xmm8
- .byte 102,68,15,253,194 // paddw %xmm2,%xmm8
- .byte 102,15,213,214 // pmullw %xmm6,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,7 // psrlw $0x7,%xmm2
- .byte 102,65,15,219,210 // pand %xmm10,%xmm2
- .byte 102,68,15,249,194 // psubw %xmm2,%xmm8
- .byte 102,65,15,111,209 // movdqa %xmm9,%xmm2
- .byte 102,15,249,211 // psubw %xmm3,%xmm2
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,253,218 // paddw %xmm2,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_hardlight_sse2_lowp
-.globl _sk_hardlight_sse2_lowp
-FUNCTION(_sk_hardlight_sse2_lowp)
-_sk_hardlight_sse2_lowp:
- .byte 15,41,116,36,232 // movaps %xmm6,-0x18(%rsp)
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
- .byte 102,68,15,111,200 // movdqa %xmm0,%xmm9
- .byte 102,15,111,21,65,71,0,0 // movdqa 0x4741(%rip),%xmm2 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,68,15,111,226 // movdqa %xmm2,%xmm12
- .byte 102,68,15,249,231 // psubw %xmm7,%xmm12
- .byte 102,65,15,111,196 // movdqa %xmm12,%xmm0
- .byte 102,65,15,213,193 // pmullw %xmm9,%xmm0
- .byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
- .byte 102,68,15,249,219 // psubw %xmm3,%xmm11
- .byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
- .byte 102,68,15,213,253 // pmullw %xmm5,%xmm15
- .byte 102,68,15,253,248 // paddw %xmm0,%xmm15
- .byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
- .byte 102,69,15,249,241 // psubw %xmm9,%xmm14
- .byte 102,69,15,253,201 // paddw %xmm9,%xmm9
- .byte 102,15,111,21,141,78,0,0 // movdqa 0x4e8d(%rip),%xmm2 # 3d640 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,68,15,111,215 // movdqa %xmm7,%xmm10
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,68,15,213,211 // pmullw %xmm3,%xmm10
- .byte 102,15,249,197 // psubw %xmm5,%xmm0
- .byte 102,65,15,213,198 // pmullw %xmm14,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,69,15,111,234 // movdqa %xmm10,%xmm13
- .byte 102,68,15,249,232 // psubw %xmm0,%xmm13
- .byte 102,68,15,111,243 // movdqa %xmm3,%xmm14
- .byte 102,68,15,239,242 // pxor %xmm2,%xmm14
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,15,239,194 // pxor %xmm2,%xmm0
- .byte 102,65,15,101,198 // pcmpgtw %xmm14,%xmm0
- .byte 102,68,15,213,205 // pmullw %xmm5,%xmm9
- .byte 102,68,15,219,232 // pand %xmm0,%xmm13
- .byte 102,65,15,223,193 // pandn %xmm9,%xmm0
- .byte 102,65,15,235,197 // por %xmm13,%xmm0
- .byte 102,15,253,5,160,70,0,0 // paddw 0x46a0(%rip),%xmm0 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,199 // paddw %xmm15,%xmm0
- .byte 102,69,15,111,204 // movdqa %xmm12,%xmm9
- .byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
- .byte 102,69,15,111,235 // movdqa %xmm11,%xmm13
- .byte 102,68,15,213,238 // pmullw %xmm6,%xmm13
- .byte 102,69,15,253,233 // paddw %xmm9,%xmm13
- .byte 102,68,15,111,203 // movdqa %xmm3,%xmm9
- .byte 102,68,15,249,201 // psubw %xmm1,%xmm9
- .byte 102,68,15,111,252 // movdqa %xmm4,%xmm15
- .byte 102,68,15,249,254 // psubw %xmm6,%xmm15
- .byte 102,69,15,213,249 // pmullw %xmm9,%xmm15
- .byte 102,69,15,253,255 // paddw %xmm15,%xmm15
- .byte 102,65,15,111,250 // movdqa %xmm10,%xmm7
- .byte 102,65,15,249,255 // psubw %xmm15,%xmm7
- .byte 102,15,253,201 // paddw %xmm1,%xmm1
- .byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
- .byte 102,68,15,239,202 // pxor %xmm2,%xmm9
- .byte 102,69,15,101,206 // pcmpgtw %xmm14,%xmm9
- .byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,65,15,219,249 // pand %xmm9,%xmm7
- .byte 102,68,15,223,201 // pandn %xmm1,%xmm9
- .byte 102,68,15,235,207 // por %xmm7,%xmm9
- .byte 102,68,15,253,13,43,70,0,0 // paddw 0x462b(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,253,205 // paddw %xmm13,%xmm9
- .byte 102,69,15,213,224 // pmullw %xmm8,%xmm12
- .byte 102,69,15,111,251 // movdqa %xmm11,%xmm15
- .byte 102,15,111,76,36,232 // movdqa -0x18(%rsp),%xmm1
- .byte 102,68,15,213,249 // pmullw %xmm1,%xmm15
- .byte 102,69,15,253,252 // paddw %xmm12,%xmm15
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,69,15,249,224 // psubw %xmm8,%xmm12
- .byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,65,15,239,208 // pxor %xmm8,%xmm2
- .byte 102,65,15,101,214 // pcmpgtw %xmm14,%xmm2
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,249,249 // psubw %xmm1,%xmm7
- .byte 102,65,15,213,252 // pmullw %xmm12,%xmm7
- .byte 102,15,253,255 // paddw %xmm7,%xmm7
- .byte 102,68,15,249,215 // psubw %xmm7,%xmm10
- .byte 102,68,15,213,193 // pmullw %xmm1,%xmm8
- .byte 102,68,15,111,225 // movdqa %xmm1,%xmm12
- .byte 102,68,15,219,210 // pand %xmm2,%xmm10
- .byte 102,65,15,223,208 // pandn %xmm8,%xmm2
- .byte 102,65,15,235,210 // por %xmm10,%xmm2
- .byte 102,68,15,111,5,187,69,0,0 // movdqa 0x45bb(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,65,15,253,215 // paddw %xmm15,%xmm2
- .byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
- .byte 102,69,15,253,216 // paddw %xmm8,%xmm11
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,65,15,253,219 // paddw %xmm11,%xmm3
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,65,15,111,244 // movdqa %xmm12,%xmm6
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_overlay_sse2_lowp
-.globl _sk_overlay_sse2_lowp
-FUNCTION(_sk_overlay_sse2_lowp)
-_sk_overlay_sse2_lowp:
- .byte 102,68,15,111,247 // movdqa %xmm7,%xmm14
- .byte 15,41,116,36,216 // movaps %xmm6,-0x28(%rsp)
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,127,124,36,232 // movdqa %xmm7,-0x18(%rsp)
- .byte 102,68,15,111,193 // movdqa %xmm1,%xmm8
- .byte 102,68,15,111,248 // movdqa %xmm0,%xmm15
- .byte 102,15,111,53,76,69,0,0 // movdqa 0x454c(%rip),%xmm6 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
- .byte 102,69,15,249,222 // psubw %xmm14,%xmm11
- .byte 102,65,15,111,203 // movdqa %xmm11,%xmm1
- .byte 102,65,15,213,207 // pmullw %xmm15,%xmm1
- .byte 102,68,15,111,214 // movdqa %xmm6,%xmm10
- .byte 102,68,15,249,211 // psubw %xmm3,%xmm10
- .byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
- .byte 102,69,15,249,239 // psubw %xmm15,%xmm13
- .byte 102,68,15,213,255 // pmullw %xmm7,%xmm15
- .byte 102,65,15,111,206 // movdqa %xmm14,%xmm1
- .byte 102,15,249,207 // psubw %xmm7,%xmm1
- .byte 102,15,253,255 // paddw %xmm7,%xmm7
- .byte 102,69,15,111,206 // movdqa %xmm14,%xmm9
- .byte 102,68,15,213,203 // pmullw %xmm3,%xmm9
- .byte 102,65,15,213,205 // pmullw %xmm13,%xmm1
- .byte 102,15,253,201 // paddw %xmm1,%xmm1
- .byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
- .byte 102,68,15,249,225 // psubw %xmm1,%xmm12
- .byte 102,15,111,13,112,76,0,0 // movdqa 0x4c70(%rip),%xmm1 # 3d640 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,69,15,111,238 // movdqa %xmm14,%xmm13
- .byte 102,68,15,239,233 // pxor %xmm1,%xmm13
- .byte 102,15,239,249 // pxor %xmm1,%xmm7
- .byte 102,65,15,101,253 // pcmpgtw %xmm13,%xmm7
- .byte 102,69,15,253,255 // paddw %xmm15,%xmm15
- .byte 102,68,15,219,231 // pand %xmm7,%xmm12
- .byte 102,65,15,223,255 // pandn %xmm15,%xmm7
- .byte 102,65,15,235,252 // por %xmm12,%xmm7
- .byte 102,15,253,254 // paddw %xmm6,%xmm7
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,65,15,111,227 // movdqa %xmm11,%xmm4
- .byte 102,65,15,213,224 // pmullw %xmm8,%xmm4
- .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,69,15,249,224 // psubw %xmm8,%xmm12
- .byte 102,65,15,111,230 // movdqa %xmm14,%xmm4
- .byte 102,15,249,229 // psubw %xmm5,%xmm4
- .byte 102,65,15,213,228 // pmullw %xmm12,%xmm4
- .byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,69,15,111,225 // movdqa %xmm9,%xmm12
- .byte 102,68,15,249,228 // psubw %xmm4,%xmm12
- .byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,61,239,75,0,0 // movdqa 0x4bef(%rip),%xmm7 # 3d640 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,15,239,231 // pxor %xmm7,%xmm4
- .byte 102,65,15,101,229 // pcmpgtw %xmm13,%xmm4
- .byte 102,69,15,253,192 // paddw %xmm8,%xmm8
- .byte 102,68,15,219,228 // pand %xmm4,%xmm12
- .byte 102,65,15,223,224 // pandn %xmm8,%xmm4
- .byte 102,65,15,235,228 // por %xmm12,%xmm4
- .byte 102,15,253,230 // paddw %xmm6,%xmm4
- .byte 102,68,15,111,230 // movdqa %xmm6,%xmm12
- .byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,68,15,213,218 // pmullw %xmm2,%xmm11
- .byte 102,69,15,111,194 // movdqa %xmm10,%xmm8
- .byte 102,15,111,116,36,216 // movdqa -0x28(%rsp),%xmm6
- .byte 102,68,15,213,198 // pmullw %xmm6,%xmm8
- .byte 102,69,15,253,195 // paddw %xmm11,%xmm8
- .byte 102,15,111,230 // movdqa %xmm6,%xmm4
- .byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,239,231 // pxor %xmm7,%xmm4
- .byte 102,69,15,111,222 // movdqa %xmm14,%xmm11
- .byte 102,68,15,249,222 // psubw %xmm6,%xmm11
- .byte 102,65,15,101,229 // pcmpgtw %xmm13,%xmm4
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,15,249,250 // psubw %xmm2,%xmm7
- .byte 102,68,15,213,223 // pmullw %xmm7,%xmm11
- .byte 102,69,15,253,219 // paddw %xmm11,%xmm11
- .byte 102,69,15,249,203 // psubw %xmm11,%xmm9
- .byte 102,15,213,214 // pmullw %xmm6,%xmm2
- .byte 102,15,253,210 // paddw %xmm2,%xmm2
- .byte 102,68,15,219,204 // pand %xmm4,%xmm9
- .byte 102,15,223,226 // pandn %xmm2,%xmm4
- .byte 102,65,15,235,225 // por %xmm9,%xmm4
- .byte 102,65,15,111,212 // movdqa %xmm12,%xmm2
- .byte 102,15,253,226 // paddw %xmm2,%xmm4
- .byte 102,68,15,253,196 // paddw %xmm4,%xmm8
- .byte 102,69,15,213,214 // pmullw %xmm14,%xmm10
- .byte 102,68,15,253,210 // paddw %xmm2,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,65,15,253,218 // paddw %xmm10,%xmm3
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,100,36,232 // movaps -0x18(%rsp),%xmm4
- .byte 102,65,15,111,254 // movdqa %xmm14,%xmm7
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_8888_sse2_lowp
-.globl _sk_load_8888_sse2_lowp
-FUNCTION(_sk_load_8888_sse2_lowp)
-_sk_load_8888_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 38b67 <_sk_load_8888_sse2_lowp+0x44>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,23,1,0,0 // lea 0x117(%rip),%r9 # 38c64 <_sk_load_8888_sse2_lowp+0x141>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 255,224 // jmpq *%rax
- .byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 38bcd <_sk_load_8888_sse2_lowp+0xaa>
- .byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
- .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 38bcd <_sk_load_8888_sse2_lowp+0xaa>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
- .byte 102,65,15,40,216 // movapd %xmm8,%xmm3
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 38bcd <_sk_load_8888_sse2_lowp+0xaa>
- .byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
- .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
- .byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
- .byte 65,15,198,192,0 // shufps $0x0,%xmm8,%xmm0
- .byte 65,15,198,192,226 // shufps $0xe2,%xmm8,%xmm0
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 243,65,15,16,68,144,16 // movss 0x10(%r8,%rdx,4),%xmm0
- .byte 243,68,15,16,192 // movss %xmm0,%xmm8
- .byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
- .byte 102,15,40,203 // movapd %xmm3,%xmm1
- .byte 102,15,114,241,16 // pslld $0x10,%xmm1
- .byte 102,15,114,225,16 // psrad $0x10,%xmm1
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,185,66,0,0 // movdqa 0x42b9(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,65,15,219,193 // pand %xmm9,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,65,15,114,210,16 // psrld $0x10,%xmm10
- .byte 102,15,40,211 // movapd %xmm3,%xmm2
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 102,15,114,227,16 // psrad $0x10,%xmm3
- .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
- .byte 102,65,15,107,216 // packssdw %xmm8,%xmm3
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,114,226,16 // psrad $0x10,%xmm2
- .byte 102,65,15,114,242,16 // pslld $0x10,%xmm10
- .byte 102,65,15,114,226,16 // psrad $0x10,%xmm10
- .byte 102,65,15,107,210 // packssdw %xmm10,%xmm2
- .byte 102,65,15,219,209 // pand %xmm9,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 246,254 // idiv %dh
- .byte 255 // (bad)
- .byte 255,35 // jmpq *(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,99,255 // jmpq *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,87,255 // callq *-0x1(%rdi)
- .byte 255 // (bad)
- .byte 255,66,255 // incl -0x1(%rdx)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 53 // .byte 0x35
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_8888_dst_sse2_lowp
-.globl _sk_load_8888_dst_sse2_lowp
-FUNCTION(_sk_load_8888_dst_sse2_lowp)
-_sk_load_8888_dst_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 38cc4 <_sk_load_8888_dst_sse2_lowp+0x44>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 38dc0 <_sk_load_8888_dst_sse2_lowp+0x140>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 255,224 // jmpq *%rax
- .byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 38d2a <_sk_load_8888_dst_sse2_lowp+0xaa>
- .byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
- .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 38d2a <_sk_load_8888_dst_sse2_lowp+0xaa>
- .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
- .byte 102,65,15,40,248 // movapd %xmm8,%xmm7
- .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 38d2a <_sk_load_8888_dst_sse2_lowp+0xaa>
- .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
- .byte 65,15,198,224,0 // shufps $0x0,%xmm8,%xmm4
- .byte 65,15,198,224,226 // shufps $0xe2,%xmm8,%xmm4
- .byte 68,15,40,196 // movaps %xmm4,%xmm8
- .byte 243,65,15,16,100,144,16 // movss 0x10(%r8,%rdx,4),%xmm4
- .byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
- .byte 102,15,40,239 // movapd %xmm7,%xmm5
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,114,229,16 // psrad $0x10,%xmm5
- .byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,92,65,0,0 // movdqa 0x415c(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,65,15,219,225 // pand %xmm9,%xmm4
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,65,15,114,210,16 // psrld $0x10,%xmm10
- .byte 102,15,40,247 // movapd %xmm7,%xmm6
- .byte 102,15,114,214,16 // psrld $0x10,%xmm6
- .byte 102,15,114,215,24 // psrld $0x18,%xmm7
- .byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,114,231,16 // psrad $0x10,%xmm7
- .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
- .byte 102,65,15,107,248 // packssdw %xmm8,%xmm7
- .byte 102,15,114,246,16 // pslld $0x10,%xmm6
- .byte 102,15,114,230,16 // psrad $0x10,%xmm6
- .byte 102,65,15,114,242,16 // pslld $0x10,%xmm10
- .byte 102,65,15,114,226,16 // psrad $0x10,%xmm10
- .byte 102,65,15,107,242 // packssdw %xmm10,%xmm6
- .byte 102,65,15,219,241 // pand %xmm9,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 247,254 // idiv %esi
- .byte 255 // (bad)
- .byte 255,36,255 // jmpq *(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,19 // callq *(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,100,255,255 // jmpq *-0x1(%rdi,%rdi,8)
- .byte 255,88,255 // lcall *-0x1(%rax)
- .byte 255 // (bad)
- .byte 255,67,255 // incl -0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,54 // pushq (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_8888_sse2_lowp
-.globl _sk_store_8888_sse2_lowp
-FUNCTION(_sk_store_8888_sse2_lowp)
-_sk_store_8888_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 102,68,15,111,209 // movdqa %xmm1,%xmm10
- .byte 102,65,15,113,242,8 // psllw $0x8,%xmm10
- .byte 102,68,15,235,208 // por %xmm0,%xmm10
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
- .byte 102,69,15,97,216 // punpcklwd %xmm8,%xmm11
- .byte 102,69,15,105,208 // punpckhwd %xmm8,%xmm10
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,65,15,113,244,8 // psllw $0x8,%xmm12
- .byte 102,68,15,235,226 // por %xmm2,%xmm12
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,69,15,97,204 // punpcklwd %xmm12,%xmm9
- .byte 102,69,15,235,203 // por %xmm11,%xmm9
- .byte 102,69,15,105,196 // punpckhwd %xmm12,%xmm8
- .byte 102,69,15,235,194 // por %xmm10,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 38e5f <_sk_store_8888_sse2_lowp+0x83>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 38eb0 <_sk_store_8888_sse2_lowp+0xd4>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 38eaa <_sk_store_8888_sse2_lowp+0xce>
- .byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
- .byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 38eaa <_sk_store_8888_sse2_lowp+0xce>
- .byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
- .byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
- .byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 38eaa <_sk_store_8888_sse2_lowp+0xce>
- .byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
- .byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
- .byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
- .byte 102,69,15,126,84,144,20 // movd %xmm10,0x14(%r8,%rdx,4)
- .byte 102,69,15,126,68,144,16 // movd %xmm8,0x10(%r8,%rdx,4)
- .byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 167 // cmpsl %es:(%rdi),%ds:(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,203 // dec %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190,255,255,255,244 // mov $0xf4ffffff,%esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 237 // in (%dx),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,224 // jmpq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_sse2_lowp
-.globl _sk_load_bgra_sse2_lowp
-FUNCTION(_sk_load_bgra_sse2_lowp)
-_sk_load_bgra_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 38f10 <_sk_load_bgra_sse2_lowp+0x44>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 3900c <_sk_load_bgra_sse2_lowp+0x140>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 255,224 // jmpq *%rax
- .byte 243,65,15,16,28,144 // movss (%r8,%rdx,4),%xmm3
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 38f76 <_sk_load_bgra_sse2_lowp+0xaa>
- .byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
- .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 38f76 <_sk_load_bgra_sse2_lowp+0xaa>
- .byte 102,65,15,110,68,144,8 // movd 0x8(%r8,%rdx,4),%xmm0
- .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
- .byte 102,65,15,40,216 // movapd %xmm8,%xmm3
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 235,52 // jmp 38f76 <_sk_load_bgra_sse2_lowp+0xaa>
- .byte 102,65,15,110,68,144,24 // movd 0x18(%r8,%rdx,4),%xmm0
- .byte 102,68,15,112,192,69 // pshufd $0x45,%xmm0,%xmm8
- .byte 243,65,15,16,68,144,20 // movss 0x14(%r8,%rdx,4),%xmm0
- .byte 65,15,198,192,0 // shufps $0x0,%xmm8,%xmm0
- .byte 65,15,198,192,226 // shufps $0xe2,%xmm8,%xmm0
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 243,65,15,16,68,144,16 // movss 0x10(%r8,%rdx,4),%xmm0
- .byte 243,68,15,16,192 // movss %xmm0,%xmm8
- .byte 102,65,15,16,28,144 // movupd (%r8,%rdx,4),%xmm3
- .byte 102,15,40,203 // movapd %xmm3,%xmm1
- .byte 102,15,114,241,16 // pslld $0x10,%xmm1
- .byte 102,15,114,225,16 // psrad $0x10,%xmm1
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,16,63,0,0 // movdqa 0x3f10(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,65,15,219,209 // pand %xmm9,%xmm2
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,65,15,114,210,16 // psrld $0x10,%xmm10
- .byte 102,15,40,195 // movapd %xmm3,%xmm0
- .byte 102,15,114,208,16 // psrld $0x10,%xmm0
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 102,15,114,227,16 // psrad $0x10,%xmm3
- .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
- .byte 102,65,15,107,216 // packssdw %xmm8,%xmm3
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,65,15,114,242,16 // pslld $0x10,%xmm10
- .byte 102,65,15,114,226,16 // psrad $0x10,%xmm10
- .byte 102,65,15,107,194 // packssdw %xmm10,%xmm0
- .byte 102,65,15,219,193 // pand %xmm9,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 247,254 // idiv %esi
- .byte 255 // (bad)
- .byte 255,36,255 // jmpq *(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,19 // callq *(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,100,255,255 // jmpq *-0x1(%rdi,%rdi,8)
- .byte 255,88,255 // lcall *-0x1(%rax)
- .byte 255 // (bad)
- .byte 255,67,255 // incl -0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,54 // pushq (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_bgra_dst_sse2_lowp
-.globl _sk_load_bgra_dst_sse2_lowp
-FUNCTION(_sk_load_bgra_dst_sse2_lowp)
-_sk_load_bgra_dst_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,41 // ja 3906c <_sk_load_bgra_dst_sse2_lowp+0x44>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,22,1,0,0 // lea 0x116(%rip),%r9 # 39168 <_sk_load_bgra_dst_sse2_lowp+0x140>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 255,224 // jmpq *%rax
- .byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 390d2 <_sk_load_bgra_dst_sse2_lowp+0xaa>
- .byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
- .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 390d2 <_sk_load_bgra_dst_sse2_lowp+0xaa>
- .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
- .byte 102,65,15,40,248 // movapd %xmm8,%xmm7
- .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 390d2 <_sk_load_bgra_dst_sse2_lowp+0xaa>
- .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
- .byte 65,15,198,224,0 // shufps $0x0,%xmm8,%xmm4
- .byte 65,15,198,224,226 // shufps $0xe2,%xmm8,%xmm4
- .byte 68,15,40,196 // movaps %xmm4,%xmm8
- .byte 243,65,15,16,100,144,16 // movss 0x10(%r8,%rdx,4),%xmm4
- .byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
- .byte 102,15,40,239 // movapd %xmm7,%xmm5
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,114,229,16 // psrad $0x10,%xmm5
- .byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,13,180,61,0,0 // movdqa 0x3db4(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,65,15,219,241 // pand %xmm9,%xmm6
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,65,15,114,210,16 // psrld $0x10,%xmm10
- .byte 102,15,40,231 // movapd %xmm7,%xmm4
- .byte 102,15,114,212,16 // psrld $0x10,%xmm4
- .byte 102,15,114,215,24 // psrld $0x18,%xmm7
- .byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,114,231,16 // psrad $0x10,%xmm7
- .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
- .byte 102,65,15,107,248 // packssdw %xmm8,%xmm7
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,65,15,114,242,16 // pslld $0x10,%xmm10
- .byte 102,65,15,114,226,16 // psrad $0x10,%xmm10
- .byte 102,65,15,107,226 // packssdw %xmm10,%xmm4
- .byte 102,65,15,219,225 // pand %xmm9,%xmm4
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 247,254 // idiv %esi
- .byte 255 // (bad)
- .byte 255,36,255 // jmpq *(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,19 // callq *(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,100,255,255 // jmpq *-0x1(%rdi,%rdi,8)
- .byte 255,88,255 // lcall *-0x1(%rax)
- .byte 255 // (bad)
- .byte 255,67,255 // incl -0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,54 // pushq (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_bgra_sse2_lowp
-.globl _sk_store_bgra_sse2_lowp
-FUNCTION(_sk_store_bgra_sse2_lowp)
-_sk_store_bgra_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 102,68,15,111,209 // movdqa %xmm1,%xmm10
- .byte 102,65,15,113,242,8 // psllw $0x8,%xmm10
- .byte 102,68,15,235,210 // por %xmm2,%xmm10
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
- .byte 102,69,15,97,216 // punpcklwd %xmm8,%xmm11
- .byte 102,69,15,105,208 // punpckhwd %xmm8,%xmm10
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,65,15,113,244,8 // psllw $0x8,%xmm12
- .byte 102,68,15,235,224 // por %xmm0,%xmm12
- .byte 102,69,15,239,201 // pxor %xmm9,%xmm9
- .byte 102,69,15,97,204 // punpcklwd %xmm12,%xmm9
- .byte 102,69,15,235,203 // por %xmm11,%xmm9
- .byte 102,69,15,105,196 // punpckhwd %xmm12,%xmm8
- .byte 102,69,15,235,194 // por %xmm10,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,27 // ja 39207 <_sk_store_bgra_sse2_lowp+0x83>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,98,0,0,0 // lea 0x62(%rip),%r9 # 39258 <_sk_store_bgra_sse2_lowp+0xd4>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,126,12,144 // movd %xmm9,(%r8,%rdx,4)
- .byte 235,75 // jmp 39252 <_sk_store_bgra_sse2_lowp+0xce>
- .byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
- .byte 243,69,15,127,68,144,16 // movdqu %xmm8,0x10(%r8,%rdx,4)
- .byte 235,60 // jmp 39252 <_sk_store_bgra_sse2_lowp+0xce>
- .byte 102,69,15,112,193,78 // pshufd $0x4e,%xmm9,%xmm8
- .byte 102,69,15,126,68,144,8 // movd %xmm8,0x8(%r8,%rdx,4)
- .byte 102,69,15,214,12,144 // movq %xmm9,(%r8,%rdx,4)
- .byte 235,39 // jmp 39252 <_sk_store_bgra_sse2_lowp+0xce>
- .byte 102,69,15,112,208,78 // pshufd $0x4e,%xmm8,%xmm10
- .byte 102,69,15,126,84,144,24 // movd %xmm10,0x18(%r8,%rdx,4)
- .byte 102,69,15,112,208,229 // pshufd $0xe5,%xmm8,%xmm10
- .byte 102,69,15,126,84,144,20 // movd %xmm10,0x14(%r8,%rdx,4)
- .byte 102,69,15,126,68,144,16 // movd %xmm8,0x10(%r8,%rdx,4)
- .byte 243,69,15,127,12,144 // movdqu %xmm9,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 167 // cmpsl %es:(%rdi),%ds:(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,203 // dec %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190,255,255,255,244 // mov $0xf4ffffff,%esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 237 // in (%dx),%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,224 // jmpq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,211 // callq *%rbx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_8888_sse2_lowp
-.globl _sk_gather_8888_sse2_lowp
-FUNCTION(_sk_gather_8888_sse2_lowp)
-_sk_gather_8888_sse2_lowp:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 65,15,95,194 // maxps %xmm10,%xmm0
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 243,68,15,16,64,16 // movss 0x10(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 65,15,95,218 // maxps %xmm10,%xmm3
- .byte 65,15,95,210 // maxps %xmm10,%xmm2
- .byte 65,15,93,208 // minps %xmm8,%xmm2
- .byte 65,15,93,216 // minps %xmm8,%xmm3
- .byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
- .byte 243,68,15,91,202 // cvttps2dq %xmm2,%xmm9
- .byte 102,15,110,88,8 // movd 0x8(%rax),%xmm3
- .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3
- .byte 102,69,15,112,209,245 // pshufd $0xf5,%xmm9,%xmm10
- .byte 102,68,15,244,211 // pmuludq %xmm3,%xmm10
- .byte 102,68,15,111,219 // movdqa %xmm3,%xmm11
- .byte 102,69,15,112,224,245 // pshufd $0xf5,%xmm8,%xmm12
- .byte 102,68,15,244,227 // pmuludq %xmm3,%xmm12
- .byte 102,65,15,244,217 // pmuludq %xmm9,%xmm3
- .byte 72,139,0 // mov (%rax),%rax
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,65,15,112,210,232 // pshufd $0xe8,%xmm10,%xmm2
- .byte 102,15,98,218 // punpckldq %xmm2,%xmm3
- .byte 102,69,15,244,216 // pmuludq %xmm8,%xmm11
- .byte 102,69,15,112,195,232 // pshufd $0xe8,%xmm11,%xmm8
- .byte 102,65,15,112,212,232 // pshufd $0xe8,%xmm12,%xmm2
- .byte 102,68,15,98,194 // punpckldq %xmm2,%xmm8
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,65,15,254,200 // paddd %xmm8,%xmm1
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,73,15,126,208 // movq %xmm2,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,73,15,126,199 // movq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 102,66,15,110,4,184 // movd (%rax,%r15,4),%xmm0
- .byte 102,66,15,110,28,160 // movd (%rax,%r12,4),%xmm3
- .byte 102,15,98,216 // punpckldq %xmm0,%xmm3
- .byte 102,15,110,4,152 // movd (%rax,%rbx,4),%xmm0
- .byte 102,66,15,110,12,176 // movd (%rax,%r14,4),%xmm1
- .byte 102,15,98,200 // punpckldq %xmm0,%xmm1
- .byte 102,15,108,217 // punpcklqdq %xmm1,%xmm3
- .byte 102,66,15,110,4,144 // movd (%rax,%r10,4),%xmm0
- .byte 102,70,15,110,4,152 // movd (%rax,%r11,4),%xmm8
- .byte 102,68,15,98,192 // punpckldq %xmm0,%xmm8
- .byte 102,66,15,110,4,128 // movd (%rax,%r8,4),%xmm0
- .byte 102,66,15,110,12,136 // movd (%rax,%r9,4),%xmm1
- .byte 102,15,98,200 // punpckldq %xmm0,%xmm1
- .byte 102,68,15,108,193 // punpcklqdq %xmm1,%xmm8
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,241,16 // pslld $0x10,%xmm1
- .byte 102,15,114,225,16 // psrad $0x10,%xmm1
- .byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,208,58,0,0 // movdqa 0x3ad0(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,65,15,219,193 // pand %xmm9,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,65,15,114,210,16 // psrld $0x10,%xmm10
- .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 102,15,114,227,16 // psrad $0x10,%xmm3
- .byte 102,65,15,107,216 // packssdw %xmm8,%xmm3
- .byte 102,65,15,114,242,16 // pslld $0x10,%xmm10
- .byte 102,65,15,114,226,16 // psrad $0x10,%xmm10
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,114,226,16 // psrad $0x10,%xmm2
- .byte 102,65,15,107,210 // packssdw %xmm10,%xmm2
- .byte 102,65,15,219,209 // pand %xmm9,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gather_bgra_sse2_lowp
-.globl _sk_gather_bgra_sse2_lowp
-FUNCTION(_sk_gather_bgra_sse2_lowp)
-_sk_gather_bgra_sse2_lowp:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 65,15,95,194 // maxps %xmm10,%xmm0
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 243,68,15,16,64,16 // movss 0x10(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 65,15,95,218 // maxps %xmm10,%xmm3
- .byte 65,15,95,210 // maxps %xmm10,%xmm2
- .byte 65,15,93,208 // minps %xmm8,%xmm2
- .byte 65,15,93,216 // minps %xmm8,%xmm3
- .byte 243,68,15,91,195 // cvttps2dq %xmm3,%xmm8
- .byte 243,68,15,91,202 // cvttps2dq %xmm2,%xmm9
- .byte 102,15,110,88,8 // movd 0x8(%rax),%xmm3
- .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3
- .byte 102,69,15,112,209,245 // pshufd $0xf5,%xmm9,%xmm10
- .byte 102,68,15,244,211 // pmuludq %xmm3,%xmm10
- .byte 102,68,15,111,219 // movdqa %xmm3,%xmm11
- .byte 102,69,15,112,224,245 // pshufd $0xf5,%xmm8,%xmm12
- .byte 102,68,15,244,227 // pmuludq %xmm3,%xmm12
- .byte 102,65,15,244,217 // pmuludq %xmm9,%xmm3
- .byte 72,139,0 // mov (%rax),%rax
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,65,15,112,210,232 // pshufd $0xe8,%xmm10,%xmm2
- .byte 102,15,98,218 // punpckldq %xmm2,%xmm3
- .byte 102,69,15,244,216 // pmuludq %xmm8,%xmm11
- .byte 102,69,15,112,195,232 // pshufd $0xe8,%xmm11,%xmm8
- .byte 102,65,15,112,212,232 // pshufd $0xe8,%xmm12,%xmm2
- .byte 102,68,15,98,194 // punpckldq %xmm2,%xmm8
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,65,15,254,200 // paddd %xmm8,%xmm1
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,73,15,126,208 // movq %xmm2,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 102,73,15,126,202 // movq %xmm1,%r10
- .byte 69,137,211 // mov %r10d,%r11d
- .byte 73,193,234,32 // shr $0x20,%r10
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,72,15,126,203 // movq %xmm1,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,73,15,126,199 // movq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 102,66,15,110,4,184 // movd (%rax,%r15,4),%xmm0
- .byte 102,66,15,110,28,160 // movd (%rax,%r12,4),%xmm3
- .byte 102,15,98,216 // punpckldq %xmm0,%xmm3
- .byte 102,15,110,4,152 // movd (%rax,%rbx,4),%xmm0
- .byte 102,66,15,110,12,176 // movd (%rax,%r14,4),%xmm1
- .byte 102,15,98,200 // punpckldq %xmm0,%xmm1
- .byte 102,15,108,217 // punpcklqdq %xmm1,%xmm3
- .byte 102,66,15,110,4,144 // movd (%rax,%r10,4),%xmm0
- .byte 102,70,15,110,4,152 // movd (%rax,%r11,4),%xmm8
- .byte 102,68,15,98,192 // punpckldq %xmm0,%xmm8
- .byte 102,66,15,110,4,128 // movd (%rax,%r8,4),%xmm0
- .byte 102,66,15,110,12,136 // movd (%rax,%r9,4),%xmm1
- .byte 102,15,98,200 // punpckldq %xmm0,%xmm1
- .byte 102,68,15,108,193 // punpcklqdq %xmm1,%xmm8
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,241,16 // pslld $0x10,%xmm1
- .byte 102,15,114,225,16 // psrad $0x10,%xmm1
- .byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,68,15,111,13,241,56,0,0 // movdqa 0x38f1(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,65,15,219,209 // pand %xmm9,%xmm2
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,114,208,16 // psrld $0x10,%xmm0
- .byte 102,69,15,111,208 // movdqa %xmm8,%xmm10
- .byte 102,65,15,114,210,16 // psrld $0x10,%xmm10
- .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 102,15,114,227,16 // psrad $0x10,%xmm3
- .byte 102,65,15,107,216 // packssdw %xmm8,%xmm3
- .byte 102,65,15,114,242,16 // pslld $0x10,%xmm10
- .byte 102,65,15,114,226,16 // psrad $0x10,%xmm10
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,65,15,107,194 // packssdw %xmm10,%xmm0
- .byte 102,65,15,219,193 // pand %xmm9,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_565_sse2_lowp
-.globl _sk_load_565_sse2_lowp
-FUNCTION(_sk_load_565_sse2_lowp)
-_sk_load_565_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3966e <_sk_load_565_sse2_lowp+0x3c>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,190,0,0,0 // lea 0xbe(%rip),%r9 # 39718 <_sk_load_565_sse2_lowp+0xe6>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,66 // jmp 396b0 <_sk_load_565_sse2_lowp+0x7e>
- .byte 243,65,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm0
- .byte 235,58 // jmp 396b0 <_sk_load_565_sse2_lowp+0x7e>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,65,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
- .byte 243,65,15,16,12,80 // movss (%r8,%rdx,2),%xmm1
- .byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,34 // jmp 396b0 <_sk_load_565_sse2_lowp+0x7e>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,65,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
- .byte 102,65,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
- .byte 102,65,15,196,68,80,8,4 // pinsrw $0x4,0x8(%r8,%rdx,2),%xmm0
- .byte 102,65,15,18,4,80 // movlpd (%r8,%rdx,2),%xmm0
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,191,63,0,0 // pand 0x3fbf(%rip),%xmm3 # 3d680 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,190,63,0,0 // pand 0x3fbe(%rip),%xmm1 # 3d690 <_sk_srcover_bgra_8888_sse2_lowp+0x1444>
- .byte 102,15,111,21,198,63,0,0 // movdqa 0x3fc6(%rip),%xmm2 # 3d6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,15,113,208,13 // psrlw $0xd,%xmm0
- .byte 102,15,235,195 // por %xmm3,%xmm0
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,113,243,2 // psllw $0x2,%xmm3
- .byte 102,15,113,209,4 // psrlw $0x4,%xmm1
- .byte 102,15,235,203 // por %xmm3,%xmm1
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,113,243,3 // psllw $0x3,%xmm3
- .byte 102,15,113,210,2 // psrlw $0x2,%xmm2
- .byte 102,15,235,211 // por %xmm3,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,156,55,0,0 // movaps 0x379c(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 75,255 // rex.WXB (bad)
- .byte 255 // (bad)
- .byte 255,106,255 // ljmp *-0x1(%rdx)
- .byte 255 // (bad)
- .byte 255,94,255 // lcall *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,146,255,255,255,138 // callq *-0x75000001(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,130,255,255,255,118 // incl 0x76ffffff(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_565_dst_sse2_lowp
-.globl _sk_load_565_dst_sse2_lowp
-FUNCTION(_sk_load_565_dst_sse2_lowp)
-_sk_load_565_dst_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 39770 <_sk_load_565_dst_sse2_lowp+0x3c>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,188,0,0,0 // lea 0xbc(%rip),%r9 # 39818 <_sk_load_565_dst_sse2_lowp+0xe4>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,66 // jmp 397b2 <_sk_load_565_dst_sse2_lowp+0x7e>
- .byte 243,65,15,111,36,80 // movdqu (%r8,%rdx,2),%xmm4
- .byte 235,58 // jmp 397b2 <_sk_load_565_dst_sse2_lowp+0x7e>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,65,15,196,100,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
- .byte 243,65,15,16,44,80 // movss (%r8,%rdx,2),%xmm5
- .byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,34 // jmp 397b2 <_sk_load_565_dst_sse2_lowp+0x7e>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,65,15,196,100,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
- .byte 102,65,15,196,100,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
- .byte 102,65,15,196,100,80,8,4 // pinsrw $0x4,0x8(%r8,%rdx,2),%xmm4
- .byte 102,65,15,18,36,80 // movlpd (%r8,%rdx,2),%xmm4
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,61,189,62,0,0 // pand 0x3ebd(%rip),%xmm7 # 3d680 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,45,188,62,0,0 // pand 0x3ebc(%rip),%xmm5 # 3d690 <_sk_srcover_bgra_8888_sse2_lowp+0x1444>
- .byte 102,15,111,53,196,62,0,0 // movdqa 0x3ec4(%rip),%xmm6 # 3d6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
- .byte 102,15,219,244 // pand %xmm4,%xmm6
- .byte 102,15,113,212,13 // psrlw $0xd,%xmm4
- .byte 102,15,235,231 // por %xmm7,%xmm4
- .byte 102,15,111,253 // movdqa %xmm5,%xmm7
- .byte 102,15,113,247,2 // psllw $0x2,%xmm7
- .byte 102,15,113,213,4 // psrlw $0x4,%xmm5
- .byte 102,15,235,239 // por %xmm7,%xmm5
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,15,113,247,3 // psllw $0x3,%xmm7
- .byte 102,15,113,214,2 // psrlw $0x2,%xmm6
- .byte 102,15,235,247 // por %xmm7,%xmm6
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,154,54,0,0 // movaps 0x369a(%rip),%xmm7 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 255,224 // jmpq *%rax
- .byte 77,255 // rex.WRB (bad)
- .byte 255 // (bad)
- .byte 255,108,255,255 // ljmp *-0x1(%rdi,%rdi,8)
- .byte 255,96,255 // jmpq *-0x1(%rax)
- .byte 255 // (bad)
- .byte 255,148,255,255,255,140,255 // callq *-0x730001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,132,255,255,255,120,255 // incl -0x870001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_565_sse2_lowp
-.globl _sk_store_565_sse2_lowp
-FUNCTION(_sk_store_565_sse2_lowp)
-_sk_store_565_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,88,62,0,0 // pand 0x3e58(%rip),%xmm8 # 3d6b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1464>
- .byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
- .byte 102,65,15,113,241,3 // psllw $0x3,%xmm9
- .byte 102,68,15,219,13,84,62,0,0 // pand 0x3e54(%rip),%xmm9 # 3d6c0 <_sk_srcover_bgra_8888_sse2_lowp+0x1474>
- .byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
- .byte 102,65,15,113,208,3 // psrlw $0x3,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 398aa <_sk_store_565_sse2_lowp+0x76>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,95,0,0,0 // lea 0x5f(%rip),%r9 # 398f4 <_sk_store_565_sse2_lowp+0xc0>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,68,15,126,192 // movd %xmm8,%eax
- .byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 398f0 <_sk_store_565_sse2_lowp+0xbc>
- .byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 398f0 <_sk_store_565_sse2_lowp+0xbc>
- .byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
- .byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
- .byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 398f0 <_sk_store_565_sse2_lowp+0xbc>
- .byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
- .byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
- .byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
- .byte 102,65,137,68,80,10 // mov %ax,0xa(%r8,%rdx,2)
- .byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
- .byte 102,65,137,68,80,8 // mov %ax,0x8(%r8,%rdx,2)
- .byte 102,69,15,214,4,80 // movq %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 170 // stos %al,%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,202 // dec %edx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190,255,255,255,246 // mov $0xf6ffffff,%esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 234 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 222,255 // fdivrp %st,%st(7)
- .byte 255 // (bad)
- .byte 255,210 // callq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_565_sse2_lowp
-.globl _sk_gather_565_sse2_lowp
-FUNCTION(_sk_gather_565_sse2_lowp)
-_sk_gather_565_sse2_lowp:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,95,194 // maxps %xmm10,%xmm0
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 243,68,15,16,64,16 // movss 0x10(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 65,15,95,210 // maxps %xmm10,%xmm2
- .byte 65,15,95,218 // maxps %xmm10,%xmm3
- .byte 65,15,93,216 // minps %xmm8,%xmm3
- .byte 65,15,93,208 // minps %xmm8,%xmm2
- .byte 243,68,15,91,194 // cvttps2dq %xmm2,%xmm8
- .byte 243,68,15,91,203 // cvttps2dq %xmm3,%xmm9
- .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2
- .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
- .byte 102,69,15,112,209,245 // pshufd $0xf5,%xmm9,%xmm10
- .byte 102,68,15,244,210 // pmuludq %xmm2,%xmm10
- .byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
- .byte 102,69,15,112,224,245 // pshufd $0xf5,%xmm8,%xmm12
- .byte 102,68,15,244,226 // pmuludq %xmm2,%xmm12
- .byte 102,65,15,244,209 // pmuludq %xmm9,%xmm2
- .byte 76,139,16 // mov (%rax),%r10
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,65,15,112,218,232 // pshufd $0xe8,%xmm10,%xmm3
- .byte 102,15,98,211 // punpckldq %xmm3,%xmm2
- .byte 102,69,15,244,216 // pmuludq %xmm8,%xmm11
- .byte 102,69,15,112,195,232 // pshufd $0xe8,%xmm11,%xmm8
- .byte 102,65,15,112,220,232 // pshufd $0xe8,%xmm12,%xmm3
- .byte 102,68,15,98,195 // punpckldq %xmm3,%xmm8
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,254,202 // paddd %xmm2,%xmm1
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
- .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
- .byte 102,73,15,126,208 // movq %xmm2,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,195 // mov %eax,%r11d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,72,15,126,195 // movq %xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,73,15,126,207 // movq %xmm1,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 67,15,183,44,122 // movzwl (%r10,%r15,2),%ebp
- .byte 102,15,110,197 // movd %ebp,%xmm0
- .byte 67,15,183,44,98 // movzwl (%r10,%r12,2),%ebp
- .byte 102,15,110,205 // movd %ebp,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 65,15,183,28,90 // movzwl (%r10,%rbx,2),%ebx
- .byte 102,15,110,195 // movd %ebx,%xmm0
- .byte 67,15,183,28,114 // movzwl (%r10,%r14,2),%ebx
- .byte 102,15,110,211 // movd %ebx,%xmm2
- .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,98,202 // punpckldq %xmm2,%xmm1
- .byte 65,15,183,4,66 // movzwl (%r10,%rax,2),%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 67,15,183,4,90 // movzwl (%r10,%r11,2),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,97,194 // punpcklwd %xmm2,%xmm0
- .byte 67,15,183,4,66 // movzwl (%r10,%r8,2),%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 67,15,183,4,74 // movzwl (%r10,%r9,2),%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 102,15,97,218 // punpcklwd %xmm2,%xmm3
- .byte 102,15,98,195 // punpckldq %xmm3,%xmm0
- .byte 102,15,108,193 // punpcklqdq %xmm1,%xmm0
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,219,29,1,60,0,0 // pand 0x3c01(%rip),%xmm3 # 3d680 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,13,0,60,0,0 // pand 0x3c00(%rip),%xmm1 # 3d690 <_sk_srcover_bgra_8888_sse2_lowp+0x1444>
- .byte 102,15,111,21,8,60,0,0 // movdqa 0x3c08(%rip),%xmm2 # 3d6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,15,113,208,13 // psrlw $0xd,%xmm0
- .byte 102,15,235,195 // por %xmm3,%xmm0
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,113,243,2 // psllw $0x2,%xmm3
- .byte 102,15,113,209,4 // psrlw $0x4,%xmm1
- .byte 102,15,235,203 // por %xmm3,%xmm1
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,113,243,3 // psllw $0x3,%xmm3
- .byte 102,15,113,210,2 // psrlw $0x2,%xmm2
- .byte 102,15,235,211 // por %xmm3,%xmm2
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,222,51,0,0 // movaps 0x33de(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_4444_sse2_lowp
-.globl _sk_load_4444_sse2_lowp
-FUNCTION(_sk_load_4444_sse2_lowp)
-_sk_load_4444_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 39b1a <_sk_load_4444_sse2_lowp+0x3e>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 39bcc <_sk_load_4444_sse2_lowp+0xf0>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,69 // jmp 39b5f <_sk_load_4444_sse2_lowp+0x83>
- .byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,61 // jmp 39b5f <_sk_load_4444_sse2_lowp+0x83>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,69,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8
- .byte 243,65,15,16,4,80 // movss (%r8,%rdx,2),%xmm0
- .byte 243,68,15,16,192 // movss %xmm0,%xmm8
- .byte 235,35 // jmp 39b5f <_sk_load_4444_sse2_lowp+0x83>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,69,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8
- .byte 102,69,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8
- .byte 102,69,15,196,68,80,8,4 // pinsrw $0x4,0x8(%r8,%rdx,2),%xmm8
- .byte 102,69,15,18,4,80 // movlpd (%r8,%rdx,2),%xmm8
- .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,113,209,12 // psrlw $0xc,%xmm1
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,85,59,0,0 // movdqa 0x3b55(%rip),%xmm0 # 3d6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1484>
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,113,211,4 // psrlw $0x4,%xmm3
- .byte 102,15,219,216 // pand %xmm0,%xmm3
- .byte 102,68,15,219,192 // pand %xmm0,%xmm8
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,113,240,4 // psllw $0x4,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,113,241,4 // psllw $0x4,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,113,242,4 // psllw $0x4,%xmm2
- .byte 102,15,235,211 // por %xmm3,%xmm2
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,113,243,4 // psllw $0x4,%xmm3
- .byte 102,65,15,235,216 // por %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 66,255 // rex.X (bad)
- .byte 255 // (bad)
- .byte 255,99,255 // jmpq *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,86,255 // callq *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,141,255,255,255,133 // decl -0x7a000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 125,255 // jge 39be1 <_sk_load_4444_sse2_lowp+0x105>
- .byte 255 // (bad)
- .byte 255,112,255 // pushq -0x1(%rax)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_4444_dst_sse2_lowp
-.globl _sk_load_4444_dst_sse2_lowp
-FUNCTION(_sk_load_4444_dst_sse2_lowp)
-_sk_load_4444_dst_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 39c26 <_sk_load_4444_dst_sse2_lowp+0x3e>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,199,0,0,0 // lea 0xc7(%rip),%r9 # 39cd8 <_sk_load_4444_dst_sse2_lowp+0xf0>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,69 // jmp 39c6b <_sk_load_4444_dst_sse2_lowp+0x83>
- .byte 243,69,15,111,4,80 // movdqu (%r8,%rdx,2),%xmm8
- .byte 235,61 // jmp 39c6b <_sk_load_4444_dst_sse2_lowp+0x83>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,69,15,196,68,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8
- .byte 243,65,15,16,36,80 // movss (%r8,%rdx,2),%xmm4
- .byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 235,35 // jmp 39c6b <_sk_load_4444_dst_sse2_lowp+0x83>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,69,15,196,68,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8
- .byte 102,69,15,196,68,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8
- .byte 102,69,15,196,68,80,8,4 // pinsrw $0x4,0x8(%r8,%rdx,2),%xmm8
- .byte 102,69,15,18,4,80 // movlpd (%r8,%rdx,2),%xmm8
- .byte 102,65,15,111,232 // movdqa %xmm8,%xmm5
- .byte 102,15,113,213,12 // psrlw $0xc,%xmm5
- .byte 102,65,15,111,240 // movdqa %xmm8,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,37,73,58,0,0 // movdqa 0x3a49(%rip),%xmm4 # 3d6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1484>
- .byte 102,15,219,244 // pand %xmm4,%xmm6
- .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
- .byte 102,15,113,215,4 // psrlw $0x4,%xmm7
- .byte 102,15,219,252 // pand %xmm4,%xmm7
- .byte 102,68,15,219,196 // pand %xmm4,%xmm8
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,113,244,4 // psllw $0x4,%xmm4
- .byte 102,15,235,229 // por %xmm5,%xmm4
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,15,113,245,4 // psllw $0x4,%xmm5
- .byte 102,15,235,238 // por %xmm6,%xmm5
- .byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,113,246,4 // psllw $0x4,%xmm6
- .byte 102,15,235,247 // por %xmm7,%xmm6
- .byte 102,65,15,111,248 // movdqa %xmm8,%xmm7
- .byte 102,15,113,247,4 // psllw $0x4,%xmm7
- .byte 102,65,15,235,248 // por %xmm8,%xmm7
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 66,255 // rex.X (bad)
- .byte 255 // (bad)
- .byte 255,99,255 // jmpq *-0x1(%rbx)
- .byte 255 // (bad)
- .byte 255,86,255 // callq *-0x1(%rsi)
- .byte 255 // (bad)
- .byte 255,141,255,255,255,133 // decl -0x7a000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 125,255 // jge 39ced <_sk_load_4444_dst_sse2_lowp+0x105>
- .byte 255 // (bad)
- .byte 255,112,255 // pushq -0x1(%rax)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_4444_sse2_lowp
-.globl _sk_store_4444_sse2_lowp
-FUNCTION(_sk_store_4444_sse2_lowp)
-_sk_store_4444_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 102,68,15,111,192 // movdqa %xmm0,%xmm8
- .byte 102,65,15,113,240,8 // psllw $0x8,%xmm8
- .byte 102,68,15,219,5,200,57,0,0 // pand 0x39c8(%rip),%xmm8 # 3d6e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1494>
- .byte 102,68,15,111,201 // movdqa %xmm1,%xmm9
- .byte 102,65,15,113,241,4 // psllw $0x4,%xmm9
- .byte 102,68,15,219,13,196,57,0,0 // pand 0x39c4(%rip),%xmm9 # 3d6f0 <_sk_srcover_bgra_8888_sse2_lowp+0x14a4>
- .byte 102,69,15,235,200 // por %xmm8,%xmm9
- .byte 102,68,15,111,21,198,57,0,0 // movdqa 0x39c6(%rip),%xmm10 # 3d700 <_sk_srcover_bgra_8888_sse2_lowp+0x14b4>
- .byte 102,68,15,219,210 // pand %xmm2,%xmm10
- .byte 102,68,15,111,195 // movdqa %xmm3,%xmm8
- .byte 102,65,15,113,208,4 // psrlw $0x4,%xmm8
- .byte 102,69,15,235,194 // por %xmm10,%xmm8
- .byte 102,69,15,235,193 // por %xmm9,%xmm8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,31 // ja 39d7d <_sk_store_4444_sse2_lowp+0x89>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,96,0,0,0 // lea 0x60(%rip),%r9 # 39dc8 <_sk_store_4444_sse2_lowp+0xd4>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,68,15,126,192 // movd %xmm8,%eax
- .byte 102,65,137,4,80 // mov %ax,(%r8,%rdx,2)
- .byte 235,70 // jmp 39dc3 <_sk_store_4444_sse2_lowp+0xcf>
- .byte 243,69,15,127,4,80 // movdqu %xmm8,(%r8,%rdx,2)
- .byte 235,62 // jmp 39dc3 <_sk_store_4444_sse2_lowp+0xcf>
- .byte 102,65,15,197,192,2 // pextrw $0x2,%xmm8,%eax
- .byte 102,65,137,68,80,4 // mov %ax,0x4(%r8,%rdx,2)
- .byte 102,69,15,126,4,80 // movd %xmm8,(%r8,%rdx,2)
- .byte 235,42 // jmp 39dc3 <_sk_store_4444_sse2_lowp+0xcf>
- .byte 102,65,15,197,192,6 // pextrw $0x6,%xmm8,%eax
- .byte 102,65,137,68,80,12 // mov %ax,0xc(%r8,%rdx,2)
- .byte 102,65,15,197,192,5 // pextrw $0x5,%xmm8,%eax
- .byte 102,65,137,68,80,10 // mov %ax,0xa(%r8,%rdx,2)
- .byte 102,65,15,197,192,4 // pextrw $0x4,%xmm8,%eax
- .byte 102,65,137,68,80,8 // mov %ax,0x8(%r8,%rdx,2)
- .byte 102,69,15,214,4,80 // movq %xmm8,(%r8,%rdx,2)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 169,255,255,255,201 // test $0xc9ffffff,%eax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 189,255,255,255,245 // mov $0xf5ffffff,%ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 233,255,255,255,221 // jmpq ffffffffde039ddc <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddffdb90>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_4444_sse2_lowp
-.globl _sk_gather_4444_sse2_lowp
-FUNCTION(_sk_gather_4444_sse2_lowp)
-_sk_gather_4444_sse2_lowp:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,64,12 // movss 0xc(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,118,201 // pcmpeqd %xmm9,%xmm9
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 65,15,95,202 // maxps %xmm10,%xmm1
- .byte 65,15,95,194 // maxps %xmm10,%xmm0
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 243,68,15,16,64,16 // movss 0x10(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 102,69,15,254,193 // paddd %xmm9,%xmm8
- .byte 65,15,95,210 // maxps %xmm10,%xmm2
- .byte 65,15,95,218 // maxps %xmm10,%xmm3
- .byte 65,15,93,216 // minps %xmm8,%xmm3
- .byte 65,15,93,208 // minps %xmm8,%xmm2
- .byte 243,68,15,91,194 // cvttps2dq %xmm2,%xmm8
- .byte 243,68,15,91,203 // cvttps2dq %xmm3,%xmm9
- .byte 102,15,110,80,8 // movd 0x8(%rax),%xmm2
- .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
- .byte 102,69,15,112,209,245 // pshufd $0xf5,%xmm9,%xmm10
- .byte 102,68,15,244,210 // pmuludq %xmm2,%xmm10
- .byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
- .byte 102,69,15,112,224,245 // pshufd $0xf5,%xmm8,%xmm12
- .byte 102,68,15,244,226 // pmuludq %xmm2,%xmm12
- .byte 102,65,15,244,209 // pmuludq %xmm9,%xmm2
- .byte 76,139,16 // mov (%rax),%r10
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,65,15,112,218,232 // pshufd $0xe8,%xmm10,%xmm3
- .byte 102,15,98,211 // punpckldq %xmm3,%xmm2
- .byte 102,69,15,244,216 // pmuludq %xmm8,%xmm11
- .byte 102,69,15,112,195,232 // pshufd $0xe8,%xmm11,%xmm8
- .byte 102,65,15,112,220,232 // pshufd $0xe8,%xmm12,%xmm3
- .byte 102,68,15,98,195 // punpckldq %xmm3,%xmm8
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,254,202 // paddd %xmm2,%xmm1
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,65,15,254,192 // paddd %xmm8,%xmm0
- .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
- .byte 102,73,15,126,208 // movq %xmm2,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 102,72,15,126,192 // movq %xmm0,%rax
- .byte 65,137,195 // mov %eax,%r11d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,72,15,126,195 // movq %xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,73,15,126,207 // movq %xmm1,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 67,15,183,44,122 // movzwl (%r10,%r15,2),%ebp
- .byte 102,15,110,197 // movd %ebp,%xmm0
- .byte 67,15,183,44,98 // movzwl (%r10,%r12,2),%ebp
- .byte 102,15,110,205 // movd %ebp,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 65,15,183,28,90 // movzwl (%r10,%rbx,2),%ebx
- .byte 102,15,110,195 // movd %ebx,%xmm0
- .byte 67,15,183,28,114 // movzwl (%r10,%r14,2),%ebx
- .byte 102,15,110,211 // movd %ebx,%xmm2
- .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,98,202 // punpckldq %xmm2,%xmm1
- .byte 65,15,183,4,66 // movzwl (%r10,%rax,2),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 67,15,183,4,90 // movzwl (%r10,%r11,2),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 102,68,15,97,192 // punpcklwd %xmm0,%xmm8
- .byte 67,15,183,4,66 // movzwl (%r10,%r8,2),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 67,15,183,4,74 // movzwl (%r10,%r9,2),%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,68,15,98,194 // punpckldq %xmm2,%xmm8
- .byte 102,68,15,108,193 // punpcklqdq %xmm1,%xmm8
- .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,113,209,12 // psrlw $0xc,%xmm1
- .byte 102,65,15,111,208 // movdqa %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,5,110,55,0,0 // movdqa 0x376e(%rip),%xmm0 # 3d6d0 <_sk_srcover_bgra_8888_sse2_lowp+0x1484>
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,113,211,4 // psrlw $0x4,%xmm3
- .byte 102,15,219,216 // pand %xmm0,%xmm3
- .byte 102,68,15,219,192 // pand %xmm0,%xmm8
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,113,240,4 // psllw $0x4,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,113,241,4 // psllw $0x4,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,113,242,4 // psllw $0x4,%xmm2
- .byte 102,15,235,211 // por %xmm3,%xmm2
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 102,15,113,243,4 // psllw $0x4,%xmm3
- .byte 102,65,15,235,216 // por %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_a8_sse2_lowp
-.globl _sk_load_a8_sse2_lowp
-FUNCTION(_sk_load_a8_sse2_lowp)
-_sk_load_a8_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 39ff4 <_sk_load_a8_sse2_lowp+0x39>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,140,0,0,0 // lea 0x8c(%rip),%r9 # 3a06c <_sk_load_a8_sse2_lowp+0xb1>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 235,97 // jmp 3a055 <_sk_load_a8_sse2_lowp+0x9a>
- .byte 243,65,15,126,28,16 // movq (%r8,%rdx,1),%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,85 // jmp 3a055 <_sk_load_a8_sse2_lowp+0x9a>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 235,51 // jmp 3a055 <_sk_load_a8_sse2_lowp+0x9a>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,216,6 // pinsrw $0x6,%eax,%xmm3
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 102,15,196,216,5 // pinsrw $0x5,%eax,%xmm3
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 102,15,196,216,4 // pinsrw $0x4,%eax,%xmm3
- .byte 102,65,15,110,4,16 // movd (%r8,%rdx,1),%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 102,15,219,29,83,46,0,0 // pand 0x2e53(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 125,255 // jge 3a06d <_sk_load_a8_sse2_lowp+0xb2>
- .byte 255 // (bad)
- .byte 255,163,255,255,255,148 // jmpq *-0x6b000001(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 219,255 // (bad)
- .byte 255 // (bad)
- .byte 255,208 // callq *%rax
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,197 // inc %ebp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 182,255 // mov $0xff,%dh
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_a8_dst_sse2_lowp
-.globl _sk_load_a8_dst_sse2_lowp
-FUNCTION(_sk_load_a8_dst_sse2_lowp)
-_sk_load_a8_dst_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3a0c1 <_sk_load_a8_dst_sse2_lowp+0x39>
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,139,0,0,0 // lea 0x8b(%rip),%r9 # 3a138 <_sk_load_a8_dst_sse2_lowp+0xb0>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,248 // movd %eax,%xmm7
- .byte 235,97 // jmp 3a122 <_sk_load_a8_dst_sse2_lowp+0x9a>
- .byte 243,65,15,126,60,16 // movq (%r8,%rdx,1),%xmm7
- .byte 102,15,96,248 // punpcklbw %xmm0,%xmm7
- .byte 235,85 // jmp 3a122 <_sk_load_a8_dst_sse2_lowp+0x9a>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,196,248,2 // pinsrw $0x2,%eax,%xmm7
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 243,15,16,252 // movss %xmm4,%xmm7
- .byte 235,51 // jmp 3a122 <_sk_load_a8_dst_sse2_lowp+0x9a>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,196,248,6 // pinsrw $0x6,%eax,%xmm7
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 102,15,196,248,5 // pinsrw $0x5,%eax,%xmm7
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 102,15,196,248,4 // pinsrw $0x4,%eax,%xmm7
- .byte 102,65,15,110,36,16 // movd (%r8,%rdx,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 242,15,16,252 // movsd %xmm4,%xmm7
- .byte 102,15,219,61,134,45,0,0 // pand 0x2d86(%rip),%xmm7 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 126,255 // jle 3a139 <_sk_load_a8_dst_sse2_lowp+0xb1>
- .byte 255 // (bad)
- .byte 255,164,255,255,255,149,255 // jmpq *-0x6a0001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 220,255 // fdivr %st,%st(7)
- .byte 255 // (bad)
- .byte 255,209 // callq *%rcx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 183,255 // mov $0xff,%bh
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_store_a8_sse2_lowp
-.globl _sk_store_a8_sse2_lowp
-FUNCTION(_sk_store_a8_sse2_lowp)
-_sk_store_a8_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,29 // ja 3a188 <_sk_store_a8_sse2_lowp+0x34>
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 3a208 <_sk_store_a8_sse2_lowp+0xb4>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 65,136,4,16 // mov %al,(%r8,%rdx,1)
- .byte 235,123 // jmp 3a203 <_sk_store_a8_sse2_lowp+0xaf>
- .byte 102,68,15,111,5,31,45,0,0 // movdqa 0x2d1f(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,68,15,219,195 // pand %xmm3,%xmm8
- .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
- .byte 102,69,15,214,4,16 // movq %xmm8,(%r8,%rdx,1)
- .byte 235,96 // jmp 3a203 <_sk_store_a8_sse2_lowp+0xaf>
- .byte 102,15,197,195,2 // pextrw $0x2,%xmm3,%eax
- .byte 65,136,68,16,2 // mov %al,0x2(%r8,%rdx,1)
- .byte 102,68,15,111,5,250,44,0,0 // movdqa 0x2cfa(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,68,15,219,195 // pand %xmm3,%xmm8
- .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
- .byte 102,68,15,126,192 // movd %xmm8,%eax
- .byte 102,65,137,4,16 // mov %ax,(%r8,%rdx,1)
- .byte 235,55 // jmp 3a203 <_sk_store_a8_sse2_lowp+0xaf>
- .byte 102,15,197,195,6 // pextrw $0x6,%xmm3,%eax
- .byte 65,136,68,16,6 // mov %al,0x6(%r8,%rdx,1)
- .byte 102,15,197,195,5 // pextrw $0x5,%xmm3,%eax
- .byte 65,136,68,16,5 // mov %al,0x5(%r8,%rdx,1)
- .byte 102,15,197,195,4 // pextrw $0x4,%xmm3,%eax
- .byte 65,136,68,16,4 // mov %al,0x4(%r8,%rdx,1)
- .byte 102,68,15,111,5,189,44,0,0 // movdqa 0x2cbd(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,68,15,219,195 // pand %xmm3,%xmm8
- .byte 102,69,15,103,192 // packuswb %xmm8,%xmm8
- .byte 102,69,15,126,4,16 // movd %xmm8,(%r8,%rdx,1)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
- .byte 144 // nop
- .byte 118,255 // jbe 3a209 <_sk_store_a8_sse2_lowp+0xb5>
- .byte 255 // (bad)
- .byte 255,165,255,255,255,155 // jmpq *-0x64000001(%rbp)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,226 // jmpq *%rdx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 216,255 // fdivr %st(7),%st
- .byte 255 // (bad)
- .byte 255,206 // dec %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,196 // inc %esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_gather_a8_sse2_lowp
-.globl _sk_gather_a8_sse2_lowp
-FUNCTION(_sk_gather_a8_sse2_lowp)
-_sk_gather_a8_sse2_lowp:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,72,12 // movss 0xc(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 102,69,15,118,210 // pcmpeqd %xmm10,%xmm10
- .byte 102,69,15,254,202 // paddd %xmm10,%xmm9
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 65,15,95,200 // maxps %xmm8,%xmm1
- .byte 65,15,93,201 // minps %xmm9,%xmm1
- .byte 65,15,93,193 // minps %xmm9,%xmm0
- .byte 243,68,15,16,72,16 // movss 0x10(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 102,69,15,254,202 // paddd %xmm10,%xmm9
- .byte 65,15,95,216 // maxps %xmm8,%xmm3
- .byte 65,15,95,208 // maxps %xmm8,%xmm2
- .byte 65,15,93,209 // minps %xmm9,%xmm2
- .byte 65,15,93,217 // minps %xmm9,%xmm3
- .byte 243,68,15,91,203 // cvttps2dq %xmm3,%xmm9
- .byte 243,68,15,91,210 // cvttps2dq %xmm2,%xmm10
- .byte 102,15,110,88,8 // movd 0x8(%rax),%xmm3
- .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3
- .byte 102,69,15,112,218,245 // pshufd $0xf5,%xmm10,%xmm11
- .byte 102,68,15,244,219 // pmuludq %xmm3,%xmm11
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,69,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm13
- .byte 102,68,15,244,235 // pmuludq %xmm3,%xmm13
- .byte 102,65,15,244,218 // pmuludq %xmm10,%xmm3
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,65,15,112,211,232 // pshufd $0xe8,%xmm11,%xmm2
- .byte 102,15,98,218 // punpckldq %xmm2,%xmm3
- .byte 76,139,16 // mov (%rax),%r10
- .byte 102,69,15,244,225 // pmuludq %xmm9,%xmm12
- .byte 102,69,15,112,204,232 // pshufd $0xe8,%xmm12,%xmm9
- .byte 102,65,15,112,213,232 // pshufd $0xe8,%xmm13,%xmm2
- .byte 102,68,15,98,202 // punpckldq %xmm2,%xmm9
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,65,15,254,201 // paddd %xmm9,%xmm1
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,73,15,126,208 // movq %xmm2,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,195 // mov %eax,%r11d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,72,15,126,195 // movq %xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,73,15,126,199 // movq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,182,36,34 // movzbl (%r10,%r12,1),%r12d
- .byte 67,15,182,44,58 // movzbl (%r10,%r15,1),%ebp
- .byte 193,229,8 // shl $0x8,%ebp
- .byte 68,9,229 // or %r12d,%ebp
- .byte 71,15,182,52,50 // movzbl (%r10,%r14,1),%r14d
- .byte 65,15,182,28,26 // movzbl (%r10,%rbx,1),%ebx
- .byte 193,227,8 // shl $0x8,%ebx
- .byte 68,9,243 // or %r14d,%ebx
- .byte 102,15,110,219 // movd %ebx,%xmm3
- .byte 102,15,196,221,1 // pinsrw $0x1,%ebp,%xmm3
- .byte 67,15,182,44,26 // movzbl (%r10,%r11,1),%ebp
- .byte 65,15,182,4,2 // movzbl (%r10,%rax,1),%eax
- .byte 193,224,8 // shl $0x8,%eax
- .byte 9,232 // or %ebp,%eax
- .byte 102,15,196,216,2 // pinsrw $0x2,%eax,%xmm3
- .byte 67,15,182,4,10 // movzbl (%r10,%r9,1),%eax
- .byte 67,15,182,44,2 // movzbl (%r10,%r8,1),%ebp
- .byte 193,229,8 // shl $0x8,%ebp
- .byte 9,197 // or %eax,%ebp
- .byte 102,15,196,221,3 // pinsrw $0x3,%ebp,%xmm3
- .byte 102,65,15,96,216 // punpcklbw %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_load_g8_sse2_lowp
-.globl _sk_load_g8_sse2_lowp
-FUNCTION(_sk_load_g8_sse2_lowp)
-_sk_load_g8_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3a3c5 <_sk_load_g8_sse2_lowp+0x39>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 3a444 <_sk_load_g8_sse2_lowp+0xb8>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,192 // movd %eax,%xmm0
- .byte 235,97 // jmp 3a426 <_sk_load_g8_sse2_lowp+0x9a>
- .byte 243,65,15,126,4,16 // movq (%r8,%rdx,1),%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,85 // jmp 3a426 <_sk_load_g8_sse2_lowp+0x9a>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,51 // jmp 3a426 <_sk_load_g8_sse2_lowp+0x9a>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,192,6 // pinsrw $0x6,%eax,%xmm0
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 102,15,196,192,5 // pinsrw $0x5,%eax,%xmm0
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 102,15,196,192,4 // pinsrw $0x4,%eax,%xmm0
- .byte 102,65,15,110,12,16 // movd (%r8,%rdx,1),%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 102,15,219,5,130,42,0,0 // pand 0x2a82(%rip),%xmm0 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,121,42,0,0 // movaps 0x2a79(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 3a445 <_sk_load_g8_sse2_lowp+0xb9>
- .byte 255 // (bad)
- .byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190,255,255,255,175 // mov $0xafffffff,%esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_load_g8_dst_sse2_lowp
-.globl _sk_load_g8_dst_sse2_lowp
-FUNCTION(_sk_load_g8_dst_sse2_lowp)
-_sk_load_g8_dst_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3a499 <_sk_load_g8_dst_sse2_lowp+0x39>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,147,0,0,0 // lea 0x93(%rip),%r9 # 3a518 <_sk_load_g8_dst_sse2_lowp+0xb8>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 235,97 // jmp 3a4fa <_sk_load_g8_dst_sse2_lowp+0x9a>
- .byte 243,65,15,126,36,16 // movq (%r8,%rdx,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,85 // jmp 3a4fa <_sk_load_g8_dst_sse2_lowp+0x9a>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,224,2 // pinsrw $0x2,%eax,%xmm4
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,15,110,232 // movd %eax,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,51 // jmp 3a4fa <_sk_load_g8_dst_sse2_lowp+0x9a>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,224,6 // pinsrw $0x6,%eax,%xmm4
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 102,15,196,224,5 // pinsrw $0x5,%eax,%xmm4
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 102,15,196,224,4 // pinsrw $0x4,%eax,%xmm4
- .byte 102,65,15,110,44,16 // movd (%r8,%rdx,1),%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,37,174,41,0,0 // pand 0x29ae(%rip),%xmm4 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,61,165,41,0,0 // movaps 0x29a5(%rip),%xmm7 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 118,255 // jbe 3a519 <_sk_load_g8_dst_sse2_lowp+0xb9>
- .byte 255 // (bad)
- .byte 255,156,255,255,255,141,255 // lcall *-0x720001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,212 // callq *%rsp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,201 // dec %ecx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 190,255,255,255,175 // mov $0xafffffff,%esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_luminance_to_alpha_sse2_lowp
-.globl _sk_luminance_to_alpha_sse2_lowp
-FUNCTION(_sk_luminance_to_alpha_sse2_lowp)
-_sk_luminance_to_alpha_sse2_lowp:
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,213,5,208,49,0,0 // pmullw 0x31d0(%rip),%xmm0 # 3d710 <_sk_srcover_bgra_8888_sse2_lowp+0x14c4>
- .byte 102,15,213,13,216,49,0,0 // pmullw 0x31d8(%rip),%xmm1 # 3d720 <_sk_srcover_bgra_8888_sse2_lowp+0x14d4>
- .byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,29,220,49,0,0 // pmullw 0x31dc(%rip),%xmm3 # 3d730 <_sk_srcover_bgra_8888_sse2_lowp+0x14e4>
- .byte 102,15,253,217 // paddw %xmm1,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gather_g8_sse2_lowp
-.globl _sk_gather_g8_sse2_lowp
-FUNCTION(_sk_gather_g8_sse2_lowp)
-_sk_gather_g8_sse2_lowp:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,72,12 // movss 0xc(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 102,69,15,118,210 // pcmpeqd %xmm10,%xmm10
- .byte 102,69,15,254,202 // paddd %xmm10,%xmm9
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 65,15,95,200 // maxps %xmm8,%xmm1
- .byte 65,15,93,201 // minps %xmm9,%xmm1
- .byte 65,15,93,193 // minps %xmm9,%xmm0
- .byte 243,68,15,16,72,16 // movss 0x10(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 102,69,15,254,202 // paddd %xmm10,%xmm9
- .byte 65,15,95,216 // maxps %xmm8,%xmm3
- .byte 65,15,95,208 // maxps %xmm8,%xmm2
- .byte 65,15,93,209 // minps %xmm9,%xmm2
- .byte 65,15,93,217 // minps %xmm9,%xmm3
- .byte 243,68,15,91,203 // cvttps2dq %xmm3,%xmm9
- .byte 243,68,15,91,210 // cvttps2dq %xmm2,%xmm10
- .byte 102,15,110,88,8 // movd 0x8(%rax),%xmm3
- .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3
- .byte 102,69,15,112,218,245 // pshufd $0xf5,%xmm10,%xmm11
- .byte 102,68,15,244,219 // pmuludq %xmm3,%xmm11
- .byte 102,68,15,111,227 // movdqa %xmm3,%xmm12
- .byte 102,69,15,112,233,245 // pshufd $0xf5,%xmm9,%xmm13
- .byte 102,68,15,244,235 // pmuludq %xmm3,%xmm13
- .byte 102,65,15,244,218 // pmuludq %xmm10,%xmm3
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,65,15,112,211,232 // pshufd $0xe8,%xmm11,%xmm2
- .byte 102,15,98,218 // punpckldq %xmm2,%xmm3
- .byte 76,139,16 // mov (%rax),%r10
- .byte 102,69,15,244,225 // pmuludq %xmm9,%xmm12
- .byte 102,69,15,112,204,232 // pshufd $0xe8,%xmm12,%xmm9
- .byte 102,65,15,112,213,232 // pshufd $0xe8,%xmm13,%xmm2
- .byte 102,68,15,98,202 // punpckldq %xmm2,%xmm9
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,65,15,254,201 // paddd %xmm9,%xmm1
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,73,15,126,208 // movq %xmm2,%r8
- .byte 69,137,193 // mov %r8d,%r9d
- .byte 73,193,232,32 // shr $0x20,%r8
- .byte 102,72,15,126,200 // movq %xmm1,%rax
- .byte 65,137,195 // mov %eax,%r11d
- .byte 72,193,232,32 // shr $0x20,%rax
- .byte 102,72,15,126,195 // movq %xmm0,%rbx
- .byte 65,137,222 // mov %ebx,%r14d
- .byte 72,193,235,32 // shr $0x20,%rbx
- .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,73,15,126,199 // movq %xmm0,%r15
- .byte 69,137,252 // mov %r15d,%r12d
- .byte 73,193,239,32 // shr $0x20,%r15
- .byte 71,15,182,36,34 // movzbl (%r10,%r12,1),%r12d
- .byte 67,15,182,44,58 // movzbl (%r10,%r15,1),%ebp
- .byte 193,229,8 // shl $0x8,%ebp
- .byte 68,9,229 // or %r12d,%ebp
- .byte 71,15,182,52,50 // movzbl (%r10,%r14,1),%r14d
- .byte 65,15,182,28,26 // movzbl (%r10,%rbx,1),%ebx
- .byte 193,227,8 // shl $0x8,%ebx
- .byte 68,9,243 // or %r14d,%ebx
- .byte 102,15,110,195 // movd %ebx,%xmm0
- .byte 102,15,196,197,1 // pinsrw $0x1,%ebp,%xmm0
- .byte 67,15,182,44,26 // movzbl (%r10,%r11,1),%ebp
- .byte 65,15,182,4,2 // movzbl (%r10,%rax,1),%eax
- .byte 193,224,8 // shl $0x8,%eax
- .byte 9,232 // or %ebp,%eax
- .byte 102,15,196,192,2 // pinsrw $0x2,%eax,%xmm0
- .byte 67,15,182,4,10 // movzbl (%r10,%r9,1),%eax
- .byte 67,15,182,44,2 // movzbl (%r10,%r8,1),%ebp
- .byte 193,229,8 // shl $0x8,%ebp
- .byte 9,197 // or %eax,%ebp
- .byte 102,15,196,197,3 // pinsrw $0x3,%ebp,%xmm0
- .byte 102,65,15,96,192 // punpcklbw %xmm8,%xmm0
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,29,234,39,0,0 // movaps 0x27ea(%rip),%xmm3 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_1_float_sse2_lowp
-.globl _sk_scale_1_float_sse2_lowp
-FUNCTION(_sk_scale_1_float_sse2_lowp)
-_sk_scale_1_float_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,64,30,0,0 // mulss 0x1e40(%rip),%xmm8 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,7,30,0,0 // addss 0x1e07(%rip),%xmm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
- .byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,155,39,0,0 // movdqa 0x279b(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,65,15,213,208 // pmullw %xmm8,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,65,15,213,216 // pmullw %xmm8,%xmm3
- .byte 102,65,15,253,217 // paddw %xmm9,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_lerp_1_float_sse2_lowp
-.globl _sk_lerp_1_float_sse2_lowp
-FUNCTION(_sk_lerp_1_float_sse2_lowp)
-_sk_lerp_1_float_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,68,15,16,0 // movss (%rax),%xmm8
- .byte 243,68,15,89,5,200,29,0,0 // mulss 0x1dc8(%rip),%xmm8 # 3c528 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- .byte 243,68,15,88,5,143,29,0,0 // addss 0x1d8f(%rip),%xmm8 # 3c4f8 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- .byte 243,65,15,44,192 // cvttss2si %xmm8,%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 242,69,15,112,192,0 // pshuflw $0x0,%xmm8,%xmm8
- .byte 102,69,15,112,192,80 // pshufd $0x50,%xmm8,%xmm8
- .byte 102,68,15,111,13,40,39,0,0 // movdqa 0x2728(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,65,15,213,208 // pmullw %xmm8,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,65,15,213,216 // pmullw %xmm8,%xmm3
- .byte 102,65,15,253,217 // paddw %xmm9,%xmm3
- .byte 102,69,15,249,200 // psubw %xmm8,%xmm9
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,213,196 // pmullw %xmm4,%xmm8
- .byte 102,65,15,253,192 // paddw %xmm8,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,213,197 // pmullw %xmm5,%xmm8
- .byte 102,65,15,253,200 // paddw %xmm8,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,69,15,111,193 // movdqa %xmm9,%xmm8
- .byte 102,68,15,213,198 // pmullw %xmm6,%xmm8
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
- .byte 102,65,15,253,217 // paddw %xmm9,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_scale_u8_sse2_lowp
-.globl _sk_scale_u8_sse2_lowp
-FUNCTION(_sk_scale_u8_sse2_lowp)
-_sk_scale_u8_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 3a83f <_sk_scale_u8_sse2_lowp+0x3b>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,218,0,0,0 // lea 0xda(%rip),%r9 # 3a904 <_sk_scale_u8_sse2_lowp+0x100>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 3a8ac <_sk_scale_u8_sse2_lowp+0xa8>
- .byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
- .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 3a8ac <_sk_scale_u8_sse2_lowp+0xa8>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
- .byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 3a8ac <_sk_scale_u8_sse2_lowp+0xa8>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 102,68,15,196,192,5 // pinsrw $0x5,%eax,%xmm8
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 102,68,15,196,192,4 // pinsrw $0x4,%eax,%xmm8
- .byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
- .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
- .byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,251,37,0,0 // pand 0x25fb(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,68,15,111,13,237,37,0,0 // movdqa 0x25ed(%rip),%xmm9 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,253,193 // paddw %xmm9,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
- .byte 102,65,15,253,201 // paddw %xmm9,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,65,15,213,208 // pmullw %xmm8,%xmm2
- .byte 102,65,15,253,209 // paddw %xmm9,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,69,15,253,193 // paddw %xmm9,%xmm8
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 47 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,89,255 // lcall *-0x1(%rcx)
- .byte 255 // (bad)
- .byte 255,72,255 // decl -0x1(%rax)
- .byte 255 // (bad)
- .byte 255,152,255,255,255,140 // lcall *-0x73000001(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,128,255,255,255,111 // incl 0x6fffffff(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_u8_sse2_lowp
-.globl _sk_lerp_u8_sse2_lowp
-FUNCTION(_sk_lerp_u8_sse2_lowp)
-_sk_lerp_u8_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,36 // ja 3a95b <_sk_lerp_u8_sse2_lowp+0x3b>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,30,1,0,0 // lea 0x11e(%rip),%r9 # 3aa64 <_sk_lerp_u8_sse2_lowp+0x144>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,182,4,16 // movzbl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,192 // movd %eax,%xmm8
- .byte 235,109 // jmp 3a9c8 <_sk_lerp_u8_sse2_lowp+0xa8>
- .byte 243,69,15,126,4,16 // movq (%r8,%rdx,1),%xmm8
- .byte 102,68,15,96,192 // punpcklbw %xmm0,%xmm8
- .byte 235,96 // jmp 3a9c8 <_sk_lerp_u8_sse2_lowp+0xa8>
- .byte 65,15,182,68,16,2 // movzbl 0x2(%r8,%rdx,1),%eax
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,68,15,196,192,2 // pinsrw $0x2,%eax,%xmm8
- .byte 65,15,183,4,16 // movzwl (%r8,%rdx,1),%eax
- .byte 102,68,15,110,200 // movd %eax,%xmm9
- .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
- .byte 243,69,15,16,193 // movss %xmm9,%xmm8
- .byte 235,57 // jmp 3a9c8 <_sk_lerp_u8_sse2_lowp+0xa8>
- .byte 65,15,182,68,16,6 // movzbl 0x6(%r8,%rdx,1),%eax
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 102,68,15,196,192,6 // pinsrw $0x6,%eax,%xmm8
- .byte 65,15,182,68,16,5 // movzbl 0x5(%r8,%rdx,1),%eax
- .byte 102,68,15,196,192,5 // pinsrw $0x5,%eax,%xmm8
- .byte 65,15,182,68,16,4 // movzbl 0x4(%r8,%rdx,1),%eax
- .byte 102,68,15,196,192,4 // pinsrw $0x4,%eax,%xmm8
- .byte 102,69,15,110,12,16 // movd (%r8,%rdx,1),%xmm9
- .byte 102,68,15,96,200 // punpcklbw %xmm0,%xmm9
- .byte 242,69,15,16,193 // movsd %xmm9,%xmm8
- .byte 102,68,15,219,5,223,36,0,0 // pand 0x24df(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,68,15,111,21,214,36,0,0 // movdqa 0x24d6(%rip),%xmm10 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,69,15,239,202 // pxor %xmm10,%xmm9
- .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
- .byte 102,68,15,213,220 // pmullw %xmm4,%xmm11
- .byte 102,65,15,213,192 // pmullw %xmm8,%xmm0
- .byte 102,65,15,253,194 // paddw %xmm10,%xmm0
- .byte 102,65,15,253,195 // paddw %xmm11,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
- .byte 102,68,15,213,221 // pmullw %xmm5,%xmm11
- .byte 102,65,15,213,200 // pmullw %xmm8,%xmm1
- .byte 102,65,15,253,202 // paddw %xmm10,%xmm1
- .byte 102,65,15,253,203 // paddw %xmm11,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
- .byte 102,68,15,213,222 // pmullw %xmm6,%xmm11
- .byte 102,65,15,213,208 // pmullw %xmm8,%xmm2
- .byte 102,65,15,253,210 // paddw %xmm10,%xmm2
- .byte 102,65,15,253,211 // paddw %xmm11,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,68,15,213,207 // pmullw %xmm7,%xmm9
- .byte 102,68,15,213,195 // pmullw %xmm3,%xmm8
- .byte 102,69,15,253,194 // paddw %xmm10,%xmm8
- .byte 102,69,15,253,193 // paddw %xmm9,%xmm8
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 235,254 // jmp 3aa64 <_sk_lerp_u8_sse2_lowp+0x144>
- .byte 255 // (bad)
- .byte 255,21,255,255,255,4 // callq *0x4ffffff(%rip) # 503aa6c <_sk_srcover_bgra_8888_sse2_lowp+0x4ffe820>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,84,255,255 // callq *-0x1(%rdi,%rdi,8)
- .byte 255,72,255 // decl -0x1(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 60,255 // cmp $0xff,%al
- .byte 255 // (bad)
- .byte 255,43 // ljmp *(%rbx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_scale_565_sse2_lowp
-.globl _sk_scale_565_sse2_lowp
-FUNCTION(_sk_scale_565_sse2_lowp)
-_sk_scale_565_sse2_lowp:
- .byte 102,15,127,116,36,232 // movdqa %xmm6,-0x18(%rsp)
- .byte 15,41,108,36,216 // movaps %xmm5,-0x28(%rsp)
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3aacb <_sk_scale_565_sse2_lowp+0x4b>
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,229,1,0,0 // lea 0x1e5(%rip),%r9 # 3ac9c <_sk_scale_565_sse2_lowp+0x21c>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,15,110,240 // movd %eax,%xmm6
- .byte 235,67 // jmp 3ab0e <_sk_scale_565_sse2_lowp+0x8e>
- .byte 243,65,15,111,52,80 // movdqu (%r8,%rdx,2),%xmm6
- .byte 235,59 // jmp 3ab0e <_sk_scale_565_sse2_lowp+0x8e>
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,65,15,196,116,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm6
- .byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
- .byte 243,65,15,16,241 // movss %xmm9,%xmm6
- .byte 235,34 // jmp 3ab0e <_sk_scale_565_sse2_lowp+0x8e>
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,65,15,196,116,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm6
- .byte 102,65,15,196,116,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm6
- .byte 102,65,15,196,116,80,8,4 // pinsrw $0x4,0x8(%r8,%rdx,2),%xmm6
- .byte 102,65,15,18,52,80 // movlpd (%r8,%rdx,2),%xmm6
- .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,94,43,0,0 // pand 0x2b5e(%rip),%xmm11 # 3d680 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
- .byte 102,68,15,111,206 // movdqa %xmm6,%xmm9
- .byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,90,43,0,0 // pand 0x2b5a(%rip),%xmm9 # 3d690 <_sk_srcover_bgra_8888_sse2_lowp+0x1444>
- .byte 102,68,15,111,21,97,43,0,0 // movdqa 0x2b61(%rip),%xmm10 # 3d6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
- .byte 102,68,15,219,214 // pand %xmm6,%xmm10
- .byte 102,15,113,214,13 // psrlw $0xd,%xmm6
- .byte 102,65,15,235,243 // por %xmm11,%xmm6
- .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
- .byte 102,65,15,113,243,2 // psllw $0x2,%xmm11
- .byte 102,65,15,113,209,4 // psrlw $0x4,%xmm9
- .byte 102,69,15,235,203 // por %xmm11,%xmm9
- .byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
- .byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
- .byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
- .byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,189,42,0,0 // movdqa 0x2abd(%rip),%xmm12 # 3d640 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
- .byte 102,69,15,239,236 // pxor %xmm12,%xmm13
- .byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
- .byte 102,69,15,239,220 // pxor %xmm12,%xmm11
- .byte 102,69,15,101,221 // pcmpgtw %xmm13,%xmm11
- .byte 102,69,15,111,234 // movdqa %xmm10,%xmm13
- .byte 102,69,15,239,236 // pxor %xmm12,%xmm13
- .byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
- .byte 102,69,15,239,244 // pxor %xmm12,%xmm14
- .byte 102,69,15,101,238 // pcmpgtw %xmm14,%xmm13
- .byte 102,69,15,111,245 // movdqa %xmm13,%xmm14
- .byte 102,69,15,223,242 // pandn %xmm10,%xmm14
- .byte 102,69,15,111,249 // movdqa %xmm9,%xmm15
- .byte 102,69,15,219,253 // pand %xmm13,%xmm15
- .byte 102,69,15,235,254 // por %xmm14,%xmm15
- .byte 102,69,15,111,247 // movdqa %xmm15,%xmm14
- .byte 102,69,15,239,244 // pxor %xmm12,%xmm14
- .byte 102,68,15,111,198 // movdqa %xmm6,%xmm8
- .byte 102,69,15,235,196 // por %xmm12,%xmm8
- .byte 102,69,15,101,240 // pcmpgtw %xmm8,%xmm14
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,65,15,219,198 // pand %xmm14,%xmm0
- .byte 102,69,15,223,247 // pandn %xmm15,%xmm14
- .byte 102,68,15,235,240 // por %xmm0,%xmm14
- .byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
- .byte 102,65,15,219,197 // pand %xmm13,%xmm0
- .byte 102,69,15,223,233 // pandn %xmm9,%xmm13
- .byte 102,68,15,235,232 // por %xmm0,%xmm13
- .byte 102,69,15,239,229 // pxor %xmm13,%xmm12
- .byte 102,69,15,101,224 // pcmpgtw %xmm8,%xmm12
- .byte 102,69,15,219,236 // pand %xmm12,%xmm13
- .byte 102,68,15,223,230 // pandn %xmm6,%xmm12
- .byte 102,69,15,235,229 // por %xmm13,%xmm12
- .byte 102,69,15,219,243 // pand %xmm11,%xmm14
- .byte 102,69,15,223,220 // pandn %xmm12,%xmm11
- .byte 102,69,15,235,222 // por %xmm14,%xmm11
- .byte 102,15,213,245 // pmullw %xmm5,%xmm6
- .byte 102,68,15,213,201 // pmullw %xmm1,%xmm9
- .byte 102,68,15,213,210 // pmullw %xmm2,%xmm10
- .byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,15,111,5,95,34,0,0 // movdqa 0x225f(%rip),%xmm0 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,253,240 // paddw %xmm0,%xmm6
- .byte 102,68,15,253,200 // paddw %xmm0,%xmm9
- .byte 102,68,15,253,208 // paddw %xmm0,%xmm10
- .byte 102,68,15,253,216 // paddw %xmm0,%xmm11
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,65,15,111,210 // movdqa %xmm10,%xmm2
- .byte 102,65,15,111,219 // movdqa %xmm11,%xmm3
- .byte 15,40,108,36,216 // movaps -0x28(%rsp),%xmm5
- .byte 15,40,116,36,232 // movaps -0x18(%rsp),%xmm6
- .byte 255,224 // jmpq *%rax
- .byte 36,254 // and $0xfe,%al
- .byte 255 // (bad)
- .byte 255,67,254 // incl -0x2(%rbx)
- .byte 255 // (bad)
- .byte 255,55 // pushq (%rdi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,108,254,255 // ljmp *-0x1(%rsi,%rdi,8)
- .byte 255,100,254,255 // jmpq *-0x1(%rsi,%rdi,8)
- .byte 255,92,254,255 // lcall *-0x1(%rsi,%rdi,8)
- .byte 255,80,254 // callq *-0x2(%rax)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_lerp_565_sse2_lowp
-.globl _sk_lerp_565_sse2_lowp
-FUNCTION(_sk_lerp_565_sse2_lowp)
-_sk_lerp_565_sse2_lowp:
- .byte 102,15,127,84,36,232 // movdqa %xmm2,-0x18(%rsp)
- .byte 15,41,76,36,216 // movaps %xmm1,-0x28(%rsp)
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 77,1,192 // add %r8,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 137,248 // mov %edi,%eax
- .byte 36,7 // and $0x7,%al
- .byte 254,200 // dec %al
- .byte 60,6 // cmp $0x6,%al
- .byte 119,34 // ja 3ad03 <_sk_lerp_565_sse2_lowp+0x4b>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 15,182,192 // movzbl %al,%eax
- .byte 76,141,13,45,2,0,0 // lea 0x22d(%rip),%r9 # 3af1c <_sk_lerp_565_sse2_lowp+0x264>
- .byte 73,99,4,129 // movslq (%r9,%rax,4),%rax
- .byte 76,1,200 // add %r9,%rax
- .byte 255,224 // jmpq *%rax
- .byte 65,15,183,4,80 // movzwl (%r8,%rdx,2),%eax
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 235,67 // jmp 3ad46 <_sk_lerp_565_sse2_lowp+0x8e>
- .byte 243,65,15,111,20,80 // movdqu (%r8,%rdx,2),%xmm2
- .byte 235,59 // jmp 3ad46 <_sk_lerp_565_sse2_lowp+0x8e>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,65,15,196,84,80,4,2 // pinsrw $0x2,0x4(%r8,%rdx,2),%xmm2
- .byte 243,69,15,16,12,80 // movss (%r8,%rdx,2),%xmm9
- .byte 243,65,15,16,209 // movss %xmm9,%xmm2
- .byte 235,34 // jmp 3ad46 <_sk_lerp_565_sse2_lowp+0x8e>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,65,15,196,84,80,12,6 // pinsrw $0x6,0xc(%r8,%rdx,2),%xmm2
- .byte 102,65,15,196,84,80,10,5 // pinsrw $0x5,0xa(%r8,%rdx,2),%xmm2
- .byte 102,65,15,196,84,80,8,4 // pinsrw $0x4,0x8(%r8,%rdx,2),%xmm2
- .byte 102,65,15,18,20,80 // movlpd (%r8,%rdx,2),%xmm2
- .byte 102,68,15,111,218 // movdqa %xmm2,%xmm11
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,219,29,38,41,0,0 // pand 0x2926(%rip),%xmm11 # 3d680 <_sk_srcover_bgra_8888_sse2_lowp+0x1434>
- .byte 102,68,15,111,202 // movdqa %xmm2,%xmm9
- .byte 102,65,15,113,209,5 // psrlw $0x5,%xmm9
- .byte 102,68,15,219,13,34,41,0,0 // pand 0x2922(%rip),%xmm9 # 3d690 <_sk_srcover_bgra_8888_sse2_lowp+0x1444>
- .byte 102,68,15,111,21,41,41,0,0 // movdqa 0x2929(%rip),%xmm10 # 3d6a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1454>
- .byte 102,68,15,219,210 // pand %xmm2,%xmm10
- .byte 102,15,113,210,13 // psrlw $0xd,%xmm2
- .byte 102,65,15,235,211 // por %xmm11,%xmm2
- .byte 102,69,15,111,217 // movdqa %xmm9,%xmm11
- .byte 102,65,15,113,243,2 // psllw $0x2,%xmm11
- .byte 102,65,15,113,209,4 // psrlw $0x4,%xmm9
- .byte 102,69,15,235,203 // por %xmm11,%xmm9
- .byte 102,69,15,111,218 // movdqa %xmm10,%xmm11
- .byte 102,65,15,113,243,3 // psllw $0x3,%xmm11
- .byte 102,65,15,113,210,2 // psrlw $0x2,%xmm10
- .byte 102,69,15,235,211 // por %xmm11,%xmm10
- .byte 102,68,15,111,37,133,40,0,0 // movdqa 0x2885(%rip),%xmm12 # 3d640 <_sk_srcover_bgra_8888_sse2_lowp+0x13f4>
- .byte 102,68,15,111,235 // movdqa %xmm3,%xmm13
- .byte 102,69,15,239,236 // pxor %xmm12,%xmm13
- .byte 102,68,15,111,223 // movdqa %xmm7,%xmm11
- .byte 102,69,15,239,220 // pxor %xmm12,%xmm11
- .byte 102,69,15,101,221 // pcmpgtw %xmm13,%xmm11
- .byte 102,69,15,111,234 // movdqa %xmm10,%xmm13
- .byte 102,69,15,239,236 // pxor %xmm12,%xmm13
- .byte 102,69,15,111,241 // movdqa %xmm9,%xmm14
- .byte 102,69,15,239,244 // pxor %xmm12,%xmm14
- .byte 102,69,15,101,238 // pcmpgtw %xmm14,%xmm13
- .byte 102,69,15,111,245 // movdqa %xmm13,%xmm14
- .byte 102,69,15,223,242 // pandn %xmm10,%xmm14
- .byte 102,69,15,111,249 // movdqa %xmm9,%xmm15
- .byte 102,69,15,219,253 // pand %xmm13,%xmm15
- .byte 102,69,15,235,254 // por %xmm14,%xmm15
- .byte 102,69,15,111,247 // movdqa %xmm15,%xmm14
- .byte 102,69,15,239,244 // pxor %xmm12,%xmm14
- .byte 102,68,15,111,194 // movdqa %xmm2,%xmm8
- .byte 102,69,15,235,196 // por %xmm12,%xmm8
- .byte 102,69,15,101,240 // pcmpgtw %xmm8,%xmm14
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,65,15,219,198 // pand %xmm14,%xmm0
- .byte 102,69,15,223,247 // pandn %xmm15,%xmm14
- .byte 102,68,15,235,240 // por %xmm0,%xmm14
- .byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
- .byte 102,65,15,219,197 // pand %xmm13,%xmm0
- .byte 102,69,15,223,233 // pandn %xmm9,%xmm13
- .byte 102,68,15,235,232 // por %xmm0,%xmm13
- .byte 102,69,15,239,229 // pxor %xmm13,%xmm12
- .byte 102,69,15,101,224 // pcmpgtw %xmm8,%xmm12
- .byte 102,69,15,219,236 // pand %xmm12,%xmm13
- .byte 102,68,15,223,226 // pandn %xmm2,%xmm12
- .byte 102,69,15,235,229 // por %xmm13,%xmm12
- .byte 102,69,15,219,243 // pand %xmm11,%xmm14
- .byte 102,69,15,223,220 // pandn %xmm12,%xmm11
- .byte 102,69,15,235,222 // por %xmm14,%xmm11
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,68,15,111,5,49,32,0,0 // movdqa 0x2031(%rip),%xmm8 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,65,15,239,192 // pxor %xmm8,%xmm0
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,65,15,253,208 // paddw %xmm8,%xmm2
- .byte 102,15,253,208 // paddw %xmm0,%xmm2
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,68,15,213,76,36,216 // pmullw -0x28(%rsp),%xmm9
- .byte 102,65,15,239,192 // pxor %xmm8,%xmm0
- .byte 102,15,213,197 // pmullw %xmm5,%xmm0
- .byte 102,69,15,253,200 // paddw %xmm8,%xmm9
- .byte 102,68,15,253,200 // paddw %xmm0,%xmm9
- .byte 102,65,15,111,194 // movdqa %xmm10,%xmm0
- .byte 102,68,15,213,84,36,232 // pmullw -0x18(%rsp),%xmm10
- .byte 102,65,15,239,192 // pxor %xmm8,%xmm0
- .byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,69,15,253,208 // paddw %xmm8,%xmm10
- .byte 102,68,15,253,208 // paddw %xmm0,%xmm10
- .byte 102,65,15,111,195 // movdqa %xmm11,%xmm0
- .byte 102,68,15,213,219 // pmullw %xmm3,%xmm11
- .byte 102,65,15,239,192 // pxor %xmm8,%xmm0
- .byte 102,69,15,253,216 // paddw %xmm8,%xmm11
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,68,15,253,216 // paddw %xmm0,%xmm11
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 102,65,15,111,210 // movdqa %xmm10,%xmm2
- .byte 102,65,15,111,219 // movdqa %xmm11,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 102,144 // xchg %ax,%ax
- .byte 220,253 // fdivr %st,%st(5)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 251 // sti
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 239 // out %eax,(%dx)
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,36,254 // jmpq *(%rsi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,28,254 // lcall *(%rsi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,20,254 // callq *(%rsi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,8 // decl (%rax)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_clamp_x_1_sse2_lowp
-.globl _sk_clamp_x_1_sse2_lowp
-FUNCTION(_sk_clamp_x_1_sse2_lowp)
-_sk_clamp_x_1_sse2_lowp:
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 65,15,95,200 // maxps %xmm8,%xmm1
- .byte 65,15,95,192 // maxps %xmm8,%xmm0
- .byte 68,15,40,5,196,31,0,0 // movaps 0x1fc4(%rip),%xmm8 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 65,15,93,192 // minps %xmm8,%xmm0
- .byte 65,15,93,200 // minps %xmm8,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_repeat_x_1_sse2_lowp
-.globl _sk_repeat_x_1_sse2_lowp
-FUNCTION(_sk_repeat_x_1_sse2_lowp)
-_sk_repeat_x_1_sse2_lowp:
- .byte 243,68,15,91,193 // cvttps2dq %xmm1,%xmm8
- .byte 243,68,15,91,200 // cvttps2dq %xmm0,%xmm9
- .byte 69,15,91,201 // cvtdq2ps %xmm9,%xmm9
- .byte 69,15,91,192 // cvtdq2ps %xmm8,%xmm8
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 69,15,194,208,1 // cmpltps %xmm8,%xmm10
- .byte 68,15,40,216 // movaps %xmm0,%xmm11
- .byte 69,15,194,217,1 // cmpltps %xmm9,%xmm11
- .byte 68,15,40,37,140,31,0,0 // movaps 0x1f8c(%rip),%xmm12 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,84,220 // andps %xmm12,%xmm11
- .byte 69,15,84,212 // andps %xmm12,%xmm10
- .byte 69,15,87,237 // xorps %xmm13,%xmm13
- .byte 69,15,92,194 // subps %xmm10,%xmm8
- .byte 69,15,92,203 // subps %xmm11,%xmm9
- .byte 65,15,92,193 // subps %xmm9,%xmm0
- .byte 65,15,92,200 // subps %xmm8,%xmm1
- .byte 65,15,95,205 // maxps %xmm13,%xmm1
- .byte 65,15,95,197 // maxps %xmm13,%xmm0
- .byte 65,15,93,196 // minps %xmm12,%xmm0
- .byte 65,15,93,204 // minps %xmm12,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_mirror_x_1_sse2_lowp
-.globl _sk_mirror_x_1_sse2_lowp
-FUNCTION(_sk_mirror_x_1_sse2_lowp)
-_sk_mirror_x_1_sse2_lowp:
- .byte 68,15,40,5,180,31,0,0 // movaps 0x1fb4(%rip),%xmm8 # 3cf70 <_sk_srcover_bgra_8888_sse2_lowp+0xd24>
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 68,15,40,21,52,31,0,0 // movaps 0x1f34(%rip),%xmm10 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,40,217 // movaps %xmm1,%xmm11
- .byte 69,15,89,218 // mulps %xmm10,%xmm11
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 243,69,15,91,202 // cvttps2dq %xmm10,%xmm9
- .byte 243,69,15,91,227 // cvttps2dq %xmm11,%xmm12
- .byte 69,15,91,228 // cvtdq2ps %xmm12,%xmm12
- .byte 69,15,91,233 // cvtdq2ps %xmm9,%xmm13
- .byte 69,15,194,213,1 // cmpltps %xmm13,%xmm10
- .byte 69,15,194,220,1 // cmpltps %xmm12,%xmm11
- .byte 68,15,40,13,20,31,0,0 // movaps 0x1f14(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,84,217 // andps %xmm9,%xmm11
- .byte 69,15,84,209 // andps %xmm9,%xmm10
- .byte 69,15,87,246 // xorps %xmm14,%xmm14
- .byte 69,15,92,234 // subps %xmm10,%xmm13
- .byte 69,15,92,227 // subps %xmm11,%xmm12
- .byte 69,15,88,228 // addps %xmm12,%xmm12
- .byte 69,15,88,237 // addps %xmm13,%xmm13
- .byte 65,15,92,197 // subps %xmm13,%xmm0
- .byte 65,15,92,204 // subps %xmm12,%xmm1
- .byte 65,15,88,200 // addps %xmm8,%xmm1
- .byte 65,15,88,192 // addps %xmm8,%xmm0
- .byte 68,15,40,5,64,36,0,0 // movaps 0x2440(%rip),%xmm8 # 3d470 <_sk_srcover_bgra_8888_sse2_lowp+0x1224>
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 65,15,84,200 // andps %xmm8,%xmm1
- .byte 65,15,95,206 // maxps %xmm14,%xmm1
- .byte 65,15,95,198 // maxps %xmm14,%xmm0
- .byte 65,15,93,193 // minps %xmm9,%xmm0
- .byte 65,15,93,201 // minps %xmm9,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_sse2_lowp
-.globl _sk_decal_x_sse2_lowp
-FUNCTION(_sk_decal_x_sse2_lowp)
-_sk_decal_x_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,194,201,2 // cmpleps %xmm1,%xmm9
- .byte 242,69,15,112,201,232 // pshuflw $0xe8,%xmm9,%xmm9
- .byte 243,69,15,112,201,232 // pshufhw $0xe8,%xmm9,%xmm9
- .byte 102,69,15,112,201,232 // pshufd $0xe8,%xmm9,%xmm9
- .byte 68,15,194,192,2 // cmpleps %xmm0,%xmm8
- .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
- .byte 243,69,15,112,192,232 // pshufhw $0xe8,%xmm8,%xmm8
- .byte 102,69,15,112,192,232 // pshufd $0xe8,%xmm8,%xmm8
- .byte 102,69,15,108,193 // punpcklqdq %xmm9,%xmm8
- .byte 102,65,15,113,240,15 // psllw $0xf,%xmm8
- .byte 102,65,15,113,224,15 // psraw $0xf,%xmm8
- .byte 243,68,15,16,72,64 // movss 0x40(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,40,209 // movaps %xmm1,%xmm10
- .byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 242,69,15,112,210,232 // pshuflw $0xe8,%xmm10,%xmm10
- .byte 243,69,15,112,210,232 // pshufhw $0xe8,%xmm10,%xmm10
- .byte 102,69,15,112,210,232 // pshufd $0xe8,%xmm10,%xmm10
- .byte 68,15,40,216 // movaps %xmm0,%xmm11
- .byte 69,15,194,217,1 // cmpltps %xmm9,%xmm11
- .byte 242,69,15,112,203,232 // pshuflw $0xe8,%xmm11,%xmm9
- .byte 243,69,15,112,201,232 // pshufhw $0xe8,%xmm9,%xmm9
- .byte 102,69,15,112,201,232 // pshufd $0xe8,%xmm9,%xmm9
- .byte 102,69,15,108,202 // punpcklqdq %xmm10,%xmm9
- .byte 102,65,15,113,241,15 // psllw $0xf,%xmm9
- .byte 102,65,15,113,225,15 // psraw $0xf,%xmm9
- .byte 102,69,15,219,200 // pand %xmm8,%xmm9
- .byte 243,68,15,127,8 // movdqu %xmm9,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_y_sse2_lowp
-.globl _sk_decal_y_sse2_lowp
-FUNCTION(_sk_decal_y_sse2_lowp)
-_sk_decal_y_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,194,203,2 // cmpleps %xmm3,%xmm9
- .byte 242,69,15,112,201,232 // pshuflw $0xe8,%xmm9,%xmm9
- .byte 243,69,15,112,201,232 // pshufhw $0xe8,%xmm9,%xmm9
- .byte 102,69,15,112,201,232 // pshufd $0xe8,%xmm9,%xmm9
- .byte 68,15,194,194,2 // cmpleps %xmm2,%xmm8
- .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
- .byte 243,69,15,112,192,232 // pshufhw $0xe8,%xmm8,%xmm8
- .byte 102,69,15,112,192,232 // pshufd $0xe8,%xmm8,%xmm8
- .byte 102,69,15,108,193 // punpcklqdq %xmm9,%xmm8
- .byte 102,65,15,113,240,15 // psllw $0xf,%xmm8
- .byte 102,65,15,113,224,15 // psraw $0xf,%xmm8
- .byte 243,68,15,16,72,68 // movss 0x44(%rax),%xmm9
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 68,15,40,211 // movaps %xmm3,%xmm10
- .byte 69,15,194,209,1 // cmpltps %xmm9,%xmm10
- .byte 242,69,15,112,210,232 // pshuflw $0xe8,%xmm10,%xmm10
- .byte 243,69,15,112,210,232 // pshufhw $0xe8,%xmm10,%xmm10
- .byte 102,69,15,112,210,232 // pshufd $0xe8,%xmm10,%xmm10
- .byte 68,15,40,218 // movaps %xmm2,%xmm11
- .byte 69,15,194,217,1 // cmpltps %xmm9,%xmm11
- .byte 242,69,15,112,203,232 // pshuflw $0xe8,%xmm11,%xmm9
- .byte 243,69,15,112,201,232 // pshufhw $0xe8,%xmm9,%xmm9
- .byte 102,69,15,112,201,232 // pshufd $0xe8,%xmm9,%xmm9
- .byte 102,69,15,108,202 // punpcklqdq %xmm10,%xmm9
- .byte 102,65,15,113,241,15 // psllw $0xf,%xmm9
- .byte 102,65,15,113,225,15 // psraw $0xf,%xmm9
- .byte 102,69,15,219,200 // pand %xmm8,%xmm9
- .byte 243,68,15,127,8 // movdqu %xmm9,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_decal_x_and_y_sse2_lowp
-.globl _sk_decal_x_and_y_sse2_lowp
-FUNCTION(_sk_decal_x_and_y_sse2_lowp)
-_sk_decal_x_and_y_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 69,15,87,210 // xorps %xmm10,%xmm10
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 68,15,194,193,2 // cmpleps %xmm1,%xmm8
- .byte 242,69,15,112,192,232 // pshuflw $0xe8,%xmm8,%xmm8
- .byte 243,69,15,112,192,232 // pshufhw $0xe8,%xmm8,%xmm8
- .byte 102,69,15,112,192,232 // pshufd $0xe8,%xmm8,%xmm8
- .byte 69,15,87,201 // xorps %xmm9,%xmm9
- .byte 68,15,194,200,2 // cmpleps %xmm0,%xmm9
- .byte 242,69,15,112,201,232 // pshuflw $0xe8,%xmm9,%xmm9
- .byte 243,69,15,112,201,232 // pshufhw $0xe8,%xmm9,%xmm9
- .byte 102,69,15,112,201,232 // pshufd $0xe8,%xmm9,%xmm9
- .byte 102,69,15,108,200 // punpcklqdq %xmm8,%xmm9
- .byte 102,65,15,113,241,15 // psllw $0xf,%xmm9
- .byte 102,65,15,113,225,15 // psraw $0xf,%xmm9
- .byte 243,68,15,16,88,64 // movss 0x40(%rax),%xmm11
- .byte 243,68,15,16,64,68 // movss 0x44(%rax),%xmm8
- .byte 69,15,198,219,0 // shufps $0x0,%xmm11,%xmm11
- .byte 68,15,40,225 // movaps %xmm1,%xmm12
- .byte 69,15,194,227,1 // cmpltps %xmm11,%xmm12
- .byte 242,69,15,112,228,232 // pshuflw $0xe8,%xmm12,%xmm12
- .byte 243,69,15,112,228,232 // pshufhw $0xe8,%xmm12,%xmm12
- .byte 102,69,15,112,228,232 // pshufd $0xe8,%xmm12,%xmm12
- .byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 69,15,194,235,1 // cmpltps %xmm11,%xmm13
- .byte 242,69,15,112,221,232 // pshuflw $0xe8,%xmm13,%xmm11
- .byte 243,69,15,112,219,232 // pshufhw $0xe8,%xmm11,%xmm11
- .byte 102,69,15,112,219,232 // pshufd $0xe8,%xmm11,%xmm11
- .byte 102,69,15,108,220 // punpcklqdq %xmm12,%xmm11
- .byte 102,65,15,113,243,15 // psllw $0xf,%xmm11
- .byte 102,65,15,113,227,15 // psraw $0xf,%xmm11
- .byte 102,69,15,239,228 // pxor %xmm12,%xmm12
- .byte 68,15,194,227,2 // cmpleps %xmm3,%xmm12
- .byte 242,69,15,112,228,232 // pshuflw $0xe8,%xmm12,%xmm12
- .byte 243,69,15,112,228,232 // pshufhw $0xe8,%xmm12,%xmm12
- .byte 102,69,15,112,228,232 // pshufd $0xe8,%xmm12,%xmm12
- .byte 68,15,194,210,2 // cmpleps %xmm2,%xmm10
- .byte 242,69,15,112,210,232 // pshuflw $0xe8,%xmm10,%xmm10
- .byte 243,69,15,112,210,232 // pshufhw $0xe8,%xmm10,%xmm10
- .byte 102,69,15,112,210,232 // pshufd $0xe8,%xmm10,%xmm10
- .byte 102,69,15,108,212 // punpcklqdq %xmm12,%xmm10
- .byte 102,65,15,113,242,15 // psllw $0xf,%xmm10
- .byte 102,65,15,113,226,15 // psraw $0xf,%xmm10
- .byte 102,69,15,219,209 // pand %xmm9,%xmm10
- .byte 102,69,15,219,211 // pand %xmm11,%xmm10
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 69,15,194,200,1 // cmpltps %xmm8,%xmm9
- .byte 242,69,15,112,201,232 // pshuflw $0xe8,%xmm9,%xmm9
- .byte 243,69,15,112,201,232 // pshufhw $0xe8,%xmm9,%xmm9
- .byte 102,69,15,112,201,232 // pshufd $0xe8,%xmm9,%xmm9
- .byte 68,15,40,218 // movaps %xmm2,%xmm11
- .byte 69,15,194,216,1 // cmpltps %xmm8,%xmm11
- .byte 242,69,15,112,195,232 // pshuflw $0xe8,%xmm11,%xmm8
- .byte 243,69,15,112,192,232 // pshufhw $0xe8,%xmm8,%xmm8
- .byte 102,69,15,112,192,232 // pshufd $0xe8,%xmm8,%xmm8
- .byte 102,69,15,108,193 // punpcklqdq %xmm9,%xmm8
- .byte 102,65,15,113,240,15 // psllw $0xf,%xmm8
- .byte 102,65,15,113,224,15 // psraw $0xf,%xmm8
- .byte 102,69,15,219,194 // pand %xmm10,%xmm8
- .byte 243,68,15,127,0 // movdqu %xmm8,(%rax)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_check_decal_mask_sse2_lowp
-.globl _sk_check_decal_mask_sse2_lowp
-FUNCTION(_sk_check_decal_mask_sse2_lowp)
-_sk_check_decal_mask_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 68,15,16,0 // movups (%rax),%xmm8
- .byte 65,15,84,192 // andps %xmm8,%xmm0
- .byte 65,15,84,200 // andps %xmm8,%xmm1
- .byte 65,15,84,208 // andps %xmm8,%xmm2
- .byte 65,15,84,216 // andps %xmm8,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_gradient_sse2_lowp
-.globl _sk_gradient_sse2_lowp
-FUNCTION(_sk_gradient_sse2_lowp)
-_sk_gradient_sse2_lowp:
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 15,41,124,36,240 // movaps %xmm7,-0x10(%rsp)
- .byte 15,41,116,36,224 // movaps %xmm6,-0x20(%rsp)
- .byte 15,41,108,36,208 // movaps %xmm5,-0x30(%rsp)
- .byte 15,41,100,36,192 // movaps %xmm4,-0x40(%rsp)
- .byte 68,15,40,249 // movaps %xmm1,%xmm15
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,139,0 // mov (%rax),%r8
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 73,131,248,2 // cmp $0x2,%r8
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 114,56 // jb 3b371 <_sk_gradient_sse2_lowp+0x6c>
- .byte 72,139,88,72 // mov 0x48(%rax),%rbx
- .byte 73,255,200 // dec %r8
- .byte 72,131,195,4 // add $0x4,%rbx
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 243,15,16,35 // movss (%rbx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,194,232,2 // cmpleps %xmm0,%xmm5
- .byte 102,15,250,213 // psubd %xmm5,%xmm2
- .byte 65,15,194,231,2 // cmpleps %xmm15,%xmm4
- .byte 102,15,250,220 // psubd %xmm4,%xmm3
- .byte 72,131,195,4 // add $0x4,%rbx
- .byte 73,255,200 // dec %r8
- .byte 117,219 // jne 3b34c <_sk_gradient_sse2_lowp+0x47>
- .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
- .byte 102,73,15,126,225 // movq %xmm4,%r9
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 102,73,15,126,219 // movq %xmm3,%r11
- .byte 69,137,218 // mov %r11d,%r10d
- .byte 73,193,235,32 // shr $0x20,%r11
- .byte 102,65,15,126,214 // movd %xmm2,%r14d
- .byte 102,68,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm8
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,65,15,126,223 // movd %xmm3,%r15d
- .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2
- .byte 102,65,15,126,212 // movd %xmm2,%r12d
- .byte 72,139,88,8 // mov 0x8(%rax),%rbx
- .byte 243,70,15,16,20,155 // movss (%rbx,%r11,4),%xmm10
- .byte 243,70,15,16,12,147 // movss (%rbx,%r10,4),%xmm9
- .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
- .byte 243,66,15,16,52,131 // movss (%rbx,%r8,4),%xmm6
- .byte 243,66,15,16,60,163 // movss (%rbx,%r12,4),%xmm7
- .byte 243,66,15,16,36,187 // movss (%rbx,%r15,4),%xmm4
- .byte 243,66,15,16,28,179 // movss (%rbx,%r14,4),%xmm3
- .byte 102,69,15,126,197 // movd %xmm8,%r13d
- .byte 243,66,15,16,20,171 // movss (%rbx,%r13,4),%xmm2
- .byte 69,15,20,202 // unpcklps %xmm10,%xmm9
- .byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 102,68,15,20,206 // unpcklpd %xmm6,%xmm9
- .byte 15,20,231 // unpcklps %xmm7,%xmm4
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 102,15,20,220 // unpcklpd %xmm4,%xmm3
- .byte 72,139,88,16 // mov 0x10(%rax),%rbx
- .byte 243,70,15,16,4,155 // movss (%rbx,%r11,4),%xmm8
- .byte 243,70,15,16,36,147 // movss (%rbx,%r10,4),%xmm12
- .byte 243,70,15,16,20,139 // movss (%rbx,%r9,4),%xmm10
- .byte 243,66,15,16,52,131 // movss (%rbx,%r8,4),%xmm6
- .byte 243,66,15,16,60,163 // movss (%rbx,%r12,4),%xmm7
- .byte 243,66,15,16,36,187 // movss (%rbx,%r15,4),%xmm4
- .byte 243,66,15,16,20,179 // movss (%rbx,%r14,4),%xmm2
- .byte 243,66,15,16,44,171 // movss (%rbx,%r13,4),%xmm5
- .byte 69,15,20,224 // unpcklps %xmm8,%xmm12
- .byte 65,15,20,242 // unpcklps %xmm10,%xmm6
- .byte 102,68,15,20,230 // unpcklpd %xmm6,%xmm12
- .byte 15,20,231 // unpcklps %xmm7,%xmm4
- .byte 15,20,213 // unpcklps %xmm5,%xmm2
- .byte 102,15,20,212 // unpcklpd %xmm4,%xmm2
- .byte 72,139,88,24 // mov 0x18(%rax),%rbx
- .byte 243,66,15,16,36,155 // movss (%rbx,%r11,4),%xmm4
- .byte 243,70,15,16,28,147 // movss (%rbx,%r10,4),%xmm11
- .byte 68,15,20,220 // unpcklps %xmm4,%xmm11
- .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
- .byte 243,66,15,16,44,131 // movss (%rbx,%r8,4),%xmm5
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 243,66,15,16,36,163 // movss (%rbx,%r12,4),%xmm4
- .byte 243,66,15,16,52,187 // movss (%rbx,%r15,4),%xmm6
- .byte 243,70,15,16,52,179 // movss (%rbx,%r14,4),%xmm14
- .byte 243,66,15,16,60,171 // movss (%rbx,%r13,4),%xmm7
- .byte 102,68,15,20,221 // unpcklpd %xmm5,%xmm11
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 68,15,20,247 // unpcklps %xmm7,%xmm14
- .byte 102,68,15,20,246 // unpcklpd %xmm6,%xmm14
- .byte 72,139,88,32 // mov 0x20(%rax),%rbx
- .byte 243,66,15,16,36,155 // movss (%rbx,%r11,4),%xmm4
- .byte 243,70,15,16,20,147 // movss (%rbx,%r10,4),%xmm10
- .byte 68,15,20,212 // unpcklps %xmm4,%xmm10
- .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
- .byte 243,66,15,16,44,131 // movss (%rbx,%r8,4),%xmm5
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 102,68,15,20,213 // unpcklpd %xmm5,%xmm10
- .byte 243,66,15,16,36,163 // movss (%rbx,%r12,4),%xmm4
- .byte 243,66,15,16,44,187 // movss (%rbx,%r15,4),%xmm5
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 243,70,15,16,44,179 // movss (%rbx,%r14,4),%xmm13
- .byte 243,66,15,16,36,171 // movss (%rbx,%r13,4),%xmm4
- .byte 68,15,20,236 // unpcklps %xmm4,%xmm13
- .byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13
- .byte 72,139,88,40 // mov 0x28(%rax),%rbx
- .byte 243,66,15,16,36,163 // movss (%rbx,%r12,4),%xmm4
- .byte 243,66,15,16,52,187 // movss (%rbx,%r15,4),%xmm6
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 243,66,15,16,44,179 // movss (%rbx,%r14,4),%xmm5
- .byte 243,66,15,16,36,171 // movss (%rbx,%r13,4),%xmm4
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 243,66,15,16,52,155 // movss (%rbx,%r11,4),%xmm6
- .byte 243,66,15,16,36,147 // movss (%rbx,%r10,4),%xmm4
- .byte 15,20,230 // unpcklps %xmm6,%xmm4
- .byte 243,66,15,16,52,139 // movss (%rbx,%r9,4),%xmm6
- .byte 243,66,15,16,60,131 // movss (%rbx,%r8,4),%xmm7
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 102,15,20,231 // unpcklpd %xmm7,%xmm4
- .byte 72,139,88,48 // mov 0x30(%rax),%rbx
- .byte 243,66,15,16,60,163 // movss (%rbx,%r12,4),%xmm7
- .byte 243,66,15,16,52,187 // movss (%rbx,%r15,4),%xmm6
- .byte 15,20,247 // unpcklps %xmm7,%xmm6
- .byte 243,66,15,16,12,179 // movss (%rbx,%r14,4),%xmm1
- .byte 243,66,15,16,60,171 // movss (%rbx,%r13,4),%xmm7
- .byte 15,20,207 // unpcklps %xmm7,%xmm1
- .byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,41,76,36,144 // movapd %xmm1,-0x70(%rsp)
- .byte 243,66,15,16,60,155 // movss (%rbx,%r11,4),%xmm7
- .byte 243,70,15,16,4,147 // movss (%rbx,%r10,4),%xmm8
- .byte 68,15,20,199 // unpcklps %xmm7,%xmm8
- .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7
- .byte 243,66,15,16,52,131 // movss (%rbx,%r8,4),%xmm6
- .byte 15,20,247 // unpcklps %xmm7,%xmm6
- .byte 102,68,15,20,198 // unpcklpd %xmm6,%xmm8
- .byte 72,139,88,56 // mov 0x38(%rax),%rbx
- .byte 243,66,15,16,60,163 // movss (%rbx,%r12,4),%xmm7
- .byte 243,66,15,16,52,187 // movss (%rbx,%r15,4),%xmm6
- .byte 15,20,247 // unpcklps %xmm7,%xmm6
- .byte 243,66,15,16,12,179 // movss (%rbx,%r14,4),%xmm1
- .byte 243,66,15,16,60,171 // movss (%rbx,%r13,4),%xmm7
- .byte 15,20,207 // unpcklps %xmm7,%xmm1
- .byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,41,76,36,160 // movapd %xmm1,-0x60(%rsp)
- .byte 243,66,15,16,60,155 // movss (%rbx,%r11,4),%xmm7
- .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1
- .byte 15,20,207 // unpcklps %xmm7,%xmm1
- .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7
- .byte 243,66,15,16,52,131 // movss (%rbx,%r8,4),%xmm6
- .byte 15,20,247 // unpcklps %xmm7,%xmm6
- .byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,41,76,36,128 // movapd %xmm1,-0x80(%rsp)
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 243,66,15,16,52,160 // movss (%rax,%r12,4),%xmm6
- .byte 243,66,15,16,60,184 // movss (%rax,%r15,4),%xmm7
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 243,66,15,16,12,176 // movss (%rax,%r14,4),%xmm1
- .byte 243,66,15,16,52,168 // movss (%rax,%r13,4),%xmm6
- .byte 15,20,206 // unpcklps %xmm6,%xmm1
- .byte 102,15,20,207 // unpcklpd %xmm7,%xmm1
- .byte 102,15,41,76,36,176 // movapd %xmm1,-0x50(%rsp)
- .byte 243,66,15,16,52,152 // movss (%rax,%r11,4),%xmm6
- .byte 243,66,15,16,12,144 // movss (%rax,%r10,4),%xmm1
- .byte 15,20,206 // unpcklps %xmm6,%xmm1
- .byte 243,66,15,16,52,136 // movss (%rax,%r9,4),%xmm6
- .byte 243,66,15,16,60,128 // movss (%rax,%r8,4),%xmm7
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 102,15,20,207 // unpcklpd %xmm7,%xmm1
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 69,15,89,207 // mulps %xmm15,%xmm9
- .byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 15,40,53,194,25,0,0 // movaps 0x19c2(%rip),%xmm6 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 15,40,37,196,24,0,0 // movaps 0x18c4(%rip),%xmm4 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 15,88,220 // addps %xmm4,%xmm3
- .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3
- .byte 243,15,112,219,232 // pshufhw $0xe8,%xmm3,%xmm3
- .byte 102,15,112,235,232 // pshufd $0xe8,%xmm3,%xmm5
- .byte 243,65,15,91,217 // cvttps2dq %xmm9,%xmm3
- .byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3
- .byte 243,15,112,219,232 // pshufhw $0xe8,%xmm3,%xmm3
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,15,108,235 // punpcklqdq %xmm3,%xmm5
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,88,84,36,144 // addps -0x70(%rsp),%xmm2
- .byte 69,15,89,231 // mulps %xmm15,%xmm12
- .byte 69,15,88,224 // addps %xmm8,%xmm12
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 68,15,89,230 // mulps %xmm6,%xmm12
- .byte 68,15,88,228 // addps %xmm4,%xmm12
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 242,15,112,210,232 // pshuflw $0xe8,%xmm2,%xmm2
- .byte 243,15,112,210,232 // pshufhw $0xe8,%xmm2,%xmm2
- .byte 102,68,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm9
- .byte 243,65,15,91,212 // cvttps2dq %xmm12,%xmm2
- .byte 242,15,112,210,232 // pshuflw $0xe8,%xmm2,%xmm2
- .byte 243,15,112,210,232 // pshufhw $0xe8,%xmm2,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,68,15,108,202 // punpcklqdq %xmm2,%xmm9
- .byte 68,15,89,240 // mulps %xmm0,%xmm14
- .byte 68,15,88,116,36,160 // addps -0x60(%rsp),%xmm14
- .byte 69,15,89,223 // mulps %xmm15,%xmm11
- .byte 68,15,88,92,36,128 // addps -0x80(%rsp),%xmm11
- .byte 68,15,89,246 // mulps %xmm6,%xmm14
- .byte 68,15,89,222 // mulps %xmm6,%xmm11
- .byte 68,15,88,220 // addps %xmm4,%xmm11
- .byte 68,15,88,244 // addps %xmm4,%xmm14
- .byte 243,65,15,91,214 // cvttps2dq %xmm14,%xmm2
- .byte 242,15,112,210,232 // pshuflw $0xe8,%xmm2,%xmm2
- .byte 243,15,112,210,232 // pshufhw $0xe8,%xmm2,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 243,65,15,91,219 // cvttps2dq %xmm11,%xmm3
- .byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3
- .byte 243,15,112,219,232 // pshufhw $0xe8,%xmm3,%xmm3
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,15,108,211 // punpcklqdq %xmm3,%xmm2
- .byte 68,15,89,232 // mulps %xmm0,%xmm13
- .byte 68,15,88,108,36,176 // addps -0x50(%rsp),%xmm13
- .byte 69,15,89,215 // mulps %xmm15,%xmm10
- .byte 68,15,88,209 // addps %xmm1,%xmm10
- .byte 68,15,89,238 // mulps %xmm6,%xmm13
- .byte 68,15,89,214 // mulps %xmm6,%xmm10
- .byte 68,15,88,212 // addps %xmm4,%xmm10
- .byte 68,15,88,236 // addps %xmm4,%xmm13
- .byte 243,65,15,91,197 // cvttps2dq %xmm13,%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,216,232 // pshufd $0xe8,%xmm0,%xmm3
- .byte 243,65,15,91,194 // cvttps2dq %xmm10,%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 15,40,100,36,192 // movaps -0x40(%rsp),%xmm4
- .byte 15,40,108,36,208 // movaps -0x30(%rsp),%xmm5
- .byte 15,40,116,36,224 // movaps -0x20(%rsp),%xmm6
- .byte 15,40,124,36,240 // movaps -0x10(%rsp),%xmm7
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_gradient_sse2_lowp
-.globl _sk_evenly_spaced_gradient_sse2_lowp
-FUNCTION(_sk_evenly_spaced_gradient_sse2_lowp)
-_sk_evenly_spaced_gradient_sse2_lowp:
- .byte 85 // push %rbp
- .byte 65,87 // push %r15
- .byte 65,86 // push %r14
- .byte 65,85 // push %r13
- .byte 65,84 // push %r12
- .byte 83 // push %rbx
- .byte 80 // push %rax
- .byte 15,41,124,36,240 // movaps %xmm7,-0x10(%rsp)
- .byte 15,41,116,36,224 // movaps %xmm6,-0x20(%rsp)
- .byte 15,41,108,36,208 // movaps %xmm5,-0x30(%rsp)
- .byte 15,41,100,36,192 // movaps %xmm4,-0x40(%rsp)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 72,139,24 // mov (%rax),%rbx
- .byte 72,139,104,8 // mov 0x8(%rax),%rbp
- .byte 72,255,203 // dec %rbx
- .byte 120,7 // js 3b7b5 <_sk_evenly_spaced_gradient_sse2_lowp+0x34>
- .byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2
- .byte 235,21 // jmp 3b7ca <_sk_evenly_spaced_gradient_sse2_lowp+0x49>
- .byte 73,137,216 // mov %rbx,%r8
- .byte 73,209,232 // shr %r8
- .byte 131,227,1 // and $0x1,%ebx
- .byte 76,9,195 // or %r8,%rbx
- .byte 243,72,15,42,211 // cvtsi2ss %rbx,%xmm2
- .byte 243,15,88,210 // addss %xmm2,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,41,68,36,176 // movaps %xmm0,-0x50(%rsp)
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 243,15,91,218 // cvttps2dq %xmm2,%xmm3
- .byte 15,41,76,36,160 // movaps %xmm1,-0x60(%rsp)
- .byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
- .byte 102,73,15,126,214 // movq %xmm2,%r14
- .byte 69,137,242 // mov %r14d,%r10d
- .byte 73,193,238,32 // shr $0x20,%r14
- .byte 102,73,15,126,221 // movq %xmm3,%r13
- .byte 69,137,239 // mov %r13d,%r15d
- .byte 73,193,237,32 // shr $0x20,%r13
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,73,15,126,201 // movq %xmm1,%r9
- .byte 69,137,200 // mov %r9d,%r8d
- .byte 73,193,233,32 // shr $0x20,%r9
- .byte 102,73,15,126,196 // movq %xmm0,%r12
- .byte 69,137,227 // mov %r12d,%r11d
- .byte 73,193,236,32 // shr $0x20,%r12
- .byte 243,66,15,16,68,165,0 // movss 0x0(%rbp,%r12,4),%xmm0
- .byte 243,70,15,16,68,157,0 // movss 0x0(%rbp,%r11,4),%xmm8
- .byte 243,66,15,16,76,141,0 // movss 0x0(%rbp,%r9,4),%xmm1
- .byte 243,66,15,16,84,133,0 // movss 0x0(%rbp,%r8,4),%xmm2
- .byte 243,66,15,16,100,173,0 // movss 0x0(%rbp,%r13,4),%xmm4
- .byte 243,66,15,16,92,189,0 // movss 0x0(%rbp,%r15,4),%xmm3
- .byte 243,66,15,16,108,181,0 // movss 0x0(%rbp,%r14,4),%xmm5
- .byte 243,66,15,16,116,149,0 // movss 0x0(%rbp,%r10,4),%xmm6
- .byte 68,15,20,192 // unpcklps %xmm0,%xmm8
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 102,68,15,20,194 // unpcklpd %xmm2,%xmm8
- .byte 15,20,220 // unpcklps %xmm4,%xmm3
- .byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 72,139,88,16 // mov 0x10(%rax),%rbx
- .byte 243,66,15,16,4,163 // movss (%rbx,%r12,4),%xmm0
- .byte 243,70,15,16,12,155 // movss (%rbx,%r11,4),%xmm9
- .byte 243,66,15,16,12,139 // movss (%rbx,%r9,4),%xmm1
- .byte 243,66,15,16,36,131 // movss (%rbx,%r8,4),%xmm4
- .byte 243,66,15,16,44,171 // movss (%rbx,%r13,4),%xmm5
- .byte 243,66,15,16,20,187 // movss (%rbx,%r15,4),%xmm2
- .byte 243,66,15,16,52,179 // movss (%rbx,%r14,4),%xmm6
- .byte 243,66,15,16,60,147 // movss (%rbx,%r10,4),%xmm7
- .byte 68,15,20,200 // unpcklps %xmm0,%xmm9
- .byte 15,20,225 // unpcklps %xmm1,%xmm4
- .byte 102,68,15,20,204 // unpcklpd %xmm4,%xmm9
- .byte 15,20,213 // unpcklps %xmm5,%xmm2
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 72,139,88,24 // mov 0x18(%rax),%rbx
- .byte 243,66,15,16,4,163 // movss (%rbx,%r12,4),%xmm0
- .byte 243,70,15,16,28,155 // movss (%rbx,%r11,4),%xmm11
- .byte 68,15,20,216 // unpcklps %xmm0,%xmm11
- .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 243,66,15,16,4,171 // movss (%rbx,%r13,4),%xmm0
- .byte 243,70,15,16,44,187 // movss (%rbx,%r15,4),%xmm13
- .byte 243,66,15,16,36,179 // movss (%rbx,%r14,4),%xmm4
- .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5
- .byte 102,68,15,20,217 // unpcklpd %xmm1,%xmm11
- .byte 68,15,20,232 // unpcklps %xmm0,%xmm13
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 102,68,15,20,237 // unpcklpd %xmm5,%xmm13
- .byte 72,139,88,32 // mov 0x20(%rax),%rbx
- .byte 243,66,15,16,4,163 // movss (%rbx,%r12,4),%xmm0
- .byte 243,70,15,16,20,155 // movss (%rbx,%r11,4),%xmm10
- .byte 68,15,20,208 // unpcklps %xmm0,%xmm10
- .byte 243,66,15,16,4,139 // movss (%rbx,%r9,4),%xmm0
- .byte 243,66,15,16,12,131 // movss (%rbx,%r8,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 102,68,15,20,209 // unpcklpd %xmm1,%xmm10
- .byte 243,66,15,16,4,171 // movss (%rbx,%r13,4),%xmm0
- .byte 243,70,15,16,36,187 // movss (%rbx,%r15,4),%xmm12
- .byte 68,15,20,224 // unpcklps %xmm0,%xmm12
- .byte 243,66,15,16,4,179 // movss (%rbx,%r14,4),%xmm0
- .byte 243,66,15,16,12,147 // movss (%rbx,%r10,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 102,68,15,20,225 // unpcklpd %xmm1,%xmm12
- .byte 72,139,88,40 // mov 0x28(%rax),%rbx
- .byte 243,66,15,16,12,171 // movss (%rbx,%r13,4),%xmm1
- .byte 243,66,15,16,4,187 // movss (%rbx,%r15,4),%xmm0
- .byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 243,66,15,16,12,179 // movss (%rbx,%r14,4),%xmm1
- .byte 243,66,15,16,36,147 // movss (%rbx,%r10,4),%xmm4
- .byte 15,20,225 // unpcklps %xmm1,%xmm4
- .byte 102,15,20,196 // unpcklpd %xmm4,%xmm0
- .byte 243,66,15,16,36,163 // movss (%rbx,%r12,4),%xmm4
- .byte 243,66,15,16,12,155 // movss (%rbx,%r11,4),%xmm1
- .byte 15,20,204 // unpcklps %xmm4,%xmm1
- .byte 243,66,15,16,36,139 // movss (%rbx,%r9,4),%xmm4
- .byte 243,66,15,16,44,131 // movss (%rbx,%r8,4),%xmm5
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 72,139,88,48 // mov 0x30(%rax),%rbx
- .byte 243,66,15,16,36,171 // movss (%rbx,%r13,4),%xmm4
- .byte 243,70,15,16,52,187 // movss (%rbx,%r15,4),%xmm14
- .byte 68,15,20,244 // unpcklps %xmm4,%xmm14
- .byte 243,66,15,16,36,179 // movss (%rbx,%r14,4),%xmm4
- .byte 243,66,15,16,44,147 // movss (%rbx,%r10,4),%xmm5
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 102,68,15,20,245 // unpcklpd %xmm5,%xmm14
- .byte 243,66,15,16,44,163 // movss (%rbx,%r12,4),%xmm5
- .byte 243,66,15,16,36,155 // movss (%rbx,%r11,4),%xmm4
- .byte 15,20,229 // unpcklps %xmm5,%xmm4
- .byte 243,66,15,16,44,139 // movss (%rbx,%r9,4),%xmm5
- .byte 243,66,15,16,60,131 // movss (%rbx,%r8,4),%xmm7
- .byte 15,20,253 // unpcklps %xmm5,%xmm7
- .byte 102,15,20,231 // unpcklpd %xmm7,%xmm4
- .byte 72,139,88,56 // mov 0x38(%rax),%rbx
- .byte 243,66,15,16,44,171 // movss (%rbx,%r13,4),%xmm5
- .byte 243,66,15,16,52,187 // movss (%rbx,%r15,4),%xmm6
- .byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 243,66,15,16,44,179 // movss (%rbx,%r14,4),%xmm5
- .byte 243,66,15,16,60,147 // movss (%rbx,%r10,4),%xmm7
- .byte 15,20,253 // unpcklps %xmm5,%xmm7
- .byte 102,15,20,247 // unpcklpd %xmm7,%xmm6
- .byte 102,15,41,116,36,128 // movapd %xmm6,-0x80(%rsp)
- .byte 243,66,15,16,60,163 // movss (%rbx,%r12,4),%xmm7
- .byte 243,66,15,16,44,155 // movss (%rbx,%r11,4),%xmm5
- .byte 15,20,239 // unpcklps %xmm7,%xmm5
- .byte 243,66,15,16,60,139 // movss (%rbx,%r9,4),%xmm7
- .byte 243,66,15,16,52,131 // movss (%rbx,%r8,4),%xmm6
- .byte 15,20,247 // unpcklps %xmm7,%xmm6
- .byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 72,139,64,64 // mov 0x40(%rax),%rax
- .byte 243,66,15,16,52,168 // movss (%rax,%r13,4),%xmm6
- .byte 243,66,15,16,60,184 // movss (%rax,%r15,4),%xmm7
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 243,70,15,16,60,176 // movss (%rax,%r14,4),%xmm15
- .byte 243,66,15,16,52,144 // movss (%rax,%r10,4),%xmm6
- .byte 65,15,20,247 // unpcklps %xmm15,%xmm6
- .byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 102,15,41,124,36,144 // movapd %xmm7,-0x70(%rsp)
- .byte 243,66,15,16,52,160 // movss (%rax,%r12,4),%xmm6
- .byte 243,66,15,16,60,152 // movss (%rax,%r11,4),%xmm7
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 243,66,15,16,52,136 // movss (%rax,%r9,4),%xmm6
- .byte 243,70,15,16,60,128 // movss (%rax,%r8,4),%xmm15
- .byte 68,15,20,254 // unpcklps %xmm6,%xmm15
- .byte 102,65,15,20,255 // unpcklpd %xmm15,%xmm7
- .byte 68,15,40,124,36,160 // movaps -0x60(%rsp),%xmm15
- .byte 65,15,89,223 // mulps %xmm15,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,40,68,36,176 // movaps -0x50(%rsp),%xmm0
- .byte 68,15,89,192 // mulps %xmm0,%xmm8
- .byte 68,15,88,193 // addps %xmm1,%xmm8
- .byte 15,40,13,78,21,0,0 // movaps 0x154e(%rip),%xmm1 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 68,15,89,193 // mulps %xmm1,%xmm8
- .byte 15,40,13,80,20,0,0 // movaps 0x1450(%rip),%xmm1 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,88,193 // addps %xmm1,%xmm8
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3
- .byte 243,15,112,219,232 // pshufhw $0xe8,%xmm3,%xmm3
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 243,65,15,91,240 // cvttps2dq %xmm8,%xmm6
- .byte 242,15,112,246,232 // pshuflw $0xe8,%xmm6,%xmm6
- .byte 243,15,112,246,232 // pshufhw $0xe8,%xmm6,%xmm6
- .byte 102,68,15,112,198,232 // pshufd $0xe8,%xmm6,%xmm8
- .byte 102,68,15,108,195 // punpcklqdq %xmm3,%xmm8
- .byte 65,15,89,215 // mulps %xmm15,%xmm2
- .byte 65,15,88,214 // addps %xmm14,%xmm2
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 68,15,89,206 // mulps %xmm6,%xmm9
- .byte 68,15,88,204 // addps %xmm4,%xmm9
- .byte 15,40,5,242,20,0,0 // movaps 0x14f2(%rip),%xmm0 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 242,15,112,210,232 // pshuflw $0xe8,%xmm2,%xmm2
- .byte 243,15,112,210,232 // pshufhw $0xe8,%xmm2,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 243,65,15,91,217 // cvttps2dq %xmm9,%xmm3
- .byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3
- .byte 243,15,112,219,232 // pshufhw $0xe8,%xmm3,%xmm3
- .byte 102,68,15,112,203,232 // pshufd $0xe8,%xmm3,%xmm9
- .byte 102,68,15,108,202 // punpcklqdq %xmm2,%xmm9
- .byte 69,15,89,239 // mulps %xmm15,%xmm13
- .byte 68,15,88,108,36,128 // addps -0x80(%rsp),%xmm13
- .byte 68,15,89,222 // mulps %xmm6,%xmm11
- .byte 68,15,88,221 // addps %xmm5,%xmm11
- .byte 68,15,89,232 // mulps %xmm0,%xmm13
- .byte 68,15,89,216 // mulps %xmm0,%xmm11
- .byte 68,15,88,217 // addps %xmm1,%xmm11
- .byte 68,15,88,233 // addps %xmm1,%xmm13
- .byte 243,65,15,91,213 // cvttps2dq %xmm13,%xmm2
- .byte 242,15,112,210,232 // pshuflw $0xe8,%xmm2,%xmm2
- .byte 243,15,112,210,232 // pshufhw $0xe8,%xmm2,%xmm2
- .byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3
- .byte 243,65,15,91,211 // cvttps2dq %xmm11,%xmm2
- .byte 242,15,112,210,232 // pshuflw $0xe8,%xmm2,%xmm2
- .byte 243,15,112,210,232 // pshufhw $0xe8,%xmm2,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,108,211 // punpcklqdq %xmm3,%xmm2
- .byte 69,15,89,231 // mulps %xmm15,%xmm12
- .byte 68,15,88,100,36,144 // addps -0x70(%rsp),%xmm12
- .byte 68,15,89,214 // mulps %xmm6,%xmm10
- .byte 68,15,88,215 // addps %xmm7,%xmm10
- .byte 68,15,89,224 // mulps %xmm0,%xmm12
- .byte 68,15,89,208 // mulps %xmm0,%xmm10
- .byte 68,15,88,209 // addps %xmm1,%xmm10
- .byte 68,15,88,225 // addps %xmm1,%xmm12
- .byte 243,65,15,91,196 // cvttps2dq %xmm12,%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 243,65,15,91,202 // cvttps2dq %xmm10,%xmm1
- .byte 242,15,112,201,232 // pshuflw $0xe8,%xmm1,%xmm1
- .byte 243,15,112,201,232 // pshufhw $0xe8,%xmm1,%xmm1
- .byte 102,15,112,217,232 // pshufd $0xe8,%xmm1,%xmm3
- .byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 15,40,100,36,192 // movaps -0x40(%rsp),%xmm4
- .byte 15,40,108,36,208 // movaps -0x30(%rsp),%xmm5
- .byte 15,40,116,36,224 // movaps -0x20(%rsp),%xmm6
- .byte 15,40,124,36,240 // movaps -0x10(%rsp),%xmm7
- .byte 72,131,196,8 // add $0x8,%rsp
- .byte 91 // pop %rbx
- .byte 65,92 // pop %r12
- .byte 65,93 // pop %r13
- .byte 65,94 // pop %r14
- .byte 65,95 // pop %r15
- .byte 93 // pop %rbp
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_evenly_spaced_2_stop_gradient_sse2_lowp
-.globl _sk_evenly_spaced_2_stop_gradient_sse2_lowp
-FUNCTION(_sk_evenly_spaced_2_stop_gradient_sse2_lowp)
-_sk_evenly_spaced_2_stop_gradient_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 243,15,16,24 // movss (%rax),%xmm3
- .byte 243,68,15,16,72,4 // movss 0x4(%rax),%xmm9
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 243,68,15,16,64,16 // movss 0x10(%rax),%xmm8
- .byte 69,15,198,192,0 // shufps $0x0,%xmm8,%xmm8
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 65,15,88,216 // addps %xmm8,%xmm3
- .byte 65,15,88,208 // addps %xmm8,%xmm2
- .byte 68,15,40,21,183,19,0,0 // movaps 0x13b7(%rip),%xmm10 # 3cff0 <_sk_srcover_bgra_8888_sse2_lowp+0xda4>
- .byte 65,15,89,210 // mulps %xmm10,%xmm2
- .byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 68,15,40,29,183,18,0,0 // movaps 0x12b7(%rip),%xmm11 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 65,15,88,219 // addps %xmm11,%xmm3
- .byte 65,15,88,211 // addps %xmm11,%xmm2
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 242,15,112,210,232 // pshuflw $0xe8,%xmm2,%xmm2
- .byte 243,15,112,210,232 // pshufhw $0xe8,%xmm2,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3
- .byte 243,15,112,219,232 // pshufhw $0xe8,%xmm3,%xmm3
- .byte 102,68,15,112,195,232 // pshufd $0xe8,%xmm3,%xmm8
- .byte 102,68,15,108,194 // punpcklqdq %xmm2,%xmm8
- .byte 69,15,198,201,0 // shufps $0x0,%xmm9,%xmm9
- .byte 243,15,16,80,20 // movss 0x14(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 65,15,89,217 // mulps %xmm9,%xmm3
- .byte 68,15,89,200 // mulps %xmm0,%xmm9
- .byte 68,15,88,202 // addps %xmm2,%xmm9
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 69,15,89,202 // mulps %xmm10,%xmm9
- .byte 69,15,88,203 // addps %xmm11,%xmm9
- .byte 65,15,88,219 // addps %xmm11,%xmm3
- .byte 243,15,91,211 // cvttps2dq %xmm3,%xmm2
- .byte 242,15,112,210,232 // pshuflw $0xe8,%xmm2,%xmm2
- .byte 243,15,112,210,232 // pshufhw $0xe8,%xmm2,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 243,65,15,91,217 // cvttps2dq %xmm9,%xmm3
- .byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3
- .byte 243,15,112,219,232 // pshufhw $0xe8,%xmm3,%xmm3
- .byte 102,68,15,112,203,232 // pshufd $0xe8,%xmm3,%xmm9
- .byte 102,68,15,108,202 // punpcklqdq %xmm2,%xmm9
- .byte 243,15,16,80,8 // movss 0x8(%rax),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,68,15,16,96,24 // movss 0x18(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 65,15,88,212 // addps %xmm12,%xmm2
- .byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 65,15,89,210 // mulps %xmm10,%xmm2
- .byte 65,15,88,211 // addps %xmm11,%xmm2
- .byte 65,15,88,219 // addps %xmm11,%xmm3
- .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3
- .byte 243,15,112,219,232 // pshufhw $0xe8,%xmm3,%xmm3
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 242,15,112,210,232 // pshuflw $0xe8,%xmm2,%xmm2
- .byte 243,15,112,210,232 // pshufhw $0xe8,%xmm2,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,108,211 // punpcklqdq %xmm3,%xmm2
- .byte 243,15,16,88,12 // movss 0xc(%rax),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 243,68,15,16,96,28 // movss 0x1c(%rax),%xmm12
- .byte 69,15,198,228,0 // shufps $0x0,%xmm12,%xmm12
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 65,15,88,220 // addps %xmm12,%xmm3
- .byte 65,15,88,204 // addps %xmm12,%xmm1
- .byte 65,15,89,202 // mulps %xmm10,%xmm1
- .byte 65,15,89,218 // mulps %xmm10,%xmm3
- .byte 65,15,88,219 // addps %xmm11,%xmm3
- .byte 65,15,88,203 // addps %xmm11,%xmm1
- .byte 243,15,91,193 // cvttps2dq %xmm1,%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 243,15,91,203 // cvttps2dq %xmm3,%xmm1
- .byte 242,15,112,201,232 // pshuflw $0xe8,%xmm1,%xmm1
- .byte 243,15,112,201,232 // pshufhw $0xe8,%xmm1,%xmm1
- .byte 102,15,112,217,232 // pshufd $0xe8,%xmm1,%xmm3
- .byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,192 // movdqa %xmm8,%xmm0
- .byte 102,65,15,111,201 // movdqa %xmm9,%xmm1
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_unit_angle_sse2_lowp
-.globl _sk_xy_to_unit_angle_sse2_lowp
-FUNCTION(_sk_xy_to_unit_angle_sse2_lowp)
-_sk_xy_to_unit_angle_sse2_lowp:
- .byte 15,41,124,36,232 // movaps %xmm7,-0x18(%rsp)
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 68,15,40,37,171,22,0,0 // movaps 0x16ab(%rip),%xmm12 # 3d470 <_sk_srcover_bgra_8888_sse2_lowp+0x1224>
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 69,15,84,196 // andps %xmm12,%xmm8
- .byte 68,15,40,217 // movaps %xmm1,%xmm11
- .byte 69,15,84,220 // andps %xmm12,%xmm11
- .byte 68,15,40,236 // movaps %xmm4,%xmm13
- .byte 69,15,84,236 // andps %xmm12,%xmm13
- .byte 68,15,84,227 // andps %xmm3,%xmm12
- .byte 69,15,40,211 // movaps %xmm11,%xmm10
- .byte 69,15,194,212,1 // cmpltps %xmm12,%xmm10
- .byte 69,15,40,200 // movaps %xmm8,%xmm9
- .byte 69,15,194,205,1 // cmpltps %xmm13,%xmm9
- .byte 69,15,40,241 // movaps %xmm9,%xmm14
- .byte 69,15,85,245 // andnps %xmm13,%xmm14
- .byte 69,15,40,249 // movaps %xmm9,%xmm15
- .byte 69,15,85,248 // andnps %xmm8,%xmm15
- .byte 69,15,84,193 // andps %xmm9,%xmm8
- .byte 69,15,86,198 // orps %xmm14,%xmm8
- .byte 69,15,40,242 // movaps %xmm10,%xmm14
- .byte 69,15,85,244 // andnps %xmm12,%xmm14
- .byte 65,15,40,194 // movaps %xmm10,%xmm0
- .byte 65,15,85,195 // andnps %xmm11,%xmm0
- .byte 69,15,84,218 // andps %xmm10,%xmm11
- .byte 69,15,86,222 // orps %xmm14,%xmm11
- .byte 69,15,84,233 // andps %xmm9,%xmm13
- .byte 69,15,86,239 // orps %xmm15,%xmm13
- .byte 69,15,94,197 // divps %xmm13,%xmm8
- .byte 69,15,84,226 // andps %xmm10,%xmm12
- .byte 68,15,86,224 // orps %xmm0,%xmm12
- .byte 69,15,94,220 // divps %xmm12,%xmm11
- .byte 69,15,40,240 // movaps %xmm8,%xmm14
- .byte 69,15,89,246 // mulps %xmm14,%xmm14
- .byte 65,15,40,195 // movaps %xmm11,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 68,15,40,37,142,22,0,0 // movaps 0x168e(%rip),%xmm12 # 3d4e0 <_sk_srcover_bgra_8888_sse2_lowp+0x1294>
- .byte 68,15,40,232 // movaps %xmm0,%xmm13
- .byte 69,15,89,236 // mulps %xmm12,%xmm13
- .byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 68,15,40,61,138,22,0,0 // movaps 0x168a(%rip),%xmm15 # 3d4f0 <_sk_srcover_bgra_8888_sse2_lowp+0x12a4>
- .byte 69,15,88,231 // addps %xmm15,%xmm12
- .byte 69,15,88,239 // addps %xmm15,%xmm13
- .byte 68,15,89,232 // mulps %xmm0,%xmm13
- .byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 68,15,40,61,130,22,0,0 // movaps 0x1682(%rip),%xmm15 # 3d500 <_sk_srcover_bgra_8888_sse2_lowp+0x12b4>
- .byte 69,15,88,231 // addps %xmm15,%xmm12
- .byte 69,15,88,239 // addps %xmm15,%xmm13
- .byte 68,15,89,232 // mulps %xmm0,%xmm13
- .byte 69,15,89,230 // mulps %xmm14,%xmm12
- .byte 15,40,5,123,22,0,0 // movaps 0x167b(%rip),%xmm0 # 3d510 <_sk_srcover_bgra_8888_sse2_lowp+0x12c4>
- .byte 68,15,88,224 // addps %xmm0,%xmm12
- .byte 68,15,88,232 // addps %xmm0,%xmm13
- .byte 69,15,89,235 // mulps %xmm11,%xmm13
- .byte 69,15,89,224 // mulps %xmm8,%xmm12
- .byte 15,40,5,116,22,0,0 // movaps 0x1674(%rip),%xmm0 # 3d520 <_sk_srcover_bgra_8888_sse2_lowp+0x12d4>
- .byte 68,15,40,192 // movaps %xmm0,%xmm8
- .byte 65,15,92,197 // subps %xmm13,%xmm0
- .byte 65,15,84,194 // andps %xmm10,%xmm0
- .byte 69,15,85,213 // andnps %xmm13,%xmm10
- .byte 69,15,92,196 // subps %xmm12,%xmm8
- .byte 68,15,86,208 // orps %xmm0,%xmm10
- .byte 69,15,84,193 // andps %xmm9,%xmm8
- .byte 69,15,85,204 // andnps %xmm12,%xmm9
- .byte 69,15,86,200 // orps %xmm8,%xmm9
- .byte 69,15,87,192 // xorps %xmm8,%xmm8
- .byte 65,15,194,200,1 // cmpltps %xmm8,%xmm1
- .byte 15,40,5,32,16,0,0 // movaps 0x1020(%rip),%xmm0 # 3cf00 <_sk_srcover_bgra_8888_sse2_lowp+0xcb4>
- .byte 68,15,40,216 // movaps %xmm0,%xmm11
- .byte 65,15,92,194 // subps %xmm10,%xmm0
- .byte 15,84,193 // andps %xmm1,%xmm0
- .byte 65,15,85,202 // andnps %xmm10,%xmm1
- .byte 65,15,194,208,1 // cmpltps %xmm8,%xmm2
- .byte 69,15,92,217 // subps %xmm9,%xmm11
- .byte 15,86,200 // orps %xmm0,%xmm1
- .byte 68,15,84,218 // andps %xmm2,%xmm11
- .byte 65,15,85,209 // andnps %xmm9,%xmm2
- .byte 65,15,86,211 // orps %xmm11,%xmm2
- .byte 68,15,40,219 // movaps %xmm3,%xmm11
- .byte 69,15,194,216,1 // cmpltps %xmm8,%xmm11
- .byte 68,15,40,13,248,15,0,0 // movaps 0xff8(%rip),%xmm9 # 3cf10 <_sk_srcover_bgra_8888_sse2_lowp+0xcc4>
- .byte 69,15,40,209 // movaps %xmm9,%xmm10
- .byte 68,15,92,201 // subps %xmm1,%xmm9
- .byte 69,15,84,203 // andps %xmm11,%xmm9
- .byte 68,15,85,217 // andnps %xmm1,%xmm11
- .byte 69,15,86,217 // orps %xmm9,%xmm11
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 65,15,194,192,1 // cmpltps %xmm8,%xmm0
- .byte 68,15,92,210 // subps %xmm2,%xmm10
- .byte 68,15,84,208 // andps %xmm0,%xmm10
- .byte 15,85,194 // andnps %xmm2,%xmm0
- .byte 65,15,86,194 // orps %xmm10,%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 65,15,194,200,7 // cmpordps %xmm8,%xmm1
- .byte 69,15,194,195,7 // cmpordps %xmm11,%xmm8
- .byte 69,15,84,195 // andps %xmm11,%xmm8
- .byte 15,84,200 // andps %xmm0,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 65,15,40,192 // movaps %xmm8,%xmm0
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,40,247 // movaps %xmm7,%xmm6
- .byte 15,40,124,36,232 // movaps -0x18(%rsp),%xmm7
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_xy_to_radius_sse2_lowp
-.globl _sk_xy_to_radius_sse2_lowp
-FUNCTION(_sk_xy_to_radius_sse2_lowp)
-_sk_xy_to_radius_sse2_lowp:
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 68,15,40,194 // movaps %xmm2,%xmm8
- .byte 69,15,89,192 // mulps %xmm8,%xmm8
- .byte 68,15,88,192 // addps %xmm0,%xmm8
- .byte 68,15,40,203 // movaps %xmm3,%xmm9
- .byte 69,15,89,201 // mulps %xmm9,%xmm9
- .byte 68,15,88,201 // addps %xmm1,%xmm9
- .byte 65,15,81,192 // sqrtps %xmm8,%xmm0
- .byte 65,15,81,201 // sqrtps %xmm9,%xmm1
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 255,224 // jmpq *%rax
-
-HIDDEN _sk_srcover_rgba_8888_sse2_lowp
-.globl _sk_srcover_rgba_8888_sse2_lowp
-FUNCTION(_sk_srcover_rgba_8888_sse2_lowp)
-_sk_srcover_rgba_8888_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 65,137,250 // mov %edi,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 65,254,202 // dec %r10b
- .byte 69,15,182,202 // movzbl %r10b,%r9d
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 3bfe8 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,70,2,0,0 // lea 0x246(%rip),%r11 # 3c214 <_sk_srcover_rgba_8888_sse2_lowp+0x277>
- .byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 255,224 // jmpq *%rax
- .byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 3c04e <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
- .byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
- .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 3c04e <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
- .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
- .byte 102,65,15,40,248 // movapd %xmm8,%xmm7
- .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 3c04e <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
- .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
- .byte 65,15,198,224,0 // shufps $0x0,%xmm8,%xmm4
- .byte 65,15,198,224,226 // shufps $0xe2,%xmm8,%xmm4
- .byte 68,15,40,196 // movaps %xmm4,%xmm8
- .byte 243,65,15,16,100,144,16 // movss 0x10(%r8,%rdx,4),%xmm4
- .byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
- .byte 102,15,40,239 // movapd %xmm7,%xmm5
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,114,229,16 // psrad $0x10,%xmm5
- .byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,56,14,0,0 // movdqa 0xe38(%rip),%xmm12 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,65,15,219,228 // pand %xmm12,%xmm4
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,65,15,114,209,16 // psrld $0x10,%xmm9
- .byte 102,15,40,247 // movapd %xmm7,%xmm6
- .byte 102,15,114,214,16 // psrld $0x10,%xmm6
- .byte 102,15,114,215,24 // psrld $0x18,%xmm7
- .byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,114,231,16 // psrad $0x10,%xmm7
- .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
- .byte 102,65,15,107,248 // packssdw %xmm8,%xmm7
- .byte 102,15,114,246,16 // pslld $0x10,%xmm6
- .byte 102,15,114,230,16 // psrad $0x10,%xmm6
- .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 102,65,15,114,225,16 // psrad $0x10,%xmm9
- .byte 102,65,15,107,241 // packssdw %xmm9,%xmm6
- .byte 102,65,15,219,244 // pand %xmm12,%xmm6
- .byte 102,69,15,111,196 // movdqa %xmm12,%xmm8
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 102,68,15,111,204 // movdqa %xmm4,%xmm9
- .byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,69,15,253,204 // paddw %xmm12,%xmm9
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,68,15,253,200 // paddw %xmm0,%xmm9
- .byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
- .byte 102,69,15,213,208 // pmullw %xmm8,%xmm10
- .byte 102,69,15,253,212 // paddw %xmm12,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,68,15,253,209 // paddw %xmm1,%xmm10
- .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
- .byte 102,69,15,213,216 // pmullw %xmm8,%xmm11
- .byte 102,69,15,253,220 // paddw %xmm12,%xmm11
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,253,218 // paddw %xmm2,%xmm11
- .byte 102,68,15,213,199 // pmullw %xmm7,%xmm8
- .byte 102,69,15,253,196 // paddw %xmm12,%xmm8
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,68,15,253,195 // paddw %xmm3,%xmm8
- .byte 102,65,15,111,210 // movdqa %xmm10,%xmm2
- .byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,65,15,235,209 // por %xmm9,%xmm2
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2
- .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,113,241,8 // psllw $0x8,%xmm1
- .byte 102,65,15,235,203 // por %xmm11,%xmm1
- .byte 102,69,15,239,228 // pxor %xmm12,%xmm12
- .byte 102,68,15,97,225 // punpcklwd %xmm1,%xmm12
- .byte 102,68,15,235,227 // por %xmm3,%xmm12
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,15,235,194 // por %xmm2,%xmm0
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 3c1b0 <_sk_srcover_rgba_8888_sse2_lowp+0x213>
- .byte 76,141,21,145,0,0,0 // lea 0x91(%rip),%r10 # 3c230 <_sk_srcover_rgba_8888_sse2_lowp+0x293>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 3c1f9 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
- .byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
- .byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 3c1f9 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
- .byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
- .byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
- .byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 3c1f9 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,65,15,126,76,144,20 // movd %xmm1,0x14(%r8,%rdx,4)
- .byte 102,65,15,126,68,144,16 // movd %xmm0,0x10(%r8,%rdx,4)
- .byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
- .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 15,31,0 // nopl (%rax)
- .byte 199 // (bad)
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,244 // push %rsp
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,227 // jmpq *%rbx
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,52,254 // pushq (%rsi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,40 // ljmp *(%rax)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,19 // callq *(%rbx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,6 // incl (%rsi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 120,255 // js 3c231 <_sk_srcover_rgba_8888_sse2_lowp+0x294>
- .byte 255 // (bad)
- .byte 255,156,255,255,255,143,255 // lcall *-0x700001(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 255,195 // inc %ebx
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 188,255,255,255,176 // mov $0xb0ffffff,%esp
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 164 // movsb %ds:(%rsi),%es:(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-HIDDEN _sk_srcover_bgra_8888_sse2_lowp
-.globl _sk_srcover_bgra_8888_sse2_lowp
-FUNCTION(_sk_srcover_bgra_8888_sse2_lowp)
-_sk_srcover_bgra_8888_sse2_lowp:
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 76,99,64,8 // movslq 0x8(%rax),%r8
- .byte 76,15,175,193 // imul %rcx,%r8
- .byte 73,193,224,2 // shl $0x2,%r8
- .byte 76,3,0 // add (%rax),%r8
- .byte 65,137,250 // mov %edi,%r10d
- .byte 65,128,226,7 // and $0x7,%r10b
- .byte 65,254,202 // dec %r10b
- .byte 69,15,182,202 // movzbl %r10b,%r9d
- .byte 65,128,249,6 // cmp $0x6,%r9b
- .byte 119,38 // ja 3c297 <_sk_srcover_bgra_8888_sse2_lowp+0x4b>
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 76,141,29,67,2,0,0 // lea 0x243(%rip),%r11 # 3c4c0 <_sk_srcover_bgra_8888_sse2_lowp+0x274>
- .byte 75,99,4,139 // movslq (%r11,%r9,4),%rax
- .byte 76,1,216 // add %r11,%rax
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 255,224 // jmpq *%rax
- .byte 243,65,15,16,60,144 // movss (%r8,%rdx,4),%xmm7
- .byte 102,69,15,239,192 // pxor %xmm8,%xmm8
- .byte 235,102 // jmp 3c2fd <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
- .byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
- .byte 243,69,15,111,68,144,16 // movdqu 0x10(%r8,%rdx,4),%xmm8
- .byte 235,87 // jmp 3c2fd <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
- .byte 102,65,15,110,100,144,8 // movd 0x8(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,69,15,18,4,144 // movlpd (%r8,%rdx,4),%xmm8
- .byte 102,65,15,40,248 // movapd %xmm8,%xmm7
- .byte 102,68,15,111,196 // movdqa %xmm4,%xmm8
- .byte 235,52 // jmp 3c2fd <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
- .byte 102,65,15,110,100,144,24 // movd 0x18(%r8,%rdx,4),%xmm4
- .byte 102,68,15,112,196,69 // pshufd $0x45,%xmm4,%xmm8
- .byte 243,65,15,16,100,144,20 // movss 0x14(%r8,%rdx,4),%xmm4
- .byte 65,15,198,224,0 // shufps $0x0,%xmm8,%xmm4
- .byte 65,15,198,224,226 // shufps $0xe2,%xmm8,%xmm4
- .byte 68,15,40,196 // movaps %xmm4,%xmm8
- .byte 243,65,15,16,100,144,16 // movss 0x10(%r8,%rdx,4),%xmm4
- .byte 243,68,15,16,196 // movss %xmm4,%xmm8
- .byte 102,65,15,16,60,144 // movupd (%r8,%rdx,4),%xmm7
- .byte 102,15,40,239 // movapd %xmm7,%xmm5
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,114,229,16 // psrad $0x10,%xmm5
- .byte 102,65,15,111,224 // movdqa %xmm8,%xmm4
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,68,15,111,37,137,11,0,0 // movdqa 0xb89(%rip),%xmm12 # 3ceb0 <_sk_srcover_bgra_8888_sse2_lowp+0xc64>
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,65,15,219,244 // pand %xmm12,%xmm6
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,69,15,111,200 // movdqa %xmm8,%xmm9
- .byte 102,65,15,114,209,16 // psrld $0x10,%xmm9
- .byte 102,15,40,231 // movapd %xmm7,%xmm4
- .byte 102,15,114,212,16 // psrld $0x10,%xmm4
- .byte 102,15,114,215,24 // psrld $0x18,%xmm7
- .byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,114,231,16 // psrad $0x10,%xmm7
- .byte 102,65,15,114,208,24 // psrld $0x18,%xmm8
- .byte 102,65,15,114,240,16 // pslld $0x10,%xmm8
- .byte 102,65,15,114,224,16 // psrad $0x10,%xmm8
- .byte 102,65,15,107,248 // packssdw %xmm8,%xmm7
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,65,15,114,241,16 // pslld $0x10,%xmm9
- .byte 102,65,15,114,225,16 // psrad $0x10,%xmm9
- .byte 102,65,15,107,225 // packssdw %xmm9,%xmm4
- .byte 102,65,15,219,228 // pand %xmm12,%xmm4
- .byte 102,69,15,111,196 // movdqa %xmm12,%xmm8
- .byte 102,68,15,249,195 // psubw %xmm3,%xmm8
- .byte 102,68,15,111,204 // movdqa %xmm4,%xmm9
- .byte 102,69,15,213,200 // pmullw %xmm8,%xmm9
- .byte 102,69,15,253,204 // paddw %xmm12,%xmm9
- .byte 102,65,15,113,209,8 // psrlw $0x8,%xmm9
- .byte 102,68,15,253,200 // paddw %xmm0,%xmm9
- .byte 102,68,15,111,213 // movdqa %xmm5,%xmm10
- .byte 102,69,15,213,208 // pmullw %xmm8,%xmm10
- .byte 102,69,15,253,212 // paddw %xmm12,%xmm10
- .byte 102,65,15,113,210,8 // psrlw $0x8,%xmm10
- .byte 102,68,15,253,209 // paddw %xmm1,%xmm10
- .byte 102,68,15,111,222 // movdqa %xmm6,%xmm11
- .byte 102,69,15,213,216 // pmullw %xmm8,%xmm11
- .byte 102,69,15,253,220 // paddw %xmm12,%xmm11
- .byte 102,65,15,113,211,8 // psrlw $0x8,%xmm11
- .byte 102,68,15,253,218 // paddw %xmm2,%xmm11
- .byte 102,68,15,213,199 // pmullw %xmm7,%xmm8
- .byte 102,69,15,253,196 // paddw %xmm12,%xmm8
- .byte 102,65,15,113,208,8 // psrlw $0x8,%xmm8
- .byte 102,68,15,253,195 // paddw %xmm3,%xmm8
- .byte 102,65,15,111,210 // movdqa %xmm10,%xmm2
- .byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,65,15,235,211 // por %xmm11,%xmm2
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2
- .byte 102,65,15,111,200 // movdqa %xmm8,%xmm1
- .byte 102,15,113,241,8 // psllw $0x8,%xmm1
- .byte 102,65,15,235,201 // por %xmm9,%xmm1
- .byte 102,69,15,239,228 // pxor %xmm12,%xmm12
- .byte 102,68,15,97,225 // punpcklwd %xmm1,%xmm12
- .byte 102,68,15,235,227 // por %xmm3,%xmm12
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,15,235,194 // por %xmm2,%xmm0
- .byte 65,128,250,6 // cmp $0x6,%r10b
- .byte 119,24 // ja 3c45f <_sk_srcover_bgra_8888_sse2_lowp+0x213>
- .byte 76,141,21,142,0,0,0 // lea 0x8e(%rip),%r10 # 3c4dc <_sk_srcover_bgra_8888_sse2_lowp+0x290>
- .byte 75,99,4,138 // movslq (%r10,%r9,4),%rax
- .byte 76,1,208 // add %r10,%rax
- .byte 255,224 // jmpq *%rax
- .byte 102,69,15,126,36,144 // movd %xmm12,(%r8,%rdx,4)
- .byte 235,73 // jmp 3c4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
- .byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
- .byte 243,65,15,127,68,144,16 // movdqu %xmm0,0x10(%r8,%rdx,4)
- .byte 235,58 // jmp 3c4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
- .byte 102,65,15,112,196,78 // pshufd $0x4e,%xmm12,%xmm0
- .byte 102,65,15,126,68,144,8 // movd %xmm0,0x8(%r8,%rdx,4)
- .byte 102,69,15,214,36,144 // movq %xmm12,(%r8,%rdx,4)
- .byte 235,37 // jmp 3c4a8 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,65,15,126,76,144,24 // movd %xmm1,0x18(%r8,%rdx,4)
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,65,15,126,76,144,20 // movd %xmm1,0x14(%r8,%rdx,4)
- .byte 102,65,15,126,68,144,16 // movd %xmm0,0x10(%r8,%rdx,4)
- .byte 243,69,15,127,36,144 // movdqu %xmm12,(%r8,%rdx,4)
- .byte 72,173 // lods %ds:(%rsi),%rax
- .byte 102,65,15,111,193 // movdqa %xmm9,%xmm0
- .byte 102,65,15,111,202 // movdqa %xmm10,%xmm1
- .byte 102,65,15,111,211 // movdqa %xmm11,%xmm2
- .byte 102,65,15,111,216 // movdqa %xmm8,%xmm3
- .byte 255,224 // jmpq *%rax
- .byte 202,253,255 // lret $0xfffd
- .byte 255,247 // push %rdi
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,230 // jmpq *%rsi
- .byte 253 // std
- .byte 255 // (bad)
- .byte 255,55 // pushq (%rdi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,43 // ljmp *(%rbx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255,9 // decl (%rcx)
- .byte 254 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 123,255 // jnp 3c4dd <_sk_srcover_bgra_8888_sse2_lowp+0x291>
- .byte 255 // (bad)
- .byte 255,159,255,255,255,146 // lcall *-0x6d000001(%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,198 // inc %esi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 191,255,255,255,179 // mov $0xb3ffffff,%edi
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
- .byte 167 // cmpsl %es:(%rdi),%ds:(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // .byte 0xff
-
-BALIGN4
- .byte 0,0 // add %al,(%rax)
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 128,63,1 // cmpb $0x1,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,4,0 // add %al,(%rax,%rax,1)
- .byte 0,0 // add %al,(%rax)
- .byte 2,0 // add (%rax),%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1)
- .byte 252 // cld
- .byte 190,0,0,128,191 // mov $0xbf800000,%esi
- .byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3c55c <.literal4+0x64>
- .byte 154 // (bad)
- .byte 153 // cltd
- .byte 153 // cltd
- .byte 62,61,10,23,63,174 // ds cmp $0xae3f170a,%eax
- .byte 71,225,61 // rex.RXB loope 3c565 <.literal4+0x6d>
- .byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3c56f <.literal4+0x77>
- .byte 0,0 // add %al,(%rax)
- .byte 128,127,145,131 // cmpb $0x83,-0x6f(%rdi)
- .byte 158 // sahf
- .byte 61,92,143,50,63 // cmp $0x3f328f5c,%eax
- .byte 10,215 // or %bh,%dl
- .byte 35,59 // and (%rbx),%edi
- .byte 174 // scas %es:(%rdi),%al
- .byte 71,97 // rex.RXB (bad)
- .byte 61,82,184,78,65 // cmp $0x414eb852,%eax
- .byte 186,159,98,60,57 // mov $0x393c629f,%edx
- .byte 215 // xlat %ds:(%rbx)
- .byte 32,187,180,164,144,63 // and %bh,0x3f90a4b4(%rbx)
- .byte 252 // cld
- .byte 199 // (bad)
- .byte 16,62 // adc %bh,(%rsi)
- .byte 168,177 // test $0xb1,%al
- .byte 152 // cwtl
- .byte 59,0 // cmp (%rax),%eax
- .byte 0,192 // add %al,%al
- .byte 64,0,0 // add %al,(%rax)
- .byte 0,64,0 // add %al,0x0(%rax)
- .byte 0,128,64,171,170,42 // add %al,0x2aaaab40(%rax)
- .byte 62,171 // ds stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 62,171 // ds stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 42,63 // sub (%rdi),%bh
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 190,129,128,128,59 // mov $0x3b808081,%esi
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 8,33 // or %ah,(%rcx)
- .byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 3c589 <.literal4+0x91>
- .byte 0,0 // add %al,(%rax)
- .byte 33,8 // and %ecx,(%rax)
- .byte 2,58 // add (%rdx),%bh
- .byte 31 // (bad)
- .byte 0,0 // add %al,(%rax)
- .byte 0,8 // add %cl,(%rax)
- .byte 33,4,61,128,0,128,55 // and %eax,0x37800080(,%rdi,1)
- .byte 0,0 // add %al,(%rax)
- .byte 0,52,255 // add %dh,(%rdi,%rdi,8)
- .byte 255 // (bad)
- .byte 127,0 // jg 3c59c <.literal4+0xa4>
- .byte 119,115 // ja 3c611 <.literal4+0x119>
- .byte 248 // clc
- .byte 194,117,191 // retq $0xbf75
- .byte 191,63,249,68,180 // mov $0xb444f93f,%edi
- .byte 62,163,233,220,63,81,140,242,66,141 // movabs %eax,%ds:0x8d42f28c513fdce9
- .byte 188,190,63,248,245 // mov $0xf5f83fbe,%esp
- .byte 154 // (bad)
- .byte 64,254 // rex (bad)
- .byte 210,221 // rcr %cl,%ch
- .byte 65,0,0 // add %al,(%r8)
- .byte 0,75,0 // add %cl,0x0(%rbx)
- .byte 0,200 // add %cl,%al
- .byte 66,0,0 // rex.X add %al,(%rax)
- .byte 0,195 // add %al,%bl
- .byte 0,0 // add %al,(%rax)
- .byte 128,65,203,61 // addb $0x3d,-0x35(%rcx)
- .byte 13,60,111,18,3 // or $0x3126f3c,%eax
- .byte 59,10 // cmp (%rdx),%ecx
- .byte 215 // xlat %ds:(%rbx)
- .byte 163,59,194,24,17,60,203,61,13 // movabs %eax,0xd3dcb3c1118c23b
- .byte 190,80,128,3,62 // mov $0x3e038050,%esi
- .byte 31 // (bad)
- .byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3c627 <.literal4+0x12f>
- .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 248 // clc
- .byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 3c636 <.literal4+0x13e>
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 137,136,136,55,0,15 // mov %ecx,0xf003788(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 137,136,136,57,240,0 // mov %ecx,0xf03988(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 137,136,136,59,15,0 // mov %ecx,0xf3b88(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 137,136,136,61,0,0 // mov %ecx,0x3d88(%rax)
- .byte 112,65 // jo 3c659 <.literal4+0x161>
- .byte 255,3 // incl (%rbx)
- .byte 0,0 // add %al,(%rax)
- .byte 8,32 // or %ah,(%rax)
- .byte 128,58,0 // cmpb $0x0,(%rdx)
- .byte 192,127,68,0 // sarb $0x0,0x44(%rdi)
- .byte 0,64,64 // add %al,0x40(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3c673 <.literal4+0x17b>
- .byte 89 // pop %rcx
- .byte 23 // (bad)
- .byte 55 // (bad)
- .byte 63 // (bad)
- .byte 208 // (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,152 // ds cwtl
- .byte 221,147,61,111,43,231 // fstl -0x18d490c3(%rbx)
- .byte 187,159,215,202,60 // mov $0x3ccad79f,%ebx
- .byte 212 // (bad)
- .byte 100,84 // fs push %rsp
- .byte 189,169,240,34,62 // mov $0x3e22f0a9,%ebp
- .byte 0,0 // add %al,(%rax)
- .byte 128,62,0 // cmpb $0x0,(%rsi)
- .byte 0,0 // add %al,(%rax)
- .byte 128,0,0 // addb $0x0,(%rax)
- .byte 0,191,0,0,192,191 // add %bh,-0x40400000(%rdi)
- .byte 114,28 // jb 3c676 <.literal4+0x17e>
- .byte 199 // (bad)
- .byte 62,85 // ds push %rbp
- .byte 85 // push %rbp
- .byte 149 // xchg %eax,%ebp
- .byte 191,0,0,192,63 // mov $0x3fc00000,%edi
- .byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 3c6ab <_sk_srcover_bgra_8888_sse2_lowp+0x45f>
- .byte 3,0 // add (%rax),%eax
- .byte 0,0 // add %al,(%rax)
- .byte 45,16,17,192,18 // sub $0x12c01110,%eax
- .byte 120,57 // js 3c6b0 <_sk_srcover_bgra_8888_sse2_lowp+0x464>
- .byte 64,32,148,90,62,4,157,30 // and %dl,0x1e9d043e(%rdx,%rbx,2)
- .byte 62,0,24 // add %bl,%ds:(%rax)
- .byte 161,57,109,165,144,63,252,191,16 // movabs 0x10bffc3f90a56d39,%eax
- .byte 62,0,0 // add %al,%ds:(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,4,0 // add %al,(%rax,%rax,1)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 56,255 // cmp %bh,%bh
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,0 // jg 3c69d <.literal4+0x1a5>
- .byte 0,128,56,0,64,254 // add %al,-0x1bfffc8(%rax)
- .byte 255 // .byte 0xff
-
-BALIGN32
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,0 // add %eax,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 2,0 // add (%rax),%al
- .byte 0,0 // add %al,(%rax)
- .byte 3,0 // add (%rax),%eax
- .byte 0,0 // add %al,(%rax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 5,0,0,0,6 // add $0x6000000,%eax
- .byte 0,0 // add %al,(%rax)
- .byte 0,7 // add %al,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,1 // add %al,(%rcx)
- .byte 0,0 // add %al,(%rax)
- .byte 0,2 // add %al,(%rdx)
- .byte 0,0 // add %al,(%rax)
- .byte 0,3 // add %al,(%rbx)
- .byte 0,0 // add %al,(%rax)
- .byte 0,4,0 // add %al,(%rax,%rax,1)
- .byte 0,0 // add %al,(%rax)
- .byte 5,0,0,0,6 // add $0x6000000,%eax
- .byte 0,0 // add %al,(%rax)
- .byte 0,7 // add %al,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,1 // add %al,(%rcx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03c728 <_sk_srcover_bgra_8888_sse2_lowp+0xa0004dc>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203c730 <_sk_srcover_bgra_8888_sse2_lowp+0x120004e4>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03c738 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0004ec>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303c740 <_sk_srcover_bgra_8888_sse2_lowp+0x30004f4>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,6 // incl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,10 // decl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,26 // lcall *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,255 // add %edi,%edi
- .byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03c788 <_sk_srcover_bgra_8888_sse2_lowp+0xa00053c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203c790 <_sk_srcover_bgra_8888_sse2_lowp+0x12000544>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03c798 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00054c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303c7a0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000554>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,6 // incl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,10 // decl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,26 // lcall *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,255 // add %edi,%edi
- .byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03c7e8 <_sk_srcover_bgra_8888_sse2_lowp+0xa00059c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203c7f0 <_sk_srcover_bgra_8888_sse2_lowp+0x120005a4>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03c7f8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0005ac>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303c800 <_sk_srcover_bgra_8888_sse2_lowp+0x30005b4>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,6 // incl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,10 // decl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,26 // lcall *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,255 // add %edi,%edi
- .byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03c848 <_sk_srcover_bgra_8888_sse2_lowp+0xa0005fc>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203c850 <_sk_srcover_bgra_8888_sse2_lowp+0x12000604>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03c858 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00060c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303c860 <_sk_srcover_bgra_8888_sse2_lowp+0x3000614>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,6 // incl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,10 // decl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,26 // lcall *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,255 // add %edi,%edi
- .byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03c8a8 <_sk_srcover_bgra_8888_sse2_lowp+0xa00065c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203c8b0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000664>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03c8b8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00066c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303c8c0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000674>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,6 // incl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,10 // decl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,26 // lcall *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,255 // add %edi,%edi
- .byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03c908 <_sk_srcover_bgra_8888_sse2_lowp+0xa0006bc>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203c910 <_sk_srcover_bgra_8888_sse2_lowp+0x120006c4>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03c918 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0006cc>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303c920 <_sk_srcover_bgra_8888_sse2_lowp+0x30006d4>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,6 // incl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,10 // decl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,26 // lcall *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,255 // add %edi,%edi
- .byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03c968 <_sk_srcover_bgra_8888_sse2_lowp+0xa00071c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203c970 <_sk_srcover_bgra_8888_sse2_lowp+0x12000724>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03c978 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00072c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303c980 <_sk_srcover_bgra_8888_sse2_lowp+0x3000734>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,6 // incl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,10 // decl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,26 // lcall *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,255 // add %edi,%edi
- .byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03c9c8 <_sk_srcover_bgra_8888_sse2_lowp+0xa00077c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203c9d0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000784>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03c9d8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00078c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303c9e0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000794>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,6 // incl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,10 // decl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,26 // lcall *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,255 // add %edi,%edi
- .byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03ca28 <_sk_srcover_bgra_8888_sse2_lowp+0xa0007dc>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203ca30 <_sk_srcover_bgra_8888_sse2_lowp+0x120007e4>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03ca38 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0007ec>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303ca40 <_sk_srcover_bgra_8888_sse2_lowp+0x30007f4>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,6 // incl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,10 // decl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,26 // lcall *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,255 // add %edi,%edi
- .byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03ca88 <_sk_srcover_bgra_8888_sse2_lowp+0xa00083c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,17 // decl 0x11ffffff(%rip) # 1203ca90 <_sk_srcover_bgra_8888_sse2_lowp+0x12000844>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,21,255,255,255,25 // callq *0x19ffffff(%rip) # 1a03ca98 <_sk_srcover_bgra_8888_sse2_lowp+0x1a00084c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,29,255,255,255,2 // lcall *0x2ffffff(%rip) # 303caa0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000854>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,6 // incl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,10 // decl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,18 // callq *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,22 // callq *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,26 // lcall *(%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,30 // lcall *(%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,254 // add %bh,%dh
- .byte 1,255 // add %edi,%edi
- .byte 0,254 // add %bh,%dh
- .byte 1,255 // add %edi,%edi
- .byte 0,0 // add %al,(%rax)
- .byte 128,255,0 // cmp $0x0,%bh
- .byte 0,128,0,0,0,0 // add %al,0x0(%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 248 // clc
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,255 // add %bh,%bh
- .byte 0,248 // add %bh,%al
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 248 // clc
- .byte 224,255 // loopne 3cd53 <.const+0x693>
- .byte 248 // clc
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,255 // add %bh,%bh
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 240,0,0 // lock add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 240,255,15 // lock decl (%rdi)
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,54 // add %dh,(%rsi)
- .byte 0,183,0,19,0,255 // add %dh,-0xffed00(%rdi)
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,248 // add %bh,%al
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 128,255,0 // cmp $0x0,%bh
- .byte 248 // clc
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 128,255,0 // cmp $0x0,%bh
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,1 // add %al,(%rcx)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 12,13 // or $0xd,%al
- .byte 14 // (bad)
- .byte 15,16,17 // movups (%rcx),%xmm2
- .byte 20,21 // adc $0x15,%al
- .byte 24,25 // sbb %bl,(%rcx)
- .byte 28,29 // sbb $0x1d,%al
- .byte 24,25 // sbb %bl,(%rcx)
- .byte 28,29 // sbb $0x1d,%al
- .byte 28,29 // sbb $0x1d,%al
- .byte 30 // (bad)
- .byte 31 // (bad)
- .byte 0,1 // add %al,(%rcx)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 12,13 // or $0xd,%al
- .byte 14 // (bad)
- .byte 15,16,17 // movups (%rcx),%xmm2
- .byte 20,21 // adc $0x15,%al
- .byte 24,25 // sbb %bl,(%rcx)
- .byte 28,29 // sbb $0x1d,%al
- .byte 24,25 // sbb %bl,(%rcx)
- .byte 28,29 // sbb $0x1d,%al
- .byte 28,29 // sbb $0x1d,%al
- .byte 30 // (bad)
- .byte 31 // (bad)
- .byte 0,1 // add %al,(%rcx)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 12,13 // or $0xd,%al
- .byte 14 // (bad)
- .byte 15,16,17 // movups (%rcx),%xmm2
- .byte 20,21 // adc $0x15,%al
- .byte 24,25 // sbb %bl,(%rcx)
- .byte 28,29 // sbb $0x1d,%al
- .byte 24,25 // sbb %bl,(%rcx)
- .byte 28,29 // sbb $0x1d,%al
- .byte 28,29 // sbb $0x1d,%al
- .byte 30 // (bad)
- .byte 31 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
-
-BALIGN16
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,2 // add %al,(%rdx)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,2 // add %al,(%rdx)
- .byte 4,6 // add $0x6,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,0 // add %eax,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 2,0 // add (%rax),%al
- .byte 0,0 // add %al,(%rax)
- .byte 3,0 // add (%rax),%eax
- .byte 0,0 // add %al,(%rax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 5,0,0,0,6 // add $0x6000000,%eax
- .byte 0,0 // add %al,(%rax)
- .byte 0,7 // add %al,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 63 // (bad)
- .byte 0,0 // add %al,(%rax)
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 128,63,0 // cmpb $0x0,(%rdi)
- .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%rax)
- .byte 63 // (bad)
- .byte 0,0 // add %al,(%rax)
- .byte 128,63,1 // cmpb $0x1,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,1 // add %al,(%rcx)
- .byte 0,0 // add %al,(%rax)
- .byte 0,1 // add %al,(%rcx)
- .byte 0,0 // add %al,(%rax)
- .byte 0,1 // add %al,(%rcx)
- .byte 0,0 // add %al,(%rax)
- .byte 0,4,0 // add %al,(%rax,%rax,1)
- .byte 0,0 // add %al,(%rax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 2,0 // add (%rax),%al
- .byte 0,0 // add %al,(%rax)
- .byte 2,0 // add (%rax),%al
- .byte 0,0 // add %al,(%rax)
- .byte 2,0 // add (%rax),%al
- .byte 0,0 // add %al,(%rax)
- .byte 2,0 // add (%rax),%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1)
- .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1)
- .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1)
- .byte 128,60,0,0 // cmpb $0x0,(%rax,%rax,1)
- .byte 252 // cld
- .byte 190,0,0,252,190 // mov $0xbefc0000,%esi
- .byte 0,0 // add %al,(%rax)
- .byte 252 // cld
- .byte 190,0,0,252,190 // mov $0xbefc0000,%esi
- .byte 0,0 // add %al,(%rax)
- .byte 128,191,0,0,128,191,0 // cmpb $0x0,-0x40800000(%rdi)
- .byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%rax)
- .byte 191,0,0,224,64 // mov $0x40e00000,%edi
- .byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3cfc8 <.literal16+0x118>
- .byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3cfcc <.literal16+0x11c>
- .byte 0,0 // add %al,(%rax)
- .byte 224,64 // loopne 3cfd0 <.literal16+0x120>
- .byte 154 // (bad)
- .byte 153 // cltd
- .byte 153 // cltd
- .byte 62,154 // ds (bad)
- .byte 153 // cltd
- .byte 153 // cltd
- .byte 62,154 // ds (bad)
- .byte 153 // cltd
- .byte 153 // cltd
- .byte 62,154 // ds (bad)
- .byte 153 // cltd
- .byte 153 // cltd
- .byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax
- .byte 10,23 // or (%rdi),%dl
- .byte 63 // (bad)
- .byte 61,10,23,63,61 // cmp $0x3d3f170a,%eax
- .byte 10,23 // or (%rdi),%dl
- .byte 63 // (bad)
- .byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3cff1 <.literal16+0x141>
- .byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3cff5 <.literal16+0x145>
- .byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3cff9 <.literal16+0x149>
- .byte 174 // scas %es:(%rdi),%al
- .byte 71,225,61 // rex.RXB loope 3cffd <.literal16+0x14d>
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,255 // add %edi,%edi
- .byte 255 // (bad)
- .byte 255,5,255,255,255,9 // incl 0x9ffffff(%rip) # a03cfd8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000d8c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,13,255,255,255,2 // decl 0x2ffffff(%rip) # 303cfe0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000d94>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,6 // incl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,10 // decl (%rdx)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,14 // decl (%rsi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 0,127,67 // add %bh,0x43(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3d03b <.literal16+0x18b>
- .byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3d03f <.literal16+0x18f>
- .byte 0,0 // add %al,(%rax)
- .byte 127,67 // jg 3d043 <.literal16+0x193>
- .byte 0,0 // add %al,(%rax)
- .byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
- .byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
- .byte 128,127,0,0 // cmpb $0x0,0x0(%rdi)
- .byte 128,127,145,131 // cmpb $0x83,-0x6f(%rdi)
- .byte 158 // sahf
- .byte 61,145,131,158,61 // cmp $0x3d9e8391,%eax
- .byte 145 // xchg %eax,%ecx
- .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%rsi)
- .byte 92 // pop %rsp
- .byte 143 // (bad)
- .byte 50,63 // xor (%rdi),%bh
- .byte 92 // pop %rsp
- .byte 143 // (bad)
- .byte 50,63 // xor (%rdi),%bh
- .byte 92 // pop %rsp
- .byte 143 // (bad)
- .byte 50,63 // xor (%rdi),%bh
- .byte 92 // pop %rsp
- .byte 143 // (bad)
- .byte 50,63 // xor (%rdi),%bh
- .byte 10,215 // or %bh,%dl
- .byte 35,59 // and (%rbx),%edi
- .byte 10,215 // or %bh,%dl
- .byte 35,59 // and (%rbx),%edi
- .byte 10,215 // or %bh,%dl
- .byte 35,59 // and (%rbx),%edi
- .byte 10,215 // or %bh,%dl
- .byte 35,59 // and (%rbx),%edi
- .byte 174 // scas %es:(%rdi),%al
- .byte 71,97 // rex.RXB (bad)
- .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax
- .byte 174 // scas %es:(%rdi),%al
- .byte 71,97 // rex.RXB (bad)
- .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax
- .byte 82 // push %rdx
- .byte 184,78,65,82,184 // mov $0xb852414e,%eax
- .byte 78 // rex.WRX
- .byte 65,82 // push %r10
- .byte 184,78,65,82,184 // mov $0xb852414e,%eax
- .byte 78 // rex.WRX
- .byte 65,57,215 // cmp %edx,%r15d
- .byte 32,187,57,215,32,187 // and %bh,-0x44df28c7(%rbx)
- .byte 57,215 // cmp %edx,%edi
- .byte 32,187,57,215,32,187 // and %bh,-0x44df28c7(%rbx)
- .byte 186,159,98,60,186 // mov $0xba3c629f,%edx
- .byte 159 // lahf
- .byte 98 // (bad)
- .byte 60,186 // cmp $0xba,%al
- .byte 159 // lahf
- .byte 98 // (bad)
- .byte 60,186 // cmp $0xba,%al
- .byte 159 // lahf
- .byte 98 // (bad)
- .byte 60,109 // cmp $0x6d,%al
- .byte 165 // movsl %ds:(%rsi),%es:(%rdi)
- .byte 144 // nop
- .byte 63 // (bad)
- .byte 109 // insl (%dx),%es:(%rdi)
- .byte 165 // movsl %ds:(%rsi),%es:(%rdi)
- .byte 144 // nop
- .byte 63 // (bad)
- .byte 109 // insl (%dx),%es:(%rdi)
- .byte 165 // movsl %ds:(%rsi),%es:(%rdi)
- .byte 144 // nop
- .byte 63 // (bad)
- .byte 109 // insl (%dx),%es:(%rdi)
- .byte 165 // movsl %ds:(%rsi),%es:(%rdi)
- .byte 144 // nop
- .byte 63 // (bad)
- .byte 252 // cld
- .byte 191,16,62,252,191 // mov $0xbffc3e10,%edi
- .byte 16,62 // adc %bh,(%rsi)
- .byte 252 // cld
- .byte 191,16,62,252,191 // mov $0xbffc3e10,%edi
- .byte 16,62 // adc %bh,(%rsi)
- .byte 168,177 // test $0xb1,%al
- .byte 152 // cwtl
- .byte 59,168,177,152,59,168 // cmp -0x57c4674f(%rax),%ebp
- .byte 177,152 // mov $0x98,%cl
- .byte 59,168,177,152,59,0 // cmp 0x3b98b1(%rax),%ebp
- .byte 0,192 // add %al,%al
- .byte 64,0,0 // add %al,(%rax)
- .byte 192,64,0,0 // rolb $0x0,0x0(%rax)
- .byte 192,64,0,0 // rolb $0x0,0x0(%rax)
- .byte 192,64,0,0 // rolb $0x0,0x0(%rax)
- .byte 0,64,0 // add %al,0x0(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 64,0,0 // add %al,(%rax)
- .byte 0,64,0 // add %al,0x0(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 64,0,0 // add %al,(%rax)
- .byte 128,64,0,0 // addb $0x0,0x0(%rax)
- .byte 128,64,0,0 // addb $0x0,0x0(%rax)
- .byte 128,64,0,0 // addb $0x0,0x0(%rax)
- .byte 128,64,171,170 // addb $0xaa,-0x55(%rax)
- .byte 42,62 // sub (%rsi),%bh
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 42,62 // sub (%rsi),%bh
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 42,62 // sub (%rsi),%bh
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 42,62 // sub (%rsi),%bh
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 62,171 // ds stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 62,171 // ds stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 62,171 // ds stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 62,171 // ds stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 42,63 // sub (%rdi),%bh
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 42,63 // sub (%rdi),%bh
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 42,63 // sub (%rdi),%bh
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 42,63 // sub (%rdi),%bh
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
- .byte 171 // stos %eax,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 170 // stos %al,%es:(%rdi)
- .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
- .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%rax)
- .byte 128,59,129 // cmpb $0x81,(%rbx)
- .byte 128,128,59,0,248,0,0 // addb $0x0,0xf8003b(%rax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 8,33 // or %ah,(%rcx)
- .byte 132,55 // test %dh,(%rdi)
- .byte 8,33 // or %ah,(%rcx)
- .byte 132,55 // test %dh,(%rdi)
- .byte 8,33 // or %ah,(%rcx)
- .byte 132,55 // test %dh,(%rdi)
- .byte 8,33 // or %ah,(%rcx)
- .byte 132,55 // test %dh,(%rdi)
- .byte 224,7 // loopne 3d159 <.literal16+0x2a9>
- .byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3d15d <.literal16+0x2ad>
- .byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3d161 <.literal16+0x2b1>
- .byte 0,0 // add %al,(%rax)
- .byte 224,7 // loopne 3d165 <.literal16+0x2b5>
- .byte 0,0 // add %al,(%rax)
- .byte 33,8 // and %ecx,(%rax)
- .byte 2,58 // add (%rdx),%bh
- .byte 33,8 // and %ecx,(%rax)
- .byte 2,58 // add (%rdx),%bh
- .byte 33,8 // and %ecx,(%rax)
- .byte 2,58 // add (%rdx),%bh
- .byte 33,8 // and %ecx,(%rax)
- .byte 2,58 // add (%rdx),%bh
- .byte 31 // (bad)
- .byte 0,0 // add %al,(%rax)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,8 // add %cl,(%rax)
- .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%rdi,1)
- .byte 8,33 // or %ah,(%rcx)
- .byte 4,61 // add $0x3d,%al
- .byte 8,33 // or %ah,(%rcx)
- .byte 4,61 // add $0x3d,%al
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 8,255 // or %bh,%bh
- .byte 10,255 // or %bh,%bh
- .byte 12,255 // or $0xff,%al
- .byte 14 // (bad)
- .byte 255,0 // incl (%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,128,0,128,55,128 // add %al,-0x7fc88000(%rax)
- .byte 0,128,55,128,0,128 // add %al,-0x7fff7fc9(%rax)
- .byte 55 // (bad)
- .byte 128,0,128 // addb $0x80,(%rax)
- .byte 55 // (bad)
- .byte 0,0 // add %al,(%rax)
- .byte 0,52,0 // add %dh,(%rax,%rax,1)
- .byte 0,0 // add %al,(%rax)
- .byte 52,0 // xor $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 52,0 // xor $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 52,255 // xor $0xff,%al
- .byte 255 // (bad)
- .byte 127,0 // jg 3d1d4 <.literal16+0x324>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,0 // jg 3d1d8 <.literal16+0x328>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,0 // jg 3d1dc <.literal16+0x32c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,0 // jg 3d1e0 <.literal16+0x330>
- .byte 119,115 // ja 3d255 <.literal16+0x3a5>
- .byte 248 // clc
- .byte 194,119,115 // retq $0x7377
- .byte 248 // clc
- .byte 194,119,115 // retq $0x7377
- .byte 248 // clc
- .byte 194,119,115 // retq $0x7377
- .byte 248 // clc
- .byte 194,117,191 // retq $0xbf75
- .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
- .byte 63 // (bad)
- .byte 117,191 // jne 3d1b9 <.literal16+0x309>
- .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
- .byte 63 // (bad)
- .byte 249 // stc
- .byte 68,180,62 // rex.R mov $0x3e,%spl
- .byte 249 // stc
- .byte 68,180,62 // rex.R mov $0x3e,%spl
- .byte 249 // stc
- .byte 68,180,62 // rex.R mov $0x3e,%spl
- .byte 249 // stc
- .byte 68,180,62 // rex.R mov $0x3e,%spl
- .byte 163,233,220,63,163,233,220,63,163 // movabs %eax,0xa33fdce9a33fdce9
- .byte 233,220,63,163,233 // jmpq ffffffffe9a711fa <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe9a34fae>
- .byte 220,63 // fdivrl (%rdi)
- .byte 81 // push %rcx
- .byte 140,242 // mov %?,%edx
- .byte 66,81 // rex.X push %rcx
- .byte 140,242 // mov %?,%edx
- .byte 66,81 // rex.X push %rcx
- .byte 140,242 // mov %?,%edx
- .byte 66,81 // rex.X push %rcx
- .byte 140,242 // mov %?,%edx
- .byte 66,141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%r15,4),%edi
- .byte 63 // (bad)
- .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%rsi,%rdi,4),%edi
- .byte 63 // (bad)
- .byte 248 // clc
- .byte 245 // cmc
- .byte 154 // (bad)
- .byte 64,248 // rex clc
- .byte 245 // cmc
- .byte 154 // (bad)
- .byte 64,248 // rex clc
- .byte 245 // cmc
- .byte 154 // (bad)
- .byte 64,248 // rex clc
- .byte 245 // cmc
- .byte 154 // (bad)
- .byte 64,254 // rex (bad)
- .byte 210,221 // rcr %cl,%ch
- .byte 65,254 // rex.B (bad)
- .byte 210,221 // rcr %cl,%ch
- .byte 65,254 // rex.B (bad)
- .byte 210,221 // rcr %cl,%ch
- .byte 65,254 // rex.B (bad)
- .byte 210,221 // rcr %cl,%ch
- .byte 65,0,0 // add %al,(%r8)
- .byte 0,75,0 // add %cl,0x0(%rbx)
- .byte 0,0 // add %al,(%rax)
- .byte 75,0,0 // rex.WXB add %al,(%r8)
- .byte 0,75,0 // add %cl,0x0(%rbx)
- .byte 0,0 // add %al,(%rax)
- .byte 75,0,0 // rex.WXB add %al,(%r8)
- .byte 200,66,0,0 // enterq $0x42,$0x0
- .byte 200,66,0,0 // enterq $0x42,$0x0
- .byte 200,66,0,0 // enterq $0x42,$0x0
- .byte 200,66,0,0 // enterq $0x42,$0x0
- .byte 0,195 // add %al,%bl
- .byte 0,0 // add %al,(%rax)
- .byte 0,195 // add %al,%bl
- .byte 0,0 // add %al,(%rax)
- .byte 0,195 // add %al,%bl
- .byte 0,0 // add %al,(%rax)
- .byte 0,195 // add %al,%bl
- .byte 0,0 // add %al,(%rax)
- .byte 128,65,0,0 // addb $0x0,0x0(%rcx)
- .byte 128,65,0,0 // addb $0x0,0x0(%rcx)
- .byte 128,65,0,0 // addb $0x0,0x0(%rcx)
- .byte 128,65,203,61 // addb $0x3d,-0x35(%rcx)
- .byte 13,60,203,61,13 // or $0xd3dcb3c,%eax
- .byte 60,203 // cmp $0xcb,%al
- .byte 61,13,60,203,61 // cmp $0x3dcb3c0d,%eax
- .byte 13,60,111,18,3 // or $0x3126f3c,%eax
- .byte 59,111,18 // cmp 0x12(%rdi),%ebp
- .byte 3,59 // add (%rbx),%edi
- .byte 111 // outsl %ds:(%rsi),(%dx)
- .byte 18,3 // adc (%rbx),%al
- .byte 59,111,18 // cmp 0x12(%rdi),%ebp
- .byte 3,59 // add (%rbx),%edi
- .byte 10,215 // or %bh,%dl
- .byte 163,59,10,215,163,59,10,215,163 // movabs %eax,0xa3d70a3ba3d70a3b
- .byte 59,10 // cmp (%rdx),%ecx
- .byte 215 // xlat %ds:(%rbx)
- .byte 163,59,194,24,17,60,194,24,17 // movabs %eax,0x1118c23c1118c23b
- .byte 60,194 // cmp $0xc2,%al
- .byte 24,17 // sbb %dl,(%rcx)
- .byte 60,194 // cmp $0xc2,%al
- .byte 24,17 // sbb %dl,(%rcx)
- .byte 60,203 // cmp $0xcb,%al
- .byte 61,13,190,203,61 // cmp $0x3dcbbe0d,%eax
- .byte 13,190,203,61,13 // or $0xd3dcbbe,%eax
- .byte 190,203,61,13,190 // mov $0xbe0d3dcb,%esi
- .byte 80 // push %rax
- .byte 128,3,62 // addb $0x3e,(%rbx)
- .byte 80 // push %rax
- .byte 128,3,62 // addb $0x3e,(%rbx)
- .byte 80 // push %rax
- .byte 128,3,62 // addb $0x3e,(%rbx)
- .byte 80 // push %rax
- .byte 128,3,62 // addb $0x3e,(%rbx)
- .byte 31 // (bad)
- .byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3d343 <.literal16+0x493>
- .byte 31 // (bad)
- .byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3d347 <.literal16+0x497>
- .byte 31 // (bad)
- .byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3d34b <.literal16+0x49b>
- .byte 31 // (bad)
- .byte 215 // xlat %ds:(%rbx)
- .byte 118,63 // jbe 3d34f <.literal16+0x49f>
- .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
- .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
- .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
- .byte 246,64,83,63 // testb $0x3f,0x53(%rax)
- .byte 0,4,0 // add %al,(%rax,%rax,1)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,248 // add %bh,%al
- .byte 65,0,0 // add %al,(%r8)
- .byte 248 // clc
- .byte 65,0,0 // add %al,(%r8)
- .byte 248 // clc
- .byte 65,0,0 // add %al,(%r8)
- .byte 248 // clc
- .byte 65,0,0 // add %al,(%r8)
- .byte 124,66 // jl 3d386 <.literal16+0x4d6>
- .byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3d38a <.literal16+0x4da>
- .byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3d38e <.literal16+0x4de>
- .byte 0,0 // add %al,(%rax)
- .byte 124,66 // jl 3d392 <.literal16+0x4e2>
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax)
- .byte 136,55 // mov %dh,(%rdi)
- .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%rax)
- .byte 136,55 // mov %dh,(%rdi)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax)
- .byte 136,57 // mov %bh,(%rcx)
- .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%rax)
- .byte 136,57 // mov %bh,(%rcx)
- .byte 240,0,0 // lock add %al,(%rax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%rcx)
- .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%rax)
- .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%rcx),%ecx
- .byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%rcx)
- .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%rax)
- .byte 61,137,136,136,61 // cmp $0x3d888889,%eax
- .byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3d415 <.literal16+0x565>
- .byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3d419 <.literal16+0x569>
- .byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3d41d <.literal16+0x56d>
- .byte 0,0 // add %al,(%rax)
- .byte 112,65 // jo 3d421 <.literal16+0x571>
- .byte 255,3 // incl (%rbx)
- .byte 0,0 // add %al,(%rax)
- .byte 255,3 // incl (%rbx)
- .byte 0,0 // add %al,(%rax)
- .byte 255,3 // incl (%rbx)
- .byte 0,0 // add %al,(%rax)
- .byte 255,3 // incl (%rbx)
- .byte 0,0 // add %al,(%rax)
- .byte 8,32 // or %ah,(%rax)
- .byte 128,58,8 // cmpb $0x8,(%rdx)
- .byte 32,128,58,8,32,128 // and %al,-0x7fdff7c6(%rax)
- .byte 58,8 // cmp (%rax),%cl
- .byte 32,128,58,0,192,127 // and %al,0x7fc0003a(%rax)
- .byte 68,0,192 // add %r8b,%al
- .byte 127,68 // jg 3d44c <.literal16+0x59c>
- .byte 0,192 // add %al,%al
- .byte 127,68 // jg 3d450 <.literal16+0x5a0>
- .byte 0,192 // add %al,%al
- .byte 127,68 // jg 3d454 <.literal16+0x5a4>
- .byte 0,0 // add %al,(%rax)
- .byte 64 // rex
- .byte 64,0,0 // add %al,(%rax)
- .byte 64 // rex
- .byte 64,0,0 // add %al,(%rax)
- .byte 64 // rex
- .byte 64,0,0 // add %al,(%rax)
- .byte 64 // rex
- .byte 64,0,128,0,0,0,128 // add %al,-0x80000000(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 255 // (bad)
- .byte 127,0 // jg 3d433 <.literal16+0x583>
- .byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3d437 <.literal16+0x587>
- .byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3d43b <.literal16+0x58b>
- .byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3d43f <.literal16+0x58f>
- .byte 0,0 // add %al,(%rax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 56,0 // cmp %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 56,0 // cmp %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 56,0 // cmp %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 56,0 // cmp %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 128,0,0 // addb $0x0,(%rax)
- .byte 0,128,0,0,0,128 // add %al,-0x80000000(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,128,255,255,255,127 // add %al,0x7fffffff(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,255 // jg 3d478 <.literal16+0x5c8>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,255 // jg 3d47c <.literal16+0x5cc>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,0 // jg 3d481 <.literal16+0x5d1>
- .byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
- .byte 56,0 // cmp %al,(%rax)
- .byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%rax)
- .byte 56,0 // cmp %al,(%rax)
- .byte 64,254 // rex (bad)
- .byte 255,0 // incl (%rax)
- .byte 64,254 // rex (bad)
- .byte 255,0 // incl (%rax)
- .byte 64,254 // rex (bad)
- .byte 255,0 // incl (%rax)
- .byte 64,254 // rex (bad)
- .byte 255,0 // incl (%rax)
- .byte 255 // (bad)
- .byte 127,71 // jg 3d4eb <.literal16+0x63b>
- .byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3d4ef <.literal16+0x63f>
- .byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3d4f3 <.literal16+0x643>
- .byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 3d4f7 <.literal16+0x647>
- .byte 208 // (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,208 // ds (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,208 // ds (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,208 // ds (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,89 // ds pop %rcx
- .byte 23 // (bad)
- .byte 55 // (bad)
- .byte 63 // (bad)
- .byte 89 // pop %rcx
- .byte 23 // (bad)
- .byte 55 // (bad)
- .byte 63 // (bad)
- .byte 89 // pop %rcx
- .byte 23 // (bad)
- .byte 55 // (bad)
- .byte 63 // (bad)
- .byte 89 // pop %rcx
- .byte 23 // (bad)
- .byte 55 // (bad)
- .byte 63 // (bad)
- .byte 152 // cwtl
- .byte 221,147,61,152,221,147 // fstl -0x6c2267c3(%rbx)
- .byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax
- .byte 152 // cwtl
- .byte 221,147,61,111,43,231 // fstl -0x18d490c3(%rbx)
- .byte 187,111,43,231,187 // mov $0xbbe72b6f,%ebx
- .byte 111 // outsl %ds:(%rsi),(%dx)
- .byte 43,231 // sub %edi,%esp
- .byte 187,111,43,231,187 // mov $0xbbe72b6f,%ebx
- .byte 159 // lahf
- .byte 215 // xlat %ds:(%rbx)
- .byte 202,60,159 // lret $0x9f3c
- .byte 215 // xlat %ds:(%rbx)
- .byte 202,60,159 // lret $0x9f3c
- .byte 215 // xlat %ds:(%rbx)
- .byte 202,60,159 // lret $0x9f3c
- .byte 215 // xlat %ds:(%rbx)
- .byte 202,60,212 // lret $0xd43c
- .byte 100,84 // fs push %rsp
- .byte 189,212,100,84,189 // mov $0xbd5464d4,%ebp
- .byte 212 // (bad)
- .byte 100,84 // fs push %rsp
- .byte 189,212,100,84,189 // mov $0xbd5464d4,%ebp
- .byte 169,240,34,62,169 // test $0xa93e22f0,%eax
- .byte 240,34,62 // lock and (%rsi),%bh
- .byte 169,240,34,62,169 // test $0xa93e22f0,%eax
- .byte 240,34,62 // lock and (%rsi),%bh
- .byte 0,0 // add %al,(%rax)
- .byte 128,62,0 // cmpb $0x0,(%rsi)
- .byte 0,128,62,0,0,128 // add %al,-0x7fffffc2(%rax)
- .byte 62,0,0 // add %al,%ds:(%rax)
- .byte 128,62,0 // cmpb $0x0,(%rsi)
- .byte 0,0 // add %al,(%rax)
- .byte 191,0,0,0,191 // mov $0xbf000000,%edi
- .byte 0,0 // add %al,(%rax)
- .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%rdi)
- .byte 0,192 // add %al,%al
- .byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 3d56e <.literal16+0x6be>
- .byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3d572 <.literal16+0x6c2>
- .byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3d576 <.literal16+0x6c6>
- .byte 199 // (bad)
- .byte 62,114,28 // jb,pt 3d57a <.literal16+0x6ca>
- .byte 199 // (bad)
- .byte 62,85 // ds push %rbp
- .byte 85 // push %rbp
- .byte 149 // xchg %eax,%ebp
- .byte 191,85,85,149,191 // mov $0xbf955555,%edi
- .byte 85 // push %rbp
- .byte 85 // push %rbp
- .byte 149 // xchg %eax,%ebp
- .byte 191,85,85,149,191 // mov $0xbf955555,%edi
- .byte 0,0 // add %al,(%rax)
- .byte 192,63,0 // sarb $0x0,(%rdi)
- .byte 0,192 // add %al,%al
- .byte 63 // (bad)
- .byte 0,0 // add %al,(%rax)
- .byte 192,63,0 // sarb $0x0,(%rdi)
- .byte 0,192 // add %al,%al
- .byte 63 // (bad)
- .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%rsi)
- .byte 99,61,57,142,99,61 // movslq 0x3d638e39(%rip),%edi # 3d6763c5 <_sk_srcover_bgra_8888_sse2_lowp+0x3d63a179>
- .byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%rsi)
- .byte 127,63 // jg 3d5d3 <.literal16+0x723>
- .byte 114,249 // jb 3d58f <.literal16+0x6df>
- .byte 127,63 // jg 3d5d7 <.literal16+0x727>
- .byte 114,249 // jb 3d593 <.literal16+0x6e3>
- .byte 127,63 // jg 3d5db <.literal16+0x72b>
- .byte 114,249 // jb 3d597 <.literal16+0x6e7>
- .byte 127,63 // jg 3d5df <.literal16+0x72f>
- .byte 3,0 // add (%rax),%eax
- .byte 0,0 // add %al,(%rax)
- .byte 3,0 // add (%rax),%eax
- .byte 0,0 // add %al,(%rax)
- .byte 3,0 // add (%rax),%eax
- .byte 0,0 // add %al,(%rax)
- .byte 3,0 // add (%rax),%eax
- .byte 0,0 // add %al,(%rax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,45,16,17,192,45 // ljmp *0x2dc01110(%rip) # 2dc3e6d5 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02489>
- .byte 16,17 // adc %dl,(%rcx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110(%rip) # 2dc3e6de <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02492>
- .byte 17,192 // adc %eax,%eax
- .byte 18,120,57 // adc 0x39(%rax),%bh
- .byte 64,18,120,57 // adc 0x39(%rax),%dil
- .byte 64,18,120,57 // adc 0x39(%rax),%dil
- .byte 64,18,120,57 // adc 0x39(%rax),%dil
- .byte 64,32,148,90,62,32,148,90 // and %dl,0x5a94203e(%rdx,%rbx,2)
- .byte 62,32,148,90,62,32,148,90 // and %dl,%ds:0x5a94203e(%rdx,%rbx,2)
- .byte 62,4,157 // ds add $0x9d,%al
- .byte 30 // (bad)
- .byte 62,4,157 // ds add $0x9d,%al
- .byte 30 // (bad)
- .byte 62,4,157 // ds add $0x9d,%al
- .byte 30 // (bad)
- .byte 62,4,157 // ds add $0x9d,%al
- .byte 30 // (bad)
- .byte 62,0,24 // add %bl,%ds:(%rax)
- .byte 161,57,0,24,161,57,0,24,161 // movabs 0xa1180039a1180039,%eax
- .byte 57,0 // cmp %eax,(%rax)
- .byte 24,161,57,0,0,255 // sbb %ah,-0xffffc7(%rcx)
- .byte 255,0 // incl (%rax)
- .byte 0,255 // add %bh,%bh
- .byte 255,0 // incl (%rax)
- .byte 0,255 // add %bh,%bh
- .byte 255,0 // incl (%rax)
- .byte 0,255 // add %bh,%bh
- .byte 255,0 // incl (%rax)
- .byte 2,4,6 // add (%rsi,%rax,1),%al
- .byte 8,10 // or %cl,(%rdx)
- .byte 12,14 // or $0xe,%al
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 254,1 // incb (%rcx)
- .byte 254,1 // incb (%rcx)
- .byte 254,1 // incb (%rcx)
- .byte 254,1 // incb (%rcx)
- .byte 254,1 // incb (%rcx)
- .byte 254,1 // incb (%rcx)
- .byte 254,1 // incb (%rcx)
- .byte 254,1 // incb (%rcx)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%rax)
- .byte 0,128,0,128,0,1 // add %al,0x1008000(%rax)
- .byte 4,5 // add $0x5,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 8,9 // or %cl,(%rcx)
- .byte 12,13 // or $0xd,%al
- .byte 12,13 // or $0xd,%al
- .byte 14 // (bad)
- .byte 15,3,255 // lsl %di,%edi
- .byte 7 // (bad)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255,11 // decl (%rbx)
- .byte 255,15 // decl (%rdi)
- .byte 255,15 // decl (%rdi)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255,2 // incl (%rdx)
- .byte 3,6 // add (%rsi),%eax
- .byte 7 // (bad)
- .byte 10,11 // or (%rbx),%cl
- .byte 14 // (bad)
- .byte 15,10 // (bad)
- .byte 11,14 // or (%rsi),%ecx
- .byte 15,14 // femms
- .byte 15,255 // (bad)
- .byte 255 // (bad)
- .byte 248 // clc
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,63 // add %bh,(%rdi)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,31 // add %bl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 248 // clc
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 3d6c1 <.literal16+0x811>
- .byte 224,255 // loopne 3d6c3 <.literal16+0x813>
- .byte 224,255 // loopne 3d6c5 <.literal16+0x815>
- .byte 224,255 // loopne 3d6c7 <.literal16+0x817>
- .byte 224,255 // loopne 3d6c9 <.literal16+0x819>
- .byte 224,255 // loopne 3d6cb <.literal16+0x81b>
- .byte 224,255 // loopne 3d6cd <.literal16+0x81d>
- .byte 224,255 // loopne 3d6cf <.literal16+0x81f>
- .byte 15,0,15 // str (%rdi)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,15 // add %cl,(%rdi)
- .byte 0,0 // add %al,(%rax)
- .byte 240,0,240 // lock add %dh,%al
- .byte 0,240 // add %dh,%al
- .byte 0,240 // add %dh,%al
- .byte 0,240 // add %dh,%al
- .byte 0,240 // add %dh,%al
- .byte 0,240 // add %dh,%al
- .byte 0,240 // add %dh,%al
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 240,255,240 // lock push %rax
- .byte 255,240 // push %rax
- .byte 255,240 // push %rax
- .byte 255,240 // push %rax
- .byte 255,240 // push %rax
- .byte 255,240 // push %rax
- .byte 255,240 // push %rax
- .byte 255,54 // pushq (%rsi)
- .byte 0,54 // add %dh,(%rsi)
- .byte 0,54 // add %dh,(%rsi)
- .byte 0,54 // add %dh,(%rsi)
- .byte 0,54 // add %dh,(%rsi)
- .byte 0,54 // add %dh,(%rsi)
- .byte 0,54 // add %dh,(%rsi)
- .byte 0,54 // add %dh,(%rsi)
- .byte 0,183,0,183,0,183 // add %dh,-0x48ff4900(%rdi)
- .byte 0,183,0,183,0,183 // add %dh,-0x48ff4900(%rdi)
- .byte 0,183,0,183,0,19 // add %dh,0x1300b700(%rdi)
- .byte 0,19 // add %dl,(%rbx)
- .byte 0,19 // add %dl,(%rbx)
- .byte 0,19 // add %dl,(%rbx)
- .byte 0,19 // add %dl,(%rbx)
- .byte 0,19 // add %dl,(%rbx)
- .byte 0,19 // add %dl,(%rbx)
- .byte 0,19 // add %dl,(%rbx)
- .byte 0,254 // add %bh,%dh
- .byte 0,254 // add %bh,%dh
- .byte 0,254 // add %bh,%dh
- .byte 0,254 // add %bh,%dh
- .byte 0,254 // add %bh,%dh
- .byte 0,254 // add %bh,%dh
- .byte 0,254 // add %bh,%dh
- .byte 0,254 // add %bh,%dh
- .byte 0 // .byte 0x0
-
-BALIGN8
- .byte 1,0 // add %eax,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 1,0 // add %eax,(%rax)
- .byte 0,0 // add %al,(%rax)
- .byte 2,0 // add (%rax),%al
- .byte 0,0 // add %al,(%rax)
- .byte 2,0 // add (%rax),%al
- .byte 0,0 // add %al,(%rax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%rax)
- .byte 255 // (bad)
- .byte 127,0 // jg 3d76b <.literal8+0x1b>
- .byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 3d76f <.literal8+0x1f>
- .byte 0,0 // add %al,(%rax)
- .byte 128,0,0 // addb $0x0,(%rax)
- .byte 0 // .byte 0x0
- .byte 128,0,0 // addb $0x0,(%rax)
-#elif defined(__i386__)
-BALIGN32
-
-HIDDEN _sk_start_pipeline_sse2
-.globl _sk_start_pipeline_sse2
-FUNCTION(_sk_start_pipeline_sse2)
-_sk_start_pipeline_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 59,69,20 // cmp 0x14(%ebp),%eax
- .byte 15,131,161,0,0,0 // jae b6 <_sk_start_pipeline_sse2+0xb6>
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 131,198,4 // add $0x4,%esi
- .byte 141,73,4 // lea 0x4(%ecx),%ecx
- .byte 137,77,240 // mov %ecx,-0x10(%ebp)
- .byte 57,85,240 // cmp %edx,-0x10(%ebp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,77,152 // mov %ecx,-0x68(%ebp)
- .byte 137,69,236 // mov %eax,-0x14(%ebp)
- .byte 137,69,156 // mov %eax,-0x64(%ebp)
- .byte 199,69,160,0,0,0,0 // movl $0x0,-0x60(%ebp)
- .byte 141,69,168 // lea -0x58(%ebp),%eax
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,41,64,48 // movaps %xmm0,0x30(%eax)
- .byte 15,41,64,32 // movaps %xmm0,0x20(%eax)
- .byte 15,41,64,16 // movaps %xmm0,0x10(%eax)
- .byte 15,41,0 // movaps %xmm0,(%eax)
- .byte 137,200 // mov %ecx,%eax
- .byte 141,93,152 // lea -0x68(%ebp),%ebx
- .byte 119,41 // ja 84 <_sk_start_pipeline_sse2+0x84>
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 86 // push %esi
- .byte 83 // push %ebx
- .byte 255,215 // call *%edi
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 131,196,16 // add $0x10,%esp
- .byte 139,77,152 // mov -0x68(%ebp),%ecx
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 137,69,152 // mov %eax,-0x68(%ebp)
- .byte 131,193,8 // add $0x8,%ecx
- .byte 57,209 // cmp %edx,%ecx
- .byte 118,215 // jbe 5b <_sk_start_pipeline_sse2+0x5b>
- .byte 137,209 // mov %edx,%ecx
- .byte 41,193 // sub %eax,%ecx
- .byte 116,31 // je a9 <_sk_start_pipeline_sse2+0xa9>
- .byte 137,77,160 // mov %ecx,-0x60(%ebp)
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 86 // push %esi
- .byte 141,69,152 // lea -0x68(%ebp),%eax
- .byte 80 // push %eax
- .byte 255,215 // call *%edi
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 131,196,16 // add $0x10,%esp
- .byte 139,69,236 // mov -0x14(%ebp),%eax
- .byte 64 // inc %eax
- .byte 59,69,20 // cmp 0x14(%ebp),%eax
- .byte 15,133,115,255,255,255 // jne 29 <_sk_start_pipeline_sse2+0x29>
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_just_return_sse2
-.globl _sk_just_return_sse2
-FUNCTION(_sk_just_return_sse2)
-_sk_just_return_sse2:
- .byte 195 // ret
-
-HIDDEN _sk_seed_shader_sse2
-.globl _sk_seed_shader_sse2
-FUNCTION(_sk_seed_shader_sse2)
-_sk_seed_shader_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 80 // push %eax
- .byte 232,0,0,0,0 // call c9 <_sk_seed_shader_sse2+0xa>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 102,15,110,1 // movd (%ecx),%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 15,16,6 // movups (%esi),%xmm0
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,88,136,135,6,1,0 // addps 0x10687(%eax),%xmm1
- .byte 141,114,8 // lea 0x8(%edx),%esi
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,41,81,64 // movaps %xmm2,0x40(%ecx)
- .byte 15,41,81,48 // movaps %xmm2,0x30(%ecx)
- .byte 15,41,81,32 // movaps %xmm2,0x20(%ecx)
- .byte 15,41,81,16 // movaps %xmm2,0x10(%ecx)
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,144,151,6,1,0 // movaps 0x10697(%eax),%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,20 // add $0x14,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_dither_sse2
-.globl _sk_dither_sse2
-FUNCTION(_sk_dither_sse2)
-_sk_dither_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 131,236,36 // sub $0x24,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 140 <_sk_dither_sse2+0x1a>
- .byte 89 // pop %ecx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 102,15,110,32 // movd (%eax),%xmm4
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,254,161,48,6,1,0 // paddd 0x10630(%ecx),%xmm4
- .byte 102,15,110,104,4 // movd 0x4(%eax),%xmm5
- .byte 102,15,112,253,0 // pshufd $0x0,%xmm5,%xmm7
- .byte 102,15,239,252 // pxor %xmm4,%xmm7
- .byte 102,15,111,177,64,6,1,0 // movdqa 0x10640(%ecx),%xmm6
- .byte 102,15,111,207 // movdqa %xmm7,%xmm1
- .byte 102,15,219,206 // pand %xmm6,%xmm1
- .byte 102,15,114,241,5 // pslld $0x5,%xmm1
- .byte 102,15,111,129,96,6,1,0 // movdqa 0x10660(%ecx),%xmm0
- .byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,219,232 // pand %xmm0,%xmm5
- .byte 102,15,114,245,2 // pslld $0x2,%xmm5
- .byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,219,244 // pand %xmm4,%xmm6
- .byte 102,15,114,246,4 // pslld $0x4,%xmm6
- .byte 102,15,219,196 // pand %xmm4,%xmm0
- .byte 102,15,254,192 // paddd %xmm0,%xmm0
- .byte 102,15,235,198 // por %xmm6,%xmm0
- .byte 102,15,111,137,80,6,1,0 // movdqa 0x10650(%ecx),%xmm1
- .byte 102,15,219,249 // pand %xmm1,%xmm7
- .byte 102,15,219,225 // pand %xmm1,%xmm4
- .byte 102,15,114,212,2 // psrld $0x2,%xmm4
- .byte 102,15,235,224 // por %xmm0,%xmm4
- .byte 102,15,235,229 // por %xmm5,%xmm4
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 102,15,114,215,1 // psrld $0x1,%xmm7
- .byte 102,15,235,231 // por %xmm7,%xmm4
- .byte 15,91,196 // cvtdq2ps %xmm4,%xmm0
- .byte 15,89,129,112,6,1,0 // mulps 0x10670(%ecx),%xmm0
- .byte 15,88,129,128,6,1,0 // addps 0x10680(%ecx),%xmm0
- .byte 243,15,16,14 // movss (%esi),%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 15,88,77,232 // addps -0x18(%ebp),%xmm1
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,93,208 // minps %xmm0,%xmm2
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 15,95,234 // maxps %xmm2,%xmm5
- .byte 15,93,216 // minps %xmm0,%xmm3
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,227 // maxps %xmm3,%xmm4
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,93,200 // minps %xmm0,%xmm1
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 15,95,209 // maxps %xmm1,%xmm2
- .byte 141,74,8 // lea 0x8(%edx),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 81 // push %ecx
- .byte 80 // push %eax
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,52 // add $0x34,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_uniform_color_sse2
-.globl _sk_uniform_color_sse2
-FUNCTION(_sk_uniform_color_sse2)
-_sk_uniform_color_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,1 // movss (%ecx),%xmm0
- .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,89,12 // movss 0xc(%ecx),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_black_color_sse2
-.globl _sk_black_color_sse2
-FUNCTION(_sk_black_color_sse2)
-_sk_black_color_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 27c <_sk_black_color_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,152,228,4,1,0 // movaps 0x104e4(%eax),%xmm3
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 82 // push %edx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_white_color_sse2
-.globl _sk_white_color_sse2
-FUNCTION(_sk_white_color_sse2)
-_sk_white_color_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 2ac <_sk_white_color_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,128,180,4,1,0 // movaps 0x104b4(%eax),%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 82 // push %edx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_load_rgba_sse2
-.globl _sk_load_rgba_sse2
-FUNCTION(_sk_load_rgba_sse2)
-_sk_load_rgba_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 15,16,1 // movups (%ecx),%xmm0
- .byte 15,16,73,16 // movups 0x10(%ecx),%xmm1
- .byte 15,16,81,32 // movups 0x20(%ecx),%xmm2
- .byte 15,16,89,48 // movups 0x30(%ecx),%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_store_rgba_sse2
-.globl _sk_store_rgba_sse2
-FUNCTION(_sk_store_rgba_sse2)
-_sk_store_rgba_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 15,17,2 // movups %xmm0,(%edx)
- .byte 15,17,74,16 // movups %xmm1,0x10(%edx)
- .byte 15,17,82,32 // movups %xmm2,0x20(%edx)
- .byte 15,17,90,48 // movups %xmm3,0x30(%edx)
- .byte 141,81,8 // lea 0x8(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_clear_sse2
-.globl _sk_clear_sse2
-FUNCTION(_sk_clear_sse2)
-_sk_clear_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_srcatop_sse2
-.globl _sk_srcatop_sse2
-FUNCTION(_sk_srcatop_sse2)
-_sk_srcatop_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 35b <_sk_srcatop_sse2+0xb>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,170,5,4,1,0 // movaps 0x10405(%edx),%xmm5
- .byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,113,48 // movaps 0x30(%ecx),%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 141,80,4 // lea 0x4(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_dstatop_sse2
-.globl _sk_dstatop_sse2
-FUNCTION(_sk_dstatop_sse2)
-_sk_dstatop_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 3ba <_sk_dstatop_sse2+0xb>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
- .byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,162,166,3,1,0 // movaps 0x103a6(%edx),%xmm4
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,113,48 // movaps 0x30(%ecx),%xmm6
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,88,229 // addps %xmm5,%xmm4
- .byte 141,80,4 // lea 0x4(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_srcin_sse2
-.globl _sk_srcin_sse2
-FUNCTION(_sk_srcin_sse2)
-_sk_srcin_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 141,80,4 // lea 0x4(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_dstin_sse2
-.globl _sk_dstin_sse2
-FUNCTION(_sk_dstin_sse2)
-_sk_dstin_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 15,40,65,16 // movaps 0x10(%ecx),%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,73,32 // movaps 0x20(%ecx),%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,81,48 // movaps 0x30(%ecx),%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,89,89,64 // mulps 0x40(%ecx),%xmm3
- .byte 141,80,4 // lea 0x4(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_srcout_sse2
-.globl _sk_srcout_sse2
-FUNCTION(_sk_srcout_sse2)
-_sk_srcout_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 47b <_sk_srcout_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,229,2,1,0 // movaps 0x102e5(%eax),%xmm4
- .byte 15,92,98,64 // subps 0x40(%edx),%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 82 // push %edx
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_dstout_sse2
-.globl _sk_dstout_sse2
-FUNCTION(_sk_dstout_sse2)
-_sk_dstout_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 4b3 <_sk_dstout_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,173,2,1,0 // movaps 0x102ad(%eax),%xmm4
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,40,66,16 // movaps 0x10(%edx),%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,74,32 // movaps 0x20(%edx),%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,82,48 // movaps 0x30(%edx),%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,89,98,64 // mulps 0x40(%edx),%xmm4
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 80 // push %eax
- .byte 82 // push %edx
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_srcover_sse2
-.globl _sk_srcover_sse2
-FUNCTION(_sk_srcover_sse2)
-_sk_srcover_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 4fa <_sk_srcover_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,102,2,1,0 // movaps 0x10266(%eax),%xmm4
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,40,106,32 // movaps 0x20(%edx),%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,40,106,48 // movaps 0x30(%edx),%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,89,98,64 // mulps 0x40(%edx),%xmm4
- .byte 15,88,220 // addps %xmm4,%xmm3
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 82 // push %edx
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_dstover_sse2
-.globl _sk_dstover_sse2
-FUNCTION(_sk_dstover_sse2)
-_sk_dstover_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 54a <_sk_dstover_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,106,64 // movaps 0x40(%edx),%xmm5
- .byte 15,40,160,22,2,1,0 // movaps 0x10216(%eax),%xmm4
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,66,16 // addps 0x10(%edx),%xmm0
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,74,32 // addps 0x20(%edx),%xmm1
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,82,48 // addps 0x30(%edx),%xmm2
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,88,229 // addps %xmm5,%xmm4
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 80 // push %eax
- .byte 82 // push %edx
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_modulate_sse2
-.globl _sk_modulate_sse2
-FUNCTION(_sk_modulate_sse2)
-_sk_modulate_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 15,89,65,16 // mulps 0x10(%ecx),%xmm0
- .byte 15,89,73,32 // mulps 0x20(%ecx),%xmm1
- .byte 15,89,81,48 // mulps 0x30(%ecx),%xmm2
- .byte 15,89,89,64 // mulps 0x40(%ecx),%xmm3
- .byte 141,80,4 // lea 0x4(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_multiply_sse2
-.globl _sk_multiply_sse2
-FUNCTION(_sk_multiply_sse2)
-_sk_multiply_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,56 // sub $0x38,%esp
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 232,0,0,0,0 // call 5c9 <_sk_multiply_sse2+0x12>
- .byte 89 // pop %ecx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,40,129,151,1,1,0 // movaps 0x10197(%ecx),%xmm0
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,92,242 // subps %xmm2,%xmm6
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,40,80,16 // movaps 0x10(%eax),%xmm2
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,89,226 // mulps %xmm2,%xmm4
- .byte 15,88,231 // addps %xmm7,%xmm4
- .byte 15,89,234 // mulps %xmm2,%xmm5
- .byte 15,88,236 // addps %xmm4,%xmm5
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,40,96,32 // movaps 0x20(%eax),%xmm4
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,88,250 // addps %xmm2,%xmm7
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,40,96,48 // movaps 0x30(%eax),%xmm4
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,17 // call *(%ecx)
- .byte 131,196,72 // add $0x48,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_plus__sse2
-.globl _sk_plus__sse2
-FUNCTION(_sk_plus__sse2)
-_sk_plus__sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 66f <_sk_plus__sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,88,66,16 // addps 0x10(%edx),%xmm0
- .byte 15,40,160,241,0,1,0 // movaps 0x100f1(%eax),%xmm4
- .byte 15,93,196 // minps %xmm4,%xmm0
- .byte 15,88,74,32 // addps 0x20(%edx),%xmm1
- .byte 15,93,204 // minps %xmm4,%xmm1
- .byte 15,88,82,48 // addps 0x30(%edx),%xmm2
- .byte 15,93,212 // minps %xmm4,%xmm2
- .byte 15,88,90,64 // addps 0x40(%edx),%xmm3
- .byte 15,93,220 // minps %xmm4,%xmm3
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 82 // push %edx
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_screen_sse2
-.globl _sk_screen_sse2
-FUNCTION(_sk_screen_sse2)
-_sk_screen_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
- .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,88,233 // addps %xmm1,%xmm5
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,92,238 // subps %xmm6,%xmm5
- .byte 15,40,65,48 // movaps 0x30(%ecx),%xmm0
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,88,242 // addps %xmm2,%xmm6
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,92,240 // subps %xmm0,%xmm6
- .byte 15,40,65,64 // movaps 0x40(%ecx),%xmm0
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,88,251 // addps %xmm3,%xmm7
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,92,248 // subps %xmm0,%xmm7
- .byte 141,80,4 // lea 0x4(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_xor__sse2
-.globl _sk_xor__sse2
-FUNCTION(_sk_xor__sse2)
-_sk_xor__sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 232,0,0,0,0 // call 71d <_sk_xor__sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
- .byte 15,40,154,67,0,1,0 // movaps 0x10043(%edx),%xmm3
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,92,245 // subps %xmm5,%xmm6
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,92,220 // subps %xmm4,%xmm3
- .byte 15,40,121,16 // movaps 0x10(%ecx),%xmm7
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,121,32 // movaps 0x20(%ecx),%xmm7
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,40,121,48 // movaps 0x30(%ecx),%xmm7
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 15,88,222 // addps %xmm6,%xmm3
- .byte 141,80,4 // lea 0x4(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_darken_sse2
-.globl _sk_darken_sse2
-FUNCTION(_sk_darken_sse2)
-_sk_darken_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 785 <_sk_darken_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 15,40,113,64 // movaps 0x40(%ecx),%xmm6
- .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
- .byte 15,40,121,32 // movaps 0x20(%ecx),%xmm7
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,95,229 // maxps %xmm5,%xmm4
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,40,231 // movaps %xmm7,%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,95,207 // maxps %xmm7,%xmm1
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,40,73,48 // movaps 0x30(%ecx),%xmm1
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,95,209 // maxps %xmm1,%xmm2
- .byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,219,255,0,0 // movaps 0xffdb(%edx),%xmm1
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 141,80,4 // lea 0x4(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_lighten_sse2
-.globl _sk_lighten_sse2
-FUNCTION(_sk_lighten_sse2)
-_sk_lighten_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 805 <_sk_lighten_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 15,40,113,64 // movaps 0x40(%ecx),%xmm6
- .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
- .byte 15,40,121,32 // movaps 0x20(%ecx),%xmm7
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,40,231 // movaps %xmm7,%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,93,207 // minps %xmm7,%xmm1
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,40,73,48 // movaps 0x30(%ecx),%xmm1
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,93,209 // minps %xmm1,%xmm2
- .byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,138,91,255,0,0 // movaps 0xff5b(%edx),%xmm1
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 141,80,4 // lea 0x4(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_difference_sse2
-.globl _sk_difference_sse2
-FUNCTION(_sk_difference_sse2)
-_sk_difference_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 888 <_sk_difference_sse2+0x11>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
- .byte 15,40,113,16 // movaps 0x10(%ecx),%xmm6
- .byte 15,40,121,32 // movaps 0x20(%ecx),%xmm7
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,93,206 // minps %xmm6,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,93,231 // minps %xmm7,%xmm4
- .byte 15,88,228 // addps %xmm4,%xmm4
- .byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,40,113,48 // movaps 0x30(%ecx),%xmm6
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,88,226 // addps %xmm2,%xmm4
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,93,214 // minps %xmm6,%xmm2
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,40,146,216,254,0,0 // movaps 0xfed8(%edx),%xmm2
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 141,80,4 // lea 0x4(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_exclusion_sse2
-.globl _sk_exclusion_sse2
-FUNCTION(_sk_exclusion_sse2)
-_sk_exclusion_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 90e <_sk_exclusion_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
- .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,237 // addps %xmm5,%xmm5
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,88,246 // addps %xmm6,%xmm6
- .byte 15,92,230 // subps %xmm6,%xmm4
- .byte 15,40,73,48 // movaps 0x30(%ecx),%xmm1
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,138,82,254,0,0 // movaps 0xfe52(%edx),%xmm1
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,89,73,64 // mulps 0x40(%ecx),%xmm1
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 141,80,4 // lea 0x4(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_colorburn_sse2
-.globl _sk_colorburn_sse2
-FUNCTION(_sk_colorburn_sse2)
-_sk_colorburn_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,88 // sub $0x58,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 98d <_sk_colorburn_sse2+0x19>
- .byte 89 // pop %ecx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
- .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
- .byte 15,41,109,232 // movaps %xmm5,-0x18(%ebp)
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,83,244 // rcpps %xmm4,%xmm6
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,93,198 // minps %xmm6,%xmm0
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,40,177,211,253,0,0 // movaps 0xfdd3(%ecx),%xmm6
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,88,239 // addps %xmm7,%xmm5
- .byte 15,92,240 // subps %xmm0,%xmm6
- .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,40,117,232 // movaps -0x18(%ebp),%xmm6
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,194,231,0 // cmpeqps %xmm7,%xmm4
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,84,196 // andps %xmm4,%xmm0
- .byte 15,85,229 // andnps %xmm5,%xmm4
- .byte 15,86,224 // orps %xmm0,%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,194,193,0 // cmpeqps %xmm1,%xmm0
- .byte 15,84,216 // andps %xmm0,%xmm3
- .byte 15,85,196 // andnps %xmm4,%xmm0
- .byte 15,86,195 // orps %xmm3,%xmm0
- .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
- .byte 15,40,96,32 // movaps 0x20(%eax),%xmm4
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,40,109,216 // movaps -0x28(%ebp),%xmm5
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,83,218 // rcpps %xmm2,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,93,195 // minps %xmm3,%xmm0
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,40,117,200 // movaps -0x38(%ebp),%xmm6
- .byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,194,215,0 // cmpeqps %xmm7,%xmm2
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 15,88,222 // addps %xmm6,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,84,194 // andps %xmm2,%xmm0
- .byte 15,85,211 // andnps %xmm3,%xmm2
- .byte 15,86,208 // orps %xmm0,%xmm2
- .byte 15,88,244 // addps %xmm4,%xmm6
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,194,233,0 // cmpeqps %xmm1,%xmm5
- .byte 15,84,245 // andps %xmm5,%xmm6
- .byte 15,85,234 // andnps %xmm2,%xmm5
- .byte 15,86,238 // orps %xmm6,%xmm5
- .byte 15,40,69,168 // movaps -0x58(%ebp),%xmm0
- .byte 15,40,117,200 // movaps -0x38(%ebp),%xmm6
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,41,117,200 // movaps %xmm6,-0x38(%ebp)
- .byte 15,194,248,0 // cmpeqps %xmm0,%xmm7
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0
- .byte 15,83,219 // rcpps %xmm3,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,93,227 // minps %xmm3,%xmm4
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 15,194,209,0 // cmpeqps %xmm1,%xmm2
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,88,77,200 // addps -0x38(%ebp),%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,84,247 // andps %xmm7,%xmm6
- .byte 15,85,249 // andnps %xmm1,%xmm7
- .byte 15,86,254 // orps %xmm6,%xmm7
- .byte 15,84,218 // andps %xmm2,%xmm3
- .byte 15,85,215 // andnps %xmm7,%xmm2
- .byte 15,86,211 // orps %xmm3,%xmm2
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 15,88,93,184 // addps -0x48(%ebp),%xmm3
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,17 // call *(%ecx)
- .byte 131,196,104 // add $0x68,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_colordodge_sse2
-.globl _sk_colordodge_sse2
-FUNCTION(_sk_colordodge_sse2)
-_sk_colordodge_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,88 // sub $0x58,%esp
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
- .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
- .byte 232,0,0,0,0 // call b16 <_sk_colordodge_sse2+0x16>
- .byte 89 // pop %ecx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
- .byte 15,40,145,74,252,0,0 // movaps 0xfc4a(%ecx),%xmm2
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,83,219 // rcpps %xmm3,%xmm3
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,40,104,64 // movaps 0x40(%eax),%xmm5
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,93,203 // minps %xmm3,%xmm1
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,41,101,200 // movaps %xmm4,-0x38(%ebp)
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,194,230,0 // cmpeqps %xmm6,%xmm4
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,84,196 // andps %xmm4,%xmm0
- .byte 15,85,225 // andnps %xmm1,%xmm4
- .byte 15,86,224 // orps %xmm0,%xmm4
- .byte 15,88,231 // addps %xmm7,%xmm4
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,40,125,216 // movaps -0x28(%ebp),%xmm7
- .byte 15,194,248,0 // cmpeqps %xmm0,%xmm7
- .byte 15,84,223 // andps %xmm7,%xmm3
- .byte 15,85,252 // andnps %xmm4,%xmm7
- .byte 15,86,251 // orps %xmm3,%xmm7
- .byte 15,41,125,216 // movaps %xmm7,-0x28(%ebp)
- .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,89,248 // mulps %xmm0,%xmm7
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,83,228 // rcpps %xmm4,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,93,204 // minps %xmm4,%xmm1
- .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
- .byte 15,89,226 // mulps %xmm2,%xmm4
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,194,198,0 // cmpeqps %xmm6,%xmm0
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,84,208 // andps %xmm0,%xmm2
- .byte 15,85,193 // andnps %xmm1,%xmm0
- .byte 15,86,194 // orps %xmm2,%xmm0
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,194,217,0 // cmpeqps %xmm1,%xmm3
- .byte 15,84,227 // andps %xmm3,%xmm4
- .byte 15,85,216 // andnps %xmm0,%xmm3
- .byte 15,86,220 // orps %xmm4,%xmm3
- .byte 15,40,64,48 // movaps 0x30(%eax),%xmm0
- .byte 15,194,200,0 // cmpeqps %xmm0,%xmm1
- .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
- .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,40,125,168 // movaps -0x58(%ebp),%xmm7
- .byte 15,92,231 // subps %xmm7,%xmm4
- .byte 15,83,228 // rcpps %xmm4,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,93,236 // minps %xmm4,%xmm5
- .byte 15,40,231 // movaps %xmm7,%xmm4
- .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,194,198,0 // cmpeqps %xmm6,%xmm0
- .byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,88,239 // addps %xmm7,%xmm5
- .byte 15,84,224 // andps %xmm0,%xmm4
- .byte 15,85,197 // andnps %xmm5,%xmm0
- .byte 15,86,196 // orps %xmm4,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
- .byte 15,84,250 // andps %xmm2,%xmm7
- .byte 15,85,208 // andnps %xmm0,%xmm2
- .byte 15,86,215 // orps %xmm7,%xmm2
- .byte 15,88,241 // addps %xmm1,%xmm6
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,17 // call *(%ecx)
- .byte 131,196,104 // add $0x68,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_hardlight_sse2
-.globl _sk_hardlight_sse2
-FUNCTION(_sk_hardlight_sse2)
-_sk_hardlight_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,88 // sub $0x58,%esp
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,41,85,168 // movaps %xmm2,-0x58(%ebp)
- .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
- .byte 232,0,0,0,0 // call c77 <_sk_hardlight_sse2+0x16>
- .byte 89 // pop %ecx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
- .byte 15,40,145,233,250,0,0 // movaps 0xfae9(%ecx),%xmm2
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,89,248 // mulps %xmm0,%xmm7
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,40,88,16 // movaps 0x10(%eax),%xmm3
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,92,251 // subps %xmm3,%xmm7
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,41,125,184 // movaps %xmm7,-0x48(%ebp)
- .byte 15,88,228 // addps %xmm4,%xmm4
- .byte 15,92,252 // subps %xmm4,%xmm7
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,88,228 // addps %xmm4,%xmm4
- .byte 15,194,230,2 // cmpleps %xmm6,%xmm4
- .byte 15,88,219 // addps %xmm3,%xmm3
- .byte 15,84,220 // andps %xmm4,%xmm3
- .byte 15,85,231 // andnps %xmm7,%xmm4
- .byte 15,86,227 // orps %xmm3,%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,40,88,32 // movaps 0x20(%eax),%xmm3
- .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,92,250 // subps %xmm2,%xmm7
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 15,88,255 // addps %xmm7,%xmm7
- .byte 15,40,85,184 // movaps -0x48(%ebp),%xmm2
- .byte 15,92,215 // subps %xmm7,%xmm2
- .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,194,206,2 // cmpleps %xmm6,%xmm1
- .byte 15,88,219 // addps %xmm3,%xmm3
- .byte 15,84,217 // andps %xmm1,%xmm3
- .byte 15,85,202 // andnps %xmm2,%xmm1
- .byte 15,86,203 // orps %xmm3,%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,40,125,168 // movaps -0x58(%ebp),%xmm7
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
- .byte 15,40,239 // movaps %xmm7,%xmm5
- .byte 15,88,237 // addps %xmm5,%xmm5
- .byte 15,194,238,2 // cmpleps %xmm6,%xmm5
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,88,222 // addps %xmm6,%xmm3
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,88,246 // addps %xmm6,%xmm6
- .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7
- .byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 15,84,213 // andps %xmm5,%xmm2
- .byte 15,85,239 // andnps %xmm7,%xmm5
- .byte 15,86,234 // orps %xmm2,%xmm5
- .byte 15,88,109,232 // addps -0x18(%ebp),%xmm5
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,17 // call *(%ecx)
- .byte 131,196,104 // add $0x68,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_overlay_sse2
-.globl _sk_overlay_sse2
-FUNCTION(_sk_overlay_sse2)
-_sk_overlay_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,104 // sub $0x68,%esp
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
- .byte 15,41,77,168 // movaps %xmm1,-0x58(%ebp)
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 232,0,0,0,0 // call dc2 <_sk_overlay_sse2+0x1a>
- .byte 89 // pop %ecx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
- .byte 15,40,161,158,249,0,0 // movaps 0xf99e(%ecx),%xmm4
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 15,92,242 // subps %xmm2,%xmm6
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,41,101,200 // movaps %xmm4,-0x38(%ebp)
- .byte 15,40,64,16 // movaps 0x10(%eax),%xmm0
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,41,109,184 // movaps %xmm5,-0x48(%ebp)
- .byte 15,88,228 // addps %xmm4,%xmm4
- .byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,194,202,2 // cmpleps %xmm2,%xmm1
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,84,193 // andps %xmm1,%xmm0
- .byte 15,85,205 // andnps %xmm5,%xmm1
- .byte 15,86,200 // orps %xmm0,%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,40,69,168 // movaps -0x58(%ebp),%xmm0
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,40,88,32 // movaps 0x20(%eax),%xmm3
- .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
- .byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 15,88,255 // addps %xmm7,%xmm7
- .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
- .byte 15,92,207 // subps %xmm7,%xmm1
- .byte 15,88,237 // addps %xmm5,%xmm5
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,194,239,2 // cmpleps %xmm7,%xmm5
- .byte 15,88,219 // addps %xmm3,%xmm3
- .byte 15,84,221 // andps %xmm5,%xmm3
- .byte 15,85,233 // andnps %xmm1,%xmm5
- .byte 15,86,235 // orps %xmm3,%xmm5
- .byte 15,88,236 // addps %xmm4,%xmm5
- .byte 15,40,93,152 // movaps -0x68(%ebp),%xmm3
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,72,48 // movaps 0x30(%eax),%xmm1
- .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,88,246 // addps %xmm6,%xmm6
- .byte 15,194,247,2 // cmpleps %xmm7,%xmm6
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,92,249 // subps %xmm1,%xmm7
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 15,88,227 // addps %xmm3,%xmm4
- .byte 15,92,223 // subps %xmm7,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,219 // addps %xmm3,%xmm3
- .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7
- .byte 15,92,251 // subps %xmm3,%xmm7
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,84,206 // andps %xmm6,%xmm1
- .byte 15,85,247 // andnps %xmm7,%xmm6
- .byte 15,86,241 // orps %xmm1,%xmm6
- .byte 15,88,242 // addps %xmm2,%xmm6
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,17 // call *(%ecx)
- .byte 131,196,120 // add $0x78,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_softlight_sse2
-.globl _sk_softlight_sse2
-FUNCTION(_sk_softlight_sse2)
-_sk_softlight_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 129,236,184,0,0,0 // sub $0xb8,%esp
- .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
- .byte 15,41,149,88,255,255,255 // movaps %xmm2,-0xa8(%ebp)
- .byte 15,41,77,136 // movaps %xmm1,-0x78(%ebp)
- .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,88,64 // movaps 0x40(%eax),%xmm3
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,194,195,1 // cmpltps %xmm3,%xmm0
- .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
- .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 15,94,211 // divps %xmm3,%xmm2
- .byte 15,84,208 // andps %xmm0,%xmm2
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,89,246 // mulps %xmm6,%xmm6
- .byte 15,88,241 // addps %xmm1,%xmm6
- .byte 232,0,0,0,0 // call f52 <_sk_softlight_sse2+0x52>
- .byte 89 // pop %ecx
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,137,126,248,0,0 // movaps 0xf87e(%ecx),%xmm1
- .byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,185,14,248,0,0 // movaps 0xf80e(%ecx),%xmm7
- .byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
- .byte 15,92,250 // subps %xmm2,%xmm7
- .byte 15,82,242 // rsqrtps %xmm2,%xmm6
- .byte 15,83,206 // rcpps %xmm6,%xmm1
- .byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,40,161,142,248,0,0 // movaps 0xf88e(%ecx),%xmm4
- .byte 15,41,101,152 // movaps %xmm4,-0x68(%ebp)
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
- .byte 15,194,198,2 // cmpleps %xmm6,%xmm0
- .byte 15,84,208 // andps %xmm0,%xmm2
- .byte 15,85,193 // andnps %xmm1,%xmm0
- .byte 15,86,194 // orps %xmm2,%xmm0
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 15,88,251 // addps %xmm3,%xmm7
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
- .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,245 // addps %xmm5,%xmm6
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,194,211,2 // cmpleps %xmm3,%xmm2
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,84,250 // andps %xmm2,%xmm7
- .byte 15,85,208 // andnps %xmm0,%xmm2
- .byte 15,86,215 // orps %xmm7,%xmm2
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,41,149,72,255,255,255 // movaps %xmm2,-0xb8(%ebp)
- .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,94,101,184 // divps -0x48(%ebp),%xmm4
- .byte 15,84,101,200 // andps -0x38(%ebp),%xmm4
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,88,201 // addps %xmm1,%xmm1
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,89,219 // mulps %xmm3,%xmm3
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,88,141,104,255,255,255 // addps -0x98(%ebp),%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
- .byte 15,92,252 // subps %xmm4,%xmm7
- .byte 15,82,220 // rsqrtps %xmm4,%xmm3
- .byte 15,83,235 // rcpps %xmm3,%xmm5
- .byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,89,101,152 // mulps -0x68(%ebp),%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,40,93,136 // movaps -0x78(%ebp),%xmm3
- .byte 15,88,219 // addps %xmm3,%xmm3
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 15,88,254 // addps %xmm6,%xmm7
- .byte 15,89,248 // mulps %xmm0,%xmm7
- .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,194,69,184,2 // cmpleps -0x48(%ebp),%xmm0
- .byte 15,84,224 // andps %xmm0,%xmm4
- .byte 15,85,197 // andnps %xmm5,%xmm0
- .byte 15,86,196 // orps %xmm4,%xmm0
- .byte 15,40,101,184 // movaps -0x48(%ebp),%xmm4
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,40,77,136 // movaps -0x78(%ebp),%xmm1
- .byte 15,89,141,120,255,255,255 // mulps -0x88(%ebp),%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,194,221,2 // cmpleps %xmm5,%xmm3
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,84,251 // andps %xmm3,%xmm7
- .byte 15,85,216 // andnps %xmm0,%xmm3
- .byte 15,86,223 // orps %xmm7,%xmm3
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 15,40,64,48 // movaps 0x30(%eax),%xmm0
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,94,252 // divps %xmm4,%xmm7
- .byte 15,84,125,200 // andps -0x38(%ebp),%xmm7
- .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
- .byte 15,92,207 // subps %xmm7,%xmm1
- .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
- .byte 15,40,173,104,255,255,255 // movaps -0x98(%ebp),%xmm5
- .byte 15,88,239 // addps %xmm7,%xmm5
- .byte 15,40,101,152 // movaps -0x68(%ebp),%xmm4
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,82,207 // rsqrtps %xmm7,%xmm1
- .byte 15,83,201 // rcpps %xmm1,%xmm1
- .byte 15,92,207 // subps %xmm7,%xmm1
- .byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
- .byte 15,88,255 // addps %xmm7,%xmm7
- .byte 15,88,255 // addps %xmm7,%xmm7
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,89,210 // mulps %xmm2,%xmm2
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,40,173,88,255,255,255 // movaps -0xa8(%ebp),%xmm5
- .byte 15,88,237 // addps %xmm5,%xmm5
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4
- .byte 15,89,226 // mulps %xmm2,%xmm4
- .byte 15,88,230 // addps %xmm6,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
- .byte 15,40,101,216 // movaps -0x28(%ebp),%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7
- .byte 15,194,199,2 // cmpleps %xmm7,%xmm0
- .byte 15,84,200 // andps %xmm0,%xmm1
- .byte 15,85,69,200 // andnps -0x38(%ebp),%xmm0
- .byte 15,86,193 // orps %xmm1,%xmm0
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2
- .byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,141,88,255,255,255 // movaps -0xa8(%ebp),%xmm1
- .byte 15,89,141,120,255,255,255 // mulps -0x88(%ebp),%xmm1
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,194,234,2 // cmpleps %xmm2,%xmm5
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
- .byte 15,84,213 // andps %xmm5,%xmm2
- .byte 15,85,232 // andnps %xmm0,%xmm5
- .byte 15,86,234 // orps %xmm2,%xmm5
- .byte 15,88,233 // addps %xmm1,%xmm5
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,133,72,255,255,255 // movaps -0xb8(%ebp),%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,17 // call *(%ecx)
- .byte 129,196,200,0,0,0 // add $0xc8,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_hue_sse2
-.globl _sk_hue_sse2
-FUNCTION(_sk_hue_sse2)
-_sk_hue_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 129,236,184,0,0,0 // sub $0xb8,%esp
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
- .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0
- .byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp)
- .byte 15,40,88,48 // movaps 0x30(%eax),%xmm3
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,95,211 // maxps %xmm3,%xmm2
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,41,77,152 // movaps %xmm1,-0x68(%ebp)
- .byte 15,95,226 // maxps %xmm2,%xmm4
- .byte 15,93,195 // minps %xmm3,%xmm0
- .byte 15,93,200 // minps %xmm0,%xmm1
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,41,101,168 // movaps %xmm4,-0x58(%ebp)
- .byte 232,0,0,0,0 // call 1213 <_sk_hue_sse2+0x4f>
- .byte 89 // pop %ecx
- .byte 15,40,221 // movaps %xmm5,%xmm3
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,40,72,64 // movaps 0x40(%eax),%xmm1
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,40,169,77,245,0,0 // movaps 0xf54d(%ecx),%xmm5
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,41,181,104,255,255,255 // movaps %xmm6,-0x98(%ebp)
- .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,41,173,88,255,255,255 // movaps %xmm5,-0xa8(%ebp)
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,93,200 // minps %xmm0,%xmm1
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,93,249 // minps %xmm1,%xmm7
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,95,225 // maxps %xmm1,%xmm4
- .byte 15,92,231 // subps %xmm7,%xmm4
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,153,221,245,0,0 // movaps 0xf5dd(%ecx),%xmm3
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,153,237,245,0,0 // movaps 0xf5ed(%ecx),%xmm3
- .byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,40,137,77,245,0,0 // movaps 0xf54d(%ecx),%xmm1
- .byte 15,92,77,184 // subps -0x48(%ebp),%xmm1
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,41,109,136 // movaps %xmm5,-0x78(%ebp)
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,41,117,168 // movaps %xmm6,-0x58(%ebp)
- .byte 15,40,169,253,245,0,0 // movaps 0xf5fd(%ecx),%xmm5
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,94,212 // divps %xmm4,%xmm2
- .byte 15,40,181,120,255,255,255 // movaps -0x88(%ebp),%xmm6
- .byte 15,94,244 // divps %xmm4,%xmm6
- .byte 15,94,196 // divps %xmm4,%xmm0
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,194,231,4 // cmpneqps %xmm7,%xmm4
- .byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,84,244 // andps %xmm4,%xmm6
- .byte 15,84,224 // andps %xmm0,%xmm4
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,89,69,232 // mulps -0x18(%ebp),%xmm0
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,89,77,184 // mulps -0x48(%ebp),%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,88,241 // addps %xmm1,%xmm6
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,93,193 // minps %xmm1,%xmm0
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,93,224 // minps %xmm0,%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,95,193 // maxps %xmm1,%xmm0
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,95,248 // maxps %xmm0,%xmm7
- .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,88,235 // addps %xmm3,%xmm5
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,194,196,2 // cmpleps %xmm4,%xmm0
- .byte 15,40,221 // movaps %xmm5,%xmm3
- .byte 15,92,220 // subps %xmm4,%xmm3
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,94,227 // divps %xmm3,%xmm4
- .byte 15,88,229 // addps %xmm5,%xmm4
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 15,85,220 // andnps %xmm4,%xmm3
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,84,224 // andps %xmm0,%xmm4
- .byte 15,86,227 // orps %xmm3,%xmm4
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,88,93,216 // addps -0x28(%ebp),%xmm3
- .byte 15,92,218 // subps %xmm2,%xmm3
- .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,194,215,1 // cmpltps %xmm7,%xmm2
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,85,220 // andnps %xmm4,%xmm3
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 15,92,221 // subps %xmm5,%xmm3
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,92,253 // subps %xmm5,%xmm7
- .byte 15,94,231 // divps %xmm7,%xmm4
- .byte 15,88,229 // addps %xmm5,%xmm4
- .byte 15,84,226 // andps %xmm2,%xmm4
- .byte 15,86,101,200 // orps -0x38(%ebp),%xmm4
- .byte 15,41,101,200 // movaps %xmm4,-0x38(%ebp)
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,92,221 // subps %xmm5,%xmm3
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 15,94,93,232 // divps -0x18(%ebp),%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,85,227 // andnps %xmm3,%xmm4
- .byte 15,84,240 // andps %xmm0,%xmm6
- .byte 15,86,244 // orps %xmm4,%xmm6
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,85,220 // andnps %xmm4,%xmm3
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,94,231 // divps %xmm7,%xmm4
- .byte 15,88,229 // addps %xmm5,%xmm4
- .byte 15,84,226 // andps %xmm2,%xmm4
- .byte 15,86,227 // orps %xmm3,%xmm4
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,92,221 // subps %xmm5,%xmm3
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 15,94,93,232 // divps -0x18(%ebp),%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,84,200 // andps %xmm0,%xmm1
- .byte 15,85,195 // andnps %xmm3,%xmm0
- .byte 15,86,193 // orps %xmm1,%xmm0
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,85,200 // andnps %xmm0,%xmm1
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,94,199 // divps %xmm7,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,84,194 // andps %xmm2,%xmm0
- .byte 15,86,193 // orps %xmm1,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,95,209 // maxps %xmm1,%xmm2
- .byte 15,95,225 // maxps %xmm1,%xmm4
- .byte 15,95,193 // maxps %xmm1,%xmm0
- .byte 15,40,157,72,255,255,255 // movaps -0xb8(%ebp),%xmm3
- .byte 15,88,93,152 // addps -0x68(%ebp),%xmm3
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,40,141,104,255,255,255 // movaps -0x98(%ebp),%xmm1
- .byte 15,88,77,136 // addps -0x78(%ebp),%xmm1
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2
- .byte 15,88,149,88,255,255,255 // addps -0xa8(%ebp),%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,17 // call *(%ecx)
- .byte 129,196,200,0,0,0 // add $0xc8,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_saturation_sse2
-.globl _sk_saturation_sse2
-FUNCTION(_sk_saturation_sse2)
-_sk_saturation_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 129,236,216,0,0,0 // sub $0xd8,%esp
- .byte 15,41,149,40,255,255,255 // movaps %xmm2,-0xd8(%ebp)
- .byte 15,41,141,56,255,255,255 // movaps %xmm1,-0xc8(%ebp)
- .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,112,16 // movaps 0x10(%eax),%xmm6
- .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,95,226 // maxps %xmm2,%xmm4
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,95,236 // maxps %xmm4,%xmm5
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,93,226 // minps %xmm2,%xmm4
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,93,212 // minps %xmm4,%xmm2
- .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0
- .byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,40,120,48 // movaps 0x30(%eax),%xmm7
- .byte 15,41,125,200 // movaps %xmm7,-0x38(%ebp)
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,93,207 // minps %xmm7,%xmm1
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,93,209 // minps %xmm1,%xmm2
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,95,207 // maxps %xmm7,%xmm1
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,95,225 // maxps %xmm1,%xmm4
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,92,218 // subps %xmm2,%xmm3
- .byte 15,92,250 // subps %xmm2,%xmm7
- .byte 15,40,64,64 // movaps 0x40(%eax),%xmm0
- .byte 15,41,69,152 // movaps %xmm0,-0x68(%ebp)
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,41,77,168 // movaps %xmm1,-0x58(%ebp)
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 232,0,0,0,0 // call 1567 <_sk_saturation_sse2+0xb0>
- .byte 89 // pop %ecx
- .byte 15,40,153,137,242,0,0 // movaps 0xf289(%ecx),%xmm3
- .byte 15,41,157,88,255,255,255 // movaps %xmm3,-0xa8(%ebp)
- .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,153,153,242,0,0 // movaps 0xf299(%ecx),%xmm3
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,129,249,241,0,0 // movaps 0xf1f9(%ecx),%xmm0
- .byte 15,41,133,104,255,255,255 // movaps %xmm0,-0x98(%ebp)
- .byte 15,92,69,216 // subps -0x28(%ebp),%xmm0
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp)
- .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,129,169,242,0,0 // movaps 0xf2a9(%ecx),%xmm0
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
- .byte 15,94,236 // divps %xmm4,%xmm5
- .byte 15,94,212 // divps %xmm4,%xmm2
- .byte 15,94,252 // divps %xmm4,%xmm7
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,194,227,4 // cmpneqps %xmm3,%xmm4
- .byte 15,84,236 // andps %xmm4,%xmm5
- .byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,84,231 // andps %xmm7,%xmm4
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,40,165,88,255,255,255 // movaps -0xa8(%ebp),%xmm4
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,89,125,232 // mulps -0x18(%ebp),%xmm7
- .byte 15,88,254 // addps %xmm6,%xmm7
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,89,77,216 // mulps -0x28(%ebp),%xmm1
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 15,88,233 // addps %xmm1,%xmm5
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,93,217 // minps %xmm1,%xmm3
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,93,251 // minps %xmm3,%xmm7
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,95,217 // maxps %xmm1,%xmm3
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,95,243 // maxps %xmm3,%xmm6
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,88,220 // addps %xmm4,%xmm3
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,194,223,2 // cmpleps %xmm7,%xmm3
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,92,215 // subps %xmm7,%xmm2
- .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,89,248 // mulps %xmm0,%xmm7
- .byte 15,94,250 // divps %xmm2,%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,85,215 // andnps %xmm7,%xmm2
- .byte 15,84,235 // andps %xmm3,%xmm5
- .byte 15,86,234 // orps %xmm2,%xmm5
- .byte 15,40,125,152 // movaps -0x68(%ebp),%xmm7
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,40,101,216 // movaps -0x28(%ebp),%xmm4
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,231 // addps %xmm7,%xmm4
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,194,214,1 // cmpltps %xmm6,%xmm2
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,85,229 // andnps %xmm5,%xmm4
- .byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,92,248 // subps %xmm0,%xmm7
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,92,240 // subps %xmm0,%xmm6
- .byte 15,94,238 // divps %xmm6,%xmm5
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,84,234 // andps %xmm2,%xmm5
- .byte 15,86,236 // orps %xmm4,%xmm5
- .byte 15,41,109,168 // movaps %xmm5,-0x58(%ebp)
- .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,94,101,232 // divps -0x18(%ebp),%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 15,85,236 // andnps %xmm4,%xmm5
- .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
- .byte 15,84,227 // andps %xmm3,%xmm4
- .byte 15,86,229 // orps %xmm5,%xmm4
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,85,236 // andnps %xmm4,%xmm5
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,94,230 // divps %xmm6,%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,84,226 // andps %xmm2,%xmm4
- .byte 15,86,229 // orps %xmm5,%xmm4
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,94,101,232 // divps -0x18(%ebp),%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,84,203 // andps %xmm3,%xmm1
- .byte 15,85,220 // andnps %xmm4,%xmm3
- .byte 15,86,217 // orps %xmm1,%xmm3
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,85,203 // andnps %xmm3,%xmm1
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 15,94,222 // divps %xmm6,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,84,218 // andps %xmm2,%xmm3
- .byte 15,86,217 // orps %xmm1,%xmm3
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1
- .byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,40,165,104,255,255,255 // movaps -0x98(%ebp),%xmm4
- .byte 15,92,101,152 // subps -0x68(%ebp),%xmm4
- .byte 15,40,133,72,255,255,255 // movaps -0xb8(%ebp),%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,69,184 // addps -0x48(%ebp),%xmm0
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 15,40,141,56,255,255,255 // movaps -0xc8(%ebp),%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,77,136 // addps -0x78(%ebp),%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,89,165,40,255,255,255 // mulps -0xd8(%ebp),%xmm4
- .byte 15,40,149,120,255,255,255 // movaps -0x88(%ebp),%xmm2
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,17 // call *(%ecx)
- .byte 129,196,232,0,0,0 // add $0xe8,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_color_sse2
-.globl _sk_color_sse2
-FUNCTION(_sk_color_sse2)
-_sk_color_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 129,236,200,0,0,0 // sub $0xc8,%esp
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,41,173,120,255,255,255 // movaps %xmm5,-0x88(%ebp)
- .byte 232,0,0,0,0 // call 17c2 <_sk_color_sse2+0x2a>
- .byte 89 // pop %ecx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,80,16 // movaps 0x10(%eax),%xmm2
- .byte 15,40,72,32 // movaps 0x20(%eax),%xmm1
- .byte 15,40,177,46,240,0,0 // movaps 0xf02e(%ecx),%xmm6
- .byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,40,153,62,240,0,0 // movaps 0xf03e(%ecx),%xmm3
- .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,40,129,158,239,0,0 // movaps 0xef9e(%ecx),%xmm0
- .byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
- .byte 15,92,69,200 // subps -0x38(%ebp),%xmm0
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,41,149,56,255,255,255 // movaps %xmm2,-0xc8(%ebp)
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,41,141,88,255,255,255 // movaps %xmm1,-0xa8(%ebp)
- .byte 15,40,80,48 // movaps 0x30(%eax),%xmm2
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 15,40,137,78,240,0,0 // movaps 0xf04e(%ecx),%xmm1
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 15,40,88,64 // movaps 0x40(%eax),%xmm3
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,89,109,216 // mulps -0x28(%ebp),%xmm5
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,89,125,184 // mulps -0x48(%ebp),%xmm7
- .byte 15,88,253 // addps %xmm5,%xmm7
- .byte 15,40,109,168 // movaps -0x58(%ebp),%xmm5
- .byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,41,109,168 // movaps %xmm5,-0x58(%ebp)
- .byte 15,40,109,200 // movaps -0x38(%ebp),%xmm5
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
- .byte 15,88,235 // addps %xmm3,%xmm5
- .byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp)
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 15,89,109,152 // mulps -0x68(%ebp),%xmm5
- .byte 15,40,221 // movaps %xmm5,%xmm3
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,88,242 // addps %xmm2,%xmm6
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,93,218 // minps %xmm2,%xmm3
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,93,227 // minps %xmm3,%xmm4
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,95,218 // maxps %xmm2,%xmm3
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,95,235 // maxps %xmm3,%xmm5
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,40,125,184 // movaps -0x48(%ebp),%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,88,251 // addps %xmm3,%xmm7
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,194,252,2 // cmpleps %xmm4,%xmm7
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,92,220 // subps %xmm4,%xmm3
- .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,94,227 // divps %xmm3,%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 15,85,220 // andnps %xmm4,%xmm3
- .byte 15,84,199 // andps %xmm7,%xmm0
- .byte 15,86,195 // orps %xmm3,%xmm0
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4
- .byte 15,92,220 // subps %xmm4,%xmm3
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
- .byte 15,194,229,1 // cmpltps %xmm5,%xmm4
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,85,216 // andnps %xmm0,%xmm3
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 15,92,217 // subps %xmm1,%xmm3
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,41,109,136 // movaps %xmm5,-0x78(%ebp)
- .byte 15,94,197 // divps %xmm5,%xmm0
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 15,84,196 // andps %xmm4,%xmm0
- .byte 15,86,69,232 // orps -0x18(%ebp),%xmm0
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 15,92,217 // subps %xmm1,%xmm3
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,94,93,184 // divps -0x48(%ebp),%xmm3
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
- .byte 15,40,109,232 // movaps -0x18(%ebp),%xmm5
- .byte 15,85,235 // andnps %xmm3,%xmm5
- .byte 15,41,109,232 // movaps %xmm5,-0x18(%ebp)
- .byte 15,84,247 // andps %xmm7,%xmm6
- .byte 15,86,117,232 // orps -0x18(%ebp),%xmm6
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,85,222 // andnps %xmm6,%xmm3
- .byte 15,92,241 // subps %xmm1,%xmm6
- .byte 15,89,117,216 // mulps -0x28(%ebp),%xmm6
- .byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
- .byte 15,94,245 // divps %xmm5,%xmm6
- .byte 15,88,241 // addps %xmm1,%xmm6
- .byte 15,84,244 // andps %xmm4,%xmm6
- .byte 15,86,243 // orps %xmm3,%xmm6
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,92,217 // subps %xmm1,%xmm3
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,94,93,184 // divps -0x48(%ebp),%xmm3
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 15,84,215 // andps %xmm7,%xmm2
- .byte 15,85,251 // andnps %xmm3,%xmm7
- .byte 15,86,250 // orps %xmm2,%xmm7
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,85,215 // andnps %xmm7,%xmm2
- .byte 15,92,249 // subps %xmm1,%xmm7
- .byte 15,89,125,216 // mulps -0x28(%ebp),%xmm7
- .byte 15,94,253 // divps %xmm5,%xmm7
- .byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,84,252 // andps %xmm4,%xmm7
- .byte 15,86,250 // orps %xmm2,%xmm7
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,95,193 // maxps %xmm1,%xmm0
- .byte 15,95,241 // maxps %xmm1,%xmm6
- .byte 15,95,249 // maxps %xmm1,%xmm7
- .byte 15,40,141,120,255,255,255 // movaps -0x88(%ebp),%xmm1
- .byte 15,40,85,168 // movaps -0x58(%ebp),%xmm2
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,88,141,56,255,255,255 // addps -0xc8(%ebp),%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,141,104,255,255,255 // movaps -0x98(%ebp),%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,88,141,88,255,255,255 // addps -0xa8(%ebp),%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,85,152 // movaps -0x68(%ebp),%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,88,149,72,255,255,255 // addps -0xb8(%ebp),%xmm2
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,17 // call *(%ecx)
- .byte 129,196,216,0,0,0 // add $0xd8,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_luminosity_sse2
-.globl _sk_luminosity_sse2
-FUNCTION(_sk_luminosity_sse2)
-_sk_luminosity_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 129,236,184,0,0,0 // sub $0xb8,%esp
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 232,0,0,0,0 // call 1a25 <_sk_luminosity_sse2+0x11>
- .byte 89 // pop %ecx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,161,203,237,0,0 // movaps 0xedcb(%ecx),%xmm4
- .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,40,161,219,237,0,0 // movaps 0xeddb(%ecx),%xmm4
- .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 15,40,80,64 // movaps 0x40(%eax),%xmm2
- .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,40,161,59,237,0,0 // movaps 0xed3b(%ecx),%xmm4
- .byte 15,40,252 // movaps %xmm4,%xmm7
- .byte 15,92,250 // subps %xmm2,%xmm7
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,41,141,88,255,255,255 // movaps %xmm1,-0xa8(%ebp)
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,41,189,104,255,255,255 // movaps %xmm7,-0x98(%ebp)
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,137,235,237,0,0 // movaps 0xedeb(%ecx),%xmm1
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
- .byte 15,41,109,136 // movaps %xmm5,-0x78(%ebp)
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,40,112,32 // movaps 0x20(%eax),%xmm6
- .byte 15,41,117,152 // movaps %xmm6,-0x68(%ebp)
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,89,69,232 // mulps -0x18(%ebp),%xmm0
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,89,125,216 // mulps -0x28(%ebp),%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
- .byte 15,40,69,136 // movaps -0x78(%ebp),%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp)
- .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,41,69,152 // movaps %xmm0,-0x68(%ebp)
- .byte 15,40,64,48 // movaps 0x30(%eax),%xmm0
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,92,208 // subps %xmm0,%xmm2
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 15,88,242 // addps %xmm2,%xmm6
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,93,194 // minps %xmm2,%xmm0
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,93,224 // minps %xmm0,%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,95,194 // maxps %xmm2,%xmm0
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,95,248 // maxps %xmm0,%xmm7
- .byte 15,41,125,200 // movaps %xmm7,-0x38(%ebp)
- .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,125,216 // movaps -0x28(%ebp),%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,194,196,2 // cmpleps %xmm4,%xmm0
- .byte 15,40,249 // movaps %xmm1,%xmm7
- .byte 15,92,252 // subps %xmm4,%xmm7
- .byte 15,41,125,216 // movaps %xmm7,-0x28(%ebp)
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,94,231 // divps %xmm7,%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,85,252 // andnps %xmm4,%xmm7
- .byte 15,84,232 // andps %xmm0,%xmm5
- .byte 15,86,239 // orps %xmm7,%xmm5
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 15,40,231 // movaps %xmm7,%xmm4
- .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 15,92,220 // subps %xmm4,%xmm3
- .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
- .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7
- .byte 15,194,223,1 // cmpltps %xmm7,%xmm3
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,85,229 // andnps %xmm5,%xmm4
- .byte 15,41,101,184 // movaps %xmm4,-0x48(%ebp)
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,101,232 // movaps -0x18(%ebp),%xmm4
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,41,101,232 // movaps %xmm4,-0x18(%ebp)
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,92,249 // subps %xmm1,%xmm7
- .byte 15,41,125,200 // movaps %xmm7,-0x38(%ebp)
- .byte 15,94,239 // divps %xmm7,%xmm5
- .byte 15,88,233 // addps %xmm1,%xmm5
- .byte 15,84,235 // andps %xmm3,%xmm5
- .byte 15,86,109,184 // orps -0x48(%ebp),%xmm5
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,94,101,216 // divps -0x28(%ebp),%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,85,252 // andnps %xmm4,%xmm7
- .byte 15,84,240 // andps %xmm0,%xmm6
- .byte 15,86,247 // orps %xmm7,%xmm6
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,85,230 // andnps %xmm6,%xmm4
- .byte 15,92,241 // subps %xmm1,%xmm6
- .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,94,117,200 // divps -0x38(%ebp),%xmm6
- .byte 15,88,241 // addps %xmm1,%xmm6
- .byte 15,84,243 // andps %xmm3,%xmm6
- .byte 15,86,244 // orps %xmm4,%xmm6
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,94,101,216 // divps -0x28(%ebp),%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,84,208 // andps %xmm0,%xmm2
- .byte 15,85,196 // andnps %xmm4,%xmm0
- .byte 15,86,194 // orps %xmm2,%xmm0
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,85,208 // andnps %xmm0,%xmm2
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,94,69,200 // divps -0x38(%ebp),%xmm0
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 15,84,195 // andps %xmm3,%xmm0
- .byte 15,86,194 // orps %xmm2,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,95,233 // maxps %xmm1,%xmm5
- .byte 15,95,241 // maxps %xmm1,%xmm6
- .byte 15,95,193 // maxps %xmm1,%xmm0
- .byte 15,40,157,72,255,255,255 // movaps -0xb8(%ebp),%xmm3
- .byte 15,88,93,136 // addps -0x78(%ebp),%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,40,141,88,255,255,255 // movaps -0xa8(%ebp),%xmm1
- .byte 15,88,77,152 // addps -0x68(%ebp),%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,149,120,255,255,255 // movaps -0x88(%ebp),%xmm2
- .byte 15,88,149,104,255,255,255 // addps -0x98(%ebp),%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,17 // call *(%ecx)
- .byte 129,196,200,0,0,0 // add $0xc8,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_srcover_rgba_8888_sse2
-.globl _sk_srcover_rgba_8888_sse2
-FUNCTION(_sk_srcover_rgba_8888_sse2)
-_sk_srcover_rgba_8888_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,44 // sub $0x2c,%esp
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 102,15,127,77,216 // movdqa %xmm1,-0x28(%ebp)
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 232,0,0,0,0 // call 1c94 <_sk_srcover_rgba_8888_sse2+0x1b>
- .byte 95 // pop %edi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,81,4 // imul 0x4(%ecx),%edx
- .byte 193,226,2 // shl $0x2,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,49 // mov (%ecx),%esi
- .byte 15,133,2,1,0,0 // jne 1db8 <_sk_srcover_rgba_8888_sse2+0x13f>
- .byte 243,15,111,12,178 // movdqu (%edx,%esi,4),%xmm1
- .byte 102,15,111,135,140,235,0,0 // movdqa 0xeb8c(%edi),%xmm0
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,114,214,8 // psrld $0x8,%xmm6
- .byte 102,15,219,240 // pand %xmm0,%xmm6
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,15,114,215,16 // psrld $0x10,%xmm7
- .byte 102,15,219,248 // pand %xmm0,%xmm7
- .byte 15,91,194 // cvtdq2ps %xmm2,%xmm0
- .byte 15,41,65,16 // movaps %xmm0,0x10(%ecx)
- .byte 15,40,167,204,234,0,0 // movaps 0xeacc(%edi),%xmm4
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,40,151,156,235,0,0 // movaps 0xeb9c(%edi),%xmm2
- .byte 15,89,234 // mulps %xmm2,%xmm5
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 15,40,117,216 // movaps -0x28(%ebp),%xmm6
- .byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 15,91,247 // cvtdq2ps %xmm7,%xmm6
- .byte 15,41,113,48 // movaps %xmm6,0x30(%ecx)
- .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7
- .byte 15,89,250 // mulps %xmm2,%xmm7
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 102,15,114,209,24 // psrld $0x18,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,41,73,64 // movaps %xmm1,0x40(%ecx)
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,88,227 // addps %xmm3,%xmm4
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,95,200 // maxps %xmm0,%xmm1
- .byte 15,93,202 // minps %xmm2,%xmm1
- .byte 102,15,91,201 // cvtps2dq %xmm1,%xmm1
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,95,221 // maxps %xmm5,%xmm3
- .byte 15,93,218 // minps %xmm2,%xmm3
- .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
- .byte 102,15,114,243,8 // pslld $0x8,%xmm3
- .byte 102,15,235,217 // por %xmm1,%xmm3
- .byte 102,15,87,201 // xorpd %xmm1,%xmm1
- .byte 15,95,206 // maxps %xmm6,%xmm1
- .byte 15,93,202 // minps %xmm2,%xmm1
- .byte 15,95,252 // maxps %xmm4,%xmm7
- .byte 15,93,250 // minps %xmm2,%xmm7
- .byte 102,15,91,209 // cvtps2dq %xmm1,%xmm2
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,91,207 // cvtps2dq %xmm7,%xmm1
- .byte 102,15,114,241,24 // pslld $0x18,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,235,203 // por %xmm3,%xmm1
- .byte 133,219 // test %ebx,%ebx
- .byte 117,92 // jne 1df3 <_sk_srcover_rgba_8888_sse2+0x17a>
- .byte 243,15,127,12,178 // movdqu %xmm1,(%edx,%esi,4)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,60 // add $0x3c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,216 // mov %ebx,%eax
- .byte 136,69,243 // mov %al,-0xd(%ebp)
- .byte 128,101,243,3 // andb $0x3,-0xd(%ebp)
- .byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp)
- .byte 116,80 // je 1e17 <_sk_srcover_rgba_8888_sse2+0x19e>
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp)
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 116,21 // je 1de9 <_sk_srcover_rgba_8888_sse2+0x170>
- .byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp)
- .byte 15,133,221,254,255,255 // jne 1cbb <_sk_srcover_rgba_8888_sse2+0x42>
- .byte 102,15,110,68,178,8 // movd 0x8(%edx,%esi,4),%xmm0
- .byte 102,15,112,200,69 // pshufd $0x45,%xmm0,%xmm1
- .byte 102,15,18,12,178 // movlpd (%edx,%esi,4),%xmm1
- .byte 233,200,254,255,255 // jmp 1cbb <_sk_srcover_rgba_8888_sse2+0x42>
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,41 // je 1e24 <_sk_srcover_rgba_8888_sse2+0x1ab>
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 1e10 <_sk_srcover_rgba_8888_sse2+0x197>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,151 // jne 1d9c <_sk_srcover_rgba_8888_sse2+0x123>
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,15,126,84,178,8 // movd %xmm2,0x8(%edx,%esi,4)
- .byte 102,15,214,12,178 // movq %xmm1,(%edx,%esi,4)
- .byte 235,133 // jmp 1d9c <_sk_srcover_rgba_8888_sse2+0x123>
- .byte 102,15,110,12,178 // movd (%edx,%esi,4),%xmm1
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 233,151,254,255,255 // jmp 1cbb <_sk_srcover_rgba_8888_sse2+0x42>
- .byte 102,15,126,12,178 // movd %xmm1,(%edx,%esi,4)
- .byte 233,110,255,255,255 // jmp 1d9c <_sk_srcover_rgba_8888_sse2+0x123>
-
-HIDDEN _sk_srcover_bgra_8888_sse2
-.globl _sk_srcover_bgra_8888_sse2
-FUNCTION(_sk_srcover_bgra_8888_sse2)
-_sk_srcover_bgra_8888_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,44 // sub $0x2c,%esp
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 232,0,0,0,0 // call 1e48 <_sk_srcover_bgra_8888_sse2+0x1a>
- .byte 95 // pop %edi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,48 // mov (%eax),%esi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,81,4 // imul 0x4(%ecx),%edx
- .byte 193,226,2 // shl $0x2,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,49 // mov (%ecx),%esi
- .byte 15,133,252,0,0,0 // jne 1f66 <_sk_srcover_bgra_8888_sse2+0x138>
- .byte 243,15,111,36,178 // movdqu (%edx,%esi,4),%xmm4
- .byte 102,15,111,135,216,233,0,0 // movdqa 0xe9d8(%edi),%xmm0
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,114,213,8 // psrld $0x8,%xmm5
- .byte 102,15,219,232 // pand %xmm0,%xmm5
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,114,214,16 // psrld $0x10,%xmm6
- .byte 102,15,219,240 // pand %xmm0,%xmm6
- .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,41,81,48 // movaps %xmm2,0x30(%ecx)
- .byte 15,91,205 // cvtdq2ps %xmm5,%xmm1
- .byte 15,41,73,32 // movaps %xmm1,0x20(%ecx)
- .byte 15,91,198 // cvtdq2ps %xmm6,%xmm0
- .byte 15,41,65,16 // movaps %xmm0,0x10(%ecx)
- .byte 15,40,175,24,233,0,0 // movaps 0xe918(%edi),%xmm5
- .byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,40,183,232,233,0,0 // movaps 0xe9e8(%edi),%xmm6
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,125,216 // movaps -0x28(%ebp),%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 102,15,114,212,24 // psrld $0x18,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,235 // addps %xmm3,%xmm5
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,95,218 // maxps %xmm2,%xmm3
- .byte 15,93,222 // minps %xmm6,%xmm3
- .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,225 // maxps %xmm1,%xmm4
- .byte 15,93,230 // minps %xmm6,%xmm4
- .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
- .byte 102,15,114,244,8 // pslld $0x8,%xmm4
- .byte 102,15,235,227 // por %xmm3,%xmm4
- .byte 102,15,87,219 // xorpd %xmm3,%xmm3
- .byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,93,222 // minps %xmm6,%xmm3
- .byte 15,95,253 // maxps %xmm5,%xmm7
- .byte 15,93,254 // minps %xmm6,%xmm7
- .byte 102,15,91,243 // cvtps2dq %xmm3,%xmm6
- .byte 102,15,114,246,16 // pslld $0x10,%xmm6
- .byte 102,15,91,223 // cvtps2dq %xmm7,%xmm3
- .byte 102,15,114,243,24 // pslld $0x18,%xmm3
- .byte 102,15,235,222 // por %xmm6,%xmm3
- .byte 102,15,235,220 // por %xmm4,%xmm3
- .byte 133,219 // test %ebx,%ebx
- .byte 117,86 // jne 1fa1 <_sk_srcover_bgra_8888_sse2+0x173>
- .byte 243,15,127,28,178 // movdqu %xmm3,(%edx,%esi,4)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,221 // movaps %xmm5,%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,60 // add $0x3c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 137,216 // mov %ebx,%eax
- .byte 136,69,243 // mov %al,-0xd(%ebp)
- .byte 128,101,243,3 // andb $0x3,-0xd(%ebp)
- .byte 128,125,243,1 // cmpb $0x1,-0xd(%ebp)
- .byte 116,80 // je 1fc5 <_sk_srcover_bgra_8888_sse2+0x197>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,125,243,2 // cmpb $0x2,-0xd(%ebp)
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 116,21 // je 1f97 <_sk_srcover_bgra_8888_sse2+0x169>
- .byte 128,125,243,3 // cmpb $0x3,-0xd(%ebp)
- .byte 15,133,227,254,255,255 // jne 1e6f <_sk_srcover_bgra_8888_sse2+0x41>
- .byte 102,15,110,68,178,8 // movd 0x8(%edx,%esi,4),%xmm0
- .byte 102,15,112,224,69 // pshufd $0x45,%xmm0,%xmm4
- .byte 102,15,18,36,178 // movlpd (%edx,%esi,4),%xmm4
- .byte 233,206,254,255,255 // jmp 1e6f <_sk_srcover_bgra_8888_sse2+0x41>
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,41 // je 1fd2 <_sk_srcover_bgra_8888_sse2+0x1a4>
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 1fbe <_sk_srcover_bgra_8888_sse2+0x190>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,157 // jne 1f50 <_sk_srcover_bgra_8888_sse2+0x122>
- .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
- .byte 102,15,126,100,178,8 // movd %xmm4,0x8(%edx,%esi,4)
- .byte 102,15,214,28,178 // movq %xmm3,(%edx,%esi,4)
- .byte 235,139 // jmp 1f50 <_sk_srcover_bgra_8888_sse2+0x122>
- .byte 102,15,110,36,178 // movd (%edx,%esi,4),%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 233,157,254,255,255 // jmp 1e6f <_sk_srcover_bgra_8888_sse2+0x41>
- .byte 102,15,126,28,178 // movd %xmm3,(%edx,%esi,4)
- .byte 233,116,255,255,255 // jmp 1f50 <_sk_srcover_bgra_8888_sse2+0x122>
-
-HIDDEN _sk_clamp_0_sse2
-.globl _sk_clamp_0_sse2
-FUNCTION(_sk_clamp_0_sse2)
-_sk_clamp_0_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,196 // maxps %xmm4,%xmm0
- .byte 15,95,204 // maxps %xmm4,%xmm1
- .byte 15,95,212 // maxps %xmm4,%xmm2
- .byte 15,95,220 // maxps %xmm4,%xmm3
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_clamp_1_sse2
-.globl _sk_clamp_1_sse2
-FUNCTION(_sk_clamp_1_sse2)
-_sk_clamp_1_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 2010 <_sk_clamp_1_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,80,231,0,0 // movaps 0xe750(%eax),%xmm4
- .byte 15,93,196 // minps %xmm4,%xmm0
- .byte 15,93,204 // minps %xmm4,%xmm1
- .byte 15,93,212 // minps %xmm4,%xmm2
- .byte 15,93,220 // minps %xmm4,%xmm3
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_clamp_a_sse2
-.globl _sk_clamp_a_sse2
-FUNCTION(_sk_clamp_a_sse2)
-_sk_clamp_a_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 2043 <_sk_clamp_a_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,93,152,29,231,0,0 // minps 0xe71d(%eax),%xmm3
- .byte 15,93,195 // minps %xmm3,%xmm0
- .byte 15,93,203 // minps %xmm3,%xmm1
- .byte 15,93,211 // minps %xmm3,%xmm2
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_clamp_a_dst_sse2
-.globl _sk_clamp_a_dst_sse2
-FUNCTION(_sk_clamp_a_dst_sse2)
-_sk_clamp_a_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 2073 <_sk_clamp_a_dst_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,98,64 // movaps 0x40(%edx),%xmm4
- .byte 15,93,160,237,230,0,0 // minps 0xe6ed(%eax),%xmm4
- .byte 15,41,98,64 // movaps %xmm4,0x40(%edx)
- .byte 15,40,106,16 // movaps 0x10(%edx),%xmm5
- .byte 15,40,114,32 // movaps 0x20(%edx),%xmm6
- .byte 15,93,236 // minps %xmm4,%xmm5
- .byte 15,41,106,16 // movaps %xmm5,0x10(%edx)
- .byte 15,93,244 // minps %xmm4,%xmm6
- .byte 15,41,114,32 // movaps %xmm6,0x20(%edx)
- .byte 15,40,106,48 // movaps 0x30(%edx),%xmm5
- .byte 15,93,236 // minps %xmm4,%xmm5
- .byte 15,41,106,48 // movaps %xmm5,0x30(%edx)
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 82 // push %edx
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_set_rgb_sse2
-.globl _sk_set_rgb_sse2
-FUNCTION(_sk_set_rgb_sse2)
-_sk_set_rgb_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,1 // movss (%ecx),%xmm0
- .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_swap_rb_sse2
-.globl _sk_swap_rb_sse2
-FUNCTION(_sk_swap_rb_sse2)
-_sk_swap_rb_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_invert_sse2
-.globl _sk_invert_sse2
-FUNCTION(_sk_invert_sse2)
-_sk_invert_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 211e <_sk_invert_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,66,230,0,0 // movaps 0xe642(%eax),%xmm4
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 15,92,241 // subps %xmm1,%xmm6
- .byte 15,40,252 // movaps %xmm4,%xmm7
- .byte 15,92,250 // subps %xmm2,%xmm7
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_move_src_dst_sse2
-.globl _sk_move_src_dst_sse2
-FUNCTION(_sk_move_src_dst_sse2)
-_sk_move_src_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 15,41,65,16 // movaps %xmm0,0x10(%ecx)
- .byte 15,41,73,32 // movaps %xmm1,0x20(%ecx)
- .byte 15,41,81,48 // movaps %xmm2,0x30(%ecx)
- .byte 15,41,89,64 // movaps %xmm3,0x40(%ecx)
- .byte 141,80,4 // lea 0x4(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_move_dst_src_sse2
-.globl _sk_move_dst_src_sse2
-FUNCTION(_sk_move_dst_src_sse2)
-_sk_move_dst_src_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 15,40,65,16 // movaps 0x10(%ecx),%xmm0
- .byte 15,40,73,32 // movaps 0x20(%ecx),%xmm1
- .byte 15,40,81,48 // movaps 0x30(%ecx),%xmm2
- .byte 15,40,89,64 // movaps 0x40(%ecx),%xmm3
- .byte 141,80,4 // lea 0x4(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_premul_sse2
-.globl _sk_premul_sse2
-FUNCTION(_sk_premul_sse2)
-_sk_premul_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_premul_dst_sse2
-.globl _sk_premul_dst_sse2
-FUNCTION(_sk_premul_dst_sse2)
-_sk_premul_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 15,40,97,64 // movaps 0x40(%ecx),%xmm4
- .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 15,40,105,32 // movaps 0x20(%ecx),%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 15,89,97,48 // mulps 0x30(%ecx),%xmm4
- .byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
- .byte 141,80,4 // lea 0x4(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_unpremul_sse2
-.globl _sk_unpremul_sse2
-FUNCTION(_sk_unpremul_sse2)
-_sk_unpremul_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 221c <_sk_unpremul_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,68,229,0,0 // movaps 0xe544(%eax),%xmm4
- .byte 15,94,227 // divps %xmm3,%xmm4
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,194,168,36,230,0,0,1 // cmpltps 0xe624(%eax),%xmm5
- .byte 15,84,236 // andps %xmm4,%xmm5
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_force_opaque_sse2
-.globl _sk_force_opaque_sse2
-FUNCTION(_sk_force_opaque_sse2)
-_sk_force_opaque_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 225d <_sk_force_opaque_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,152,3,229,0,0 // movaps 0xe503(%eax),%xmm3
- .byte 82 // push %edx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_force_opaque_dst_sse2
-.globl _sk_force_opaque_dst_sse2
-FUNCTION(_sk_force_opaque_dst_sse2)
-_sk_force_opaque_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 2284 <_sk_force_opaque_dst_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,40,160,220,228,0,0 // movaps 0xe4dc(%eax),%xmm4
- .byte 15,41,98,64 // movaps %xmm4,0x40(%edx)
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 82 // push %edx
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_from_srgb_sse2
-.globl _sk_from_srgb_sse2
-FUNCTION(_sk_from_srgb_sse2)
-_sk_from_srgb_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,56 // sub $0x38,%esp
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 22bd <_sk_from_srgb_sse2+0x18>
- .byte 88 // pop %eax
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,40,160,51,229,0,0 // movaps 0xe533(%eax),%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,176,163,229,0,0 // movaps 0xe5a3(%eax),%xmm6
- .byte 15,41,117,216 // movaps %xmm6,-0x28(%ebp)
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,176,147,229,0,0 // movaps 0xe593(%eax),%xmm6
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,184,179,229,0,0 // movaps 0xe5b3(%eax),%xmm7
- .byte 15,41,125,232 // movaps %xmm7,-0x18(%ebp)
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,184,195,229,0,0 // movaps 0xe5c3(%eax),%xmm7
- .byte 15,194,215,1 // cmpltps %xmm7,%xmm2
- .byte 15,84,202 // andps %xmm2,%xmm1
- .byte 15,85,208 // andnps %xmm0,%xmm2
- .byte 15,86,209 // orps %xmm1,%xmm2
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,77,216 // addps -0x28(%ebp),%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,88,77,232 // addps -0x18(%ebp),%xmm1
- .byte 15,194,223,1 // cmpltps %xmm7,%xmm3
- .byte 15,84,195 // andps %xmm3,%xmm0
- .byte 15,85,217 // andnps %xmm1,%xmm3
- .byte 15,86,216 // orps %xmm0,%xmm3
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,101,216 // addps -0x28(%ebp),%xmm4
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,88,101,232 // addps -0x18(%ebp),%xmm4
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,245 // andps %xmm5,%xmm6
- .byte 15,85,236 // andnps %xmm4,%xmm5
- .byte 15,86,238 // orps %xmm6,%xmm5
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,40,213 // movaps %xmm5,%xmm2
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,72 // add $0x48,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_from_srgb_dst_sse2
-.globl _sk_from_srgb_dst_sse2
-FUNCTION(_sk_from_srgb_dst_sse2)
-_sk_from_srgb_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,72 // sub $0x48,%esp
- .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
- .byte 232,0,0,0,0 // call 2398 <_sk_from_srgb_dst_sse2+0x1b>
- .byte 89 // pop %ecx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,40,161,88,228,0,0 // movaps 0xe458(%ecx),%xmm4
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,40,177,200,228,0,0 // movaps 0xe4c8(%ecx),%xmm6
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,169,184,228,0,0 // movaps 0xe4b8(%ecx),%xmm5
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,185,216,228,0,0 // movaps 0xe4d8(%ecx),%xmm7
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,40,153,232,228,0,0 // movaps 0xe4e8(%ecx),%xmm3
- .byte 15,194,203,1 // cmpltps %xmm3,%xmm1
- .byte 15,84,209 // andps %xmm1,%xmm2
- .byte 15,85,200 // andnps %xmm0,%xmm1
- .byte 15,86,202 // orps %xmm2,%xmm1
- .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0
- .byte 15,41,72,16 // movaps %xmm1,0x10(%eax)
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,194,195,1 // cmpltps %xmm3,%xmm0
- .byte 15,84,200 // andps %xmm0,%xmm1
- .byte 15,85,194 // andnps %xmm2,%xmm0
- .byte 15,86,193 // orps %xmm1,%xmm0
- .byte 15,41,64,32 // movaps %xmm0,0x20(%eax)
- .byte 15,40,64,48 // movaps 0x30(%eax),%xmm0
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,88,230 // addps %xmm6,%xmm4
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,88,231 // addps %xmm7,%xmm4
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,194,195,1 // cmpltps %xmm3,%xmm0
- .byte 15,84,232 // andps %xmm0,%xmm5
- .byte 15,85,196 // andnps %xmm4,%xmm0
- .byte 15,86,197 // orps %xmm5,%xmm0
- .byte 15,41,64,48 // movaps %xmm0,0x30(%eax)
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,81,4 // lea 0x4(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
- .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,17 // call *(%ecx)
- .byte 131,196,88 // add $0x58,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_to_srgb_sse2
-.globl _sk_to_srgb_sse2
-FUNCTION(_sk_to_srgb_sse2)
-_sk_to_srgb_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,72 // sub $0x48,%esp
- .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 2483 <_sk_to_srgb_sse2+0x18>
- .byte 88 // pop %eax
- .byte 15,82,218 // rsqrtps %xmm2,%xmm3
- .byte 15,40,160,29,228,0,0 // movaps 0xe41d(%eax),%xmm4
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,128,45,228,0,0 // movaps 0xe42d(%eax),%xmm0
- .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,40,128,61,228,0,0 // movaps 0xe43d(%eax),%xmm0
- .byte 15,41,69,200 // movaps %xmm0,-0x38(%ebp)
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,128,77,228,0,0 // movaps 0xe44d(%eax),%xmm0
- .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,83,195 // rcpps %xmm3,%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,40,168,13,228,0,0 // movaps 0xe40d(%eax),%xmm5
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,152,93,228,0,0 // movaps 0xe45d(%eax),%xmm3
- .byte 15,194,211,1 // cmpltps %xmm3,%xmm2
- .byte 15,84,202 // andps %xmm2,%xmm1
- .byte 15,85,208 // andnps %xmm0,%xmm2
- .byte 15,86,209 // orps %xmm1,%xmm2
- .byte 15,82,198 // rsqrtps %xmm6,%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,77,232 // addps -0x18(%ebp),%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,88,77,200 // addps -0x38(%ebp),%xmm1
- .byte 15,88,69,216 // addps -0x28(%ebp),%xmm0
- .byte 15,83,192 // rcpps %xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,194,243,1 // cmpltps %xmm3,%xmm6
- .byte 15,84,206 // andps %xmm6,%xmm1
- .byte 15,85,240 // andnps %xmm0,%xmm6
- .byte 15,86,241 // orps %xmm1,%xmm6
- .byte 15,82,199 // rsqrtps %xmm7,%xmm0
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,88,101,232 // addps -0x18(%ebp),%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,88,101,200 // addps -0x38(%ebp),%xmm4
- .byte 15,88,69,216 // addps -0x28(%ebp),%xmm0
- .byte 15,83,192 // rcpps %xmm0,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,194,251,1 // cmpltps %xmm3,%xmm7
- .byte 15,84,239 // andps %xmm7,%xmm5
- .byte 15,85,248 // andnps %xmm0,%xmm7
- .byte 15,86,253 // orps %xmm5,%xmm7
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,88 // add $0x58,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_rgb_to_hsl_sse2
-.globl _sk_rgb_to_hsl_sse2
-FUNCTION(_sk_rgb_to_hsl_sse2)
-_sk_rgb_to_hsl_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,56 // sub $0x38,%esp
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,40,249 // movaps %xmm1,%xmm7
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 232,0,0,0,0 // call 257a <_sk_rgb_to_hsl_sse2+0x15>
- .byte 88 // pop %eax
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,95,194 // maxps %xmm2,%xmm0
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,95,216 // maxps %xmm0,%xmm3
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,93,194 // minps %xmm2,%xmm0
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,93,200 // minps %xmm0,%xmm1
- .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,136,230,225,0,0 // movaps 0xe1e6(%eax),%xmm1
- .byte 15,94,200 // divps %xmm0,%xmm1
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,239 // movaps %xmm7,%xmm5
- .byte 15,194,234,1 // cmpltps %xmm2,%xmm5
- .byte 15,84,168,118,227,0,0 // andps 0xe376(%eax),%xmm5
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,194,196,0 // cmpeqps %xmm4,%xmm0
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,194,247,0 // cmpeqps %xmm7,%xmm6
- .byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,92,231 // subps %xmm7,%xmm4
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,40,136,134,227,0,0 // movaps 0xe386(%eax),%xmm1
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,88,160,150,227,0,0 // addps 0xe396(%eax),%xmm4
- .byte 15,84,214 // andps %xmm6,%xmm2
- .byte 15,85,244 // andnps %xmm4,%xmm6
- .byte 15,86,242 // orps %xmm2,%xmm6
- .byte 15,84,232 // andps %xmm0,%xmm5
- .byte 15,85,198 // andnps %xmm6,%xmm0
- .byte 15,86,197 // orps %xmm5,%xmm0
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
- .byte 15,194,226,4 // cmpneqps %xmm2,%xmm4
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,40,168,214,225,0,0 // movaps 0xe1d6(%eax),%xmm5
- .byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,194,234,1 // cmpltps %xmm2,%xmm5
- .byte 15,84,205 // andps %xmm5,%xmm1
- .byte 15,85,235 // andnps %xmm3,%xmm5
- .byte 15,86,233 // orps %xmm1,%xmm5
- .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
- .byte 15,94,205 // divps %xmm5,%xmm1
- .byte 15,89,128,166,227,0,0 // mulps 0xe3a6(%eax),%xmm0
- .byte 15,84,196 // andps %xmm4,%xmm0
- .byte 15,84,204 // andps %xmm4,%xmm1
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,72 // add $0x48,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_hsl_to_rgb_sse2
-.globl _sk_hsl_to_rgb_sse2
-FUNCTION(_sk_hsl_to_rgb_sse2)
-_sk_hsl_to_rgb_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 129,236,200,0,0,0 // sub $0xc8,%esp
- .byte 15,41,157,56,255,255,255 // movaps %xmm3,-0xc8(%ebp)
- .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 2675 <_sk_hsl_to_rgb_sse2+0x19>
- .byte 88 // pop %eax
- .byte 15,40,160,219,224,0,0 // movaps 0xe0db(%eax),%xmm4
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
- .byte 15,194,218,2 // cmpleps %xmm2,%xmm3
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,194,233,0 // cmpeqps %xmm1,%xmm5
- .byte 15,41,109,232 // movaps %xmm5,-0x18(%ebp)
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,92,241 // subps %xmm1,%xmm6
- .byte 15,84,243 // andps %xmm3,%xmm6
- .byte 15,85,217 // andnps %xmm1,%xmm3
- .byte 15,86,222 // orps %xmm6,%xmm3
- .byte 15,40,168,187,226,0,0 // movaps 0xe2bb(%eax),%xmm5
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,194,193,1 // cmpltps %xmm1,%xmm0
- .byte 15,40,176,235,224,0,0 // movaps 0xe0eb(%eax),%xmm6
- .byte 15,41,117,136 // movaps %xmm6,-0x78(%ebp)
- .byte 15,84,198 // andps %xmm6,%xmm0
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,41,149,72,255,255,255 // movaps %xmm2,-0xb8(%ebp)
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,88,210 // addps %xmm2,%xmm2
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,184,203,226,0,0 // movaps 0xe2cb(%eax),%xmm7
- .byte 15,41,189,88,255,255,255 // movaps %xmm7,-0xa8(%ebp)
- .byte 15,194,253,2 // cmpleps %xmm5,%xmm7
- .byte 15,92,218 // subps %xmm2,%xmm3
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 15,194,205,2 // cmpleps %xmm5,%xmm1
- .byte 15,40,160,171,226,0,0 // movaps 0xe2ab(%eax),%xmm4
- .byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
- .byte 15,194,229,2 // cmpleps %xmm5,%xmm4
- .byte 15,40,176,123,226,0,0 // movaps 0xe27b(%eax),%xmm6
- .byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,40,128,155,226,0,0 // movaps 0xe29b(%eax),%xmm0
- .byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,84,223 // andps %xmm7,%xmm3
- .byte 15,85,248 // andnps %xmm0,%xmm7
- .byte 15,86,251 // orps %xmm3,%xmm7
- .byte 15,84,249 // andps %xmm1,%xmm7
- .byte 15,85,77,216 // andnps -0x28(%ebp),%xmm1
- .byte 15,86,207 // orps %xmm7,%xmm1
- .byte 15,40,125,200 // movaps -0x38(%ebp),%xmm7
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 15,84,204 // andps %xmm4,%xmm1
- .byte 15,85,229 // andnps %xmm5,%xmm4
- .byte 15,86,225 // orps %xmm1,%xmm4
- .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
- .byte 15,85,196 // andnps %xmm4,%xmm0
- .byte 15,41,69,152 // movaps %xmm0,-0x68(%ebp)
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,235,224,0,0 // andps 0xe0eb(%eax),%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,40,128,203,226,0,0 // movaps 0xe2cb(%eax),%xmm0
- .byte 15,194,193,2 // cmpleps %xmm1,%xmm0
- .byte 15,40,152,219,224,0,0 // movaps 0xe0db(%eax),%xmm3
- .byte 15,194,217,2 // cmpleps %xmm1,%xmm3
- .byte 15,40,160,171,226,0,0 // movaps 0xe2ab(%eax),%xmm4
- .byte 15,194,225,2 // cmpleps %xmm1,%xmm4
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,168,155,226,0,0 // movaps 0xe29b(%eax),%xmm5
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,84,248 // andps %xmm0,%xmm7
- .byte 15,85,197 // andnps %xmm5,%xmm0
- .byte 15,86,199 // orps %xmm7,%xmm0
- .byte 15,84,195 // andps %xmm3,%xmm0
- .byte 15,85,93,216 // andnps -0x28(%ebp),%xmm3
- .byte 15,86,216 // orps %xmm0,%xmm3
- .byte 15,40,109,200 // movaps -0x38(%ebp),%xmm5
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,84,220 // andps %xmm4,%xmm3
- .byte 15,85,225 // andnps %xmm1,%xmm4
- .byte 15,86,227 // orps %xmm3,%xmm4
- .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
- .byte 15,85,252 // andnps %xmm4,%xmm7
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,88,152,219,226,0,0 // addps 0xe2db(%eax),%xmm3
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,77,136 // andps -0x78(%ebp),%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,77,168 // movaps -0x58(%ebp),%xmm1
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,226 // addps %xmm2,%xmm4
- .byte 15,88,242 // addps %xmm2,%xmm6
- .byte 15,40,141,88,255,255,255 // movaps -0xa8(%ebp),%xmm1
- .byte 15,194,203,2 // cmpleps %xmm3,%xmm1
- .byte 15,84,209 // andps %xmm1,%xmm2
- .byte 15,85,204 // andnps %xmm4,%xmm1
- .byte 15,86,202 // orps %xmm2,%xmm1
- .byte 15,40,133,104,255,255,255 // movaps -0x98(%ebp),%xmm0
- .byte 15,194,195,2 // cmpleps %xmm3,%xmm0
- .byte 15,84,200 // andps %xmm0,%xmm1
- .byte 15,85,69,216 // andnps -0x28(%ebp),%xmm0
- .byte 15,86,193 // orps %xmm1,%xmm0
- .byte 15,40,141,120,255,255,255 // movaps -0x88(%ebp),%xmm1
- .byte 15,194,203,2 // cmpleps %xmm3,%xmm1
- .byte 15,84,193 // andps %xmm1,%xmm0
- .byte 15,85,206 // andnps %xmm6,%xmm1
- .byte 15,86,200 // orps %xmm0,%xmm1
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,40,157,72,255,255,255 // movaps -0xb8(%ebp),%xmm3
- .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
- .byte 15,84,217 // andps %xmm1,%xmm3
- .byte 15,85,202 // andnps %xmm2,%xmm1
- .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0
- .byte 15,86,195 // orps %xmm3,%xmm0
- .byte 15,86,251 // orps %xmm3,%xmm7
- .byte 15,86,217 // orps %xmm1,%xmm3
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,40,157,56,255,255,255 // movaps -0xc8(%ebp),%xmm3
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 129,196,216,0,0,0 // add $0xd8,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_scale_1_float_sse2
-.globl _sk_scale_1_float_sse2
-FUNCTION(_sk_scale_1_float_sse2)
-_sk_scale_1_float_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,33 // movss (%ecx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_scale_u8_sse2
-.globl _sk_scale_u8_sse2
-FUNCTION(_sk_scale_u8_sse2)
-_sk_scale_u8_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 28ef <_sk_scale_u8_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,65 // jne 294b <_sk_scale_u8_sse2+0x6a>
- .byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,49,223,0,0 // pand 0xdf31(%edx),%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,113,224,0,0 // mulps 0xe071(%edx),%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 2985 <_sk_scale_u8_sse2+0xa4>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 296f <_sk_scale_u8_sse2+0x8e>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,182 // jne 2917 <_sk_scale_u8_sse2+0x36>
- .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
- .byte 102,15,110,227 // movd %ebx,%xmm4
- .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi
- .byte 102,15,110,238 // movd %esi,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,146 // jmp 2917 <_sk_scale_u8_sse2+0x36>
- .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
- .byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,136 // jmp 2917 <_sk_scale_u8_sse2+0x36>
-
-HIDDEN _sk_scale_565_sse2
-.globl _sk_scale_565_sse2
-FUNCTION(_sk_scale_565_sse2)
-_sk_scale_565_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,44 // sub $0x2c,%esp
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 29a9 <_sk_scale_565_sse2+0x1a>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 1,246 // add %esi,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 15,133,157,0,0,0 // jne 2a67 <_sk_scale_565_sse2+0xd8>
- .byte 243,15,126,52,126 // movq (%esi,%edi,2),%xmm6
- .byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,162,199,223,0,0 // movdqa 0xdfc7(%edx),%xmm4
- .byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 15,91,212 // cvtdq2ps %xmm4,%xmm2
- .byte 15,89,146,215,223,0,0 // mulps 0xdfd7(%edx),%xmm2
- .byte 102,15,111,170,231,223,0,0 // movdqa 0xdfe7(%edx),%xmm5
- .byte 102,15,219,238 // pand %xmm6,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,247,223,0,0 // mulps 0xdff7(%edx),%xmm5
- .byte 102,15,219,178,7,224,0,0 // pand 0xe007(%edx),%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,23,224,0,0 // mulps 0xe017(%edx),%xmm6
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,93,254 // minps %xmm6,%xmm7
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,93,231 // minps %xmm7,%xmm4
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,95,254 // maxps %xmm6,%xmm7
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,95,199 // maxps %xmm7,%xmm0
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 15,194,121,64,1 // cmpltps 0x40(%ecx),%xmm7
- .byte 15,84,231 // andps %xmm7,%xmm4
- .byte 15,85,248 // andnps %xmm0,%xmm7
- .byte 15,86,252 // orps %xmm4,%xmm7
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,89,109,216 // mulps -0x28(%ebp),%xmm5
- .byte 15,89,117,200 // mulps -0x38(%ebp),%xmm6
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,60 // add $0x3c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 2aa2 <_sk_scale_565_sse2+0x113>
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 2a8f <_sk_scale_565_sse2+0x100>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,82,255,255,255 // jne 29d3 <_sk_scale_565_sse2+0x44>
- .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
- .byte 102,15,110,227 // movd %ebx,%xmm4
- .byte 102,15,112,244,69 // pshufd $0x45,%xmm4,%xmm6
- .byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4
- .byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
- .byte 242,15,16,244 // movsd %xmm4,%xmm6
- .byte 233,49,255,255,255 // jmp 29d3 <_sk_scale_565_sse2+0x44>
- .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
- .byte 102,15,110,246 // movd %esi,%xmm6
- .byte 233,36,255,255,255 // jmp 29d3 <_sk_scale_565_sse2+0x44>
-
-HIDDEN _sk_lerp_1_float_sse2
-.globl _sk_lerp_1_float_sse2
-FUNCTION(_sk_lerp_1_float_sse2)
-_sk_lerp_1_float_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 243,15,16,34 // movss (%edx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,40,104,16 // movaps 0x10(%eax),%xmm5
- .byte 15,40,112,32 // movaps 0x20(%eax),%xmm6
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,104,48 // movaps 0x30(%eax),%xmm5
- .byte 15,92,213 // subps %xmm5,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,40,104,64 // movaps 0x40(%eax),%xmm5
- .byte 15,92,221 // subps %xmm5,%xmm3
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 141,81,8 // lea 0x8(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_lerp_u8_sse2
-.globl _sk_lerp_u8_sse2
-FUNCTION(_sk_lerp_u8_sse2)
-_sk_lerp_u8_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 2b17 <_sk_lerp_u8_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 2b98 <_sk_lerp_u8_sse2+0x8f>
- .byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,9,221,0,0 // pand 0xdd09(%edx),%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,73,222,0,0 // mulps 0xde49(%edx),%xmm4
- .byte 15,40,105,16 // movaps 0x10(%ecx),%xmm5
- .byte 15,40,113,32 // movaps 0x20(%ecx),%xmm6
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,105,48 // movaps 0x30(%ecx),%xmm5
- .byte 15,92,213 // subps %xmm5,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,40,105,64 // movaps 0x40(%ecx),%xmm5
- .byte 15,92,221 // subps %xmm5,%xmm3
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,53 // je 2bd5 <_sk_lerp_u8_sse2+0xcc>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 2bbc <_sk_lerp_u8_sse2+0xb3>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,145 // jne 2b3f <_sk_lerp_u8_sse2+0x36>
- .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
- .byte 102,15,110,227 // movd %ebx,%xmm4
- .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi
- .byte 102,15,110,238 // movd %esi,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,106,255,255,255 // jmp 2b3f <_sk_lerp_u8_sse2+0x36>
- .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
- .byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,93,255,255,255 // jmp 2b3f <_sk_lerp_u8_sse2+0x36>
-
-HIDDEN _sk_lerp_565_sse2
-.globl _sk_lerp_565_sse2
-FUNCTION(_sk_lerp_565_sse2)
-_sk_lerp_565_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
- .byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
- .byte 15,41,77,152 // movaps %xmm1,-0x68(%ebp)
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 2c01 <_sk_lerp_565_sse2+0x1f>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 1,246 // add %esi,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 15,133,211,0,0,0 // jne 2cf5 <_sk_lerp_565_sse2+0x113>
- .byte 243,15,126,44,126 // movq (%esi,%edi,2),%xmm5
- .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 102,15,111,162,111,221,0,0 // movdqa 0xdd6f(%edx),%xmm4
- .byte 102,15,219,229 // pand %xmm5,%xmm4
- .byte 15,91,204 // cvtdq2ps %xmm4,%xmm1
- .byte 15,89,138,127,221,0,0 // mulps 0xdd7f(%edx),%xmm1
- .byte 102,15,111,178,143,221,0,0 // movdqa 0xdd8f(%edx),%xmm6
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,178,159,221,0,0 // mulps 0xdd9f(%edx),%xmm6
- .byte 102,15,219,170,175,221,0,0 // pand 0xddaf(%edx),%xmm5
- .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,146,191,221,0,0 // mulps 0xddbf(%edx),%xmm2
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,40,65,32 // movaps 0x20(%ecx),%xmm0
- .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,101,152 // movaps -0x68(%ebp),%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,93,243 // minps %xmm3,%xmm6
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,40,65,16 // movaps 0x10(%ecx),%xmm0
- .byte 15,40,109,184 // movaps -0x48(%ebp),%xmm5
- .byte 15,92,232 // subps %xmm0,%xmm5
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,93,206 // minps %xmm6,%xmm1
- .byte 15,40,113,64 // movaps 0x40(%ecx),%xmm6
- .byte 15,95,251 // maxps %xmm3,%xmm7
- .byte 15,95,215 // maxps %xmm7,%xmm2
- .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3
- .byte 15,40,251 // movaps %xmm3,%xmm7
- .byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,84,207 // andps %xmm7,%xmm1
- .byte 15,85,250 // andnps %xmm2,%xmm7
- .byte 15,86,249 // orps %xmm1,%xmm7
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,88,101,216 // addps -0x28(%ebp),%xmm4
- .byte 15,40,65,48 // movaps 0x30(%ecx),%xmm0
- .byte 15,40,85,136 // movaps -0x78(%ebp),%xmm2
- .byte 15,92,208 // subps %xmm0,%xmm2
- .byte 15,89,85,200 // mulps -0x38(%ebp),%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,92,222 // subps %xmm6,%xmm3
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 15,88,222 // addps %xmm6,%xmm3
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,124 // add $0x7c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 2d30 <_sk_lerp_565_sse2+0x14e>
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 2d1d <_sk_lerp_565_sse2+0x13b>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,28,255,255,255 // jne 2c2b <_sk_lerp_565_sse2+0x49>
- .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
- .byte 102,15,110,227 // movd %ebx,%xmm4
- .byte 102,15,112,236,69 // pshufd $0x45,%xmm4,%xmm5
- .byte 102,15,110,36,126 // movd (%esi,%edi,2),%xmm4
- .byte 242,15,112,228,212 // pshuflw $0xd4,%xmm4,%xmm4
- .byte 242,15,16,236 // movsd %xmm4,%xmm5
- .byte 233,251,254,255,255 // jmp 2c2b <_sk_lerp_565_sse2+0x49>
- .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
- .byte 102,15,110,238 // movd %esi,%xmm5
- .byte 233,238,254,255,255 // jmp 2c2b <_sk_lerp_565_sse2+0x49>
-
-HIDDEN _sk_load_tables_sse2
-.globl _sk_load_tables_sse2
-FUNCTION(_sk_load_tables_sse2)
-_sk_load_tables_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 2d4b <_sk_load_tables_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,48 // mov (%eax),%esi
- .byte 139,65,8 // mov 0x8(%ecx),%eax
- .byte 133,192 // test %eax,%eax
- .byte 139,57 // mov (%ecx),%edi
- .byte 139,30 // mov (%esi),%ebx
- .byte 15,133,22,1,0,0 // jne 2e79 <_sk_load_tables_sse2+0x13c>
- .byte 243,15,111,28,187 // movdqu (%ebx,%edi,4),%xmm3
- .byte 102,15,111,146,213,218,0,0 // movdqa 0xdad5(%edx),%xmm2
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,112,224,231 // pshufd $0xe7,%xmm0,%xmm4
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 139,126,4 // mov 0x4(%esi),%edi
- .byte 243,15,16,36,135 // movss (%edi,%eax,4),%xmm4
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 243,15,16,44,135 // movss (%edi,%eax,4),%xmm5
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 243,15,16,4,135 // movss (%edi,%eax,4),%xmm0
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 243,15,16,12,135 // movss (%edi,%eax,4),%xmm1
- .byte 139,70,8 // mov 0x8(%esi),%eax
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
- .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6
- .byte 102,15,126,247 // movd %xmm6,%edi
- .byte 243,15,16,52,184 // movss (%eax,%edi,4),%xmm6
- .byte 102,15,126,231 // movd %xmm4,%edi
- .byte 243,15,16,36,184 // movss (%eax,%edi,4),%xmm4
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,249,229 // pshufd $0xe5,%xmm1,%xmm7
- .byte 243,15,16,12,184 // movss (%eax,%edi,4),%xmm1
- .byte 102,15,126,255 // movd %xmm7,%edi
- .byte 243,15,16,60,184 // movss (%eax,%edi,4),%xmm7
- .byte 102,15,20,197 // unpcklpd %xmm5,%xmm0
- .byte 15,20,230 // unpcklps %xmm6,%xmm4
- .byte 15,20,207 // unpcklps %xmm7,%xmm1
- .byte 139,70,12 // mov 0xc(%esi),%eax
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,114,213,16 // psrld $0x10,%xmm5
- .byte 102,15,219,234 // pand %xmm2,%xmm5
- .byte 102,15,112,213,78 // pshufd $0x4e,%xmm5,%xmm2
- .byte 102,15,112,245,231 // pshufd $0xe7,%xmm5,%xmm6
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 243,15,16,52,176 // movss (%eax,%esi,4),%xmm6
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 243,15,16,60,176 // movss (%eax,%esi,4),%xmm7
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 102,15,112,237,229 // pshufd $0xe5,%xmm5,%xmm5
- .byte 243,15,16,20,176 // movss (%eax,%esi,4),%xmm2
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 243,15,16,44,176 // movss (%eax,%esi,4),%xmm5
- .byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 15,20,213 // unpcklps %xmm5,%xmm2
- .byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,21,220,0,0 // mulps 0xdc15(%edx),%xmm3
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 137,194 // mov %eax,%edx
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 36,3 // and $0x3,%al
- .byte 60,1 // cmp $0x1,%al
- .byte 116,37 // je 2ea4 <_sk_load_tables_sse2+0x167>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 60,2 // cmp $0x2,%al
- .byte 116,19 // je 2e9a <_sk_load_tables_sse2+0x15d>
- .byte 60,3 // cmp $0x3,%al
- .byte 15,133,217,254,255,255 // jne 2d68 <_sk_load_tables_sse2+0x2b>
- .byte 102,15,110,68,187,8 // movd 0x8(%ebx,%edi,4),%xmm0
- .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 102,15,18,28,187 // movlpd (%ebx,%edi,4),%xmm3
- .byte 233,196,254,255,255 // jmp 2d68 <_sk_load_tables_sse2+0x2b>
- .byte 102,15,110,28,187 // movd (%ebx,%edi,4),%xmm3
- .byte 233,186,254,255,255 // jmp 2d68 <_sk_load_tables_sse2+0x2b>
-
-HIDDEN _sk_load_tables_u16_be_sse2
-.globl _sk_load_tables_u16_be_sse2
-FUNCTION(_sk_load_tables_u16_be_sse2)
-_sk_load_tables_u16_be_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,44 // sub $0x2c,%esp
- .byte 232,0,0,0,0 // call 2ebc <_sk_load_tables_u16_be_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,57 // mov (%ecx),%edi
- .byte 139,65,8 // mov 0x8(%ecx),%eax
- .byte 193,231,2 // shl $0x2,%edi
- .byte 133,192 // test %eax,%eax
- .byte 139,54 // mov (%esi),%esi
- .byte 139,30 // mov (%esi),%ebx
- .byte 15,133,210,1,0,0 // jne 30a9 <_sk_load_tables_u16_be_sse2+0x1fb>
- .byte 102,15,16,4,123 // movupd (%ebx,%edi,2),%xmm0
- .byte 243,15,111,76,123,16 // movdqu 0x10(%ebx,%edi,2),%xmm1
- .byte 102,15,40,216 // movapd %xmm0,%xmm3
- .byte 102,15,97,217 // punpcklwd %xmm1,%xmm3
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,105,216 // punpckhwd %xmm0,%xmm3
- .byte 102,15,126,77,208 // movd %xmm1,-0x30(%ebp)
- .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
- .byte 102,15,126,69,212 // movd %xmm0,-0x2c(%ebp)
- .byte 243,15,126,69,208 // movq -0x30(%ebp),%xmm0
- .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,112,209,231 // pshufd $0xe7,%xmm1,%xmm2
- .byte 102,15,126,85,220 // movd %xmm2,-0x24(%ebp)
- .byte 102,15,112,201,78 // pshufd $0x4e,%xmm1,%xmm1
- .byte 102,15,126,77,216 // movd %xmm1,-0x28(%ebp)
- .byte 243,15,126,77,216 // movq -0x28(%ebp),%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,126,93,224 // movd %xmm3,-0x20(%ebp)
- .byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
- .byte 102,15,126,85,228 // movd %xmm2,-0x1c(%ebp)
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,20,219,0,0 // movdqa 0xdb14(%edx),%xmm2
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
- .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
- .byte 102,15,112,240,231 // pshufd $0xe7,%xmm0,%xmm6
- .byte 102,15,126,240 // movd %xmm6,%eax
- .byte 139,126,4 // mov 0x4(%esi),%edi
- .byte 243,15,16,52,135 // movss (%edi,%eax,4),%xmm6
- .byte 102,15,126,232 // movd %xmm5,%eax
- .byte 243,15,16,44,135 // movss (%edi,%eax,4),%xmm5
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,248,229 // pshufd $0xe5,%xmm0,%xmm7
- .byte 243,15,16,4,135 // movss (%edi,%eax,4),%xmm0
- .byte 102,15,126,248 // movd %xmm7,%eax
- .byte 243,15,16,60,135 // movss (%edi,%eax,4),%xmm7
- .byte 139,70,8 // mov 0x8(%esi),%eax
- .byte 15,20,238 // unpcklps %xmm6,%xmm5
- .byte 15,20,199 // unpcklps %xmm7,%xmm0
- .byte 102,15,20,197 // unpcklpd %xmm5,%xmm0
- .byte 242,15,112,201,232 // pshuflw $0xe8,%xmm1,%xmm1
- .byte 243,15,112,201,232 // pshufhw $0xe8,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 102,15,97,204 // punpcklwd %xmm4,%xmm1
- .byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5
- .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6
- .byte 102,15,126,247 // movd %xmm6,%edi
- .byte 243,15,16,52,184 // movss (%eax,%edi,4),%xmm6
- .byte 102,15,126,239 // movd %xmm5,%edi
- .byte 243,15,16,44,184 // movss (%eax,%edi,4),%xmm5
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,249,229 // pshufd $0xe5,%xmm1,%xmm7
- .byte 243,15,16,12,184 // movss (%eax,%edi,4),%xmm1
- .byte 102,15,126,255 // movd %xmm7,%edi
- .byte 243,15,16,60,184 // movss (%eax,%edi,4),%xmm7
- .byte 15,20,238 // unpcklps %xmm6,%xmm5
- .byte 243,15,126,117,224 // movq -0x20(%ebp),%xmm6
- .byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 15,20,207 // unpcklps %xmm7,%xmm1
- .byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 139,70,12 // mov 0xc(%esi),%eax
- .byte 242,15,112,238,232 // pshuflw $0xe8,%xmm6,%xmm5
- .byte 243,15,112,237,232 // pshufhw $0xe8,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,219,234 // pand %xmm2,%xmm5
- .byte 102,15,97,236 // punpcklwd %xmm4,%xmm5
- .byte 102,15,112,213,78 // pshufd $0x4e,%xmm5,%xmm2
- .byte 102,15,112,245,231 // pshufd $0xe7,%xmm5,%xmm6
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 243,15,16,52,176 // movss (%eax,%esi,4),%xmm6
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 243,15,16,60,176 // movss (%eax,%esi,4),%xmm7
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 102,15,112,237,229 // pshufd $0xe5,%xmm5,%xmm5
- .byte 243,15,16,20,176 // movss (%eax,%esi,4),%xmm2
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 243,15,16,44,176 // movss (%eax,%esi,4),%xmm5
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 15,20,213 // unpcklps %xmm5,%xmm2
- .byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 102,15,112,219,78 // pshufd $0x4e,%xmm3,%xmm3
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,113,245,8 // psllw $0x8,%xmm5
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,235,221 // por %xmm5,%xmm3
- .byte 102,15,126,93,232 // movd %xmm3,-0x18(%ebp)
- .byte 102,15,112,219,229 // pshufd $0xe5,%xmm3,%xmm3
- .byte 102,15,126,93,236 // movd %xmm3,-0x14(%ebp)
- .byte 243,15,126,93,232 // movq -0x18(%ebp),%xmm3
- .byte 102,15,97,220 // punpcklwd %xmm4,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,36,219,0,0 // mulps 0xdb24(%edx),%xmm3
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 137,194 // mov %eax,%edx
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,60 // add $0x3c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 242,15,16,4,123 // movsd (%ebx,%edi,2),%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 131,248,1 // cmp $0x1,%eax
- .byte 15,132,39,254,255,255 // je 2ee2 <_sk_load_tables_u16_be_sse2+0x34>
- .byte 102,15,22,68,123,8 // movhpd 0x8(%ebx,%edi,2),%xmm0
- .byte 131,248,3 // cmp $0x3,%eax
- .byte 15,130,24,254,255,255 // jb 2ee2 <_sk_load_tables_u16_be_sse2+0x34>
- .byte 243,15,126,76,123,16 // movq 0x10(%ebx,%edi,2),%xmm1
- .byte 233,13,254,255,255 // jmp 2ee2 <_sk_load_tables_u16_be_sse2+0x34>
-
-HIDDEN _sk_load_tables_rgb_u16_be_sse2
-.globl _sk_load_tables_rgb_u16_be_sse2
-FUNCTION(_sk_load_tables_rgb_u16_be_sse2)
-_sk_load_tables_rgb_u16_be_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,28 // sub $0x1c,%esp
- .byte 232,0,0,0,0 // call 30e3 <_sk_load_tables_rgb_u16_be_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,65,8 // mov 0x8(%ecx),%eax
- .byte 107,57,3 // imul $0x3,(%ecx),%edi
- .byte 133,192 // test %eax,%eax
- .byte 139,54 // mov (%esi),%esi
- .byte 139,30 // mov (%esi),%ebx
- .byte 15,133,179,1,0,0 // jne 32af <_sk_load_tables_rgb_u16_be_sse2+0x1da>
- .byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0
- .byte 243,15,111,92,123,8 // movdqu 0x8(%ebx,%edi,2),%xmm3
- .byte 102,15,115,219,4 // psrldq $0x4,%xmm3
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,115,217,6 // psrldq $0x6,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,115,218,6 // psrldq $0x6,%xmm2
- .byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
- .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,15,126,85,216 // movd %xmm2,-0x28(%ebp)
- .byte 102,15,112,202,229 // pshufd $0xe5,%xmm2,%xmm1
- .byte 102,15,126,77,220 // movd %xmm1,-0x24(%ebp)
- .byte 243,15,126,85,216 // movq -0x28(%ebp),%xmm2
- .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,126,93,224 // movd %xmm3,-0x20(%ebp)
- .byte 102,15,112,203,229 // pshufd $0xe5,%xmm3,%xmm1
- .byte 102,15,126,77,228 // movd %xmm1,-0x1c(%ebp)
- .byte 243,15,126,77,224 // movq -0x20(%ebp),%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,126,69,232 // movd %xmm0,-0x18(%ebp)
- .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0
- .byte 102,15,126,69,236 // movd %xmm0,-0x14(%ebp)
- .byte 242,15,112,194,232 // pshuflw $0xe8,%xmm2,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,111,146,237,216,0,0 // movdqa 0xd8ed(%edx),%xmm2
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5
- .byte 102,15,126,232 // movd %xmm5,%eax
- .byte 139,126,4 // mov 0x4(%esi),%edi
- .byte 243,15,16,44,135 // movss (%edi,%eax,4),%xmm5
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 243,15,16,36,135 // movss (%edi,%eax,4),%xmm4
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,240,229 // pshufd $0xe5,%xmm0,%xmm6
- .byte 243,15,16,4,135 // movss (%edi,%eax,4),%xmm0
- .byte 102,15,126,240 // movd %xmm6,%eax
- .byte 243,15,16,52,135 // movss (%edi,%eax,4),%xmm6
- .byte 139,70,8 // mov 0x8(%esi),%eax
- .byte 15,20,229 // unpcklps %xmm5,%xmm4
- .byte 15,20,198 // unpcklps %xmm6,%xmm0
- .byte 242,15,112,201,232 // pshuflw $0xe8,%xmm1,%xmm1
- .byte 243,15,112,201,232 // pshufhw $0xe8,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 102,15,97,203 // punpcklwd %xmm3,%xmm1
- .byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5
- .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6
- .byte 102,15,126,247 // movd %xmm6,%edi
- .byte 243,15,16,52,184 // movss (%eax,%edi,4),%xmm6
- .byte 102,15,126,239 // movd %xmm5,%edi
- .byte 243,15,16,44,184 // movss (%eax,%edi,4),%xmm5
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,249,229 // pshufd $0xe5,%xmm1,%xmm7
- .byte 243,15,16,12,184 // movss (%eax,%edi,4),%xmm1
- .byte 102,15,126,255 // movd %xmm7,%edi
- .byte 243,15,16,60,184 // movss (%eax,%edi,4),%xmm7
- .byte 102,15,20,196 // unpcklpd %xmm4,%xmm0
- .byte 243,15,126,101,232 // movq -0x18(%ebp),%xmm4
- .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 15,20,238 // unpcklps %xmm6,%xmm5
- .byte 139,70,12 // mov 0xc(%esi),%eax
- .byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
- .byte 243,15,112,228,232 // pshufhw $0xe8,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,219,226 // pand %xmm2,%xmm4
- .byte 102,15,97,227 // punpcklwd %xmm3,%xmm4
- .byte 102,15,112,212,78 // pshufd $0x4e,%xmm4,%xmm2
- .byte 102,15,112,220,231 // pshufd $0xe7,%xmm4,%xmm3
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 243,15,16,52,176 // movss (%eax,%esi,4),%xmm6
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 102,15,112,228,229 // pshufd $0xe5,%xmm4,%xmm4
- .byte 243,15,16,20,176 // movss (%eax,%esi,4),%xmm2
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 243,15,16,36,176 // movss (%eax,%esi,4),%xmm4
- .byte 15,20,207 // unpcklps %xmm7,%xmm1
- .byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 15,20,243 // unpcklps %xmm3,%xmm6
- .byte 15,20,212 // unpcklps %xmm4,%xmm2
- .byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 137,198 // mov %eax,%esi
- .byte 141,70,8 // lea 0x8(%esi),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,125,214,0,0 // movaps 0xd67d(%edx),%xmm3
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,44 // add $0x2c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 102,15,110,4,123 // movd (%ebx,%edi,2),%xmm0
- .byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 131,248,1 // cmp $0x1,%eax
- .byte 117,13 // jne 32d1 <_sk_load_tables_rgb_u16_be_sse2+0x1fc>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 233,77,254,255,255 // jmp 311e <_sk_load_tables_rgb_u16_be_sse2+0x49>
- .byte 102,15,110,76,123,6 // movd 0x6(%ebx,%edi,2),%xmm1
- .byte 102,15,196,76,123,10,2 // pinsrw $0x2,0xa(%ebx,%edi,2),%xmm1
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 131,248,3 // cmp $0x3,%eax
- .byte 114,18 // jb 32f9 <_sk_load_tables_rgb_u16_be_sse2+0x224>
- .byte 102,15,110,92,123,12 // movd 0xc(%ebx,%edi,2),%xmm3
- .byte 102,15,196,92,123,16,2 // pinsrw $0x2,0x10(%ebx,%edi,2),%xmm3
- .byte 233,37,254,255,255 // jmp 311e <_sk_load_tables_rgb_u16_be_sse2+0x49>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,28,254,255,255 // jmp 311e <_sk_load_tables_rgb_u16_be_sse2+0x49>
-
-HIDDEN _sk_byte_tables_sse2
-.globl _sk_byte_tables_sse2
-FUNCTION(_sk_byte_tables_sse2)
-_sk_byte_tables_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 3310 <_sk_byte_tables_sse2+0xe>
- .byte 89 // pop %ecx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,40,129,80,212,0,0 // movaps 0xd450(%ecx),%xmm0
- .byte 15,93,232 // minps %xmm0,%xmm5
- .byte 15,40,161,32,213,0,0 // movaps 0xd520(%ecx),%xmm4
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
- .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 102,15,112,245,231 // pshufd $0xe7,%xmm5,%xmm6
- .byte 139,58 // mov (%edx),%edi
- .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
- .byte 102,15,126,243 // movd %xmm6,%ebx
- .byte 15,182,28,31 // movzbl (%edi,%ebx,1),%ebx
- .byte 193,227,8 // shl $0x8,%ebx
- .byte 9,243 // or %esi,%ebx
- .byte 102,15,112,245,229 // pshufd $0xe5,%xmm5,%xmm6
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
- .byte 102,15,126,240 // movd %xmm6,%eax
- .byte 15,182,4,7 // movzbl (%edi,%eax,1),%eax
- .byte 193,224,8 // shl $0x8,%eax
- .byte 9,240 // or %esi,%eax
- .byte 102,15,110,232 // movd %eax,%xmm5
- .byte 139,66,4 // mov 0x4(%edx),%eax
- .byte 102,15,196,235,1 // pinsrw $0x1,%ebx,%xmm5
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 15,95,241 // maxps %xmm1,%xmm6
- .byte 15,93,240 // minps %xmm0,%xmm6
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 102,15,91,206 // cvtps2dq %xmm6,%xmm1
- .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6
- .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
- .byte 102,15,126,247 // movd %xmm6,%edi
- .byte 15,182,60,56 // movzbl (%eax,%edi,1),%edi
- .byte 193,231,8 // shl $0x8,%edi
- .byte 9,247 // or %esi,%edi
- .byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
- .byte 102,15,126,243 // movd %xmm6,%ebx
- .byte 15,182,4,24 // movzbl (%eax,%ebx,1),%eax
- .byte 193,224,8 // shl $0x8,%eax
- .byte 9,240 // or %esi,%eax
- .byte 102,15,110,200 // movd %eax,%xmm1
- .byte 102,15,196,207,1 // pinsrw $0x1,%edi,%xmm1
- .byte 139,66,8 // mov 0x8(%edx),%eax
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 15,95,242 // maxps %xmm2,%xmm6
- .byte 15,93,240 // minps %xmm0,%xmm6
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 102,15,91,214 // cvtps2dq %xmm6,%xmm2
- .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 102,15,112,242,231 // pshufd $0xe7,%xmm2,%xmm6
- .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
- .byte 102,15,126,247 // movd %xmm6,%edi
- .byte 15,182,60,56 // movzbl (%eax,%edi,1),%edi
- .byte 193,231,8 // shl $0x8,%edi
- .byte 9,247 // or %esi,%edi
- .byte 102,15,112,242,229 // pshufd $0xe5,%xmm2,%xmm6
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
- .byte 102,15,126,243 // movd %xmm6,%ebx
- .byte 15,182,4,24 // movzbl (%eax,%ebx,1),%eax
- .byte 193,224,8 // shl $0x8,%eax
- .byte 9,240 // or %esi,%eax
- .byte 102,15,87,210 // xorpd %xmm2,%xmm2
- .byte 15,95,211 // maxps %xmm3,%xmm2
- .byte 15,93,208 // minps %xmm0,%xmm2
- .byte 102,15,110,216 // movd %eax,%xmm3
- .byte 102,15,196,223,1 // pinsrw $0x1,%edi,%xmm3
- .byte 139,66,12 // mov 0xc(%edx),%eax
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 102,15,91,194 // cvtps2dq %xmm2,%xmm0
- .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
- .byte 102,15,126,210 // movd %xmm2,%edx
- .byte 102,15,112,208,231 // pshufd $0xe7,%xmm0,%xmm2
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx
- .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
- .byte 193,230,8 // shl $0x8,%esi
- .byte 9,214 // or %edx,%esi
- .byte 102,15,126,194 // movd %xmm0,%edx
- .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0
- .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 15,182,4,56 // movzbl (%eax,%edi,1),%eax
- .byte 193,224,8 // shl $0x8,%eax
- .byte 9,208 // or %edx,%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,196,230,1 // pinsrw $0x1,%esi,%xmm4
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,96,234 // punpcklbw %xmm2,%xmm5
- .byte 102,15,97,234 // punpcklwd %xmm2,%xmm5
- .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0
- .byte 102,15,96,202 // punpcklbw %xmm2,%xmm1
- .byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
- .byte 102,15,96,218 // punpcklbw %xmm2,%xmm3
- .byte 102,15,97,218 // punpcklwd %xmm2,%xmm3
- .byte 102,15,96,226 // punpcklbw %xmm2,%xmm4
- .byte 102,15,97,226 // punpcklwd %xmm2,%xmm4
- .byte 15,40,169,80,214,0,0 // movaps 0xd650(%ecx),%xmm5
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,91,211 // cvtdq2ps %xmm3,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,91,220 // cvtdq2ps %xmm4,%xmm3
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_byte_tables_rgb_sse2
-.globl _sk_byte_tables_rgb_sse2
-FUNCTION(_sk_byte_tables_rgb_sse2)
-_sk_byte_tables_rgb_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 34e3 <_sk_byte_tables_rgb_sse2+0xe>
- .byte 89 // pop %ecx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,114,12 // mov 0xc(%edx),%esi
- .byte 78 // dec %esi
- .byte 102,15,110,230 // movd %esi,%xmm4
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,40,129,125,210,0,0 // movaps 0xd27d(%ecx),%xmm0
- .byte 15,93,232 // minps %xmm0,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
- .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 102,15,112,245,231 // pshufd $0xe7,%xmm5,%xmm6
- .byte 139,58 // mov (%edx),%edi
- .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
- .byte 102,15,126,243 // movd %xmm6,%ebx
- .byte 15,182,28,31 // movzbl (%edi,%ebx,1),%ebx
- .byte 193,227,8 // shl $0x8,%ebx
- .byte 9,243 // or %esi,%ebx
- .byte 102,15,112,245,229 // pshufd $0xe5,%xmm5,%xmm6
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
- .byte 102,15,126,240 // movd %xmm6,%eax
- .byte 15,182,4,7 // movzbl (%edi,%eax,1),%eax
- .byte 193,224,8 // shl $0x8,%eax
- .byte 9,240 // or %esi,%eax
- .byte 102,15,110,232 // movd %eax,%xmm5
- .byte 139,66,4 // mov 0x4(%edx),%eax
- .byte 102,15,196,235,1 // pinsrw $0x1,%ebx,%xmm5
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 15,95,241 // maxps %xmm1,%xmm6
- .byte 15,93,240 // minps %xmm0,%xmm6
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 102,15,91,206 // cvtps2dq %xmm6,%xmm1
- .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 102,15,112,241,231 // pshufd $0xe7,%xmm1,%xmm6
- .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
- .byte 102,15,126,247 // movd %xmm6,%edi
- .byte 15,182,60,56 // movzbl (%eax,%edi,1),%edi
- .byte 193,231,8 // shl $0x8,%edi
- .byte 9,247 // or %esi,%edi
- .byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
- .byte 102,15,126,243 // movd %xmm6,%ebx
- .byte 15,182,4,24 // movzbl (%eax,%ebx,1),%eax
- .byte 193,224,8 // shl $0x8,%eax
- .byte 9,240 // or %esi,%eax
- .byte 102,15,87,201 // xorpd %xmm1,%xmm1
- .byte 15,95,202 // maxps %xmm2,%xmm1
- .byte 15,93,200 // minps %xmm0,%xmm1
- .byte 102,15,110,208 // movd %eax,%xmm2
- .byte 102,15,196,215,1 // pinsrw $0x1,%edi,%xmm2
- .byte 139,66,8 // mov 0x8(%edx),%eax
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 102,15,91,193 // cvtps2dq %xmm1,%xmm0
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,126,202 // movd %xmm1,%edx
- .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx
- .byte 15,182,52,48 // movzbl (%eax,%esi,1),%esi
- .byte 193,230,8 // shl $0x8,%esi
- .byte 9,214 // or %edx,%esi
- .byte 102,15,126,194 // movd %xmm0,%edx
- .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0
- .byte 15,182,20,16 // movzbl (%eax,%edx,1),%edx
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 15,182,4,56 // movzbl (%eax,%edi,1),%eax
- .byte 193,224,8 // shl $0x8,%eax
- .byte 9,208 // or %edx,%eax
- .byte 102,15,110,224 // movd %eax,%xmm4
- .byte 102,15,196,230,1 // pinsrw $0x1,%esi,%xmm4
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,96,233 // punpcklbw %xmm1,%xmm5
- .byte 102,15,97,233 // punpcklwd %xmm1,%xmm5
- .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0
- .byte 102,15,96,209 // punpcklbw %xmm1,%xmm2
- .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
- .byte 102,15,96,225 // punpcklbw %xmm1,%xmm4
- .byte 102,15,97,225 // punpcklwd %xmm1,%xmm4
- .byte 15,40,169,125,212,0,0 // movaps 0xd47d(%ecx),%xmm5
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,91,202 // cvtdq2ps %xmm2,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,91,212 // cvtdq2ps %xmm4,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_table_r_sse2
-.globl _sk_table_r_sse2
-FUNCTION(_sk_table_r_sse2)
-_sk_table_r_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,81,4 // mov 0x4(%ecx),%edx
- .byte 74 // dec %edx
- .byte 102,15,110,226 // movd %edx,%xmm4
- .byte 232,0,0,0,0 // call 3665 <_sk_table_r_sse2+0x18>
- .byte 90 // pop %edx
- .byte 139,9 // mov (%ecx),%ecx
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,93,170,251,208,0,0 // minps 0xd0fb(%edx),%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 102,15,91,197 // cvtps2dq %xmm5,%xmm0
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5
- .byte 102,15,126,234 // movd %xmm5,%edx
- .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5
- .byte 102,15,126,226 // movd %xmm4,%edx
- .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4
- .byte 102,15,126,194 // movd %xmm0,%edx
- .byte 102,15,112,240,229 // pshufd $0xe5,%xmm0,%xmm6
- .byte 243,15,16,4,145 // movss (%ecx,%edx,4),%xmm0
- .byte 102,15,126,242 // movd %xmm6,%edx
- .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6
- .byte 15,20,229 // unpcklps %xmm5,%xmm4
- .byte 15,20,198 // unpcklps %xmm6,%xmm0
- .byte 102,15,20,196 // unpcklpd %xmm4,%xmm0
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_table_g_sse2
-.globl _sk_table_g_sse2
-FUNCTION(_sk_table_g_sse2)
-_sk_table_g_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,81,4 // mov 0x4(%ecx),%edx
- .byte 74 // dec %edx
- .byte 102,15,110,226 // movd %edx,%xmm4
- .byte 232,0,0,0,0 // call 36eb <_sk_table_g_sse2+0x18>
- .byte 90 // pop %edx
- .byte 139,9 // mov (%ecx),%ecx
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,95,233 // maxps %xmm1,%xmm5
- .byte 15,93,170,117,208,0,0 // minps 0xd075(%edx),%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 102,15,91,205 // cvtps2dq %xmm5,%xmm1
- .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
- .byte 102,15,112,233,231 // pshufd $0xe7,%xmm1,%xmm5
- .byte 102,15,126,234 // movd %xmm5,%edx
- .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5
- .byte 102,15,126,226 // movd %xmm4,%edx
- .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4
- .byte 102,15,126,202 // movd %xmm1,%edx
- .byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
- .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1
- .byte 102,15,126,242 // movd %xmm6,%edx
- .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6
- .byte 15,20,229 // unpcklps %xmm5,%xmm4
- .byte 15,20,206 // unpcklps %xmm6,%xmm1
- .byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_table_b_sse2
-.globl _sk_table_b_sse2
-FUNCTION(_sk_table_b_sse2)
-_sk_table_b_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,81,4 // mov 0x4(%ecx),%edx
- .byte 74 // dec %edx
- .byte 102,15,110,226 // movd %edx,%xmm4
- .byte 232,0,0,0,0 // call 3771 <_sk_table_b_sse2+0x18>
- .byte 90 // pop %edx
- .byte 139,9 // mov (%ecx),%ecx
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,95,234 // maxps %xmm2,%xmm5
- .byte 15,93,170,239,207,0,0 // minps 0xcfef(%edx),%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 102,15,91,213 // cvtps2dq %xmm5,%xmm2
- .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
- .byte 102,15,112,234,231 // pshufd $0xe7,%xmm2,%xmm5
- .byte 102,15,126,234 // movd %xmm5,%edx
- .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5
- .byte 102,15,126,226 // movd %xmm4,%edx
- .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4
- .byte 102,15,126,210 // movd %xmm2,%edx
- .byte 102,15,112,242,229 // pshufd $0xe5,%xmm2,%xmm6
- .byte 243,15,16,20,145 // movss (%ecx,%edx,4),%xmm2
- .byte 102,15,126,242 // movd %xmm6,%edx
- .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6
- .byte 15,20,229 // unpcklps %xmm5,%xmm4
- .byte 15,20,214 // unpcklps %xmm6,%xmm2
- .byte 102,15,20,212 // unpcklpd %xmm4,%xmm2
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_table_a_sse2
-.globl _sk_table_a_sse2
-FUNCTION(_sk_table_a_sse2)
-_sk_table_a_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,81,4 // mov 0x4(%ecx),%edx
- .byte 74 // dec %edx
- .byte 102,15,110,226 // movd %edx,%xmm4
- .byte 232,0,0,0,0 // call 37f7 <_sk_table_a_sse2+0x18>
- .byte 90 // pop %edx
- .byte 139,9 // mov (%ecx),%ecx
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,95,235 // maxps %xmm3,%xmm5
- .byte 15,93,170,105,207,0,0 // minps 0xcf69(%edx),%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 102,15,91,221 // cvtps2dq %xmm5,%xmm3
- .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
- .byte 102,15,112,235,231 // pshufd $0xe7,%xmm3,%xmm5
- .byte 102,15,126,234 // movd %xmm5,%edx
- .byte 243,15,16,44,145 // movss (%ecx,%edx,4),%xmm5
- .byte 102,15,126,226 // movd %xmm4,%edx
- .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4
- .byte 102,15,126,218 // movd %xmm3,%edx
- .byte 102,15,112,243,229 // pshufd $0xe5,%xmm3,%xmm6
- .byte 243,15,16,28,145 // movss (%ecx,%edx,4),%xmm3
- .byte 102,15,126,242 // movd %xmm6,%edx
- .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6
- .byte 15,20,229 // unpcklps %xmm5,%xmm4
- .byte 15,20,222 // unpcklps %xmm6,%xmm3
- .byte 102,15,20,220 // unpcklpd %xmm4,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_parametric_r_sse2
-.globl _sk_parametric_r_sse2
-FUNCTION(_sk_parametric_r_sse2)
-_sk_parametric_r_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,40 // sub $0x28,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 387e <_sk_parametric_r_sse2+0x19>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,113,16 // movss 0x10(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,81,12 // movss 0xc(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 243,15,16,105,4 // movss 0x4(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,194,206,2 // cmpleps %xmm6,%xmm1
- .byte 243,15,16,113,24 // movss 0x18(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 243,15,16,113,8 // movss 0x8(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,114,209,0,0 // mulps 0xd172(%edx),%xmm6
- .byte 15,40,186,130,209,0,0 // movaps 0xd182(%edx),%xmm7
- .byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,210,206,0,0 // orps 0xced2(%edx),%xmm7
- .byte 15,88,178,146,209,0,0 // addps 0xd192(%edx),%xmm6
- .byte 15,40,162,162,209,0,0 // movaps 0xd1a2(%edx),%xmm4
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,178,209,0,0 // addps 0xd1b2(%edx),%xmm7
- .byte 15,40,162,194,209,0,0 // movaps 0xd1c2(%edx),%xmm4
- .byte 15,94,231 // divps %xmm7,%xmm4
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 243,15,16,33 // movss (%ecx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 243,15,91,230 // cvttps2dq %xmm6,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,226,206,0,0 // movaps 0xcee2(%edx),%xmm7
- .byte 15,84,199 // andps %xmm7,%xmm0
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,210,209,0,0 // addps 0xd1d2(%edx),%xmm6
- .byte 15,40,162,226,209,0,0 // movaps 0xd1e2(%edx),%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,242,209,0,0 // movaps 0xd1f2(%edx),%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,2,210,0,0 // movaps 0xd202(%edx),%xmm0
- .byte 15,94,196 // divps %xmm4,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,18,210,0,0 // mulps 0xd212(%edx),%xmm0
- .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
- .byte 15,84,232 // andps %xmm0,%xmm5
- .byte 243,15,16,65,20 // movss 0x14(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,84,209 // andps %xmm1,%xmm2
- .byte 15,85,200 // andnps %xmm0,%xmm1
- .byte 15,86,202 // orps %xmm2,%xmm1
- .byte 15,95,204 // maxps %xmm4,%xmm1
- .byte 15,93,207 // minps %xmm7,%xmm1
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,56 // add $0x38,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_parametric_g_sse2
-.globl _sk_parametric_g_sse2
-FUNCTION(_sk_parametric_g_sse2)
-_sk_parametric_g_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,40 // sub $0x28,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call 39c1 <_sk_parametric_g_sse2+0x16>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,113,16 // movss 0x10(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,81,12 // movss 0xc(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 243,15,16,105,4 // movss 0x4(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,194,206,2 // cmpleps %xmm6,%xmm1
- .byte 243,15,16,113,24 // movss 0x18(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 243,15,16,113,8 // movss 0x8(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,47,208,0,0 // mulps 0xd02f(%edx),%xmm6
- .byte 15,40,186,63,208,0,0 // movaps 0xd03f(%edx),%xmm7
- .byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,143,205,0,0 // orps 0xcd8f(%edx),%xmm7
- .byte 15,88,178,79,208,0,0 // addps 0xd04f(%edx),%xmm6
- .byte 15,40,162,95,208,0,0 // movaps 0xd05f(%edx),%xmm4
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,111,208,0,0 // addps 0xd06f(%edx),%xmm7
- .byte 15,40,162,127,208,0,0 // movaps 0xd07f(%edx),%xmm4
- .byte 15,94,231 // divps %xmm7,%xmm4
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 243,15,16,33 // movss (%ecx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 243,15,91,230 // cvttps2dq %xmm6,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,159,205,0,0 // movaps 0xcd9f(%edx),%xmm7
- .byte 15,84,199 // andps %xmm7,%xmm0
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,143,208,0,0 // addps 0xd08f(%edx),%xmm6
- .byte 15,40,162,159,208,0,0 // movaps 0xd09f(%edx),%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,175,208,0,0 // movaps 0xd0af(%edx),%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,191,208,0,0 // movaps 0xd0bf(%edx),%xmm0
- .byte 15,94,196 // divps %xmm4,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,207,208,0,0 // mulps 0xd0cf(%edx),%xmm0
- .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
- .byte 15,84,232 // andps %xmm0,%xmm5
- .byte 243,15,16,65,20 // movss 0x14(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,84,209 // andps %xmm1,%xmm2
- .byte 15,85,200 // andnps %xmm0,%xmm1
- .byte 15,86,202 // orps %xmm2,%xmm1
- .byte 15,95,204 // maxps %xmm4,%xmm1
- .byte 15,93,207 // minps %xmm7,%xmm1
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,56 // add $0x38,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_parametric_b_sse2
-.globl _sk_parametric_b_sse2
-FUNCTION(_sk_parametric_b_sse2)
-_sk_parametric_b_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,40 // sub $0x28,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call 3b01 <_sk_parametric_b_sse2+0x16>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,113,16 // movss 0x10(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,73,12 // movss 0xc(%ecx),%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 243,15,16,105,4 // movss 0x4(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,234 // mulps %xmm2,%xmm5
- .byte 15,194,214,2 // cmpleps %xmm6,%xmm2
- .byte 243,15,16,113,24 // movss 0x18(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 243,15,16,113,8 // movss 0x8(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,239,206,0,0 // mulps 0xceef(%edx),%xmm6
- .byte 15,40,186,255,206,0,0 // movaps 0xceff(%edx),%xmm7
- .byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,79,204,0,0 // orps 0xcc4f(%edx),%xmm7
- .byte 15,88,178,15,207,0,0 // addps 0xcf0f(%edx),%xmm6
- .byte 15,40,162,31,207,0,0 // movaps 0xcf1f(%edx),%xmm4
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,47,207,0,0 // addps 0xcf2f(%edx),%xmm7
- .byte 15,40,162,63,207,0,0 // movaps 0xcf3f(%edx),%xmm4
- .byte 15,94,231 // divps %xmm7,%xmm4
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 243,15,16,33 // movss (%ecx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 243,15,91,230 // cvttps2dq %xmm6,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,95,204,0,0 // movaps 0xcc5f(%edx),%xmm7
- .byte 15,84,199 // andps %xmm7,%xmm0
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,79,207,0,0 // addps 0xcf4f(%edx),%xmm6
- .byte 15,40,162,95,207,0,0 // movaps 0xcf5f(%edx),%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,111,207,0,0 // movaps 0xcf6f(%edx),%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,127,207,0,0 // movaps 0xcf7f(%edx),%xmm0
- .byte 15,94,196 // divps %xmm4,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,143,207,0,0 // mulps 0xcf8f(%edx),%xmm0
- .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
- .byte 15,84,232 // andps %xmm0,%xmm5
- .byte 243,15,16,65,20 // movss 0x14(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,84,202 // andps %xmm2,%xmm1
- .byte 15,85,208 // andnps %xmm0,%xmm2
- .byte 15,86,209 // orps %xmm1,%xmm2
- .byte 15,95,212 // maxps %xmm4,%xmm2
- .byte 15,93,215 // minps %xmm7,%xmm2
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,56 // add $0x38,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_parametric_a_sse2
-.globl _sk_parametric_a_sse2
-FUNCTION(_sk_parametric_a_sse2)
-_sk_parametric_a_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,40 // sub $0x28,%esp
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 3c41 <_sk_parametric_a_sse2+0x16>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,113,16 // movss 0x10(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,73,12 // movss 0xc(%ecx),%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 243,15,16,105,4 // movss 0x4(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,194,222,2 // cmpleps %xmm6,%xmm3
- .byte 243,15,16,113,24 // movss 0x18(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 243,15,16,113,8 // movss 0x8(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 15,91,245 // cvtdq2ps %xmm5,%xmm6
- .byte 15,89,178,175,205,0,0 // mulps 0xcdaf(%edx),%xmm6
- .byte 15,40,186,191,205,0,0 // movaps 0xcdbf(%edx),%xmm7
- .byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,86,186,15,203,0,0 // orps 0xcb0f(%edx),%xmm7
- .byte 15,88,178,207,205,0,0 // addps 0xcdcf(%edx),%xmm6
- .byte 15,40,162,223,205,0,0 // movaps 0xcddf(%edx),%xmm4
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,88,186,239,205,0,0 // addps 0xcdef(%edx),%xmm7
- .byte 15,40,162,255,205,0,0 // movaps 0xcdff(%edx),%xmm4
- .byte 15,94,231 // divps %xmm7,%xmm4
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 243,15,16,33 // movss (%ecx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 243,15,91,230 // cvttps2dq %xmm6,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,186,31,203,0,0 // movaps 0xcb1f(%edx),%xmm7
- .byte 15,84,199 // andps %xmm7,%xmm0
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,88,178,15,206,0,0 // addps 0xce0f(%edx),%xmm6
- .byte 15,40,162,31,206,0,0 // movaps 0xce1f(%edx),%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,92,244 // subps %xmm4,%xmm6
- .byte 15,40,162,47,206,0,0 // movaps 0xce2f(%edx),%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,40,130,63,206,0,0 // movaps 0xce3f(%edx),%xmm0
- .byte 15,94,196 // divps %xmm4,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,89,130,79,206,0,0 // mulps 0xce4f(%edx),%xmm0
- .byte 102,15,91,192 // cvtps2dq %xmm0,%xmm0
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,194,236,4 // cmpneqps %xmm4,%xmm5
- .byte 15,84,232 // andps %xmm0,%xmm5
- .byte 243,15,16,65,20 // movss 0x14(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,84,203 // andps %xmm3,%xmm1
- .byte 15,85,216 // andnps %xmm0,%xmm3
- .byte 15,86,217 // orps %xmm1,%xmm3
- .byte 15,95,220 // maxps %xmm4,%xmm3
- .byte 15,93,223 // minps %xmm7,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,56 // add $0x38,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_gamma_sse2
-.globl _sk_gamma_sse2
-FUNCTION(_sk_gamma_sse2)
-_sk_gamma_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,88 // sub $0x58,%esp
- .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
- .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 3d86 <_sk_gamma_sse2+0x1b>
- .byte 88 // pop %eax
- .byte 15,91,232 // cvtdq2ps %xmm0,%xmm5
- .byte 15,89,168,106,204,0,0 // mulps 0xcc6a(%eax),%xmm5
- .byte 15,40,160,122,204,0,0 // movaps 0xcc7a(%eax),%xmm4
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,86,144,202,201,0,0 // orps 0xc9ca(%eax),%xmm2
- .byte 15,88,168,138,204,0,0 // addps 0xcc8a(%eax),%xmm5
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,89,136,154,204,0,0 // mulps 0xcc9a(%eax),%xmm1
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,88,144,170,204,0,0 // addps 0xccaa(%eax),%xmm2
- .byte 15,40,136,186,204,0,0 // movaps 0xccba(%eax),%xmm1
- .byte 15,94,202 // divps %xmm2,%xmm1
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 243,15,16,2 // movss (%edx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 243,15,91,197 // cvttps2dq %xmm5,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,136,218,201,0,0 // andps 0xc9da(%eax),%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,88,168,202,204,0,0 // addps 0xccca(%eax),%xmm5
- .byte 15,40,184,234,204,0,0 // movaps 0xccea(%eax),%xmm7
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,40,176,218,204,0,0 // movaps 0xccda(%eax),%xmm6
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,40,144,250,204,0,0 // movaps 0xccfa(%eax),%xmm2
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,94,216 // divps %xmm0,%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
- .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,106,204,0,0 // mulps 0xcc6a(%eax),%xmm0
- .byte 15,84,204 // andps %xmm4,%xmm1
- .byte 15,86,136,202,201,0,0 // orps 0xc9ca(%eax),%xmm1
- .byte 15,88,128,138,204,0,0 // addps 0xcc8a(%eax),%xmm0
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,168,154,204,0,0 // mulps 0xcc9a(%eax),%xmm5
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,88,136,170,204,0,0 // addps 0xccaa(%eax),%xmm1
- .byte 15,40,168,186,204,0,0 // movaps 0xccba(%eax),%xmm5
- .byte 15,94,233 // divps %xmm1,%xmm5
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0
- .byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,194,233,1 // cmpltps %xmm1,%xmm5
- .byte 15,84,168,218,201,0,0 // andps 0xc9da(%eax),%xmm5
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,88,128,202,204,0,0 // addps 0xccca(%eax),%xmm0
- .byte 15,40,207 // movaps %xmm7,%xmm1
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,94,233 // divps %xmm1,%xmm5
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
- .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,89,128,106,204,0,0 // mulps 0xcc6a(%eax),%xmm0
- .byte 15,84,225 // andps %xmm1,%xmm4
- .byte 15,86,160,202,201,0,0 // orps 0xc9ca(%eax),%xmm4
- .byte 15,88,128,138,204,0,0 // addps 0xcc8a(%eax),%xmm0
- .byte 15,40,136,154,204,0,0 // movaps 0xcc9a(%eax),%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,88,160,170,204,0,0 // addps 0xccaa(%eax),%xmm4
- .byte 15,40,136,186,204,0,0 // movaps 0xccba(%eax),%xmm1
- .byte 15,94,204 // divps %xmm4,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0
- .byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,194,225,1 // cmpltps %xmm1,%xmm4
- .byte 15,84,160,218,201,0,0 // andps 0xc9da(%eax),%xmm4
- .byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,88,128,202,204,0,0 // addps 0xccca(%eax),%xmm0
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,92,252 // subps %xmm4,%xmm7
- .byte 15,94,215 // divps %xmm7,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,128,10,205,0,0 // movaps 0xcd0a(%eax),%xmm0
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 102,15,91,203 // cvtps2dq %xmm3,%xmm1
- .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
- .byte 15,194,196,4 // cmpneqps %xmm4,%xmm0
- .byte 15,84,193 // andps %xmm1,%xmm0
- .byte 102,15,91,205 // cvtps2dq %xmm5,%xmm1
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 15,194,220,4 // cmpneqps %xmm4,%xmm3
- .byte 15,84,217 // andps %xmm1,%xmm3
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 15,194,220,4 // cmpneqps %xmm4,%xmm3
- .byte 102,15,91,210 // cvtps2dq %xmm2,%xmm2
- .byte 15,84,218 // andps %xmm2,%xmm3
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,104 // add $0x68,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_gamma_dst_sse2
-.globl _sk_gamma_dst_sse2
-FUNCTION(_sk_gamma_dst_sse2)
-_sk_gamma_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 129,236,212,0,0,0 // sub $0xd4,%esp
- .byte 15,41,157,40,255,255,255 // movaps %xmm3,-0xd8(%ebp)
- .byte 15,41,149,56,255,255,255 // movaps %xmm2,-0xc8(%ebp)
- .byte 15,41,141,72,255,255,255 // movaps %xmm1,-0xb8(%ebp)
- .byte 15,41,133,88,255,255,255 // movaps %xmm0,-0xa8(%ebp)
- .byte 232,0,0,0,0 // call 3fad <_sk_gamma_dst_sse2+0x2b>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,72,16 // movaps 0x10(%eax),%xmm1
- .byte 15,91,193 // cvtdq2ps %xmm1,%xmm0
- .byte 15,40,150,67,202,0,0 // movaps 0xca43(%esi),%xmm2
- .byte 15,41,149,104,255,255,255 // movaps %xmm2,-0x98(%ebp)
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,40,166,83,202,0,0 // movaps 0xca53(%esi),%xmm4
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,40,158,163,199,0,0 // movaps 0xc7a3(%esi),%xmm3
- .byte 15,41,157,120,255,255,255 // movaps %xmm3,-0x88(%ebp)
- .byte 15,86,211 // orps %xmm3,%xmm2
- .byte 15,40,158,99,202,0,0 // movaps 0xca63(%esi),%xmm3
- .byte 15,41,93,136 // movaps %xmm3,-0x78(%ebp)
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,40,174,115,202,0,0 // movaps 0xca73(%esi),%xmm5
- .byte 15,41,109,152 // movaps %xmm5,-0x68(%ebp)
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,40,158,131,202,0,0 // movaps 0xca83(%esi),%xmm3
- .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 15,40,158,147,202,0,0 // movaps 0xca93(%esi),%xmm3
- .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
- .byte 15,94,218 // divps %xmm2,%xmm3
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 243,15,16,18 // movss (%edx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 243,15,91,208 // cvttps2dq %xmm0,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 15,194,218,1 // cmpltps %xmm2,%xmm3
- .byte 15,40,174,179,199,0,0 // movaps 0xc7b3(%esi),%xmm5
- .byte 15,41,109,200 // movaps %xmm5,-0x38(%ebp)
- .byte 15,84,221 // andps %xmm5,%xmm3
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 15,92,218 // subps %xmm2,%xmm3
- .byte 15,40,150,163,202,0,0 // movaps 0xcaa3(%esi),%xmm2
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,40,190,195,202,0,0 // movaps 0xcac3(%esi),%xmm7
- .byte 15,40,239 // movaps %xmm7,%xmm5
- .byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,182,179,202,0,0 // movaps 0xcab3(%esi),%xmm6
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,40,158,211,202,0,0 // movaps 0xcad3(%esi),%xmm3
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,94,213 // divps %xmm5,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,40,134,227,202,0,0 // movaps 0xcae3(%esi),%xmm0
- .byte 15,41,69,232 // movaps %xmm0,-0x18(%ebp)
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 102,15,91,194 // cvtps2dq %xmm2,%xmm0
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,194,202,4 // cmpneqps %xmm2,%xmm1
- .byte 15,84,200 // andps %xmm0,%xmm1
- .byte 15,40,64,32 // movaps 0x20(%eax),%xmm0
- .byte 15,41,72,16 // movaps %xmm1,0x10(%eax)
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 15,89,141,104,255,255,255 // mulps -0x98(%ebp),%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,86,149,120,255,255,255 // orps -0x88(%ebp),%xmm2
- .byte 15,88,77,136 // addps -0x78(%ebp),%xmm1
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,89,109,152 // mulps -0x68(%ebp),%xmm5
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 15,88,85,168 // addps -0x58(%ebp),%xmm2
- .byte 15,40,109,184 // movaps -0x48(%ebp),%xmm5
- .byte 15,94,234 // divps %xmm2,%xmm5
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 243,15,16,18 // movss (%edx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 243,15,91,209 // cvttps2dq %xmm1,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,194,234,1 // cmpltps %xmm2,%xmm5
- .byte 15,84,109,200 // andps -0x38(%ebp),%xmm5
- .byte 15,92,213 // subps %xmm5,%xmm2
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,88,77,216 // addps -0x28(%ebp),%xmm1
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,92,213 // subps %xmm5,%xmm2
- .byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 15,94,234 // divps %xmm2,%xmm5
- .byte 15,88,233 // addps %xmm1,%xmm5
- .byte 15,89,109,232 // mulps -0x18(%ebp),%xmm5
- .byte 102,15,91,205 // cvtps2dq %xmm5,%xmm1
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,194,197,4 // cmpneqps %xmm5,%xmm0
- .byte 15,84,193 // andps %xmm1,%xmm0
- .byte 15,41,64,32 // movaps %xmm0,0x20(%eax)
- .byte 15,40,64,48 // movaps 0x30(%eax),%xmm0
- .byte 15,91,200 // cvtdq2ps %xmm0,%xmm1
- .byte 15,89,141,104,255,255,255 // mulps -0x98(%ebp),%xmm1
- .byte 15,84,224 // andps %xmm0,%xmm4
- .byte 15,86,165,120,255,255,255 // orps -0x88(%ebp),%xmm4
- .byte 15,88,77,136 // addps -0x78(%ebp),%xmm1
- .byte 15,40,85,152 // movaps -0x68(%ebp),%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,92,202 // subps %xmm2,%xmm1
- .byte 15,88,101,168 // addps -0x58(%ebp),%xmm4
- .byte 15,40,85,184 // movaps -0x48(%ebp),%xmm2
- .byte 15,94,212 // divps %xmm4,%xmm2
- .byte 15,92,202 // subps %xmm2,%xmm1
- .byte 243,15,16,18 // movss (%edx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 243,15,91,209 // cvttps2dq %xmm1,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,194,226,1 // cmpltps %xmm2,%xmm4
- .byte 15,84,101,200 // andps -0x38(%ebp),%xmm4
- .byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,88,77,216 // addps -0x28(%ebp),%xmm1
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 15,92,252 // subps %xmm4,%xmm7
- .byte 15,94,223 // divps %xmm7,%xmm3
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 15,89,93,232 // mulps -0x18(%ebp),%xmm3
- .byte 15,194,197,4 // cmpneqps %xmm5,%xmm0
- .byte 102,15,91,203 // cvtps2dq %xmm3,%xmm1
- .byte 15,84,193 // andps %xmm1,%xmm0
- .byte 15,41,64,48 // movaps %xmm0,0x30(%eax)
- .byte 141,81,8 // lea 0x8(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,133,88,255,255,255 // movaps -0xa8(%ebp),%xmm0
- .byte 15,40,141,72,255,255,255 // movaps -0xb8(%ebp),%xmm1
- .byte 15,40,149,56,255,255,255 // movaps -0xc8(%ebp),%xmm2
- .byte 15,40,157,40,255,255,255 // movaps -0xd8(%ebp),%xmm3
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 129,196,228,0,0,0 // add $0xe4,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_lab_to_xyz_sse2
-.globl _sk_lab_to_xyz_sse2
-FUNCTION(_sk_lab_to_xyz_sse2)
-_sk_lab_to_xyz_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,24 // sub $0x18,%esp
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 232,0,0,0,0 // call 4209 <_sk_lab_to_xyz_sse2+0x15>
- .byte 88 // pop %eax
- .byte 15,89,144,151,200,0,0 // mulps 0xc897(%eax),%xmm2
- .byte 15,40,160,39,198,0,0 // movaps 0xc627(%eax),%xmm4
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,168,167,200,0,0 // movaps 0xc8a7(%eax),%xmm5
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,88,144,183,200,0,0 // addps 0xc8b7(%eax),%xmm2
- .byte 15,89,144,199,200,0,0 // mulps 0xc8c7(%eax),%xmm2
- .byte 15,89,136,215,200,0,0 // mulps 0xc8d7(%eax),%xmm1
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,89,152,231,200,0,0 // mulps 0xc8e7(%eax),%xmm3
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,152,247,200,0,0 // movaps 0xc8f7(%eax),%xmm3
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,194,224,1 // cmpltps %xmm0,%xmm4
- .byte 15,40,176,7,201,0,0 // movaps 0xc907(%eax),%xmm6
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,40,184,23,201,0,0 // movaps 0xc917(%eax),%xmm7
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,84,196 // andps %xmm4,%xmm0
- .byte 15,85,225 // andnps %xmm1,%xmm4
- .byte 15,86,224 // orps %xmm0,%xmm4
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,84,193 // andps %xmm1,%xmm0
- .byte 15,85,202 // andnps %xmm2,%xmm1
- .byte 15,86,200 // orps %xmm0,%xmm1
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,194,216,1 // cmpltps %xmm0,%xmm3
- .byte 15,84,195 // andps %xmm3,%xmm0
- .byte 15,85,221 // andnps %xmm5,%xmm3
- .byte 15,86,216 // orps %xmm0,%xmm3
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,160,39,201,0,0 // mulps 0xc927(%eax),%xmm4
- .byte 15,89,152,55,201,0,0 // mulps 0xc937(%eax),%xmm3
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,40 // add $0x28,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_load_a8_sse2
-.globl _sk_load_a8_sse2
-FUNCTION(_sk_load_a8_sse2)
-_sk_load_a8_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 42f9 <_sk_load_a8_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,60 // jne 4350 <_sk_load_a8_sse2+0x65>
- .byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,39,197,0,0 // pand 0xc527(%edx),%xmm0
- .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,154,103,198,0,0 // mulps 0xc667(%edx),%xmm3
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 102,15,87,201 // xorpd %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 438a <_sk_load_a8_sse2+0x9f>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4374 <_sk_load_a8_sse2+0x89>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,187 // jne 4321 <_sk_load_a8_sse2+0x36>
- .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
- .byte 102,15,110,195 // movd %ebx,%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi
- .byte 102,15,110,206 // movd %esi,%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,151 // jmp 4321 <_sk_load_a8_sse2+0x36>
- .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
- .byte 102,15,110,198 // movd %esi,%xmm0
- .byte 235,141 // jmp 4321 <_sk_load_a8_sse2+0x36>
-
-HIDDEN _sk_load_a8_dst_sse2
-.globl _sk_load_a8_dst_sse2
-FUNCTION(_sk_load_a8_dst_sse2)
-_sk_load_a8_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,16 // mov (%eax),%edx
- .byte 139,49 // mov (%ecx),%esi
- .byte 139,122,4 // mov 0x4(%edx),%edi
- .byte 15,175,121,4 // imul 0x4(%ecx),%edi
- .byte 3,58 // add (%edx),%edi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,127,97,48 // movdqa %xmm4,0x30(%ecx)
- .byte 102,15,127,97,32 // movdqa %xmm4,0x20(%ecx)
- .byte 102,15,127,97,16 // movdqa %xmm4,0x10(%ecx)
- .byte 133,219 // test %ebx,%ebx
- .byte 232,0,0,0,0 // call 43cd <_sk_load_a8_dst_sse2+0x39>
- .byte 90 // pop %edx
- .byte 117,54 // jne 4406 <_sk_load_a8_dst_sse2+0x72>
- .byte 102,15,110,36,55 // movd (%edi,%esi,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,83,196,0,0 // pand 0xc453(%edx),%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,147,197,0,0 // mulps 0xc593(%edx),%xmm4
- .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,46 // je 443c <_sk_load_a8_dst_sse2+0xa8>
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4426 <_sk_load_a8_dst_sse2+0x92>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,197 // jne 43dd <_sk_load_a8_dst_sse2+0x49>
- .byte 15,182,92,55,2 // movzbl 0x2(%edi,%esi,1),%ebx
- .byte 102,15,110,227 // movd %ebx,%xmm4
- .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 15,183,52,55 // movzwl (%edi,%esi,1),%esi
- .byte 102,15,110,238 // movd %esi,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,161 // jmp 43dd <_sk_load_a8_dst_sse2+0x49>
- .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
- .byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,151 // jmp 43dd <_sk_load_a8_dst_sse2+0x49>
-
-HIDDEN _sk_gather_a8_sse2
-.globl _sk_gather_a8_sse2
-FUNCTION(_sk_gather_a8_sse2)
-_sk_gather_a8_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,254,211 // paddd %xmm3,%xmm2
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,226 // minps %xmm2,%xmm4
- .byte 243,15,16,65,12 // movss 0xc(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,95,209 // maxps %xmm1,%xmm2
- .byte 15,93,208 // minps %xmm0,%xmm2
- .byte 139,17 // mov (%ecx),%edx
- .byte 243,15,91,194 // cvttps2dq %xmm2,%xmm0
- .byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,15,91,204 // cvttps2dq %xmm4,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 15,182,52,50 // movzbl (%edx,%esi,1),%esi
- .byte 15,182,60,58 // movzbl (%edx,%edi,1),%edi
- .byte 193,231,8 // shl $0x8,%edi
- .byte 9,247 // or %esi,%edi
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 15,182,12,10 // movzbl (%edx,%ecx,1),%ecx
- .byte 15,182,20,50 // movzbl (%edx,%esi,1),%edx
- .byte 193,226,8 // shl $0x8,%edx
- .byte 9,202 // or %ecx,%edx
- .byte 102,15,110,194 // movd %edx,%xmm0
- .byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
- .byte 232,0,0,0,0 // call 44fa <_sk_gather_a8_sse2+0xb4>
- .byte 89 // pop %ecx
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
- .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
- .byte 15,91,216 // cvtdq2ps %xmm0,%xmm3
- .byte 15,89,153,102,196,0,0 // mulps 0xc466(%ecx),%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,16 // add $0x10,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_store_a8_sse2
-.globl _sk_store_a8_sse2
-FUNCTION(_sk_store_a8_sse2)
-_sk_store_a8_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 453e <_sk_store_a8_sse2+0xe>
- .byte 94 // pop %esi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,87,4 // mov 0x4(%edi),%edx
- .byte 15,175,81,4 // imul 0x4(%ecx),%edx
- .byte 3,23 // add (%edi),%edx
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,227 // maxps %xmm3,%xmm4
- .byte 15,93,166,34,194,0,0 // minps 0xc222(%esi),%xmm4
- .byte 15,89,166,242,194,0,0 // mulps 0xc2f2(%esi),%xmm4
- .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,224 // packssdw %xmm0,%xmm4
- .byte 102,15,103,224 // packuswb %xmm0,%xmm4
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,26 // jne 459d <_sk_store_a8_sse2+0x6d>
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 137,52,58 // mov %esi,(%edx,%edi,1)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,54 // je 45e3 <_sk_store_a8_sse2+0xb3>
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,14 // je 45c0 <_sk_store_a8_sse2+0x90>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,211 // jne 458a <_sk_store_a8_sse2+0x5a>
- .byte 102,15,197,220,4 // pextrw $0x4,%xmm4,%ebx
- .byte 136,92,58,2 // mov %bl,0x2(%edx,%edi,1)
- .byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
- .byte 102,15,219,166,18,198,0,0 // pand 0xc612(%esi),%xmm4
- .byte 102,15,103,228 // packuswb %xmm4,%xmm4
- .byte 102,15,103,228 // packuswb %xmm4,%xmm4
- .byte 102,15,103,228 // packuswb %xmm4,%xmm4
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 102,137,52,58 // mov %si,(%edx,%edi,1)
- .byte 235,167 // jmp 458a <_sk_store_a8_sse2+0x5a>
- .byte 102,15,126,227 // movd %xmm4,%ebx
- .byte 136,28,58 // mov %bl,(%edx,%edi,1)
- .byte 235,158 // jmp 458a <_sk_store_a8_sse2+0x5a>
-
-HIDDEN _sk_load_g8_sse2
-.globl _sk_load_g8_sse2
-FUNCTION(_sk_load_g8_sse2)
-_sk_load_g8_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 45fa <_sk_load_g8_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,63 // jne 4654 <_sk_load_g8_sse2+0x68>
- .byte 102,15,110,4,62 // movd (%esi,%edi,1),%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 102,15,97,192 // punpcklwd %xmm0,%xmm0
- .byte 102,15,219,130,38,194,0,0 // pand 0xc226(%edx),%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,102,195,0,0 // mulps 0xc366(%edx),%xmm0
- .byte 141,112,8 // lea 0x8(%eax),%esi
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,102,193,0,0 // movaps 0xc166(%edx),%xmm3
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 468e <_sk_load_g8_sse2+0xa2>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4678 <_sk_load_g8_sse2+0x8c>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,184 // jne 4622 <_sk_load_g8_sse2+0x36>
- .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
- .byte 102,15,110,195 // movd %ebx,%xmm0
- .byte 102,15,112,192,69 // pshufd $0x45,%xmm0,%xmm0
- .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi
- .byte 102,15,110,206 // movd %esi,%xmm1
- .byte 102,15,96,200 // punpcklbw %xmm0,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 242,15,16,193 // movsd %xmm1,%xmm0
- .byte 235,148 // jmp 4622 <_sk_load_g8_sse2+0x36>
- .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
- .byte 102,15,110,198 // movd %esi,%xmm0
- .byte 235,138 // jmp 4622 <_sk_load_g8_sse2+0x36>
-
-HIDDEN _sk_load_g8_dst_sse2
-.globl _sk_load_g8_dst_sse2
-FUNCTION(_sk_load_g8_dst_sse2)
-_sk_load_g8_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 46a6 <_sk_load_g8_dst_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,73 // jne 470a <_sk_load_g8_dst_sse2+0x72>
- .byte 102,15,110,36,62 // movd (%esi,%edi,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,219,162,122,193,0,0 // pand 0xc17a(%edx),%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,186,194,0,0 // mulps 0xc2ba(%edx),%xmm4
- .byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
- .byte 15,41,97,32 // movaps %xmm4,0x20(%ecx)
- .byte 15,41,97,16 // movaps %xmm4,0x10(%ecx)
- .byte 15,40,162,186,192,0,0 // movaps 0xc0ba(%edx),%xmm4
- .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,50 // je 4744 <_sk_load_g8_dst_sse2+0xac>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 472e <_sk_load_g8_dst_sse2+0x96>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,174 // jne 46ce <_sk_load_g8_dst_sse2+0x36>
- .byte 15,182,92,62,2 // movzbl 0x2(%esi,%edi,1),%ebx
- .byte 102,15,110,227 // movd %ebx,%xmm4
- .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 15,183,52,62 // movzwl (%esi,%edi,1),%esi
- .byte 102,15,110,238 // movd %esi,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 102,15,97,232 // punpcklwd %xmm0,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 235,138 // jmp 46ce <_sk_load_g8_dst_sse2+0x36>
- .byte 15,182,52,62 // movzbl (%esi,%edi,1),%esi
- .byte 102,15,110,230 // movd %esi,%xmm4
- .byte 235,128 // jmp 46ce <_sk_load_g8_dst_sse2+0x36>
-
-HIDDEN _sk_gather_g8_sse2
-.globl _sk_gather_g8_sse2
-FUNCTION(_sk_gather_g8_sse2)
-_sk_gather_g8_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,254,211 // paddd %xmm3,%xmm2
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,226 // minps %xmm2,%xmm4
- .byte 243,15,16,65,12 // movss 0xc(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,95,209 // maxps %xmm1,%xmm2
- .byte 15,93,208 // minps %xmm0,%xmm2
- .byte 139,17 // mov (%ecx),%edx
- .byte 243,15,91,194 // cvttps2dq %xmm2,%xmm0
- .byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,15,91,204 // cvttps2dq %xmm4,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 15,182,52,50 // movzbl (%edx,%esi,1),%esi
- .byte 15,182,60,58 // movzbl (%edx,%edi,1),%edi
- .byte 193,231,8 // shl $0x8,%edi
- .byte 9,247 // or %esi,%edi
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 15,182,12,10 // movzbl (%edx,%ecx,1),%ecx
- .byte 15,182,20,50 // movzbl (%edx,%esi,1),%edx
- .byte 193,226,8 // shl $0x8,%edx
- .byte 9,202 // or %ecx,%edx
- .byte 102,15,110,194 // movd %edx,%xmm0
- .byte 232,0,0,0,0 // call 47fd <_sk_gather_g8_sse2+0xaf>
- .byte 89 // pop %ecx
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 102,15,196,199,1 // pinsrw $0x1,%edi,%xmm0
- .byte 102,15,96,193 // punpcklbw %xmm1,%xmm0
- .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,99,193,0,0 // mulps 0xc163(%ecx),%xmm0
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,99,191,0,0 // movaps 0xbf63(%ecx),%xmm3
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 82 // push %edx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,16 // add $0x10,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_load_565_sse2
-.globl _sk_load_565_sse2
-FUNCTION(_sk_load_565_sse2)
-_sk_load_565_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4848 <_sk_load_565_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 1,246 // add %esi,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,97 // jne 48c6 <_sk_load_565_sse2+0x8c>
- .byte 243,15,126,20,126 // movq (%esi,%edi,2),%xmm2
- .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,40,193,0,0 // movdqa 0xc128(%edx),%xmm0
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,56,193,0,0 // mulps 0xc138(%edx),%xmm0
- .byte 102,15,111,138,72,193,0,0 // movdqa 0xc148(%edx),%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,88,193,0,0 // mulps 0xc158(%edx),%xmm1
- .byte 102,15,219,146,104,193,0,0 // pand 0xc168(%edx),%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,120,193,0,0 // mulps 0xc178(%edx),%xmm2
- .byte 141,112,8 // lea 0x8(%eax),%esi
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,24,191,0,0 // movaps 0xbf18(%edx),%xmm3
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 48fd <_sk_load_565_sse2+0xc3>
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 48ea <_sk_load_565_sse2+0xb0>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,146 // jne 486e <_sk_load_565_sse2+0x34>
- .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
- .byte 102,15,110,195 // movd %ebx,%xmm0
- .byte 102,15,112,208,69 // pshufd $0x45,%xmm0,%xmm2
- .byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
- .byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
- .byte 242,15,16,208 // movsd %xmm0,%xmm2
- .byte 233,113,255,255,255 // jmp 486e <_sk_load_565_sse2+0x34>
- .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
- .byte 102,15,110,214 // movd %esi,%xmm2
- .byte 233,100,255,255,255 // jmp 486e <_sk_load_565_sse2+0x34>
-
-HIDDEN _sk_load_565_dst_sse2
-.globl _sk_load_565_dst_sse2
-FUNCTION(_sk_load_565_dst_sse2)
-_sk_load_565_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4918 <_sk_load_565_dst_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 1,246 // add %esi,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,113 // jne 49a6 <_sk_load_565_dst_sse2+0x9c>
- .byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
- .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,88,192,0,0 // movdqa 0xc058(%edx),%xmm5
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,104,192,0,0 // mulps 0xc068(%edx),%xmm5
- .byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,120,192,0,0 // movdqa 0xc078(%edx),%xmm5
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,136,192,0,0 // mulps 0xc088(%edx),%xmm5
- .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,219,162,152,192,0,0 // pand 0xc098(%edx),%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,168,192,0,0 // mulps 0xc0a8(%edx),%xmm4
- .byte 15,41,97,48 // movaps %xmm4,0x30(%ecx)
- .byte 15,40,162,72,190,0,0 // movaps 0xbe48(%edx),%xmm4
- .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 49dd <_sk_load_565_dst_sse2+0xd3>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 49ca <_sk_load_565_dst_sse2+0xc0>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,130 // jne 493e <_sk_load_565_dst_sse2+0x34>
- .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
- .byte 102,15,110,227 // movd %ebx,%xmm4
- .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
- .byte 242,15,112,237,212 // pshuflw $0xd4,%xmm5,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,97,255,255,255 // jmp 493e <_sk_load_565_dst_sse2+0x34>
- .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
- .byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,84,255,255,255 // jmp 493e <_sk_load_565_dst_sse2+0x34>
-
-HIDDEN _sk_gather_565_sse2
-.globl _sk_gather_565_sse2
-FUNCTION(_sk_gather_565_sse2)
-_sk_gather_565_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,254,211 // paddd %xmm3,%xmm2
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,226 // minps %xmm2,%xmm4
- .byte 243,15,16,65,12 // movss 0xc(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,95,209 // maxps %xmm1,%xmm2
- .byte 15,93,208 // minps %xmm0,%xmm2
- .byte 139,17 // mov (%ecx),%edx
- .byte 243,15,91,194 // cvttps2dq %xmm2,%xmm0
- .byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,15,91,204 // cvttps2dq %xmm4,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
- .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
- .byte 102,15,110,209 // movd %ecx,%xmm2
- .byte 102,15,126,193 // movd %xmm0,%ecx
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
- .byte 102,15,196,209,1 // pinsrw $0x1,%ecx,%xmm2
- .byte 102,15,126,193 // movd %xmm0,%ecx
- .byte 102,15,112,193,231 // pshufd $0xe7,%xmm1,%xmm0
- .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
- .byte 102,15,196,209,2 // pinsrw $0x2,%ecx,%xmm2
- .byte 102,15,126,193 // movd %xmm0,%ecx
- .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
- .byte 232,0,0,0,0 // call 4a9a <_sk_gather_565_sse2+0xb0>
- .byte 90 // pop %edx
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,209,3 // pinsrw $0x3,%ecx,%xmm2
- .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,111,130,214,190,0,0 // movdqa 0xbed6(%edx),%xmm0
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,230,190,0,0 // mulps 0xbee6(%edx),%xmm0
- .byte 102,15,111,138,246,190,0,0 // movdqa 0xbef6(%edx),%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,6,191,0,0 // mulps 0xbf06(%edx),%xmm1
- .byte 102,15,219,146,22,191,0,0 // pand 0xbf16(%edx),%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,38,191,0,0 // mulps 0xbf26(%edx),%xmm2
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,198,188,0,0 // movaps 0xbcc6(%edx),%xmm3
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_store_565_sse2
-.globl _sk_store_565_sse2
-FUNCTION(_sk_store_565_sse2)
-_sk_store_565_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4b0d <_sk_store_565_sse2+0xe>
- .byte 94 // pop %esi
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,40,182,83,188,0,0 // movaps 0xbc53(%esi),%xmm6
- .byte 15,93,238 // minps %xmm6,%xmm5
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,95,249 // maxps %xmm1,%xmm7
- .byte 15,93,254 // minps %xmm6,%xmm7
- .byte 15,95,226 // maxps %xmm2,%xmm4
- .byte 15,93,230 // minps %xmm6,%xmm4
- .byte 15,40,182,83,192,0,0 // movaps 0xc053(%esi),%xmm6
- .byte 15,89,238 // mulps %xmm6,%xmm5
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 102,15,91,237 // cvtps2dq %xmm5,%xmm5
- .byte 102,15,114,245,11 // pslld $0xb,%xmm5
- .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
- .byte 102,15,86,229 // orpd %xmm5,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,87,4 // mov 0x4(%edi),%edx
- .byte 15,175,81,4 // imul 0x4(%ecx),%edx
- .byte 1,210 // add %edx,%edx
- .byte 3,23 // add (%edi),%edx
- .byte 139,57 // mov (%ecx),%edi
- .byte 15,89,190,99,192,0,0 // mulps 0xc063(%esi),%xmm7
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 102,15,91,239 // cvtps2dq %xmm7,%xmm5
- .byte 102,15,114,245,5 // pslld $0x5,%xmm5
- .byte 102,15,86,229 // orpd %xmm5,%xmm4
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,224 // packssdw %xmm0,%xmm4
- .byte 102,15,126,101,232 // movd %xmm4,-0x18(%ebp)
- .byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
- .byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
- .byte 133,219 // test %ebx,%ebx
- .byte 117,34 // jne 4bbd <_sk_store_565_sse2+0xbe>
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 102,15,126,235 // movd %xmm5,%ebx
- .byte 137,52,122 // mov %esi,(%edx,%edi,2)
- .byte 137,92,122,4 // mov %ebx,0x4(%edx,%edi,2)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 243,15,126,101,232 // movq -0x18(%ebp),%xmm4
- .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,37 // je 4bf3 <_sk_store_565_sse2+0xf4>
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,15 // je 4be2 <_sk_store_565_sse2+0xe3>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,210 // jne 4baa <_sk_store_565_sse2+0xab>
- .byte 102,15,197,244,4 // pextrw $0x4,%xmm4,%esi
- .byte 102,137,116,122,4 // mov %si,0x4(%edx,%edi,2)
- .byte 102,15,112,228,212 // pshufd $0xd4,%xmm4,%xmm4
- .byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
- .byte 102,15,126,36,122 // movd %xmm4,(%edx,%edi,2)
- .byte 235,183 // jmp 4baa <_sk_store_565_sse2+0xab>
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 102,137,52,122 // mov %si,(%edx,%edi,2)
- .byte 235,173 // jmp 4baa <_sk_store_565_sse2+0xab>
-
-HIDDEN _sk_load_4444_sse2
-.globl _sk_load_4444_sse2
-FUNCTION(_sk_load_4444_sse2)
-_sk_load_4444_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4c0b <_sk_load_4444_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 1,246 // add %esi,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,112 // jne 4c98 <_sk_load_4444_sse2+0x9b>
- .byte 243,15,126,28,126 // movq (%esi,%edi,2),%xmm3
- .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,130,117,191,0,0 // movdqa 0xbf75(%edx),%xmm0
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,130,133,191,0,0 // mulps 0xbf85(%edx),%xmm0
- .byte 102,15,111,138,149,191,0,0 // movdqa 0xbf95(%edx),%xmm1
- .byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,138,165,191,0,0 // mulps 0xbfa5(%edx),%xmm1
- .byte 102,15,111,146,181,191,0,0 // movdqa 0xbfb5(%edx),%xmm2
- .byte 102,15,219,211 // pand %xmm3,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,146,197,191,0,0 // mulps 0xbfc5(%edx),%xmm2
- .byte 102,15,219,154,213,191,0,0 // pand 0xbfd5(%edx),%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,229,191,0,0 // mulps 0xbfe5(%edx),%xmm3
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,47 // je 4ccf <_sk_load_4444_sse2+0xd2>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,19 // je 4cbc <_sk_load_4444_sse2+0xbf>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,131 // jne 4c31 <_sk_load_4444_sse2+0x34>
- .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
- .byte 102,15,110,195 // movd %ebx,%xmm0
- .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 102,15,110,4,126 // movd (%esi,%edi,2),%xmm0
- .byte 242,15,112,192,212 // pshuflw $0xd4,%xmm0,%xmm0
- .byte 242,15,16,216 // movsd %xmm0,%xmm3
- .byte 233,98,255,255,255 // jmp 4c31 <_sk_load_4444_sse2+0x34>
- .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
- .byte 102,15,110,222 // movd %esi,%xmm3
- .byte 233,85,255,255,255 // jmp 4c31 <_sk_load_4444_sse2+0x34>
-
-HIDDEN _sk_load_4444_dst_sse2
-.globl _sk_load_4444_dst_sse2
-FUNCTION(_sk_load_4444_dst_sse2)
-_sk_load_4444_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 4cea <_sk_load_4444_dst_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 1,246 // add %esi,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 15,133,128,0,0,0 // jne 4d8b <_sk_load_4444_dst_sse2+0xaf>
- .byte 243,15,126,36,126 // movq (%esi,%edi,2),%xmm4
- .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,111,170,150,190,0,0 // movdqa 0xbe96(%edx),%xmm5
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,166,190,0,0 // mulps 0xbea6(%edx),%xmm5
- .byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,111,170,182,190,0,0 // movdqa 0xbeb6(%edx),%xmm5
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,198,190,0,0 // mulps 0xbec6(%edx),%xmm5
- .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,111,170,214,190,0,0 // movdqa 0xbed6(%edx),%xmm5
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,89,170,230,190,0,0 // mulps 0xbee6(%edx),%xmm5
- .byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
- .byte 102,15,219,162,246,190,0,0 // pand 0xbef6(%edx),%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,6,191,0,0 // mulps 0xbf06(%edx),%xmm4
- .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,51 // je 4dc6 <_sk_load_4444_dst_sse2+0xea>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,23 // je 4db3 <_sk_load_4444_dst_sse2+0xd7>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,111,255,255,255 // jne 4d14 <_sk_load_4444_dst_sse2+0x38>
- .byte 15,183,92,126,4 // movzwl 0x4(%esi,%edi,2),%ebx
- .byte 102,15,110,227 // movd %ebx,%xmm4
- .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 102,15,110,44,126 // movd (%esi,%edi,2),%xmm5
- .byte 242,15,112,237,212 // pshuflw $0xd4,%xmm5,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 233,78,255,255,255 // jmp 4d14 <_sk_load_4444_dst_sse2+0x38>
- .byte 15,183,52,126 // movzwl (%esi,%edi,2),%esi
- .byte 102,15,110,230 // movd %esi,%xmm4
- .byte 233,65,255,255,255 // jmp 4d14 <_sk_load_4444_dst_sse2+0x38>
-
-HIDDEN _sk_gather_4444_sse2
-.globl _sk_gather_4444_sse2
-FUNCTION(_sk_gather_4444_sse2)
-_sk_gather_4444_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,254,211 // paddd %xmm3,%xmm2
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,226 // minps %xmm2,%xmm4
- .byte 243,15,16,65,12 // movss 0xc(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,95,209 // maxps %xmm1,%xmm2
- .byte 15,93,208 // minps %xmm0,%xmm2
- .byte 139,17 // mov (%ecx),%edx
- .byte 243,15,91,194 // cvttps2dq %xmm2,%xmm0
- .byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,15,91,204 // cvttps2dq %xmm4,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
- .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 102,15,126,193 // movd %xmm0,%ecx
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
- .byte 102,15,196,217,1 // pinsrw $0x1,%ecx,%xmm3
- .byte 102,15,126,193 // movd %xmm0,%ecx
- .byte 102,15,112,193,231 // pshufd $0xe7,%xmm1,%xmm0
- .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
- .byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
- .byte 102,15,126,193 // movd %xmm0,%ecx
- .byte 15,183,12,74 // movzwl (%edx,%ecx,2),%ecx
- .byte 102,15,196,217,3 // pinsrw $0x3,%ecx,%xmm3
- .byte 232,0,0,0,0 // call 4e88 <_sk_gather_4444_sse2+0xb5>
- .byte 89 // pop %ecx
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,111,129,248,188,0,0 // movdqa 0xbcf8(%ecx),%xmm0
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,129,8,189,0,0 // mulps 0xbd08(%ecx),%xmm0
- .byte 102,15,111,137,24,189,0,0 // movdqa 0xbd18(%ecx),%xmm1
- .byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,137,40,189,0,0 // mulps 0xbd28(%ecx),%xmm1
- .byte 102,15,111,145,56,189,0,0 // movdqa 0xbd38(%ecx),%xmm2
- .byte 102,15,219,211 // pand %xmm3,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,145,72,189,0,0 // mulps 0xbd48(%ecx),%xmm2
- .byte 102,15,219,153,88,189,0,0 // pand 0xbd58(%ecx),%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,153,104,189,0,0 // mulps 0xbd68(%ecx),%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_store_4444_sse2
-.globl _sk_store_4444_sse2
-FUNCTION(_sk_store_4444_sse2)
-_sk_store_4444_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,44 // sub $0x2c,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 4f09 <_sk_store_4444_sse2+0x12>
- .byte 88 // pop %eax
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,40,168,87,184,0,0 // movaps 0xb857(%eax),%xmm5
- .byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,247,188,0,0 // movaps 0xbcf7(%eax),%xmm6
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
- .byte 102,15,114,244,12 // pslld $0xc,%xmm4
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,95,249 // maxps %xmm1,%xmm7
- .byte 15,93,253 // minps %xmm5,%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7
- .byte 102,15,114,247,8 // pslld $0x8,%xmm7
- .byte 102,15,235,252 // por %xmm4,%xmm7
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,95,226 // maxps %xmm2,%xmm4
- .byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,95,93,216 // maxps -0x28(%ebp),%xmm3
- .byte 15,93,221 // minps %xmm5,%xmm3
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 102,15,91,236 // cvtps2dq %xmm4,%xmm5
- .byte 102,15,114,245,4 // pslld $0x4,%xmm5
- .byte 102,15,91,227 // cvtps2dq %xmm3,%xmm4
- .byte 102,15,86,229 // orpd %xmm5,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,17 // mov (%ecx),%edx
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 1,246 // add %esi,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 102,15,86,231 // orpd %xmm7,%xmm4
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,224 // packssdw %xmm0,%xmm4
- .byte 102,15,126,101,232 // movd %xmm4,-0x18(%ebp)
- .byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
- .byte 102,15,126,109,236 // movd %xmm5,-0x14(%ebp)
- .byte 133,219 // test %ebx,%ebx
- .byte 117,42 // jne 4fdc <_sk_store_4444_sse2+0xe5>
- .byte 102,15,126,231 // movd %xmm4,%edi
- .byte 102,15,126,235 // movd %xmm5,%ebx
- .byte 137,60,86 // mov %edi,(%esi,%edx,2)
- .byte 137,92,86,4 // mov %ebx,0x4(%esi,%edx,2)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,60 // add $0x3c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 243,15,126,101,232 // movq -0x18(%ebp),%xmm4
- .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,37 // je 5012 <_sk_store_4444_sse2+0x11b>
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,15 // je 5001 <_sk_store_4444_sse2+0x10a>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,202 // jne 4fc1 <_sk_store_4444_sse2+0xca>
- .byte 102,15,197,252,4 // pextrw $0x4,%xmm4,%edi
- .byte 102,137,124,86,4 // mov %di,0x4(%esi,%edx,2)
- .byte 102,15,112,220,212 // pshufd $0xd4,%xmm4,%xmm3
- .byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3
- .byte 102,15,126,28,86 // movd %xmm3,(%esi,%edx,2)
- .byte 235,175 // jmp 4fc1 <_sk_store_4444_sse2+0xca>
- .byte 102,15,126,231 // movd %xmm4,%edi
- .byte 102,137,60,86 // mov %di,(%esi,%edx,2)
- .byte 235,165 // jmp 4fc1 <_sk_store_4444_sse2+0xca>
-
-HIDDEN _sk_load_8888_sse2
-.globl _sk_load_8888_sse2
-FUNCTION(_sk_load_8888_sse2)
-_sk_load_8888_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 502a <_sk_load_8888_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 193,230,2 // shl $0x2,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 50ae <_sk_load_8888_sse2+0x92>
- .byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,146,246,183,0,0 // movdqa 0xb7f6(%edx),%xmm2
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,54,185,0,0 // movaps 0xb936(%edx),%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,114,213,16 // psrld $0x10,%xmm5
- .byte 102,15,219,234 // pand %xmm2,%xmm5
- .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 50d9 <_sk_load_8888_sse2+0xbd>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 50cf <_sk_load_8888_sse2+0xb3>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,137 // jne 504d <_sk_load_8888_sse2+0x31>
- .byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
- .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,116,255,255,255 // jmp 504d <_sk_load_8888_sse2+0x31>
- .byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,106,255,255,255 // jmp 504d <_sk_load_8888_sse2+0x31>
-
-HIDDEN _sk_load_8888_dst_sse2
-.globl _sk_load_8888_dst_sse2
-FUNCTION(_sk_load_8888_dst_sse2)
-_sk_load_8888_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 50f1 <_sk_load_8888_dst_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 193,230,2 // shl $0x2,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,118 // jne 5185 <_sk_load_8888_dst_sse2+0xa2>
- .byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,47,183,0,0 // movdqa 0xb72f(%edx),%xmm5
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,111,184,0,0 // movaps 0xb86f(%edx),%xmm7
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,114,214,8 // psrld $0x8,%xmm6
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,41,113,32 // movaps %xmm6,0x20(%ecx)
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,114,214,16 // psrld $0x10,%xmm6
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
- .byte 102,15,114,212,24 // psrld $0x18,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 51b4 <_sk_load_8888_dst_sse2+0xd1>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 51aa <_sk_load_8888_dst_sse2+0xc7>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,117,255,255,255 // jne 5114 <_sk_load_8888_dst_sse2+0x31>
- .byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
- .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,96,255,255,255 // jmp 5114 <_sk_load_8888_dst_sse2+0x31>
- .byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,86,255,255,255 // jmp 5114 <_sk_load_8888_dst_sse2+0x31>
-
-HIDDEN _sk_gather_8888_sse2
-.globl _sk_gather_8888_sse2
-FUNCTION(_sk_gather_8888_sse2)
-_sk_gather_8888_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,254,211 // paddd %xmm3,%xmm2
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,93,234 // minps %xmm2,%xmm5
- .byte 243,15,16,65,12 // movss 0xc(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 15,95,225 // maxps %xmm1,%xmm4
- .byte 15,93,224 // minps %xmm0,%xmm4
- .byte 139,17 // mov (%ecx),%edx
- .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
- .byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,15,112,209,231 // pshufd $0xe7,%xmm1,%xmm2
- .byte 102,15,126,209 // movd %xmm2,%ecx
- .byte 102,15,110,20,138 // movd (%edx,%ecx,4),%xmm2
- .byte 102,15,126,193 // movd %xmm0,%ecx
- .byte 102,15,110,4,138 // movd (%edx,%ecx,4),%xmm0
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1
- .byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
- .byte 232,0,0,0,0 // call 5264 <_sk_gather_8888_sse2+0xa6>
- .byte 89 // pop %ecx
- .byte 102,15,98,194 // punpckldq %xmm2,%xmm0
- .byte 102,15,98,217 // punpckldq %xmm1,%xmm3
- .byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,145,188,181,0,0 // movdqa 0xb5bc(%ecx),%xmm2
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,161,252,182,0,0 // movaps 0xb6fc(%ecx),%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,114,213,16 // psrld $0x10,%xmm5
- .byte 102,15,219,234 // pand %xmm2,%xmm5
- .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_store_8888_sse2
-.globl _sk_store_8888_sse2
-FUNCTION(_sk_store_8888_sse2)
-_sk_store_8888_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,44 // sub $0x2c,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 52e3 <_sk_store_8888_sse2+0x12>
- .byte 88 // pop %eax
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,40,168,125,180,0,0 // movaps 0xb47d(%eax),%xmm5
- .byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,77,181,0,0 // movaps 0xb54d(%eax),%xmm6
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,95,249 // maxps %xmm1,%xmm7
- .byte 15,93,253 // minps %xmm5,%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7
- .byte 102,15,114,247,8 // pslld $0x8,%xmm7
- .byte 102,15,235,252 // por %xmm4,%xmm7
- .byte 102,15,87,228 // xorpd %xmm4,%xmm4
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,95,226 // maxps %xmm2,%xmm4
- .byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,95,93,216 // maxps -0x28(%ebp),%xmm3
- .byte 15,93,221 // minps %xmm5,%xmm3
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 102,15,91,236 // cvtps2dq %xmm4,%xmm5
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,91,227 // cvtps2dq %xmm3,%xmm4
- .byte 102,15,114,244,24 // pslld $0x18,%xmm4
- .byte 102,15,235,229 // por %xmm5,%xmm4
- .byte 102,15,235,231 // por %xmm7,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,17 // mov (%ecx),%edx
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 193,230,2 // shl $0x2,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 117,32 // jne 5390 <_sk_store_8888_sse2+0xbf>
- .byte 243,15,127,36,150 // movdqu %xmm4,(%esi,%edx,4)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,60 // add $0x3c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 53b4 <_sk_store_8888_sse2+0xe3>
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 53ad <_sk_store_8888_sse2+0xdc>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,211 // jne 5375 <_sk_store_8888_sse2+0xa4>
- .byte 102,15,112,220,78 // pshufd $0x4e,%xmm4,%xmm3
- .byte 102,15,126,92,150,8 // movd %xmm3,0x8(%esi,%edx,4)
- .byte 102,15,214,36,150 // movq %xmm4,(%esi,%edx,4)
- .byte 235,193 // jmp 5375 <_sk_store_8888_sse2+0xa4>
- .byte 102,15,126,36,150 // movd %xmm4,(%esi,%edx,4)
- .byte 235,186 // jmp 5375 <_sk_store_8888_sse2+0xa4>
-
-HIDDEN _sk_load_bgra_sse2
-.globl _sk_load_bgra_sse2
-FUNCTION(_sk_load_bgra_sse2)
-_sk_load_bgra_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 53c9 <_sk_load_bgra_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 193,230,2 // shl $0x2,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,102 // jne 544d <_sk_load_bgra_sse2+0x92>
- .byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,130,87,180,0,0 // movdqa 0xb457(%edx),%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,162,151,181,0,0 // movaps 0xb597(%edx),%xmm4
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,114,213,16 // psrld $0x10,%xmm5
- .byte 102,15,219,232 // pand %xmm0,%xmm5
- .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 5478 <_sk_load_bgra_sse2+0xbd>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 546e <_sk_load_bgra_sse2+0xb3>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,137 // jne 53ec <_sk_load_bgra_sse2+0x31>
- .byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
- .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,116,255,255,255 // jmp 53ec <_sk_load_bgra_sse2+0x31>
- .byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,106,255,255,255 // jmp 53ec <_sk_load_bgra_sse2+0x31>
-
-HIDDEN _sk_load_bgra_dst_sse2
-.globl _sk_load_bgra_dst_sse2
-FUNCTION(_sk_load_bgra_dst_sse2)
-_sk_load_bgra_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 5490 <_sk_load_bgra_dst_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 193,230,2 // shl $0x2,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,118 // jne 5524 <_sk_load_bgra_dst_sse2+0xa2>
- .byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,144,179,0,0 // movdqa 0xb390(%edx),%xmm5
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,208,180,0,0 // movaps 0xb4d0(%edx),%xmm7
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,41,113,48 // movaps %xmm6,0x30(%ecx)
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,114,214,8 // psrld $0x8,%xmm6
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,41,113,32 // movaps %xmm6,0x20(%ecx)
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,114,214,16 // psrld $0x10,%xmm6
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,41,105,16 // movaps %xmm5,0x10(%ecx)
- .byte 102,15,114,212,24 // psrld $0x18,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 5553 <_sk_load_bgra_dst_sse2+0xd1>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 5549 <_sk_load_bgra_dst_sse2+0xc7>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,117,255,255,255 // jne 54b3 <_sk_load_bgra_dst_sse2+0x31>
- .byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
- .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,96,255,255,255 // jmp 54b3 <_sk_load_bgra_dst_sse2+0x31>
- .byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,86,255,255,255 // jmp 54b3 <_sk_load_bgra_dst_sse2+0x31>
-
-HIDDEN _sk_gather_bgra_sse2
-.globl _sk_gather_bgra_sse2
-FUNCTION(_sk_gather_bgra_sse2)
-_sk_gather_bgra_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,254,211 // paddd %xmm3,%xmm2
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,93,234 // minps %xmm2,%xmm5
- .byte 243,15,16,65,12 // movss 0xc(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 15,95,225 // maxps %xmm1,%xmm4
- .byte 15,93,224 // minps %xmm0,%xmm4
- .byte 139,17 // mov (%ecx),%edx
- .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
- .byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,15,112,209,231 // pshufd $0xe7,%xmm1,%xmm2
- .byte 102,15,126,209 // movd %xmm2,%ecx
- .byte 102,15,110,20,138 // movd (%edx,%ecx,4),%xmm2
- .byte 102,15,126,193 // movd %xmm0,%ecx
- .byte 102,15,110,4,138 // movd (%edx,%ecx,4),%xmm0
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1
- .byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
- .byte 232,0,0,0,0 // call 5603 <_sk_gather_bgra_sse2+0xa6>
- .byte 89 // pop %ecx
- .byte 102,15,98,194 // punpckldq %xmm2,%xmm0
- .byte 102,15,98,217 // punpckldq %xmm1,%xmm3
- .byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,129,29,178,0,0 // movdqa 0xb21d(%ecx),%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,40,161,93,179,0,0 // movaps 0xb35d(%ecx),%xmm4
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,114,213,16 // psrld $0x10,%xmm5
- .byte 102,15,219,232 // pand %xmm0,%xmm5
- .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_store_bgra_sse2
-.globl _sk_store_bgra_sse2
-FUNCTION(_sk_store_bgra_sse2)
-_sk_store_bgra_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,44 // sub $0x2c,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 232,0,0,0,0 // call 5682 <_sk_store_bgra_sse2+0x12>
- .byte 88 // pop %eax
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,95,226 // maxps %xmm2,%xmm4
- .byte 15,40,168,222,176,0,0 // movaps 0xb0de(%eax),%xmm5
- .byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,174,177,0,0 // movaps 0xb1ae(%eax),%xmm6
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,95,249 // maxps %xmm1,%xmm7
- .byte 15,93,253 // minps %xmm5,%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7
- .byte 102,15,114,247,8 // pslld $0x8,%xmm7
- .byte 102,15,235,252 // por %xmm4,%xmm7
- .byte 102,15,87,228 // xorpd %xmm4,%xmm4
- .byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,95,93,216 // maxps -0x28(%ebp),%xmm3
- .byte 15,93,221 // minps %xmm5,%xmm3
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 102,15,91,236 // cvtps2dq %xmm4,%xmm5
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,91,227 // cvtps2dq %xmm3,%xmm4
- .byte 102,15,114,244,24 // pslld $0x18,%xmm4
- .byte 102,15,235,229 // por %xmm5,%xmm4
- .byte 102,15,235,231 // por %xmm7,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,17 // mov (%ecx),%edx
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 193,230,2 // shl $0x2,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 117,32 // jne 572f <_sk_store_bgra_sse2+0xbf>
- .byte 243,15,127,36,150 // movdqu %xmm4,(%esi,%edx,4)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,60 // add $0x3c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 5753 <_sk_store_bgra_sse2+0xe3>
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 574c <_sk_store_bgra_sse2+0xdc>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,211 // jne 5714 <_sk_store_bgra_sse2+0xa4>
- .byte 102,15,112,220,78 // pshufd $0x4e,%xmm4,%xmm3
- .byte 102,15,126,92,150,8 // movd %xmm3,0x8(%esi,%edx,4)
- .byte 102,15,214,36,150 // movq %xmm4,(%esi,%edx,4)
- .byte 235,193 // jmp 5714 <_sk_store_bgra_sse2+0xa4>
- .byte 102,15,126,36,150 // movd %xmm4,(%esi,%edx,4)
- .byte 235,186 // jmp 5714 <_sk_store_bgra_sse2+0xa4>
-
-HIDDEN _sk_load_1010102_sse2
-.globl _sk_load_1010102_sse2
-FUNCTION(_sk_load_1010102_sse2)
-_sk_load_1010102_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 5768 <_sk_load_1010102_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 193,230,2 // shl $0x2,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,106 // jne 57f0 <_sk_load_1010102_sse2+0x96>
- .byte 243,15,111,28,190 // movdqu (%esi,%edi,4),%xmm3
- .byte 102,15,111,146,168,180,0,0 // movdqa 0xb4a8(%edx),%xmm2
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,184,180,0,0 // movaps 0xb4b8(%edx),%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,209,10 // psrld $0xa,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,114,213,20 // psrld $0x14,%xmm5
- .byte 102,15,219,234 // pand %xmm2,%xmm5
- .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 102,15,114,211,30 // psrld $0x1e,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,154,200,177,0,0 // mulps 0xb1c8(%edx),%xmm3
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,35 // je 581b <_sk_load_1010102_sse2+0xc1>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 5811 <_sk_load_1010102_sse2+0xb7>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,133 // jne 578b <_sk_load_1010102_sse2+0x31>
- .byte 102,15,110,68,190,8 // movd 0x8(%esi,%edi,4),%xmm0
- .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 102,15,18,28,190 // movlpd (%esi,%edi,4),%xmm3
- .byte 233,112,255,255,255 // jmp 578b <_sk_load_1010102_sse2+0x31>
- .byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 233,102,255,255,255 // jmp 578b <_sk_load_1010102_sse2+0x31>
-
-HIDDEN _sk_load_1010102_dst_sse2
-.globl _sk_load_1010102_dst_sse2
-FUNCTION(_sk_load_1010102_dst_sse2)
-_sk_load_1010102_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 5833 <_sk_load_1010102_dst_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 193,230,2 // shl $0x2,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 117,122 // jne 58cb <_sk_load_1010102_dst_sse2+0xa6>
- .byte 243,15,111,36,190 // movdqu (%esi,%edi,4),%xmm4
- .byte 102,15,111,170,221,179,0,0 // movdqa 0xb3dd(%edx),%xmm5
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,186,237,179,0,0 // movaps 0xb3ed(%edx),%xmm7
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,41,113,16 // movaps %xmm6,0x10(%ecx)
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,114,214,10 // psrld $0xa,%xmm6
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,41,113,32 // movaps %xmm6,0x20(%ecx)
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,114,214,20 // psrld $0x14,%xmm6
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 15,91,238 // cvtdq2ps %xmm6,%xmm5
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,41,105,48 // movaps %xmm5,0x30(%ecx)
- .byte 102,15,114,212,30 // psrld $0x1e,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,162,253,176,0,0 // mulps 0xb0fd(%edx),%xmm4
- .byte 15,41,97,64 // movaps %xmm4,0x40(%ecx)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,39 // je 58fa <_sk_load_1010102_dst_sse2+0xd5>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,20 // je 58f0 <_sk_load_1010102_dst_sse2+0xcb>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 15,133,113,255,255,255 // jne 5856 <_sk_load_1010102_dst_sse2+0x31>
- .byte 102,15,110,100,190,8 // movd 0x8(%esi,%edi,4),%xmm4
- .byte 102,15,112,228,69 // pshufd $0x45,%xmm4,%xmm4
- .byte 102,15,18,36,190 // movlpd (%esi,%edi,4),%xmm4
- .byte 233,92,255,255,255 // jmp 5856 <_sk_load_1010102_dst_sse2+0x31>
- .byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 233,82,255,255,255 // jmp 5856 <_sk_load_1010102_dst_sse2+0x31>
-
-HIDDEN _sk_gather_1010102_sse2
-.globl _sk_gather_1010102_sse2
-FUNCTION(_sk_gather_1010102_sse2)
-_sk_gather_1010102_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,254,211 // paddd %xmm3,%xmm2
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,95,232 // maxps %xmm0,%xmm5
- .byte 15,93,234 // minps %xmm2,%xmm5
- .byte 243,15,16,65,12 // movss 0xc(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 15,95,225 // maxps %xmm1,%xmm4
- .byte 15,93,224 // minps %xmm0,%xmm4
- .byte 139,17 // mov (%ecx),%edx
- .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
- .byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,15,91,205 // cvttps2dq %xmm5,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,15,112,209,231 // pshufd $0xe7,%xmm1,%xmm2
- .byte 102,15,126,209 // movd %xmm2,%ecx
- .byte 102,15,110,20,138 // movd (%edx,%ecx,4),%xmm2
- .byte 102,15,126,193 // movd %xmm0,%ecx
- .byte 102,15,110,4,138 // movd (%edx,%ecx,4),%xmm0
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1
- .byte 102,15,110,28,138 // movd (%edx,%ecx,4),%xmm3
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
- .byte 232,0,0,0,0 // call 59aa <_sk_gather_1010102_sse2+0xa6>
- .byte 89 // pop %ecx
- .byte 102,15,98,194 // punpckldq %xmm2,%xmm0
- .byte 102,15,98,217 // punpckldq %xmm1,%xmm3
- .byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 102,15,111,145,102,178,0,0 // movdqa 0xb266(%ecx),%xmm2
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,219,194 // pand %xmm2,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,161,118,178,0,0 // movaps 0xb276(%ecx),%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,209,10 // psrld $0xa,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,114,213,20 // psrld $0x14,%xmm5
- .byte 102,15,219,234 // pand %xmm2,%xmm5
- .byte 15,91,213 // cvtdq2ps %xmm5,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 102,15,114,211,30 // psrld $0x1e,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,153,134,175,0,0 // mulps 0xaf86(%ecx),%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_store_1010102_sse2
-.globl _sk_store_1010102_sse2
-FUNCTION(_sk_store_1010102_sse2)
-_sk_store_1010102_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 232,0,0,0,0 // call 5a29 <_sk_store_1010102_sse2+0xe>
- .byte 88 // pop %eax
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,40,168,55,173,0,0 // movaps 0xad37(%eax),%xmm5
- .byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,7,178,0,0 // movaps 0xb207(%eax),%xmm6
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,95,249 // maxps %xmm1,%xmm7
- .byte 15,93,253 // minps %xmm5,%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7
- .byte 102,15,114,247,10 // pslld $0xa,%xmm7
- .byte 102,15,235,252 // por %xmm4,%xmm7
- .byte 102,15,87,228 // xorpd %xmm4,%xmm4
- .byte 15,95,226 // maxps %xmm2,%xmm4
- .byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 102,15,91,244 // cvtps2dq %xmm4,%xmm6
- .byte 102,15,114,246,20 // pslld $0x14,%xmm6
- .byte 102,15,235,247 // por %xmm7,%xmm6
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,227 // maxps %xmm3,%xmm4
- .byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,89,160,23,178,0,0 // mulps 0xb217(%eax),%xmm4
- .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
- .byte 102,15,114,244,30 // pslld $0x1e,%xmm4
- .byte 102,15,235,230 // por %xmm6,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,17 // mov (%ecx),%edx
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 193,230,2 // shl $0x2,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 117,24 // jne 5acd <_sk_store_1010102_sse2+0xb2>
- .byte 243,15,127,36,150 // movdqu %xmm4,(%esi,%edx,4)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 128,227,3 // and $0x3,%bl
- .byte 128,251,1 // cmp $0x1,%bl
- .byte 116,28 // je 5af1 <_sk_store_1010102_sse2+0xd6>
- .byte 128,251,2 // cmp $0x2,%bl
- .byte 116,16 // je 5aea <_sk_store_1010102_sse2+0xcf>
- .byte 128,251,3 // cmp $0x3,%bl
- .byte 117,219 // jne 5aba <_sk_store_1010102_sse2+0x9f>
- .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
- .byte 102,15,126,108,150,8 // movd %xmm5,0x8(%esi,%edx,4)
- .byte 102,15,214,36,150 // movq %xmm4,(%esi,%edx,4)
- .byte 235,201 // jmp 5aba <_sk_store_1010102_sse2+0x9f>
- .byte 102,15,126,36,150 // movd %xmm4,(%esi,%edx,4)
- .byte 235,194 // jmp 5aba <_sk_store_1010102_sse2+0x9f>
-
-HIDDEN _sk_load_f16_sse2
-.globl _sk_load_f16_sse2
-FUNCTION(_sk_load_f16_sse2)
-_sk_load_f16_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 232,0,0,0,0 // call 5b06 <_sk_load_f16_sse2+0xe>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 193,230,3 // shl $0x3,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 15,133,173,1,0,0 // jne 5cd5 <_sk_load_f16_sse2+0x1dd>
- .byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
- .byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
- .byte 102,15,40,216 // movapd %xmm0,%xmm3
- .byte 102,15,97,217 // punpcklwd %xmm1,%xmm3
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,97,208 // punpcklwd %xmm0,%xmm2
- .byte 102,15,105,216 // punpckhwd %xmm0,%xmm3
- .byte 102,15,126,85,208 // movd %xmm2,-0x30(%ebp)
- .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
- .byte 102,15,126,69,212 // movd %xmm0,-0x2c(%ebp)
- .byte 243,15,126,77,208 // movq -0x30(%ebp),%xmm1
- .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0
- .byte 102,15,126,69,220 // movd %xmm0,-0x24(%ebp)
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,15,126,69,216 // movd %xmm0,-0x28(%ebp)
- .byte 243,15,126,101,216 // movq -0x28(%ebp),%xmm4
- .byte 102,15,126,93,224 // movd %xmm3,-0x20(%ebp)
- .byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
- .byte 102,15,126,69,228 // movd %xmm0,-0x1c(%ebp)
- .byte 242,15,16,69,224 // movsd -0x20(%ebp),%xmm0
- .byte 15,41,69,152 // movaps %xmm0,-0x68(%ebp)
- .byte 102,15,112,195,231 // pshufd $0xe7,%xmm3,%xmm0
- .byte 102,15,126,69,236 // movd %xmm0,-0x14(%ebp)
- .byte 102,15,112,195,78 // pshufd $0x4e,%xmm3,%xmm0
- .byte 102,15,126,69,232 // movd %xmm0,-0x18(%ebp)
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,170,74,177,0,0 // movdqa 0xb14a(%edx),%xmm5
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,219,245 // pand %xmm5,%xmm6
- .byte 102,15,219,138,90,177,0,0 // pand 0xb15a(%edx),%xmm1
- .byte 102,15,111,130,106,177,0,0 // movdqa 0xb16a(%edx),%xmm0
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 102,15,114,246,16 // pslld $0x10,%xmm6
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,102,217 // pcmpgtd %xmm1,%xmm3
- .byte 102,15,127,93,136 // movdqa %xmm3,-0x78(%ebp)
- .byte 102,15,114,241,13 // pslld $0xd,%xmm1
- .byte 102,15,235,206 // por %xmm6,%xmm1
- .byte 102,15,97,226 // punpcklwd %xmm2,%xmm4
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,219,213 // pand %xmm5,%xmm2
- .byte 102,15,111,154,90,177,0,0 // movdqa 0xb15a(%edx),%xmm3
- .byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,102,196 // pcmpgtd %xmm4,%xmm0
- .byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
- .byte 102,15,114,244,13 // pslld $0xd,%xmm4
- .byte 102,15,235,226 // por %xmm2,%xmm4
- .byte 102,15,111,69,152 // movdqa -0x68(%ebp),%xmm0
- .byte 102,15,97,199 // punpcklwd %xmm7,%xmm0
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,219,253 // pand %xmm5,%xmm7
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,146,106,177,0,0 // movdqa 0xb16a(%edx),%xmm2
- .byte 102,15,102,208 // pcmpgtd %xmm0,%xmm2
- .byte 102,15,114,240,13 // pslld $0xd,%xmm0
- .byte 102,15,235,199 // por %xmm7,%xmm0
- .byte 243,15,126,125,232 // movq -0x18(%ebp),%xmm7
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,15,97,254 // punpcklwd %xmm6,%xmm7
- .byte 102,15,219,239 // pand %xmm7,%xmm5
- .byte 102,15,219,251 // pand %xmm3,%xmm7
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,111,93,184 // movdqa -0x48(%ebp),%xmm3
- .byte 102,15,102,223 // pcmpgtd %xmm7,%xmm3
- .byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
- .byte 102,15,114,247,13 // pslld $0xd,%xmm7
- .byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,111,154,122,177,0,0 // movdqa 0xb17a(%edx),%xmm3
- .byte 102,15,254,203 // paddd %xmm3,%xmm1
- .byte 102,15,254,227 // paddd %xmm3,%xmm4
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,254,251 // paddd %xmm3,%xmm7
- .byte 102,15,111,93,136 // movdqa -0x78(%ebp),%xmm3
- .byte 102,15,223,217 // pandn %xmm1,%xmm3
- .byte 102,15,111,77,168 // movdqa -0x58(%ebp),%xmm1
- .byte 102,15,223,204 // pandn %xmm4,%xmm1
- .byte 102,15,223,208 // pandn %xmm0,%xmm2
- .byte 102,15,111,101,184 // movdqa -0x48(%ebp),%xmm4
- .byte 102,15,223,231 // pandn %xmm7,%xmm4
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,124 // add $0x7c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,76,254,255,255 // je 5b33 <_sk_load_f16_sse2+0x3b>
- .byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
- .byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,61,254,255,255 // jb 5b33 <_sk_load_f16_sse2+0x3b>
- .byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
- .byte 233,50,254,255,255 // jmp 5b33 <_sk_load_f16_sse2+0x3b>
-
-HIDDEN _sk_load_f16_dst_sse2
-.globl _sk_load_f16_dst_sse2
-FUNCTION(_sk_load_f16_dst_sse2)
-_sk_load_f16_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,124 // sub $0x7c,%esp
- .byte 15,41,157,120,255,255,255 // movaps %xmm3,-0x88(%ebp)
- .byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
- .byte 102,15,127,77,152 // movdqa %xmm1,-0x68(%ebp)
- .byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
- .byte 232,0,0,0,0 // call 5d23 <_sk_load_f16_dst_sse2+0x22>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 193,230,3 // shl $0x3,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 133,219 // test %ebx,%ebx
- .byte 139,57 // mov (%ecx),%edi
- .byte 15,133,168,1,0,0 // jne 5eed <_sk_load_f16_dst_sse2+0x1ec>
- .byte 102,15,16,4,254 // movupd (%esi,%edi,8),%xmm0
- .byte 243,15,111,76,254,16 // movdqu 0x10(%esi,%edi,8),%xmm1
- .byte 102,15,40,208 // movapd %xmm0,%xmm2
- .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,97,216 // punpcklwd %xmm0,%xmm3
- .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2
- .byte 102,15,126,93,208 // movd %xmm3,-0x30(%ebp)
- .byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
- .byte 102,15,126,69,212 // movd %xmm0,-0x2c(%ebp)
- .byte 243,15,126,77,208 // movq -0x30(%ebp),%xmm1
- .byte 102,15,112,195,231 // pshufd $0xe7,%xmm3,%xmm0
- .byte 102,15,126,69,220 // movd %xmm0,-0x24(%ebp)
- .byte 102,15,112,195,78 // pshufd $0x4e,%xmm3,%xmm0
- .byte 102,15,126,69,216 // movd %xmm0,-0x28(%ebp)
- .byte 243,15,126,69,216 // movq -0x28(%ebp),%xmm0
- .byte 102,15,126,85,224 // movd %xmm2,-0x20(%ebp)
- .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
- .byte 102,15,126,93,228 // movd %xmm3,-0x1c(%ebp)
- .byte 243,15,126,117,224 // movq -0x20(%ebp),%xmm6
- .byte 102,15,112,218,231 // pshufd $0xe7,%xmm2,%xmm3
- .byte 102,15,126,93,236 // movd %xmm3,-0x14(%ebp)
- .byte 102,15,112,210,78 // pshufd $0x4e,%xmm2,%xmm2
- .byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,97,202 // punpcklwd %xmm2,%xmm1
- .byte 102,15,111,186,45,175,0,0 // movdqa 0xaf2d(%edx),%xmm7
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,219,215 // pand %xmm7,%xmm2
- .byte 102,15,111,154,61,175,0,0 // movdqa 0xaf3d(%edx),%xmm3
- .byte 102,15,219,203 // pand %xmm3,%xmm1
- .byte 102,15,111,162,77,175,0,0 // movdqa 0xaf4d(%edx),%xmm4
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,102,233 // pcmpgtd %xmm1,%xmm5
- .byte 102,15,114,241,13 // pslld $0xd,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,146,93,175,0,0 // movdqa 0xaf5d(%edx),%xmm2
- .byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
- .byte 102,15,254,202 // paddd %xmm2,%xmm1
- .byte 102,15,223,233 // pandn %xmm1,%xmm5
- .byte 243,15,126,77,232 // movq -0x18(%ebp),%xmm1
- .byte 102,15,127,105,16 // movdqa %xmm5,0x10(%ecx)
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,97,194 // punpcklwd %xmm2,%xmm0
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,219,239 // pand %xmm7,%xmm5
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 102,15,102,216 // pcmpgtd %xmm0,%xmm3
- .byte 102,15,114,240,13 // pslld $0xd,%xmm0
- .byte 102,15,235,197 // por %xmm5,%xmm0
- .byte 102,15,111,109,184 // movdqa -0x48(%ebp),%xmm5
- .byte 102,15,254,197 // paddd %xmm5,%xmm0
- .byte 102,15,223,216 // pandn %xmm0,%xmm3
- .byte 102,15,127,89,32 // movdqa %xmm3,0x20(%ecx)
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,97,240 // punpcklwd %xmm0,%xmm6
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,219,242 // pand %xmm2,%xmm6
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 102,15,102,222 // pcmpgtd %xmm6,%xmm3
- .byte 102,15,114,246,13 // pslld $0xd,%xmm6
- .byte 102,15,235,240 // por %xmm0,%xmm6
- .byte 102,15,254,245 // paddd %xmm5,%xmm6
- .byte 102,15,223,222 // pandn %xmm6,%xmm3
- .byte 102,15,127,89,48 // movdqa %xmm3,0x30(%ecx)
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,97,203 // punpcklwd %xmm3,%xmm1
- .byte 102,15,219,249 // pand %xmm1,%xmm7
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,102,225 // pcmpgtd %xmm1,%xmm4
- .byte 102,15,114,241,13 // pslld $0xd,%xmm1
- .byte 102,15,235,207 // por %xmm7,%xmm1
- .byte 102,15,254,205 // paddd %xmm5,%xmm1
- .byte 102,15,223,225 // pandn %xmm1,%xmm4
- .byte 102,15,127,97,64 // movdqa %xmm4,0x40(%ecx)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,69,168 // movaps -0x58(%ebp),%xmm0
- .byte 15,40,77,152 // movaps -0x68(%ebp),%xmm1
- .byte 15,40,85,136 // movaps -0x78(%ebp),%xmm2
- .byte 15,40,157,120,255,255,255 // movaps -0x88(%ebp),%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,140,0,0,0 // add $0x8c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 242,15,16,4,254 // movsd (%esi,%edi,8),%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,81,254,255,255 // je 5d50 <_sk_load_f16_dst_sse2+0x4f>
- .byte 102,15,22,68,254,8 // movhpd 0x8(%esi,%edi,8),%xmm0
- .byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,66,254,255,255 // jb 5d50 <_sk_load_f16_dst_sse2+0x4f>
- .byte 243,15,126,76,254,16 // movq 0x10(%esi,%edi,8),%xmm1
- .byte 233,55,254,255,255 // jmp 5d50 <_sk_load_f16_dst_sse2+0x4f>
-
-HIDDEN _sk_gather_f16_sse2
-.globl _sk_gather_f16_sse2
-FUNCTION(_sk_gather_f16_sse2)
-_sk_gather_f16_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,88 // sub $0x58,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,254,211 // paddd %xmm3,%xmm2
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,226 // minps %xmm2,%xmm4
- .byte 243,15,16,65,12 // movss 0xc(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,95,209 // maxps %xmm1,%xmm2
- .byte 15,93,208 // minps %xmm0,%xmm2
- .byte 139,17 // mov (%ecx),%edx
- .byte 243,15,91,194 // cvttps2dq %xmm2,%xmm0
- .byte 102,15,110,73,4 // movd 0x4(%ecx),%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,112,202,232 // pshufd $0xe8,%xmm2,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 243,15,91,204 // cvttps2dq %xmm4,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,15,112,209,231 // pshufd $0xe7,%xmm1,%xmm2
- .byte 102,15,126,209 // movd %xmm2,%ecx
- .byte 243,15,126,20,202 // movq (%edx,%ecx,8),%xmm2
- .byte 102,15,126,193 // movd %xmm0,%ecx
- .byte 243,15,126,4,202 // movq (%edx,%ecx,8),%xmm0
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1
- .byte 243,15,126,28,202 // movq (%edx,%ecx,8),%xmm3
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 243,15,126,12,202 // movq (%edx,%ecx,8),%xmm1
- .byte 232,0,0,0,0 // call 5fbf <_sk_gather_f16_sse2+0xa6>
- .byte 89 // pop %ecx
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,15,108,194 // punpcklqdq %xmm2,%xmm0
- .byte 102,15,108,217 // punpcklqdq %xmm1,%xmm3
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,97,224 // punpcklwd %xmm0,%xmm4
- .byte 102,15,105,216 // punpckhwd %xmm0,%xmm3
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
- .byte 102,15,105,227 // punpckhwd %xmm3,%xmm4
- .byte 102,15,126,69,224 // movd %xmm0,-0x20(%ebp)
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,15,126,77,228 // movd %xmm1,-0x1c(%ebp)
- .byte 243,15,126,77,224 // movq -0x20(%ebp),%xmm1
- .byte 102,15,112,208,231 // pshufd $0xe7,%xmm0,%xmm2
- .byte 102,15,126,85,236 // movd %xmm2,-0x14(%ebp)
- .byte 102,15,112,192,78 // pshufd $0x4e,%xmm0,%xmm0
- .byte 102,15,126,69,232 // movd %xmm0,-0x18(%ebp)
- .byte 243,15,126,109,232 // movq -0x18(%ebp),%xmm5
- .byte 102,15,126,101,240 // movd %xmm4,-0x10(%ebp)
- .byte 102,15,112,196,229 // pshufd $0xe5,%xmm4,%xmm0
- .byte 102,15,126,69,244 // movd %xmm0,-0xc(%ebp)
- .byte 242,15,16,69,240 // movsd -0x10(%ebp),%xmm0
- .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 102,15,112,196,231 // pshufd $0xe7,%xmm4,%xmm0
- .byte 102,15,126,69,252 // movd %xmm0,-0x4(%ebp)
- .byte 102,15,112,196,78 // pshufd $0x4e,%xmm4,%xmm0
- .byte 102,15,126,69,248 // movd %xmm0,-0x8(%ebp)
- .byte 102,15,97,206 // punpcklwd %xmm6,%xmm1
- .byte 102,15,239,210 // pxor %xmm2,%xmm2
- .byte 102,15,111,177,145,172,0,0 // movdqa 0xac91(%ecx),%xmm6
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 102,15,219,137,161,172,0,0 // pand 0xaca1(%ecx),%xmm1
- .byte 102,15,111,129,177,172,0,0 // movdqa 0xacb1(%ecx),%xmm0
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,102,217 // pcmpgtd %xmm1,%xmm3
- .byte 102,15,127,93,168 // movdqa %xmm3,-0x58(%ebp)
- .byte 102,15,114,241,13 // pslld $0xd,%xmm1
- .byte 102,15,235,204 // por %xmm4,%xmm1
- .byte 102,15,97,234 // punpcklwd %xmm2,%xmm5
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,111,213 // movdqa %xmm5,%xmm2
- .byte 102,15,219,214 // pand %xmm6,%xmm2
- .byte 102,15,111,153,161,172,0,0 // movdqa 0xaca1(%ecx),%xmm3
- .byte 102,15,219,235 // pand %xmm3,%xmm5
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,102,229 // pcmpgtd %xmm5,%xmm4
- .byte 102,15,127,101,200 // movdqa %xmm4,-0x38(%ebp)
- .byte 102,15,114,245,13 // pslld $0xd,%xmm5
- .byte 102,15,235,234 // por %xmm2,%xmm5
- .byte 102,15,111,69,184 // movdqa -0x48(%ebp),%xmm0
- .byte 102,15,97,199 // punpcklwd %xmm7,%xmm0
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,219,254 // pand %xmm6,%xmm7
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,111,145,177,172,0,0 // movdqa 0xacb1(%ecx),%xmm2
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,102,216 // pcmpgtd %xmm0,%xmm3
- .byte 102,15,114,240,13 // pslld $0xd,%xmm0
- .byte 102,15,235,199 // por %xmm7,%xmm0
- .byte 243,15,126,125,248 // movq -0x8(%ebp),%xmm7
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,97,252 // punpcklwd %xmm4,%xmm7
- .byte 102,15,219,247 // pand %xmm7,%xmm6
- .byte 102,15,219,185,161,172,0,0 // pand 0xaca1(%ecx),%xmm7
- .byte 102,15,114,246,16 // pslld $0x10,%xmm6
- .byte 102,15,102,215 // pcmpgtd %xmm7,%xmm2
- .byte 102,15,114,247,13 // pslld $0xd,%xmm7
- .byte 102,15,235,254 // por %xmm6,%xmm7
- .byte 102,15,111,161,193,172,0,0 // movdqa 0xacc1(%ecx),%xmm4
- .byte 102,15,254,204 // paddd %xmm4,%xmm1
- .byte 102,15,254,236 // paddd %xmm4,%xmm5
- .byte 102,15,254,196 // paddd %xmm4,%xmm0
- .byte 102,15,254,252 // paddd %xmm4,%xmm7
- .byte 102,15,111,117,168 // movdqa -0x58(%ebp),%xmm6
- .byte 102,15,223,241 // pandn %xmm1,%xmm6
- .byte 102,15,111,77,200 // movdqa -0x38(%ebp),%xmm1
- .byte 102,15,223,205 // pandn %xmm5,%xmm1
- .byte 102,15,223,216 // pandn %xmm0,%xmm3
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,223,239 // pandn %xmm7,%xmm5
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,104 // add $0x68,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_store_f16_sse2
-.globl _sk_store_f16_sse2
-FUNCTION(_sk_store_f16_sse2)
-_sk_store_f16_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,96 // sub $0x60,%esp
- .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 232,0,0,0,0 // call 6183 <_sk_store_f16_sse2+0x19>
- .byte 88 // pop %eax
- .byte 102,15,111,152,13,171,0,0 // movdqa 0xab0d(%eax),%xmm3
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,111,136,61,171,0,0 // movdqa 0xab3d(%eax),%xmm1
- .byte 102,15,127,77,232 // movdqa %xmm1,-0x18(%ebp)
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,114,246,3 // pslld $0x3,%xmm6
- .byte 102,15,219,241 // pand %xmm1,%xmm6
- .byte 102,15,254,244 // paddd %xmm4,%xmm6
- .byte 102,15,111,184,29,171,0,0 // movdqa 0xab1d(%eax),%xmm7
- .byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
- .byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,111,168,45,171,0,0 // movdqa 0xab2d(%eax),%xmm5
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,102,200 // pcmpgtd %xmm0,%xmm1
- .byte 102,15,111,128,125,167,0,0 // movdqa 0xa77d(%eax),%xmm0
- .byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
- .byte 102,15,254,240 // paddd %xmm0,%xmm6
- .byte 102,15,114,230,16 // psrad $0x10,%xmm6
- .byte 102,15,223,206 // pandn %xmm6,%xmm1
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,15,114,246,3 // pslld $0x3,%xmm6
- .byte 102,15,219,117,232 // pand -0x18(%ebp),%xmm6
- .byte 102,15,254,240 // paddd %xmm0,%xmm6
- .byte 102,15,127,85,152 // movdqa %xmm2,-0x68(%ebp)
- .byte 102,15,219,215 // pand %xmm7,%xmm2
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,102,226 // pcmpgtd %xmm2,%xmm4
- .byte 102,15,254,117,216 // paddd -0x28(%ebp),%xmm6
- .byte 102,15,114,230,16 // psrad $0x10,%xmm6
- .byte 102,15,223,230 // pandn %xmm6,%xmm4
- .byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,107,224 // packssdw %xmm0,%xmm4
- .byte 102,15,97,204 // punpcklwd %xmm4,%xmm1
- .byte 102,15,111,85,200 // movdqa -0x38(%ebp),%xmm2
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,114,244,3 // pslld $0x3,%xmm4
- .byte 102,15,219,101,232 // pand -0x18(%ebp),%xmm4
- .byte 102,15,254,224 // paddd %xmm0,%xmm4
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,15,102,240 // pcmpgtd %xmm0,%xmm6
- .byte 102,15,111,85,216 // movdqa -0x28(%ebp),%xmm2
- .byte 102,15,254,226 // paddd %xmm2,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,223,244 // pandn %xmm4,%xmm6
- .byte 102,15,111,101,184 // movdqa -0x48(%ebp),%xmm4
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,114,240,3 // pslld $0x3,%xmm0
- .byte 102,15,219,69,232 // pand -0x18(%ebp),%xmm0
- .byte 102,15,219,220 // pand %xmm4,%xmm3
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,254,194 // paddd %xmm2,%xmm0
- .byte 102,15,219,252 // pand %xmm4,%xmm7
- .byte 102,15,102,239 // pcmpgtd %xmm7,%xmm5
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,223,232 // pandn %xmm0,%xmm5
- .byte 102,15,107,240 // packssdw %xmm0,%xmm6
- .byte 102,15,107,232 // packssdw %xmm0,%xmm5
- .byte 102,15,97,245 // punpcklwd %xmm5,%xmm6
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,17 // mov (%ecx),%edx
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 193,230,3 // shl $0x3,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,121,8 // mov 0x8(%ecx),%edi
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,98,198 // punpckldq %xmm6,%xmm0
- .byte 133,255 // test %edi,%edi
- .byte 117,48 // jne 6304 <_sk_store_f16_sse2+0x19a>
- .byte 15,17,4,214 // movups %xmm0,(%esi,%edx,8)
- .byte 102,15,106,206 // punpckhdq %xmm6,%xmm1
- .byte 243,15,127,76,214,16 // movdqu %xmm1,0x10(%esi,%edx,8)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,69,168 // movaps -0x58(%ebp),%xmm0
- .byte 15,40,77,152 // movaps -0x68(%ebp),%xmm1
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,112 // add $0x70,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 102,15,214,4,214 // movq %xmm0,(%esi,%edx,8)
- .byte 131,255,1 // cmp $0x1,%edi
- .byte 116,212 // je 62e2 <_sk_store_f16_sse2+0x178>
- .byte 102,15,23,68,214,8 // movhpd %xmm0,0x8(%esi,%edx,8)
- .byte 131,255,3 // cmp $0x3,%edi
- .byte 114,201 // jb 62e2 <_sk_store_f16_sse2+0x178>
- .byte 102,15,106,206 // punpckhdq %xmm6,%xmm1
- .byte 102,15,214,76,214,16 // movq %xmm1,0x10(%esi,%edx,8)
- .byte 235,189 // jmp 62e2 <_sk_store_f16_sse2+0x178>
-
-HIDDEN _sk_load_u16_be_sse2
-.globl _sk_load_u16_be_sse2
-FUNCTION(_sk_load_u16_be_sse2)
-_sk_load_u16_be_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,44 // sub $0x2c,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,16 // mov (%eax),%edx
- .byte 139,49 // mov (%ecx),%esi
- .byte 139,122,4 // mov 0x4(%edx),%edi
- .byte 15,175,121,4 // imul 0x4(%ecx),%edi
- .byte 1,255 // add %edi,%edi
- .byte 3,58 // add (%edx),%edi
- .byte 139,89,8 // mov 0x8(%ecx),%ebx
- .byte 193,230,2 // shl $0x2,%esi
- .byte 133,219 // test %ebx,%ebx
- .byte 232,0,0,0,0 // call 6350 <_sk_load_u16_be_sse2+0x2b>
- .byte 90 // pop %edx
- .byte 15,133,11,1,0,0 // jne 6462 <_sk_load_u16_be_sse2+0x13d>
- .byte 102,15,16,4,119 // movupd (%edi,%esi,2),%xmm0
- .byte 243,15,111,76,119,16 // movdqu 0x10(%edi,%esi,2),%xmm1
- .byte 102,15,40,208 // movapd %xmm0,%xmm2
- .byte 102,15,97,209 // punpcklwd %xmm1,%xmm2
- .byte 102,15,105,193 // punpckhwd %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,113,240,8 // psllw $0x8,%xmm0
- .byte 102,15,112,233,78 // pshufd $0x4e,%xmm1,%xmm5
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,15,126,77,216 // movd %xmm1,-0x28(%ebp)
- .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
- .byte 102,15,126,69,220 // movd %xmm0,-0x24(%ebp)
- .byte 243,15,126,69,216 // movq -0x28(%ebp),%xmm0
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,162,144,166,0,0 // movaps 0xa690(%edx),%xmm4
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,113,241,8 // psllw $0x8,%xmm1
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,126,109,208 // movd %xmm5,-0x30(%ebp)
- .byte 102,15,112,205,229 // pshufd $0xe5,%xmm5,%xmm1
- .byte 102,15,126,77,212 // movd %xmm1,-0x2c(%ebp)
- .byte 243,15,126,77,208 // movq -0x30(%ebp),%xmm1
- .byte 102,15,97,203 // punpcklwd %xmm3,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,113,245,8 // psllw $0x8,%xmm5
- .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,235,213 // por %xmm5,%xmm2
- .byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
- .byte 102,15,112,210,229 // pshufd $0xe5,%xmm2,%xmm2
- .byte 102,15,126,85,236 // movd %xmm2,-0x14(%ebp)
- .byte 243,15,126,85,232 // movq -0x18(%ebp),%xmm2
- .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,15,113,245,8 // psllw $0x8,%xmm5
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,235,245 // por %xmm5,%xmm6
- .byte 102,15,126,117,224 // movd %xmm6,-0x20(%ebp)
- .byte 102,15,112,238,229 // pshufd $0xe5,%xmm6,%xmm5
- .byte 102,15,126,109,228 // movd %xmm5,-0x1c(%ebp)
- .byte 243,15,126,109,224 // movq -0x20(%ebp),%xmm5
- .byte 102,15,97,235 // punpcklwd %xmm3,%xmm5
- .byte 15,91,221 // cvtdq2ps %xmm5,%xmm3
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,60 // add $0x3c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 242,15,16,4,119 // movsd (%edi,%esi,2),%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 131,251,1 // cmp $0x1,%ebx
- .byte 15,132,238,254,255,255 // je 6362 <_sk_load_u16_be_sse2+0x3d>
- .byte 102,15,22,68,119,8 // movhpd 0x8(%edi,%esi,2),%xmm0
- .byte 131,251,3 // cmp $0x3,%ebx
- .byte 15,130,223,254,255,255 // jb 6362 <_sk_load_u16_be_sse2+0x3d>
- .byte 243,15,126,76,119,16 // movq 0x10(%edi,%esi,2),%xmm1
- .byte 233,212,254,255,255 // jmp 6362 <_sk_load_u16_be_sse2+0x3d>
-
-HIDDEN _sk_load_rgb_u16_be_sse2
-.globl _sk_load_rgb_u16_be_sse2
-FUNCTION(_sk_load_rgb_u16_be_sse2)
-_sk_load_rgb_u16_be_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,28 // sub $0x1c,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,16 // mov (%eax),%edx
- .byte 139,121,8 // mov 0x8(%ecx),%edi
- .byte 139,114,4 // mov 0x4(%edx),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 1,246 // add %esi,%esi
- .byte 3,50 // add (%edx),%esi
- .byte 107,25,3 // imul $0x3,(%ecx),%ebx
- .byte 133,255 // test %edi,%edi
- .byte 232,0,0,0,0 // call 64b7 <_sk_load_rgb_u16_be_sse2+0x29>
- .byte 90 // pop %edx
- .byte 15,133,240,0,0,0 // jne 65ae <_sk_load_rgb_u16_be_sse2+0x120>
- .byte 243,15,111,20,94 // movdqu (%esi,%ebx,2),%xmm2
- .byte 243,15,111,92,94,8 // movdqu 0x8(%esi,%ebx,2),%xmm3
- .byte 102,15,115,219,4 // psrldq $0x4,%xmm3
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,115,216,6 // psrldq $0x6,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,115,217,6 // psrldq $0x6,%xmm1
- .byte 102,15,97,193 // punpcklwd %xmm1,%xmm0
- .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,97,200 // punpcklwd %xmm0,%xmm1
- .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
- .byte 102,15,105,208 // punpckhwd %xmm0,%xmm2
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,113,240,8 // psllw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,15,126,77,224 // movd %xmm1,-0x20(%ebp)
- .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
- .byte 102,15,126,69,228 // movd %xmm0,-0x1c(%ebp)
- .byte 243,15,126,69,224 // movq -0x20(%ebp),%xmm0
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,97,195 // punpcklwd %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,170,41,165,0,0 // movaps 0xa529(%edx),%xmm5
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,113,241,8 // psllw $0x8,%xmm1
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,235,225 // por %xmm1,%xmm4
- .byte 102,15,126,101,216 // movd %xmm4,-0x28(%ebp)
- .byte 102,15,112,204,229 // pshufd $0xe5,%xmm4,%xmm1
- .byte 102,15,126,77,220 // movd %xmm1,-0x24(%ebp)
- .byte 243,15,126,77,216 // movq -0x28(%ebp),%xmm1
- .byte 102,15,97,203 // punpcklwd %xmm3,%xmm1
- .byte 15,91,201 // cvtdq2ps %xmm1,%xmm1
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,113,244,8 // psllw $0x8,%xmm4
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,235,212 // por %xmm4,%xmm2
- .byte 102,15,126,85,232 // movd %xmm2,-0x18(%ebp)
- .byte 102,15,112,210,229 // pshufd $0xe5,%xmm2,%xmm2
- .byte 102,15,126,85,236 // movd %xmm2,-0x14(%ebp)
- .byte 243,15,126,85,232 // movq -0x18(%ebp),%xmm2
- .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 141,112,8 // lea 0x8(%eax),%esi
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,154,169,162,0,0 // movaps 0xa2a9(%edx),%xmm3
- .byte 86 // push %esi
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,44 // add $0x2c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 102,15,110,20,94 // movd (%esi,%ebx,2),%xmm2
- .byte 102,15,196,84,94,4,2 // pinsrw $0x2,0x4(%esi,%ebx,2),%xmm2
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 131,255,1 // cmp $0x1,%edi
- .byte 117,13 // jne 65d0 <_sk_load_rgb_u16_be_sse2+0x142>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 233,16,255,255,255 // jmp 64e0 <_sk_load_rgb_u16_be_sse2+0x52>
- .byte 102,15,110,68,94,6 // movd 0x6(%esi,%ebx,2),%xmm0
- .byte 102,15,196,68,94,10,2 // pinsrw $0x2,0xa(%esi,%ebx,2),%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 131,255,3 // cmp $0x3,%edi
- .byte 114,18 // jb 65f8 <_sk_load_rgb_u16_be_sse2+0x16a>
- .byte 102,15,110,92,94,12 // movd 0xc(%esi,%ebx,2),%xmm3
- .byte 102,15,196,92,94,16,2 // pinsrw $0x2,0x10(%esi,%ebx,2),%xmm3
- .byte 233,232,254,255,255 // jmp 64e0 <_sk_load_rgb_u16_be_sse2+0x52>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 233,223,254,255,255 // jmp 64e0 <_sk_load_rgb_u16_be_sse2+0x52>
-
-HIDDEN _sk_store_u16_be_sse2
-.globl _sk_store_u16_be_sse2
-FUNCTION(_sk_store_u16_be_sse2)
-_sk_store_u16_be_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,32 // sub $0x20,%esp
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 232,0,0,0,0 // call 6612 <_sk_store_u16_be_sse2+0x11>
- .byte 88 // pop %eax
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,40,168,78,161,0,0 // movaps 0xa14e(%eax),%xmm5
- .byte 15,93,229 // minps %xmm5,%xmm4
- .byte 15,40,176,190,166,0,0 // movaps 0xa6be(%eax),%xmm6
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 102,15,91,228 // cvtps2dq %xmm4,%xmm4
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,224 // packssdw %xmm0,%xmm4
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,113,247,8 // psllw $0x8,%xmm7
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,235,231 // por %xmm7,%xmm4
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 15,95,249 // maxps %xmm1,%xmm7
- .byte 15,93,253 // minps %xmm5,%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 102,15,91,255 // cvtps2dq %xmm7,%xmm7
- .byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,114,231,16 // psrad $0x10,%xmm7
- .byte 102,15,107,248 // packssdw %xmm0,%xmm7
- .byte 102,15,111,223 // movdqa %xmm7,%xmm3
- .byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,235,251 // por %xmm3,%xmm7
- .byte 102,15,97,231 // punpcklwd %xmm7,%xmm4
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,95,218 // maxps %xmm2,%xmm3
- .byte 15,93,221 // minps %xmm5,%xmm3
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 102,15,91,251 // cvtps2dq %xmm3,%xmm7
- .byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,114,231,16 // psrad $0x10,%xmm7
- .byte 102,15,107,248 // packssdw %xmm0,%xmm7
- .byte 102,15,111,223 // movdqa %xmm7,%xmm3
- .byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,235,251 // por %xmm3,%xmm7
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 15,95,93,232 // maxps -0x18(%ebp),%xmm3
- .byte 15,93,221 // minps %xmm5,%xmm3
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 102,15,91,219 // cvtps2dq %xmm3,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 102,15,114,227,16 // psrad $0x10,%xmm3
- .byte 102,15,107,216 // packssdw %xmm0,%xmm3
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,113,245,8 // psllw $0x8,%xmm5
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,235,221 // por %xmm5,%xmm3
- .byte 102,15,97,251 // punpcklwd %xmm3,%xmm7
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,56 // mov (%eax),%edi
- .byte 139,17 // mov (%ecx),%edx
- .byte 139,119,4 // mov 0x4(%edi),%esi
- .byte 15,175,113,4 // imul 0x4(%ecx),%esi
- .byte 1,246 // add %esi,%esi
- .byte 3,55 // add (%edi),%esi
- .byte 139,121,8 // mov 0x8(%ecx),%edi
- .byte 193,226,2 // shl $0x2,%edx
- .byte 133,255 // test %edi,%edi
- .byte 117,49 // jne 6741 <_sk_store_u16_be_sse2+0x140>
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 102,15,98,223 // punpckldq %xmm7,%xmm3
- .byte 243,15,127,28,86 // movdqu %xmm3,(%esi,%edx,2)
- .byte 102,15,106,231 // punpckhdq %xmm7,%xmm4
- .byte 243,15,127,100,86,16 // movdqu %xmm4,0x10(%esi,%edx,2)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,48 // add $0x30,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,98,239 // punpckldq %xmm7,%xmm5
- .byte 102,15,214,44,86 // movq %xmm5,(%esi,%edx,2)
- .byte 131,255,1 // cmp $0x1,%edi
- .byte 116,212 // je 6727 <_sk_store_u16_be_sse2+0x126>
- .byte 102,15,23,108,86,8 // movhpd %xmm5,0x8(%esi,%edx,2)
- .byte 131,255,3 // cmp $0x3,%edi
- .byte 114,201 // jb 6727 <_sk_store_u16_be_sse2+0x126>
- .byte 102,15,106,231 // punpckhdq %xmm7,%xmm4
- .byte 102,15,214,100,86,16 // movq %xmm4,0x10(%esi,%edx,2)
- .byte 235,189 // jmp 6727 <_sk_store_u16_be_sse2+0x126>
-
-HIDDEN _sk_load_f32_sse2
-.globl _sk_load_f32_sse2
-FUNCTION(_sk_load_f32_sse2)
-_sk_load_f32_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,48 // mov (%eax),%esi
- .byte 139,57 // mov (%ecx),%edi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,81,4 // imul 0x4(%ecx),%edx
- .byte 193,226,2 // shl $0x2,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 141,52,189,0,0,0,0 // lea 0x0(,%edi,4),%esi
- .byte 193,231,4 // shl $0x4,%edi
- .byte 15,16,36,23 // movups (%edi,%edx,1),%xmm4
- .byte 139,121,8 // mov 0x8(%ecx),%edi
- .byte 133,255 // test %edi,%edi
- .byte 117,71 // jne 67e1 <_sk_load_f32_sse2+0x77>
- .byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
- .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 15,16,68,178,48 // movups 0x30(%edx,%esi,4),%xmm0
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,20,234 // unpcklps %xmm2,%xmm5
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 15,21,226 // unpckhps %xmm2,%xmm4
- .byte 15,21,216 // unpckhps %xmm0,%xmm3
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
- .byte 15,18,205 // movhlps %xmm5,%xmm1
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 15,18,220 // movhlps %xmm4,%xmm3
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,16 // add $0x10,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 67f1 <_sk_load_f32_sse2+0x87>
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 235,184 // jmp 67a9 <_sk_load_f32_sse2+0x3f>
- .byte 15,16,84,178,16 // movups 0x10(%edx,%esi,4),%xmm2
- .byte 131,255,3 // cmp $0x3,%edi
- .byte 114,7 // jb 6802 <_sk_load_f32_sse2+0x98>
- .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 235,167 // jmp 67a9 <_sk_load_f32_sse2+0x3f>
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,162 // jmp 67a9 <_sk_load_f32_sse2+0x3f>
-
-HIDDEN _sk_load_f32_dst_sse2
-.globl _sk_load_f32_dst_sse2
-FUNCTION(_sk_load_f32_dst_sse2)
-_sk_load_f32_dst_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,32 // sub $0x20,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,48 // mov (%eax),%esi
- .byte 139,57 // mov (%ecx),%edi
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,81,4 // imul 0x4(%ecx),%edx
- .byte 193,226,2 // shl $0x2,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 141,52,189,0,0,0,0 // lea 0x0(,%edi,4),%esi
- .byte 193,231,4 // shl $0x4,%edi
- .byte 15,16,52,23 // movups (%edi,%edx,1),%xmm6
- .byte 139,121,8 // mov 0x8(%ecx),%edi
- .byte 133,255 // test %edi,%edi
- .byte 117,97 // jne 68a3 <_sk_load_f32_dst_sse2+0x9c>
- .byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
- .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 15,16,84,178,48 // movups 0x30(%edx,%esi,4),%xmm2
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,20,231 // unpcklps %xmm7,%xmm4
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 15,20,234 // unpcklps %xmm2,%xmm5
- .byte 15,21,247 // unpckhps %xmm7,%xmm6
- .byte 15,21,218 // unpckhps %xmm2,%xmm3
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 102,15,20,213 // unpcklpd %xmm5,%xmm2
- .byte 15,18,236 // movhlps %xmm4,%xmm5
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 15,18,222 // movhlps %xmm6,%xmm3
- .byte 102,15,41,81,16 // movapd %xmm2,0x10(%ecx)
- .byte 15,41,105,32 // movaps %xmm5,0x20(%ecx)
- .byte 102,15,41,97,48 // movapd %xmm4,0x30(%ecx)
- .byte 15,41,89,64 // movaps %xmm3,0x40(%ecx)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,85,232 // movaps -0x18(%ebp),%xmm2
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,48 // add $0x30,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 131,255,1 // cmp $0x1,%edi
- .byte 117,8 // jne 68b3 <_sk_load_f32_dst_sse2+0xac>
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 235,158 // jmp 6851 <_sk_load_f32_dst_sse2+0x4a>
- .byte 15,16,124,178,16 // movups 0x10(%edx,%esi,4),%xmm7
- .byte 131,255,3 // cmp $0x3,%edi
- .byte 114,7 // jb 68c4 <_sk_load_f32_dst_sse2+0xbd>
- .byte 15,16,92,178,32 // movups 0x20(%edx,%esi,4),%xmm3
- .byte 235,141 // jmp 6851 <_sk_load_f32_dst_sse2+0x4a>
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,136 // jmp 6851 <_sk_load_f32_dst_sse2+0x4a>
-
-HIDDEN _sk_store_f32_sse2
-.globl _sk_store_f32_sse2
-FUNCTION(_sk_store_f32_sse2)
-_sk_store_f32_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,48 // mov (%eax),%esi
- .byte 139,25 // mov (%ecx),%ebx
- .byte 139,86,4 // mov 0x4(%esi),%edx
- .byte 15,175,81,4 // imul 0x4(%ecx),%edx
- .byte 193,226,2 // shl $0x2,%edx
- .byte 3,22 // add (%esi),%edx
- .byte 141,52,157,0,0,0,0 // lea 0x0(,%ebx,4),%esi
- .byte 193,227,4 // shl $0x4,%ebx
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,20,233 // unpcklps %xmm1,%xmm5
- .byte 15,40,226 // movaps %xmm2,%xmm4
- .byte 15,20,227 // unpcklps %xmm3,%xmm4
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 102,15,20,244 // unpcklpd %xmm4,%xmm6
- .byte 139,121,8 // mov 0x8(%ecx),%edi
- .byte 102,15,17,52,19 // movupd %xmm6,(%ebx,%edx,1)
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,21,241 // unpckhps %xmm1,%xmm6
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,21,251 // unpckhps %xmm3,%xmm7
- .byte 15,18,229 // movhlps %xmm5,%xmm4
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 102,15,20,239 // unpcklpd %xmm7,%xmm5
- .byte 133,255 // test %edi,%edi
- .byte 117,40 // jne 694f <_sk_store_f32_sse2+0x86>
- .byte 102,15,21,247 // unpckhpd %xmm7,%xmm6
- .byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
- .byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
- .byte 102,15,17,116,178,48 // movupd %xmm6,0x30(%edx,%esi,4)
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 131,255,1 // cmp $0x1,%edi
- .byte 116,232 // je 693c <_sk_store_f32_sse2+0x73>
- .byte 15,17,100,178,16 // movups %xmm4,0x10(%edx,%esi,4)
- .byte 131,255,3 // cmp $0x3,%edi
- .byte 114,222 // jb 693c <_sk_store_f32_sse2+0x73>
- .byte 102,15,17,108,178,32 // movupd %xmm5,0x20(%edx,%esi,4)
- .byte 235,214 // jmp 693c <_sk_store_f32_sse2+0x73>
-
-HIDDEN _sk_repeat_x_sse2
-.globl _sk_repeat_x_sse2
-FUNCTION(_sk_repeat_x_sse2)
-_sk_repeat_x_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6971 <_sk_repeat_x_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 243,15,16,34 // movss (%edx),%xmm4
- .byte 243,15,16,106,4 // movss 0x4(%edx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,239,157,0,0 // andps 0x9def(%eax),%xmm5
- .byte 15,92,245 // subps %xmm5,%xmm6
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_repeat_y_sse2
-.globl _sk_repeat_y_sse2
-FUNCTION(_sk_repeat_y_sse2)
-_sk_repeat_y_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 69c3 <_sk_repeat_y_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 243,15,16,34 // movss (%edx),%xmm4
- .byte 243,15,16,106,4 // movss 0x4(%edx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,84,168,157,157,0,0 // andps 0x9d9d(%eax),%xmm5
- .byte 15,92,245 // subps %xmm5,%xmm6
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,92,204 // subps %xmm4,%xmm1
- .byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_mirror_x_sse2
-.globl _sk_mirror_x_sse2
-FUNCTION(_sk_mirror_x_sse2)
-_sk_mirror_x_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6a15 <_sk_mirror_x_sse2+0xb>
- .byte 89 // pop %ecx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 243,15,16,34 // movss (%edx),%xmm4
- .byte 243,15,16,106,4 // movss 0x4(%edx),%xmm5
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 243,15,89,169,75,165,0,0 // mulss 0xa54b(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
- .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,75,157,0,0 // andps 0x9d4b(%ecx),%xmm5
- .byte 15,92,253 // subps %xmm5,%xmm7
- .byte 243,15,88,228 // addss %xmm4,%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,92,199 // subps %xmm7,%xmm0
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,84,196 // andps %xmm4,%xmm0
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_mirror_y_sse2
-.globl _sk_mirror_y_sse2
-FUNCTION(_sk_mirror_y_sse2)
-_sk_mirror_y_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6a89 <_sk_mirror_y_sse2+0xb>
- .byte 89 // pop %ecx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 243,15,16,34 // movss (%edx),%xmm4
- .byte 243,15,16,106,4 // movss 0x4(%edx),%xmm5
- .byte 15,40,244 // movaps %xmm4,%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 243,15,89,169,215,164,0,0 // mulss 0xa4d7(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 243,15,91,253 // cvttps2dq %xmm5,%xmm7
- .byte 15,91,255 // cvtdq2ps %xmm7,%xmm7
- .byte 15,194,239,1 // cmpltps %xmm7,%xmm5
- .byte 15,84,169,215,156,0,0 // andps 0x9cd7(%ecx),%xmm5
- .byte 15,92,253 // subps %xmm5,%xmm7
- .byte 243,15,88,228 // addss %xmm4,%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,92,207 // subps %xmm7,%xmm1
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,84,204 // andps %xmm4,%xmm1
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_clamp_x_1_sse2
-.globl _sk_clamp_x_1_sse2
-FUNCTION(_sk_clamp_x_1_sse2)
-_sk_clamp_x_1_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6afd <_sk_clamp_x_1_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,160,99,156,0,0 // minps 0x9c63(%eax),%xmm4
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_repeat_x_1_sse2
-.globl _sk_repeat_x_1_sse2
-FUNCTION(_sk_repeat_x_1_sse2)
-_sk_repeat_x_1_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6b2d <_sk_repeat_x_1_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 243,15,91,224 // cvttps2dq %xmm0,%xmm4
- .byte 15,91,236 // cvtdq2ps %xmm4,%xmm5
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,40,184,51,156,0,0 // movaps 0x9c33(%eax),%xmm7
- .byte 15,84,247 // andps %xmm7,%xmm6
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,92,238 // subps %xmm6,%xmm5
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,95,224 // maxps %xmm0,%xmm4
- .byte 15,93,231 // minps %xmm7,%xmm4
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_mirror_x_1_sse2
-.globl _sk_mirror_x_1_sse2
-FUNCTION(_sk_mirror_x_1_sse2)
-_sk_mirror_x_1_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 6b77 <_sk_mirror_x_1_sse2+0xb>
- .byte 88 // pop %eax
- .byte 15,40,160,89,156,0,0 // movaps 0x9c59(%eax),%xmm4
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,168,217,155,0,0 // movaps 0x9bd9(%eax),%xmm5
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,194,238,1 // cmpltps %xmm6,%xmm5
- .byte 15,40,184,233,155,0,0 // movaps 0x9be9(%eax),%xmm7
- .byte 15,84,239 // andps %xmm7,%xmm5
- .byte 15,92,245 // subps %xmm5,%xmm6
- .byte 15,88,246 // addps %xmm6,%xmm6
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,84,224 // andps %xmm0,%xmm4
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,95,196 // maxps %xmm4,%xmm0
- .byte 15,93,199 // minps %xmm7,%xmm0
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_decal_x_sse2
-.globl _sk_decal_x_sse2
-FUNCTION(_sk_decal_x_sse2)
-_sk_decal_x_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,194,224,2 // cmpleps %xmm0,%xmm4
- .byte 243,15,16,106,64 // movss 0x40(%edx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,84,244 // andps %xmm4,%xmm6
- .byte 15,17,50 // movups %xmm6,(%edx)
- .byte 141,81,8 // lea 0x8(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_decal_y_sse2
-.globl _sk_decal_y_sse2
-FUNCTION(_sk_decal_y_sse2)
-_sk_decal_y_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,194,225,2 // cmpleps %xmm1,%xmm4
- .byte 243,15,16,106,68 // movss 0x44(%edx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,84,244 // andps %xmm4,%xmm6
- .byte 15,17,50 // movups %xmm6,(%edx)
- .byte 141,81,8 // lea 0x8(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_decal_x_and_y_sse2
-.globl _sk_decal_x_and_y_sse2
-FUNCTION(_sk_decal_x_and_y_sse2)
-_sk_decal_x_and_y_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 243,15,16,105,64 // movss 0x40(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,194,232,2 // cmpleps %xmm0,%xmm5
- .byte 15,194,225,2 // cmpleps %xmm1,%xmm4
- .byte 15,84,229 // andps %xmm5,%xmm4
- .byte 243,15,16,105,68 // movss 0x44(%ecx),%xmm5
- .byte 15,84,230 // andps %xmm6,%xmm4
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,84,244 // andps %xmm4,%xmm6
- .byte 15,17,49 // movups %xmm6,(%ecx)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_check_decal_mask_sse2
-.globl _sk_check_decal_mask_sse2
-FUNCTION(_sk_check_decal_mask_sse2)
-_sk_check_decal_mask_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 15,16,33 // movups (%ecx),%xmm4
- .byte 15,84,196 // andps %xmm4,%xmm0
- .byte 15,84,204 // andps %xmm4,%xmm1
- .byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,84,220 // andps %xmm4,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_luminance_to_alpha_sse2
-.globl _sk_luminance_to_alpha_sse2
-FUNCTION(_sk_luminance_to_alpha_sse2)
-_sk_luminance_to_alpha_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 6cdb <_sk_luminance_to_alpha_sse2+0xe>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,89,128,5,160,0,0 // mulps 0xa005(%eax),%xmm0
- .byte 15,89,136,21,160,0,0 // mulps 0xa015(%eax),%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,89,152,37,160,0,0 // mulps 0xa025(%eax),%xmm3
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_matrix_translate_sse2
-.globl _sk_matrix_translate_sse2
-FUNCTION(_sk_matrix_translate_sse2)
-_sk_matrix_translate_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,33 // movss (%ecx),%xmm4
- .byte 243,15,16,105,4 // movss 0x4(%ecx),%xmm5
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_matrix_scale_translate_sse2
-.globl _sk_matrix_scale_translate_sse2
-FUNCTION(_sk_matrix_scale_translate_sse2)
-_sk_matrix_scale_translate_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,33 // movss (%ecx),%xmm4
- .byte 243,15,16,105,4 // movss 0x4(%ecx),%xmm5
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 243,15,16,113,8 // movss 0x8(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 243,15,16,97,12 // movss 0xc(%ecx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_matrix_2x3_sse2
-.globl _sk_matrix_2x3_sse2
-FUNCTION(_sk_matrix_2x3_sse2)
-_sk_matrix_2x3_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,1 // movss (%ecx),%xmm0
- .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,15,16,113,8 // movss 0x8(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,121,16 // movss 0x10(%ecx),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,113,12 // movss 0xc(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,121,20 // movss 0x14(%ecx),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_matrix_3x4_sse2
-.globl _sk_matrix_3x4_sse2
-FUNCTION(_sk_matrix_3x4_sse2)
-_sk_matrix_3x4_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,1 // movss (%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,15,16,105,24 // movss 0x18(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 243,15,16,113,36 // movss 0x24(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,234 // mulps %xmm2,%xmm5
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 243,15,16,113,12 // movss 0xc(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,88,245 // addps %xmm5,%xmm6
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 243,15,16,105,28 // movss 0x1c(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 243,15,16,113,40 // movss 0x28(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,234 // mulps %xmm2,%xmm5
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 243,15,16,113,16 // movss 0x10(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,88,245 // addps %xmm5,%xmm6
- .byte 243,15,16,105,4 // movss 0x4(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 243,15,16,113,32 // movss 0x20(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 243,15,16,81,44 // movss 0x2c(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,88,242 // addps %xmm2,%xmm6
- .byte 243,15,16,121,20 // movss 0x14(%ecx),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,249 // mulps %xmm1,%xmm7
- .byte 15,88,254 // addps %xmm6,%xmm7
- .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_matrix_4x5_sse2
-.globl _sk_matrix_4x5_sse2
-FUNCTION(_sk_matrix_4x5_sse2)
-_sk_matrix_4x5_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,1 // movss (%ecx),%xmm0
- .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,15,16,113,48 // movss 0x30(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,121,64 // movss 0x40(%ecx),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 243,15,16,121,32 // movss 0x20(%ecx),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,250 // mulps %xmm2,%xmm7
- .byte 15,88,254 // addps %xmm6,%xmm7
- .byte 243,15,16,113,16 // movss 0x10(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,113,52 // movss 0x34(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,121,68 // movss 0x44(%ecx),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 243,15,16,121,36 // movss 0x24(%ecx),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,250 // mulps %xmm2,%xmm7
- .byte 15,88,254 // addps %xmm6,%xmm7
- .byte 243,15,16,113,20 // movss 0x14(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 243,15,16,113,56 // movss 0x38(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,121,72 // movss 0x48(%ecx),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 243,15,16,121,40 // movss 0x28(%ecx),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,250 // mulps %xmm2,%xmm7
- .byte 15,88,254 // addps %xmm6,%xmm7
- .byte 243,15,16,113,24 // movss 0x18(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 243,15,16,121,8 // movss 0x8(%ecx),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,88,254 // addps %xmm6,%xmm7
- .byte 243,15,16,113,60 // movss 0x3c(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 243,15,16,89,76 // movss 0x4c(%ecx),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,88,243 // addps %xmm3,%xmm6
- .byte 243,15,16,89,44 // movss 0x2c(%ecx),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,88,222 // addps %xmm6,%xmm3
- .byte 243,15,16,81,28 // movss 0x1c(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 243,15,16,89,12 // movss 0xc(%ecx),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_matrix_4x3_sse2
-.globl _sk_matrix_4x3_sse2
-FUNCTION(_sk_matrix_4x3_sse2)
-_sk_matrix_4x3_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,1 // movss (%ecx),%xmm0
- .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,15,16,81,16 // movss 0x10(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,89,32 // movss 0x20(%ecx),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,81,20 // movss 0x14(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,89,36 // movss 0x24(%ecx),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,89,24 // movss 0x18(%ecx),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 243,15,16,113,40 // movss 0x28(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 15,88,222 // addps %xmm6,%xmm3
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 243,15,16,89,12 // movss 0xc(%ecx),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 243,15,16,113,28 // movss 0x1c(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,121,44 // movss 0x2c(%ecx),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,88,222 // addps %xmm6,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_matrix_perspective_sse2
-.globl _sk_matrix_perspective_sse2
-FUNCTION(_sk_matrix_perspective_sse2)
-_sk_matrix_perspective_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,1 // movss (%ecx),%xmm0
- .byte 243,15,16,105,4 // movss 0x4(%ecx),%xmm5
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 243,15,16,113,8 // movss 0x8(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 243,15,16,113,16 // movss 0x10(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,88,245 // addps %xmm5,%xmm6
- .byte 243,15,16,105,12 // movss 0xc(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 243,15,16,113,28 // movss 0x1c(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 243,15,16,73,32 // movss 0x20(%ecx),%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,88,241 // addps %xmm1,%xmm6
- .byte 243,15,16,73,24 // movss 0x18(%ecx),%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,83,201 // rcpps %xmm1,%xmm1
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_evenly_spaced_gradient_sse2
-.globl _sk_evenly_spaced_gradient_sse2
-FUNCTION(_sk_evenly_spaced_gradient_sse2)
-_sk_evenly_spaced_gradient_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,60 // sub $0x3c,%esp
- .byte 15,41,69,184 // movaps %xmm0,-0x48(%ebp)
- .byte 232,0,0,0,0 // call 7171 <_sk_evenly_spaced_gradient_sse2+0x12>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,49 // mov (%ecx),%esi
- .byte 139,65,4 // mov 0x4(%ecx),%eax
- .byte 78 // dec %esi
- .byte 102,15,110,206 // movd %esi,%xmm1
- .byte 102,15,112,201,0 // pshufd $0x0,%xmm1,%xmm1
- .byte 102,15,111,146,159,155,0,0 // movdqa 0x9b9f(%edx),%xmm2
- .byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,235,146,31,153,0,0 // por 0x991f(%edx),%xmm2
- .byte 102,15,114,209,16 // psrld $0x10,%xmm1
- .byte 102,15,235,138,175,155,0,0 // por 0x9baf(%edx),%xmm1
- .byte 15,88,138,191,155,0,0 // addps 0x9bbf(%edx),%xmm1
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,15,126,218 // movd %xmm3,%edx
- .byte 102,15,112,217,231 // pshufd $0xe7,%xmm1,%xmm3
- .byte 102,15,126,223 // movd %xmm3,%edi
- .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
- .byte 243,15,16,52,144 // movss (%eax,%edx,4),%xmm6
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 243,15,16,36,176 // movss (%eax,%esi,4),%xmm4
- .byte 102,15,126,211 // movd %xmm2,%ebx
- .byte 243,15,16,12,152 // movss (%eax,%ebx,4),%xmm1
- .byte 15,20,243 // unpcklps %xmm3,%xmm6
- .byte 139,65,20 // mov 0x14(%ecx),%eax
- .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2
- .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3
- .byte 243,15,16,4,176 // movss (%eax,%esi,4),%xmm0
- .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7
- .byte 15,20,225 // unpcklps %xmm1,%xmm4
- .byte 102,15,20,230 // unpcklpd %xmm6,%xmm4
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 15,20,199 // unpcklps %xmm7,%xmm0
- .byte 139,65,8 // mov 0x8(%ecx),%eax
- .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2
- .byte 243,15,16,52,144 // movss (%eax,%edx,4),%xmm6
- .byte 243,15,16,12,176 // movss (%eax,%esi,4),%xmm1
- .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7
- .byte 102,15,20,195 // unpcklpd %xmm3,%xmm0
- .byte 102,15,41,69,200 // movapd %xmm0,-0x38(%ebp)
- .byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 15,20,207 // unpcklps %xmm7,%xmm1
- .byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 139,65,24 // mov 0x18(%ecx),%eax
- .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2
- .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3
- .byte 243,15,16,4,176 // movss (%eax,%esi,4),%xmm0
- .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 15,20,199 // unpcklps %xmm7,%xmm0
- .byte 102,15,20,195 // unpcklpd %xmm3,%xmm0
- .byte 102,15,41,69,216 // movapd %xmm0,-0x28(%ebp)
- .byte 139,65,12 // mov 0xc(%ecx),%eax
- .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2
- .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 243,15,16,20,176 // movss (%eax,%esi,4),%xmm2
- .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7
- .byte 15,20,215 // unpcklps %xmm7,%xmm2
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 139,65,28 // mov 0x1c(%ecx),%eax
- .byte 243,15,16,60,184 // movss (%eax,%edi,4),%xmm7
- .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3
- .byte 15,20,223 // unpcklps %xmm7,%xmm3
- .byte 243,15,16,60,176 // movss (%eax,%esi,4),%xmm7
- .byte 243,15,16,44,152 // movss (%eax,%ebx,4),%xmm5
- .byte 15,20,253 // unpcklps %xmm5,%xmm7
- .byte 102,15,20,251 // unpcklpd %xmm3,%xmm7
- .byte 139,65,16 // mov 0x10(%ecx),%eax
- .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
- .byte 243,15,16,44,144 // movss (%eax,%edx,4),%xmm5
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3
- .byte 243,15,16,4,152 // movss (%eax,%ebx,4),%xmm0
- .byte 15,20,216 // unpcklps %xmm0,%xmm3
- .byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 139,65,32 // mov 0x20(%ecx),%eax
- .byte 243,15,16,4,184 // movss (%eax,%edi,4),%xmm0
- .byte 243,15,16,44,144 // movss (%eax,%edx,4),%xmm5
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 243,15,16,4,176 // movss (%eax,%esi,4),%xmm0
- .byte 243,15,16,52,152 // movss (%eax,%ebx,4),%xmm6
- .byte 15,20,198 // unpcklps %xmm6,%xmm0
- .byte 102,15,20,197 // unpcklpd %xmm5,%xmm0
- .byte 15,40,109,184 // movaps -0x48(%ebp),%xmm5
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,101,200 // addps -0x38(%ebp),%xmm4
- .byte 15,89,205 // mulps %xmm5,%xmm1
- .byte 15,88,77,216 // addps -0x28(%ebp),%xmm1
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,89,221 // mulps %xmm5,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,76 // add $0x4c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_gradient_sse2
-.globl _sk_gradient_sse2
-FUNCTION(_sk_gradient_sse2)
-_sk_gradient_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,60 // sub $0x3c,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,10 // mov (%edx),%ecx
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 131,249,2 // cmp $0x2,%ecx
- .byte 114,33 // jb 7359 <_sk_gradient_sse2+0x3a>
- .byte 139,114,36 // mov 0x24(%edx),%esi
- .byte 73 // dec %ecx
- .byte 131,198,4 // add $0x4,%esi
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 243,15,16,22 // movss (%esi),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,194,208,2 // cmpleps %xmm0,%xmm2
- .byte 102,15,250,202 // psubd %xmm2,%xmm1
- .byte 131,198,4 // add $0x4,%esi
- .byte 73 // dec %ecx
- .byte 117,234 // jne 7343 <_sk_gradient_sse2+0x24>
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,15,126,223 // movd %xmm3,%edi
- .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
- .byte 102,15,126,203 // movd %xmm1,%ebx
- .byte 139,66,4 // mov 0x4(%edx),%eax
- .byte 243,15,16,12,152 // movss (%eax,%ebx,4),%xmm1
- .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
- .byte 243,15,16,36,176 // movss (%eax,%esi,4),%xmm4
- .byte 102,15,126,209 // movd %xmm2,%ecx
- .byte 243,15,16,20,136 // movss (%eax,%ecx,4),%xmm2
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 139,66,20 // mov 0x14(%edx),%eax
- .byte 243,15,16,12,152 // movss (%eax,%ebx,4),%xmm1
- .byte 243,15,16,52,184 // movss (%eax,%edi,4),%xmm6
- .byte 243,15,16,44,176 // movss (%eax,%esi,4),%xmm5
- .byte 243,15,16,60,136 // movss (%eax,%ecx,4),%xmm7
- .byte 15,20,226 // unpcklps %xmm2,%xmm4
- .byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 102,15,41,101,184 // movapd %xmm4,-0x48(%ebp)
- .byte 15,20,241 // unpcklps %xmm1,%xmm6
- .byte 15,20,239 // unpcklps %xmm7,%xmm5
- .byte 139,66,8 // mov 0x8(%edx),%eax
- .byte 243,15,16,20,152 // movss (%eax,%ebx,4),%xmm2
- .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
- .byte 243,15,16,12,176 // movss (%eax,%esi,4),%xmm1
- .byte 243,15,16,60,136 // movss (%eax,%ecx,4),%xmm7
- .byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,41,109,200 // movapd %xmm5,-0x38(%ebp)
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 15,20,207 // unpcklps %xmm7,%xmm1
- .byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 139,66,24 // mov 0x18(%edx),%eax
- .byte 243,15,16,20,152 // movss (%eax,%ebx,4),%xmm2
- .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
- .byte 243,15,16,36,176 // movss (%eax,%esi,4),%xmm4
- .byte 243,15,16,60,136 // movss (%eax,%ecx,4),%xmm7
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 15,20,231 // unpcklps %xmm7,%xmm4
- .byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 102,15,41,101,216 // movapd %xmm4,-0x28(%ebp)
- .byte 139,66,12 // mov 0xc(%edx),%eax
- .byte 243,15,16,20,152 // movss (%eax,%ebx,4),%xmm2
- .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 243,15,16,20,176 // movss (%eax,%esi,4),%xmm2
- .byte 243,15,16,60,136 // movss (%eax,%ecx,4),%xmm7
- .byte 15,20,215 // unpcklps %xmm7,%xmm2
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 139,66,28 // mov 0x1c(%edx),%eax
- .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7
- .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
- .byte 15,20,223 // unpcklps %xmm7,%xmm3
- .byte 243,15,16,60,176 // movss (%eax,%esi,4),%xmm7
- .byte 243,15,16,44,136 // movss (%eax,%ecx,4),%xmm5
- .byte 15,20,253 // unpcklps %xmm5,%xmm7
- .byte 102,15,20,251 // unpcklpd %xmm3,%xmm7
- .byte 139,66,16 // mov 0x10(%edx),%eax
- .byte 243,15,16,28,152 // movss (%eax,%ebx,4),%xmm3
- .byte 243,15,16,44,184 // movss (%eax,%edi,4),%xmm5
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3
- .byte 243,15,16,52,136 // movss (%eax,%ecx,4),%xmm6
- .byte 15,20,222 // unpcklps %xmm6,%xmm3
- .byte 102,15,20,221 // unpcklpd %xmm5,%xmm3
- .byte 139,66,32 // mov 0x20(%edx),%eax
- .byte 243,15,16,44,152 // movss (%eax,%ebx,4),%xmm5
- .byte 243,15,16,52,184 // movss (%eax,%edi,4),%xmm6
- .byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 243,15,16,44,176 // movss (%eax,%esi,4),%xmm5
- .byte 243,15,16,36,136 // movss (%eax,%ecx,4),%xmm4
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 15,40,101,184 // movaps -0x48(%ebp),%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,88,101,200 // addps -0x38(%ebp),%xmm4
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,88,77,216 // addps -0x28(%ebp),%xmm1
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 137,193 // mov %eax,%ecx
- .byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,76 // add $0x4c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_evenly_spaced_2_stop_gradient_sse2
-.globl _sk_evenly_spaced_2_stop_gradient_sse2
-FUNCTION(_sk_evenly_spaced_2_stop_gradient_sse2)
-_sk_evenly_spaced_2_stop_gradient_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,1 // movss (%ecx),%xmm0
- .byte 243,15,16,73,4 // movss 0x4(%ecx),%xmm1
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,15,16,81,16 // movss 0x10(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 243,15,16,81,20 // movss 0x14(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,89,24 // movss 0x18(%ecx),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 243,15,16,89,12 // movss 0xc(%ecx),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 243,15,16,105,28 // movss 0x1c(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_xy_to_unit_angle_sse2
-.globl _sk_xy_to_unit_angle_sse2
-FUNCTION(_sk_xy_to_unit_angle_sse2)
-_sk_xy_to_unit_angle_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,24 // sub $0x18,%esp
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call 7561 <_sk_xy_to_unit_angle_sse2+0x18>
- .byte 88 // pop %eax
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,84,233 // andps %xmm1,%xmm5
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,92,226 // subps %xmm2,%xmm4
- .byte 15,84,226 // andps %xmm2,%xmm4
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,93,244 // minps %xmm4,%xmm6
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,95,252 // maxps %xmm4,%xmm7
- .byte 15,94,247 // divps %xmm7,%xmm6
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,40,128,223,151,0,0 // movaps 0x97df(%eax),%xmm0
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,239,151,0,0 // addps 0x97ef(%eax),%xmm0
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,255,151,0,0 // addps 0x97ff(%eax),%xmm0
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,128,15,152,0,0 // addps 0x980f(%eax),%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,40,176,31,152,0,0 // movaps 0x981f(%eax),%xmm6
- .byte 15,92,240 // subps %xmm0,%xmm6
- .byte 15,84,245 // andps %xmm5,%xmm6
- .byte 15,85,232 // andnps %xmm0,%xmm5
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,86,238 // orps %xmm6,%xmm5
- .byte 15,194,204,1 // cmpltps %xmm4,%xmm1
- .byte 15,40,128,239,145,0,0 // movaps 0x91ef(%eax),%xmm0
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,84,193 // andps %xmm1,%xmm0
- .byte 15,85,205 // andnps %xmm5,%xmm1
- .byte 15,86,200 // orps %xmm0,%xmm1
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,168,255,145,0,0 // movaps 0x91ff(%eax),%xmm5
- .byte 15,92,233 // subps %xmm1,%xmm5
- .byte 15,84,232 // andps %xmm0,%xmm5
- .byte 15,85,193 // andnps %xmm1,%xmm0
- .byte 15,86,197 // orps %xmm5,%xmm0
- .byte 15,194,224,7 // cmpordps %xmm0,%xmm4
- .byte 15,84,224 // andps %xmm0,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,40 // add $0x28,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_xy_to_radius_sse2
-.globl _sk_xy_to_radius_sse2
-FUNCTION(_sk_xy_to_radius_sse2)
-_sk_xy_to_radius_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,81,196 // sqrtps %xmm4,%xmm0
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_negate_x_sse2
-.globl _sk_negate_x_sse2
-FUNCTION(_sk_negate_x_sse2)
-_sk_negate_x_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 7658 <_sk_negate_x_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,87,128,56,150,0,0 // xorps 0x9638(%eax),%xmm0
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_xy_to_2pt_conical_strip_sse2
-.globl _sk_xy_to_2pt_conical_strip_sse2
-FUNCTION(_sk_xy_to_2pt_conical_strip_sse2)
-_sk_xy_to_2pt_conical_strip_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,97,64 // movss 0x40(%ecx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,92,229 // subps %xmm5,%xmm4
- .byte 15,81,228 // sqrtps %xmm4,%xmm4
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_xy_to_2pt_conical_focal_on_circle_sse2
-.globl _sk_xy_to_2pt_conical_focal_on_circle_sse2
-FUNCTION(_sk_xy_to_2pt_conical_focal_on_circle_sse2)
-_sk_xy_to_2pt_conical_focal_on_circle_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,94,224 // divps %xmm0,%xmm4
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 141,72,4 // lea 0x4(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_xy_to_2pt_conical_well_behaved_sse2
-.globl _sk_xy_to_2pt_conical_well_behaved_sse2
-FUNCTION(_sk_xy_to_2pt_conical_well_behaved_sse2)
-_sk_xy_to_2pt_conical_well_behaved_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,97,64 // movss 0x40(%ecx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 15,81,197 // sqrtps %xmm5,%xmm0
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_xy_to_2pt_conical_greater_sse2
-.globl _sk_xy_to_2pt_conical_greater_sse2
-FUNCTION(_sk_xy_to_2pt_conical_greater_sse2)
-_sk_xy_to_2pt_conical_greater_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,97,64 // movss 0x40(%ecx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,81,192 // sqrtps %xmm0,%xmm0
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_xy_to_2pt_conical_smaller_sse2
-.globl _sk_xy_to_2pt_conical_smaller_sse2
-FUNCTION(_sk_xy_to_2pt_conical_smaller_sse2)
-_sk_xy_to_2pt_conical_smaller_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 7750 <_sk_xy_to_2pt_conical_smaller_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 243,15,16,98,64 // movss 0x40(%edx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,81,192 // sqrtps %xmm0,%xmm0
- .byte 15,87,128,64,149,0,0 // xorps 0x9540(%eax),%xmm0
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_alter_2pt_conical_compensate_focal_sse2
-.globl _sk_alter_2pt_conical_compensate_focal_sse2
-FUNCTION(_sk_alter_2pt_conical_compensate_focal_sse2)
-_sk_alter_2pt_conical_compensate_focal_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,97,68 // movss 0x44(%ecx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_alter_2pt_conical_unswap_sse2
-.globl _sk_alter_2pt_conical_unswap_sse2
-FUNCTION(_sk_alter_2pt_conical_unswap_sse2)
-_sk_alter_2pt_conical_unswap_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 77c1 <_sk_alter_2pt_conical_unswap_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,160,159,143,0,0 // movaps 0x8f9f(%eax),%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_mask_2pt_conical_nan_sse2
-.globl _sk_mask_2pt_conical_nan_sse2
-FUNCTION(_sk_mask_2pt_conical_nan_sse2)
-_sk_mask_2pt_conical_nan_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,194,224,7 // cmpordps %xmm0,%xmm4
- .byte 15,17,34 // movups %xmm4,(%edx)
- .byte 141,81,8 // lea 0x8(%ecx),%edx
- .byte 15,84,196 // andps %xmm4,%xmm0
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_mask_2pt_conical_degenerates_sse2
-.globl _sk_mask_2pt_conical_degenerates_sse2
-FUNCTION(_sk_mask_2pt_conical_degenerates_sse2)
-_sk_mask_2pt_conical_degenerates_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,194,232,1 // cmpltps %xmm0,%xmm5
- .byte 15,17,42 // movups %xmm5,(%edx)
- .byte 141,81,8 // lea 0x8(%ecx),%edx
- .byte 15,95,196 // maxps %xmm4,%xmm0
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_apply_vector_mask_sse2
-.globl _sk_apply_vector_mask_sse2
-FUNCTION(_sk_apply_vector_mask_sse2)
-_sk_apply_vector_mask_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 15,16,33 // movups (%ecx),%xmm4
- .byte 15,84,196 // andps %xmm4,%xmm0
- .byte 15,84,204 // andps %xmm4,%xmm1
- .byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,84,220 // andps %xmm4,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_save_xy_sse2
-.globl _sk_save_xy_sse2
-FUNCTION(_sk_save_xy_sse2)
-_sk_save_xy_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,24 // sub $0x18,%esp
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 232,0,0,0,0 // call 787a <_sk_save_xy_sse2+0x12>
- .byte 88 // pop %eax
- .byte 15,40,160,214,142,0,0 // movaps 0x8ed6(%eax),%xmm4
- .byte 15,40,232 // movaps %xmm0,%xmm5
- .byte 15,88,236 // addps %xmm4,%xmm5
- .byte 243,15,91,245 // cvttps2dq %xmm5,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,144,230,142,0,0 // movaps 0x8ee6(%eax),%xmm2
- .byte 15,84,250 // andps %xmm2,%xmm7
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,92,238 // subps %xmm6,%xmm5
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 243,15,91,244 // cvttps2dq %xmm4,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,40,252 // movaps %xmm4,%xmm7
- .byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,84,250 // andps %xmm2,%xmm7
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,92,230 // subps %xmm6,%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 15,17,1 // movups %xmm0,(%ecx)
- .byte 15,17,73,64 // movups %xmm1,0x40(%ecx)
- .byte 15,17,169,128,0,0,0 // movups %xmm5,0x80(%ecx)
- .byte 15,17,161,192,0,0,0 // movups %xmm4,0xc0(%ecx)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 141,80,8 // lea 0x8(%eax),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 82 // push %edx
- .byte 81 // push %ecx
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,40 // add $0x28,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_accumulate_sse2
-.globl _sk_accumulate_sse2
-FUNCTION(_sk_accumulate_sse2)
-_sk_accumulate_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,17 // mov (%ecx),%edx
- .byte 15,16,162,0,1,0,0 // movups 0x100(%edx),%xmm4
- .byte 15,16,170,64,1,0,0 // movups 0x140(%edx),%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,88,96,16 // addps 0x10(%eax),%xmm4
- .byte 15,41,96,16 // movaps %xmm4,0x10(%eax)
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,88,96,32 // addps 0x20(%eax),%xmm4
- .byte 15,41,96,32 // movaps %xmm4,0x20(%eax)
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,89,226 // mulps %xmm2,%xmm4
- .byte 15,88,96,48 // addps 0x30(%eax),%xmm4
- .byte 15,41,96,48 // movaps %xmm4,0x30(%eax)
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,88,104,64 // addps 0x40(%eax),%xmm5
- .byte 15,41,104,64 // movaps %xmm5,0x40(%eax)
- .byte 141,81,8 // lea 0x8(%ecx),%edx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 82 // push %edx
- .byte 80 // push %eax
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_bilinear_nx_sse2
-.globl _sk_bilinear_nx_sse2
-FUNCTION(_sk_bilinear_nx_sse2)
-_sk_bilinear_nx_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7962 <_sk_bilinear_nx_sse2+0xa>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 15,16,6 // movups (%esi),%xmm0
- .byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,46,148,0,0 // addps 0x942e(%eax),%xmm0
- .byte 15,40,168,254,141,0,0 // movaps 0x8dfe(%eax),%xmm5
- .byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi)
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,20 // add $0x14,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_bilinear_px_sse2
-.globl _sk_bilinear_px_sse2
-FUNCTION(_sk_bilinear_px_sse2)
-_sk_bilinear_px_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 80 // push %eax
- .byte 232,0,0,0,0 // call 79a8 <_sk_bilinear_px_sse2+0xa>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 15,16,6 // movups (%esi),%xmm0
- .byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,168,141,0,0 // addps 0x8da8(%eax),%xmm0
- .byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,20 // add $0x14,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_bilinear_ny_sse2
-.globl _sk_bilinear_ny_sse2
-FUNCTION(_sk_bilinear_ny_sse2)
-_sk_bilinear_ny_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 80 // push %eax
- .byte 232,0,0,0,0 // call 79e4 <_sk_bilinear_ny_sse2+0xa>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 15,16,78,64 // movups 0x40(%esi),%xmm1
- .byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,172,147,0,0 // addps 0x93ac(%eax),%xmm1
- .byte 15,40,168,124,141,0,0 // movaps 0x8d7c(%eax),%xmm5
- .byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi)
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,20 // add $0x14,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_bilinear_py_sse2
-.globl _sk_bilinear_py_sse2
-FUNCTION(_sk_bilinear_py_sse2)
-_sk_bilinear_py_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7a2b <_sk_bilinear_py_sse2+0xa>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 15,16,78,64 // movups 0x40(%esi),%xmm1
- .byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,37,141,0,0 // addps 0x8d25(%eax),%xmm1
- .byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,20 // add $0x14,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_bicubic_n3x_sse2
-.globl _sk_bicubic_n3x_sse2
-FUNCTION(_sk_bicubic_n3x_sse2)
-_sk_bicubic_n3x_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7a68 <_sk_bicubic_n3x_sse2+0xa>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 15,16,6 // movups (%esi),%xmm0
- .byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,56,147,0,0 // addps 0x9338(%eax),%xmm0
- .byte 15,40,168,248,140,0,0 // movaps 0x8cf8(%eax),%xmm5
- .byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,72,147,0,0 // mulps 0x9348(%eax),%xmm5
- .byte 15,88,168,232,142,0,0 // addps 0x8ee8(%eax),%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,17,174,0,1,0,0 // movups %xmm5,0x100(%esi)
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,20 // add $0x14,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_bicubic_n1x_sse2
-.globl _sk_bicubic_n1x_sse2
-FUNCTION(_sk_bicubic_n1x_sse2)
-_sk_bicubic_n1x_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7ac5 <_sk_bicubic_n1x_sse2+0xa>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 15,16,6 // movups (%esi),%xmm0
- .byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,203,146,0,0 // addps 0x92cb(%eax),%xmm0
- .byte 15,40,168,155,140,0,0 // movaps 0x8c9b(%eax),%xmm5
- .byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,251,146,0,0 // movaps 0x92fb(%eax),%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,11,147,0,0 // addps 0x930b(%eax),%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,139,140,0,0 // addps 0x8c8b(%eax),%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,27,147,0,0 // addps 0x931b(%eax),%xmm4
- .byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,20 // add $0x14,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_bicubic_p1x_sse2
-.globl _sk_bicubic_p1x_sse2
-FUNCTION(_sk_bicubic_p1x_sse2)
-_sk_bicubic_p1x_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7b30 <_sk_bicubic_p1x_sse2+0xa>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,32,140,0,0 // movaps 0x8c20(%eax),%xmm4
- .byte 15,16,6 // movups (%esi),%xmm0
- .byte 15,16,174,128,0,0,0 // movups 0x80(%esi),%xmm5
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,176,144,146,0,0 // movaps 0x9290(%eax),%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,160,146,0,0 // addps 0x92a0(%eax),%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,244 // addps %xmm4,%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,176,146,0,0 // addps 0x92b0(%eax),%xmm6
- .byte 15,17,182,0,1,0,0 // movups %xmm6,0x100(%esi)
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,20 // add $0x14,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_bicubic_p3x_sse2
-.globl _sk_bicubic_p3x_sse2
-FUNCTION(_sk_bicubic_p3x_sse2)
-_sk_bicubic_p3x_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7b90 <_sk_bicubic_p3x_sse2+0xa>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 15,16,6 // movups (%esi),%xmm0
- .byte 15,16,166,128,0,0,0 // movups 0x80(%esi),%xmm4
- .byte 15,88,128,64,146,0,0 // addps 0x9240(%eax),%xmm0
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,32,146,0,0 // mulps 0x9220(%eax),%xmm4
- .byte 15,88,160,192,141,0,0 // addps 0x8dc0(%eax),%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,17,166,0,1,0,0 // movups %xmm4,0x100(%esi)
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,20 // add $0x14,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_bicubic_n3y_sse2
-.globl _sk_bicubic_n3y_sse2
-FUNCTION(_sk_bicubic_n3y_sse2)
-_sk_bicubic_n3y_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7be3 <_sk_bicubic_n3y_sse2+0xa>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 15,16,78,64 // movups 0x40(%esi),%xmm1
- .byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,189,145,0,0 // addps 0x91bd(%eax),%xmm1
- .byte 15,40,168,125,139,0,0 // movaps 0x8b7d(%eax),%xmm5
- .byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,89,228 // mulps %xmm4,%xmm4
- .byte 15,89,168,205,145,0,0 // mulps 0x91cd(%eax),%xmm5
- .byte 15,88,168,109,141,0,0 // addps 0x8d6d(%eax),%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,17,174,64,1,0,0 // movups %xmm5,0x140(%esi)
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,20 // add $0x14,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_bicubic_n1y_sse2
-.globl _sk_bicubic_n1y_sse2
-FUNCTION(_sk_bicubic_n1y_sse2)
-_sk_bicubic_n1y_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7c41 <_sk_bicubic_n1y_sse2+0xa>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 15,16,78,64 // movups 0x40(%esi),%xmm1
- .byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,79,145,0,0 // addps 0x914f(%eax),%xmm1
- .byte 15,40,168,31,139,0,0 // movaps 0x8b1f(%eax),%xmm5
- .byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,40,160,127,145,0,0 // movaps 0x917f(%eax),%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,143,145,0,0 // addps 0x918f(%eax),%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,15,139,0,0 // addps 0x8b0f(%eax),%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,88,160,159,145,0,0 // addps 0x919f(%eax),%xmm4
- .byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,20 // add $0x14,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_bicubic_p1y_sse2
-.globl _sk_bicubic_p1y_sse2
-FUNCTION(_sk_bicubic_p1y_sse2)
-_sk_bicubic_p1y_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7cad <_sk_bicubic_p1y_sse2+0xa>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 15,40,160,163,138,0,0 // movaps 0x8aa3(%eax),%xmm4
- .byte 15,16,78,64 // movups 0x40(%esi),%xmm1
- .byte 15,16,174,192,0,0,0 // movups 0xc0(%esi),%xmm5
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,176,19,145,0,0 // movaps 0x9113(%eax),%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,35,145,0,0 // addps 0x9123(%eax),%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,244 // addps %xmm4,%xmm6
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,88,176,51,145,0,0 // addps 0x9133(%eax),%xmm6
- .byte 15,17,182,64,1,0,0 // movups %xmm6,0x140(%esi)
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,20 // add $0x14,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_bicubic_p3y_sse2
-.globl _sk_bicubic_p3y_sse2
-FUNCTION(_sk_bicubic_p3y_sse2)
-_sk_bicubic_p3y_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 86 // push %esi
- .byte 80 // push %eax
- .byte 232,0,0,0,0 // call 7d0e <_sk_bicubic_p3y_sse2+0xa>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 15,16,78,64 // movups 0x40(%esi),%xmm1
- .byte 15,16,166,192,0,0,0 // movups 0xc0(%esi),%xmm4
- .byte 15,88,136,194,144,0,0 // addps 0x90c2(%eax),%xmm1
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,89,237 // mulps %xmm5,%xmm5
- .byte 15,89,160,162,144,0,0 // mulps 0x90a2(%eax),%xmm4
- .byte 15,88,160,66,140,0,0 // addps 0x8c42(%eax),%xmm4
- .byte 15,89,229 // mulps %xmm5,%xmm4
- .byte 15,17,166,64,1,0,0 // movups %xmm4,0x140(%esi)
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 81 // push %ecx
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,20 // add $0x14,%esp
- .byte 94 // pop %esi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_callback_sse2
-.globl _sk_callback_sse2
-FUNCTION(_sk_callback_sse2)
-_sk_callback_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,12 // sub $0xc,%esp
- .byte 139,117,8 // mov 0x8(%ebp),%esi
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 139,31 // mov (%edi),%ebx
- .byte 139,70,8 // mov 0x8(%esi),%eax
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,20,225 // unpcklps %xmm1,%xmm4
- .byte 15,40,234 // movaps %xmm2,%xmm5
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 15,21,193 // unpckhps %xmm1,%xmm0
- .byte 15,21,211 // unpckhps %xmm3,%xmm2
- .byte 15,40,204 // movaps %xmm4,%xmm1
- .byte 102,15,20,205 // unpcklpd %xmm5,%xmm1
- .byte 15,18,236 // movhlps %xmm4,%xmm5
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 102,15,20,218 // unpcklpd %xmm2,%xmm3
- .byte 102,15,17,75,4 // movupd %xmm1,0x4(%ebx)
- .byte 15,18,208 // movhlps %xmm0,%xmm2
- .byte 15,17,107,20 // movups %xmm5,0x14(%ebx)
- .byte 102,15,17,91,36 // movupd %xmm3,0x24(%ebx)
- .byte 15,17,83,52 // movups %xmm2,0x34(%ebx)
- .byte 133,192 // test %eax,%eax
- .byte 185,4,0,0,0 // mov $0x4,%ecx
- .byte 15,69,200 // cmovne %eax,%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 81 // push %ecx
- .byte 83 // push %ebx
- .byte 255,19 // call *(%ebx)
- .byte 131,196,16 // add $0x10,%esp
- .byte 139,131,4,1,0,0 // mov 0x104(%ebx),%eax
- .byte 15,16,32 // movups (%eax),%xmm4
- .byte 15,16,64,16 // movups 0x10(%eax),%xmm0
- .byte 15,16,88,32 // movups 0x20(%eax),%xmm3
- .byte 15,16,80,48 // movups 0x30(%eax),%xmm2
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,20,202 // unpcklps %xmm2,%xmm1
- .byte 15,21,224 // unpckhps %xmm0,%xmm4
- .byte 15,21,218 // unpckhps %xmm2,%xmm3
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
- .byte 15,18,205 // movhlps %xmm5,%xmm1
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 15,18,220 // movhlps %xmm4,%xmm3
- .byte 141,71,8 // lea 0x8(%edi),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 80 // push %eax
- .byte 86 // push %esi
- .byte 255,87,4 // call *0x4(%edi)
- .byte 131,196,28 // add $0x1c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_clut_3D_sse2
-.globl _sk_clut_3D_sse2
-FUNCTION(_sk_clut_3D_sse2)
-_sk_clut_3D_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,28,1,0,0 // sub $0x11c,%esp
- .byte 15,41,157,216,254,255,255 // movaps %xmm3,-0x128(%ebp)
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,81,12 // mov 0xc(%ecx),%edx
- .byte 141,114,255 // lea -0x1(%edx),%esi
- .byte 102,15,110,198 // movd %esi,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,41,165,248,254,255,255 // movaps %xmm4,-0x108(%ebp)
- .byte 102,15,110,194 // movd %edx,%xmm0
- .byte 102,15,112,240,0 // pshufd $0x0,%xmm0,%xmm6
- .byte 102,15,127,117,152 // movdqa %xmm6,-0x68(%ebp)
- .byte 139,81,8 // mov 0x8(%ecx),%edx
- .byte 141,114,255 // lea -0x1(%edx),%esi
- .byte 102,15,110,214 // movd %esi,%xmm2
- .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,41,149,88,255,255,255 // movaps %xmm2,-0xa8(%ebp)
- .byte 243,15,91,234 // cvttps2dq %xmm2,%xmm5
- .byte 102,15,127,173,40,255,255,255 // movdqa %xmm5,-0xd8(%ebp)
- .byte 102,15,112,205,245 // pshufd $0xf5,%xmm5,%xmm1
- .byte 102,15,244,206 // pmuludq %xmm6,%xmm1
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,15,244,213 // pmuludq %xmm5,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,98,209 // punpckldq %xmm1,%xmm2
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,127,109,168 // movdqa %xmm5,-0x58(%ebp)
- .byte 102,15,110,202 // movd %edx,%xmm1
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 139,81,4 // mov 0x4(%ecx),%edx
- .byte 74 // dec %edx
- .byte 102,15,110,194 // movd %edx,%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 102,15,112,209,0 // pshufd $0x0,%xmm1,%xmm2
- .byte 243,15,91,216 // cvttps2dq %xmm0,%xmm3
- .byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
- .byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
- .byte 102,15,244,194 // pmuludq %xmm2,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,244,203 // pmuludq %xmm3,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,98,200 // punpckldq %xmm0,%xmm1
- .byte 102,15,127,77,136 // movdqa %xmm1,-0x78(%ebp)
- .byte 232,0,0,0,0 // call 7ef4 <_sk_clut_3D_sse2+0xee>
- .byte 90 // pop %edx
- .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
- .byte 102,15,127,133,8,255,255,255 // movdqa %xmm0,-0xf8(%ebp)
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 102,15,254,216 // paddd %xmm0,%xmm3
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,254,195 // paddd %xmm3,%xmm0
- .byte 102,15,111,162,12,143,0,0 // movdqa 0x8f0c(%edx),%xmm4
- .byte 102,15,127,165,120,255,255,255 // movdqa %xmm4,-0x88(%ebp)
- .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,244,196 // pmuludq %xmm4,%xmm0
- .byte 102,15,244,204 // pmuludq %xmm4,%xmm1
- .byte 102,15,112,225,232 // pshufd $0xe8,%xmm1,%xmm4
- .byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
- .byte 102,15,98,204 // punpckldq %xmm4,%xmm1
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 102,15,112,193,231 // pshufd $0xe7,%xmm1,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 139,9 // mov (%ecx),%ecx
- .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
- .byte 243,15,16,36,153 // movss (%ecx,%ebx,4),%xmm4
- .byte 15,20,224 // unpcklps %xmm0,%xmm4
- .byte 243,15,16,4,185 // movss (%ecx,%edi,4),%xmm0
- .byte 243,15,16,44,177 // movss (%ecx,%esi,4),%xmm5
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 102,15,20,236 // unpcklpd %xmm4,%xmm5
- .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,250,196 // psubd %xmm4,%xmm0
- .byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,153 // movss (%ecx,%ebx,4),%xmm0
- .byte 243,15,16,36,177 // movss (%ecx,%esi,4),%xmm4
- .byte 15,20,224 // unpcklps %xmm0,%xmm4
- .byte 243,15,16,60,185 // movss (%ecx,%edi,4),%xmm7
- .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
- .byte 15,20,248 // unpcklps %xmm0,%xmm7
- .byte 102,15,20,252 // unpcklpd %xmm4,%xmm7
- .byte 102,15,111,130,172,136,0,0 // movdqa 0x88ac(%edx),%xmm0
- .byte 102,15,127,133,104,255,255,255 // movdqa %xmm0,-0x98(%ebp)
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,193,231 // pshufd $0xe7,%xmm1,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,153 // movss (%ecx,%ebx,4),%xmm0
- .byte 243,15,16,12,177 // movss (%ecx,%esi,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 243,15,16,52,185 // movss (%ecx,%edi,4),%xmm6
- .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
- .byte 15,20,240 // unpcklps %xmm0,%xmm6
- .byte 102,15,20,241 // unpcklpd %xmm1,%xmm6
- .byte 15,40,130,252,142,0,0 // movaps 0x8efc(%edx),%xmm0
- .byte 15,40,141,248,254,255,255 // movaps -0x108(%ebp),%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
- .byte 15,40,141,88,255,255,255 // movaps -0xa8(%ebp),%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,41,141,72,255,255,255 // movaps %xmm1,-0xb8(%ebp)
- .byte 15,88,69,216 // addps -0x28(%ebp),%xmm0
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,244,202 // pmuludq %xmm2,%xmm1
- .byte 102,15,244,208 // pmuludq %xmm0,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,98,208 // punpckldq %xmm0,%xmm2
- .byte 102,15,127,149,24,255,255,255 // movdqa %xmm2,-0xe8(%ebp)
- .byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
- .byte 102,15,111,141,120,255,255,255 // movdqa -0x88(%ebp),%xmm1
- .byte 102,15,244,217 // pmuludq %xmm1,%xmm3
- .byte 102,15,244,193 // pmuludq %xmm1,%xmm0
- .byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
- .byte 102,15,112,195,232 // pshufd $0xe8,%xmm3,%xmm0
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,15,126,202 // movd %xmm1,%edx
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 243,15,16,12,185 // movss (%ecx,%edi,4),%xmm1
- .byte 243,15,16,20,177 // movss (%ecx,%esi,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1
- .byte 243,15,16,28,129 // movss (%ecx,%eax,4),%xmm3
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 102,15,20,218 // unpcklpd %xmm2,%xmm3
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,118,210 // pcmpeqd %xmm2,%xmm2
- .byte 102,15,250,202 // psubd %xmm2,%xmm1
- .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
- .byte 102,15,126,208 // movd %xmm2,%eax
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,15,126,210 // movd %xmm2,%edx
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 243,15,16,20,185 // movss (%ecx,%edi,4),%xmm2
- .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1
- .byte 15,20,202 // unpcklps %xmm2,%xmm1
- .byte 243,15,16,20,177 // movss (%ecx,%esi,4),%xmm2
- .byte 243,15,16,36,129 // movss (%ecx,%eax,4),%xmm4
- .byte 15,20,212 // unpcklps %xmm4,%xmm2
- .byte 102,15,20,209 // unpcklpd %xmm1,%xmm2
- .byte 102,15,254,133,104,255,255,255 // paddd -0x98(%ebp),%xmm0
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,126,202 // movd %xmm1,%edx
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 243,15,16,4,185 // movss (%ecx,%edi,4),%xmm0
- .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4
- .byte 15,20,224 // unpcklps %xmm0,%xmm4
- .byte 243,15,16,12,177 // movss (%ecx,%esi,4),%xmm1
- .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 102,15,20,204 // unpcklpd %xmm4,%xmm1
- .byte 15,91,69,184 // cvtdq2ps -0x48(%ebp),%xmm0
- .byte 15,40,101,216 // movaps -0x28(%ebp),%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,41,101,216 // movaps %xmm4,-0x28(%ebp)
- .byte 15,92,221 // subps %xmm5,%xmm3
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
- .byte 15,92,215 // subps %xmm7,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,41,149,56,255,255,255 // movaps %xmm2,-0xc8(%ebp)
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,41,141,232,254,255,255 // movaps %xmm1,-0x118(%ebp)
- .byte 243,15,91,133,72,255,255,255 // cvttps2dq -0xb8(%ebp),%xmm0
- .byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4
- .byte 102,15,111,77,152 // movdqa -0x68(%ebp),%xmm1
- .byte 102,15,244,225 // pmuludq %xmm1,%xmm4
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,244,232 // pmuludq %xmm0,%xmm5
- .byte 102,15,112,253,232 // pshufd $0xe8,%xmm5,%xmm7
- .byte 102,15,112,196,232 // pshufd $0xe8,%xmm4,%xmm0
- .byte 102,15,98,248 // punpckldq %xmm0,%xmm7
- .byte 102,15,127,125,152 // movdqa %xmm7,-0x68(%ebp)
- .byte 102,15,254,189,8,255,255,255 // paddd -0xf8(%ebp),%xmm7
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,15,254,69,136 // paddd -0x78(%ebp),%xmm0
- .byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4
- .byte 102,15,111,141,120,255,255,255 // movdqa -0x88(%ebp),%xmm1
- .byte 102,15,244,193 // pmuludq %xmm1,%xmm0
- .byte 102,15,244,225 // pmuludq %xmm1,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,112,232,232 // pshufd $0xe8,%xmm0,%xmm5
- .byte 102,15,98,236 // punpckldq %xmm4,%xmm5
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,197,229 // pshufd $0xe5,%xmm5,%xmm0
- .byte 102,15,126,194 // movd %xmm0,%edx
- .byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,112,197,231 // pshufd $0xe7,%xmm5,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 243,15,16,4,185 // movss (%ecx,%edi,4),%xmm0
- .byte 243,15,16,36,177 // movss (%ecx,%esi,4),%xmm4
- .byte 15,20,224 // unpcklps %xmm0,%xmm4
- .byte 243,15,16,4,145 // movss (%ecx,%edx,4),%xmm0
- .byte 243,15,16,20,129 // movss (%ecx,%eax,4),%xmm2
- .byte 15,20,208 // unpcklps %xmm0,%xmm2
- .byte 102,15,20,212 // unpcklpd %xmm4,%xmm2
- .byte 102,15,41,149,72,255,255,255 // movapd %xmm2,-0xb8(%ebp)
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,250,195 // psubd %xmm3,%xmm0
- .byte 102,15,118,210 // pcmpeqd %xmm2,%xmm2
- .byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,126,226 // movd %xmm4,%edx
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 243,15,16,36,185 // movss (%ecx,%edi,4),%xmm4
- .byte 243,15,16,4,145 // movss (%ecx,%edx,4),%xmm0
- .byte 15,20,196 // unpcklps %xmm4,%xmm0
- .byte 243,15,16,36,177 // movss (%ecx,%esi,4),%xmm4
- .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6
- .byte 15,20,230 // unpcklps %xmm6,%xmm4
- .byte 102,15,20,224 // unpcklpd %xmm0,%xmm4
- .byte 102,15,111,157,104,255,255,255 // movdqa -0x98(%ebp),%xmm3
- .byte 102,15,254,235 // paddd %xmm3,%xmm5
- .byte 102,15,112,197,229 // pshufd $0xe5,%xmm5,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
- .byte 102,15,126,194 // movd %xmm0,%edx
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 102,15,112,197,231 // pshufd $0xe7,%xmm5,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 243,15,16,4,185 // movss (%ecx,%edi,4),%xmm0
- .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6
- .byte 15,20,240 // unpcklps %xmm0,%xmm6
- .byte 243,15,16,44,177 // movss (%ecx,%esi,4),%xmm5
- .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,189,24,255,255,255 // paddd -0xe8(%ebp),%xmm7
- .byte 102,15,112,199,245 // pshufd $0xf5,%xmm7,%xmm0
- .byte 102,15,244,249 // pmuludq %xmm1,%xmm7
- .byte 102,15,244,193 // pmuludq %xmm1,%xmm0
- .byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
- .byte 102,15,112,199,232 // pshufd $0xe8,%xmm7,%xmm0
- .byte 102,15,98,198 // punpckldq %xmm6,%xmm0
- .byte 102,15,126,248 // movd %xmm7,%eax
- .byte 102,15,112,240,229 // pshufd $0xe5,%xmm0,%xmm6
- .byte 102,15,126,242 // movd %xmm6,%edx
- .byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 102,15,112,240,231 // pshufd $0xe7,%xmm0,%xmm6
- .byte 102,15,126,247 // movd %xmm6,%edi
- .byte 243,15,16,52,185 // movss (%ecx,%edi,4),%xmm6
- .byte 243,15,16,60,177 // movss (%ecx,%esi,4),%xmm7
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6
- .byte 243,15,16,12,129 // movss (%ecx,%eax,4),%xmm1
- .byte 15,20,206 // unpcklps %xmm6,%xmm1
- .byte 102,15,20,207 // unpcklpd %xmm7,%xmm1
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,250,242 // psubd %xmm2,%xmm6
- .byte 102,15,112,254,229 // pshufd $0xe5,%xmm6,%xmm7
- .byte 102,15,126,248 // movd %xmm7,%eax
- .byte 102,15,112,254,78 // pshufd $0x4e,%xmm6,%xmm7
- .byte 102,15,126,250 // movd %xmm7,%edx
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 102,15,112,246,231 // pshufd $0xe7,%xmm6,%xmm6
- .byte 102,15,126,247 // movd %xmm6,%edi
- .byte 243,15,16,52,185 // movss (%ecx,%edi,4),%xmm6
- .byte 243,15,16,60,145 // movss (%ecx,%edx,4),%xmm7
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 243,15,16,20,177 // movss (%ecx,%esi,4),%xmm2
- .byte 243,15,16,52,129 // movss (%ecx,%eax,4),%xmm6
- .byte 15,20,214 // unpcklps %xmm6,%xmm2
- .byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,15,254,199 // paddd %xmm7,%xmm0
- .byte 102,15,112,240,229 // pshufd $0xe5,%xmm0,%xmm6
- .byte 102,15,126,240 // movd %xmm6,%eax
- .byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6
- .byte 102,15,126,242 // movd %xmm6,%edx
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 243,15,16,4,185 // movss (%ecx,%edi,4),%xmm0
- .byte 243,15,16,52,145 // movss (%ecx,%edx,4),%xmm6
- .byte 15,20,240 // unpcklps %xmm0,%xmm6
- .byte 243,15,16,28,177 // movss (%ecx,%esi,4),%xmm3
- .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
- .byte 15,20,216 // unpcklps %xmm0,%xmm3
- .byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,181,72,255,255,255 // movaps -0xb8(%ebp),%xmm6
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,92,221 // subps %xmm5,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,91,133,40,255,255,255 // cvtdq2ps -0xd8(%ebp),%xmm0
- .byte 15,40,165,88,255,255,255 // movaps -0xa8(%ebp),%xmm4
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,41,165,88,255,255,255 // movaps %xmm4,-0xa8(%ebp)
- .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
- .byte 15,40,133,56,255,255,255 // movaps -0xc8(%ebp),%xmm0
- .byte 15,92,208 // subps %xmm0,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,41,149,56,255,255,255 // movaps %xmm2,-0xc8(%ebp)
- .byte 15,40,133,232,254,255,255 // movaps -0x118(%ebp),%xmm0
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,89,220 // mulps %xmm4,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,41,157,40,255,255,255 // movaps %xmm3,-0xd8(%ebp)
- .byte 243,15,91,77,200 // cvttps2dq -0x38(%ebp),%xmm1
- .byte 102,15,127,77,200 // movdqa %xmm1,-0x38(%ebp)
- .byte 102,15,111,69,168 // movdqa -0x58(%ebp),%xmm0
- .byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,15,111,77,136 // movdqa -0x78(%ebp),%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,111,133,120,255,255,255 // movdqa -0x88(%ebp),%xmm0
- .byte 102,15,244,200 // pmuludq %xmm0,%xmm1
- .byte 102,15,244,208 // pmuludq %xmm0,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,112,217,232 // pshufd $0xe8,%xmm1,%xmm3
- .byte 102,15,98,218 // punpckldq %xmm2,%xmm3
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 102,15,112,203,229 // pshufd $0xe5,%xmm3,%xmm1
- .byte 102,15,126,202 // movd %xmm1,%edx
- .byte 102,15,112,203,78 // pshufd $0x4e,%xmm3,%xmm1
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,112,203,231 // pshufd $0xe7,%xmm3,%xmm1
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 243,15,16,12,185 // movss (%ecx,%edi,4),%xmm1
- .byte 243,15,16,20,177 // movss (%ecx,%esi,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4
- .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
- .byte 15,20,196 // unpcklps %xmm4,%xmm0
- .byte 102,15,20,194 // unpcklpd %xmm2,%xmm0
- .byte 102,15,41,69,168 // movapd %xmm0,-0x58(%ebp)
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,250,208 // psubd %xmm0,%xmm2
- .byte 102,15,112,226,229 // pshufd $0xe5,%xmm2,%xmm4
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 102,15,112,226,78 // pshufd $0x4e,%xmm2,%xmm4
- .byte 102,15,126,226 // movd %xmm4,%edx
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 243,15,16,20,185 // movss (%ecx,%edi,4),%xmm2
- .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4
- .byte 15,20,226 // unpcklps %xmm2,%xmm4
- .byte 243,15,16,20,177 // movss (%ecx,%esi,4),%xmm2
- .byte 243,15,16,44,129 // movss (%ecx,%eax,4),%xmm5
- .byte 15,20,213 // unpcklps %xmm5,%xmm2
- .byte 102,15,20,212 // unpcklpd %xmm4,%xmm2
- .byte 102,15,254,223 // paddd %xmm7,%xmm3
- .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
- .byte 102,15,126,226 // movd %xmm4,%edx
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,112,219,231 // pshufd $0xe7,%xmm3,%xmm3
- .byte 102,15,126,223 // movd %xmm3,%edi
- .byte 243,15,16,28,185 // movss (%ecx,%edi,4),%xmm3
- .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4
- .byte 15,20,227 // unpcklps %xmm3,%xmm4
- .byte 243,15,16,44,177 // movss (%ecx,%esi,4),%xmm5
- .byte 243,15,16,28,129 // movss (%ecx,%eax,4),%xmm3
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 102,15,20,236 // unpcklpd %xmm4,%xmm5
- .byte 102,15,111,230 // movdqa %xmm6,%xmm4
- .byte 102,15,254,165,24,255,255,255 // paddd -0xe8(%ebp),%xmm4
- .byte 102,15,112,220,245 // pshufd $0xf5,%xmm4,%xmm3
- .byte 102,15,111,141,120,255,255,255 // movdqa -0x88(%ebp),%xmm1
- .byte 102,15,244,225 // pmuludq %xmm1,%xmm4
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,244,217 // pmuludq %xmm1,%xmm3
- .byte 102,15,112,227,232 // pshufd $0xe8,%xmm3,%xmm4
- .byte 102,15,112,222,232 // pshufd $0xe8,%xmm6,%xmm3
- .byte 102,15,98,220 // punpckldq %xmm4,%xmm3
- .byte 102,15,126,240 // movd %xmm6,%eax
- .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
- .byte 102,15,126,226 // movd %xmm4,%edx
- .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 102,15,112,227,231 // pshufd $0xe7,%xmm3,%xmm4
- .byte 102,15,126,231 // movd %xmm4,%edi
- .byte 243,15,16,36,185 // movss (%ecx,%edi,4),%xmm4
- .byte 243,15,16,52,177 // movss (%ecx,%esi,4),%xmm6
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 243,15,16,36,145 // movss (%ecx,%edx,4),%xmm4
- .byte 243,15,16,12,129 // movss (%ecx,%eax,4),%xmm1
- .byte 15,20,204 // unpcklps %xmm4,%xmm1
- .byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,250,224 // psubd %xmm0,%xmm4
- .byte 102,15,112,244,229 // pshufd $0xe5,%xmm4,%xmm6
- .byte 102,15,126,240 // movd %xmm6,%eax
- .byte 102,15,112,244,78 // pshufd $0x4e,%xmm4,%xmm6
- .byte 102,15,126,242 // movd %xmm6,%edx
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 102,15,112,228,231 // pshufd $0xe7,%xmm4,%xmm4
- .byte 102,15,126,231 // movd %xmm4,%edi
- .byte 243,15,16,36,185 // movss (%ecx,%edi,4),%xmm4
- .byte 243,15,16,4,145 // movss (%ecx,%edx,4),%xmm0
- .byte 15,20,196 // unpcklps %xmm4,%xmm0
- .byte 243,15,16,60,177 // movss (%ecx,%esi,4),%xmm7
- .byte 243,15,16,36,129 // movss (%ecx,%eax,4),%xmm4
- .byte 15,20,252 // unpcklps %xmm4,%xmm7
- .byte 102,15,20,248 // unpcklpd %xmm0,%xmm7
- .byte 102,15,111,165,104,255,255,255 // movdqa -0x98(%ebp),%xmm4
- .byte 102,15,254,220 // paddd %xmm4,%xmm3
- .byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,195,78 // pshufd $0x4e,%xmm3,%xmm0
- .byte 102,15,126,194 // movd %xmm0,%edx
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,112,195,231 // pshufd $0xe7,%xmm3,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 243,15,16,4,185 // movss (%ecx,%edi,4),%xmm0
- .byte 243,15,16,28,145 // movss (%ecx,%edx,4),%xmm3
- .byte 15,20,216 // unpcklps %xmm0,%xmm3
- .byte 243,15,16,52,177 // movss (%ecx,%esi,4),%xmm6
- .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
- .byte 15,20,240 // unpcklps %xmm0,%xmm6
- .byte 102,15,20,243 // unpcklpd %xmm3,%xmm6
- .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,41,77,168 // movaps %xmm1,-0x58(%ebp)
- .byte 15,92,250 // subps %xmm2,%xmm7
- .byte 15,89,248 // mulps %xmm0,%xmm7
- .byte 15,88,250 // addps %xmm2,%xmm7
- .byte 15,92,245 // subps %xmm5,%xmm6
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,88,245 // addps %xmm5,%xmm6
- .byte 102,15,111,69,152 // movdqa -0x68(%ebp),%xmm0
- .byte 102,15,254,69,200 // paddd -0x38(%ebp),%xmm0
- .byte 102,15,127,69,152 // movdqa %xmm0,-0x68(%ebp)
- .byte 102,15,111,85,136 // movdqa -0x78(%ebp),%xmm2
- .byte 102,15,254,208 // paddd %xmm0,%xmm2
- .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,157,120,255,255,255 // movdqa -0x88(%ebp),%xmm3
- .byte 102,15,244,211 // pmuludq %xmm3,%xmm2
- .byte 102,15,244,195 // pmuludq %xmm3,%xmm0
- .byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
- .byte 102,15,112,194,232 // pshufd $0xe8,%xmm2,%xmm0
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 102,15,126,208 // movd %xmm2,%eax
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,15,126,202 // movd %xmm1,%edx
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 243,15,16,12,185 // movss (%ecx,%edi,4),%xmm1
- .byte 243,15,16,20,177 // movss (%ecx,%esi,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1
- .byte 243,15,16,44,129 // movss (%ecx,%eax,4),%xmm5
- .byte 15,20,233 // unpcklps %xmm1,%xmm5
- .byte 102,15,20,234 // unpcklpd %xmm2,%xmm5
- .byte 102,15,41,109,136 // movapd %xmm5,-0x78(%ebp)
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,118,210 // pcmpeqd %xmm2,%xmm2
- .byte 102,15,250,202 // psubd %xmm2,%xmm1
- .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
- .byte 102,15,126,208 // movd %xmm2,%eax
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,15,126,210 // movd %xmm2,%edx
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 243,15,16,12,185 // movss (%ecx,%edi,4),%xmm1
- .byte 243,15,16,20,145 // movss (%ecx,%edx,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 243,15,16,44,177 // movss (%ecx,%esi,4),%xmm5
- .byte 243,15,16,12,129 // movss (%ecx,%eax,4),%xmm1
- .byte 15,20,233 // unpcklps %xmm1,%xmm5
- .byte 102,15,20,234 // unpcklpd %xmm2,%xmm5
- .byte 102,15,41,109,200 // movapd %xmm5,-0x38(%ebp)
- .byte 102,15,254,196 // paddd %xmm4,%xmm0
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,126,202 // movd %xmm1,%edx
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 243,15,16,4,185 // movss (%ecx,%edi,4),%xmm0
- .byte 243,15,16,12,145 // movss (%ecx,%edx,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 243,15,16,36,177 // movss (%ecx,%esi,4),%xmm4
- .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
- .byte 15,20,224 // unpcklps %xmm0,%xmm4
- .byte 102,15,20,225 // unpcklpd %xmm1,%xmm4
- .byte 102,15,111,77,152 // movdqa -0x68(%ebp),%xmm1
- .byte 102,15,254,141,24,255,255,255 // paddd -0xe8(%ebp),%xmm1
- .byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,244,203 // pmuludq %xmm3,%xmm1
- .byte 102,15,244,195 // pmuludq %xmm3,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,112,209,232 // pshufd $0xe8,%xmm1,%xmm2
- .byte 102,15,98,208 // punpckldq %xmm0,%xmm2
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
- .byte 102,15,126,194 // movd %xmm0,%edx
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 243,15,16,4,185 // movss (%ecx,%edi,4),%xmm0
- .byte 243,15,16,12,177 // movss (%ecx,%esi,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 243,15,16,28,145 // movss (%ecx,%edx,4),%xmm3
- .byte 243,15,16,4,129 // movss (%ecx,%eax,4),%xmm0
- .byte 15,20,195 // unpcklps %xmm3,%xmm0
- .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,250,203 // psubd %xmm3,%xmm1
- .byte 102,15,112,217,229 // pshufd $0xe5,%xmm1,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,15,126,218 // movd %xmm3,%edx
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 243,15,16,12,185 // movss (%ecx,%edi,4),%xmm1
- .byte 243,15,16,28,145 // movss (%ecx,%edx,4),%xmm3
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 243,15,16,12,177 // movss (%ecx,%esi,4),%xmm1
- .byte 243,15,16,44,129 // movss (%ecx,%eax,4),%xmm5
- .byte 15,20,205 // unpcklps %xmm5,%xmm1
- .byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,149,104,255,255,255 // paddd -0x98(%ebp),%xmm2
- .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,15,126,218 // movd %xmm3,%edx
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 243,15,16,20,185 // movss (%ecx,%edi,4),%xmm2
- .byte 243,15,16,28,145 // movss (%ecx,%edx,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 243,15,16,20,177 // movss (%ecx,%esi,4),%xmm2
- .byte 243,15,16,44,129 // movss (%ecx,%eax,4),%xmm5
- .byte 15,20,213 // unpcklps %xmm5,%xmm2
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 15,40,109,136 // movaps -0x78(%ebp),%xmm5
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,40,109,200 // movaps -0x38(%ebp),%xmm5
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,40,101,168 // movaps -0x58(%ebp),%xmm4
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,40,157,88,255,255,255 // movaps -0xa8(%ebp),%xmm3
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,92,207 // subps %xmm7,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,88,214 // addps %xmm6,%xmm2
- .byte 15,91,157,8,255,255,255 // cvtdq2ps -0xf8(%ebp),%xmm3
- .byte 15,40,165,248,254,255,255 // movaps -0x108(%ebp),%xmm4
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,40,157,56,255,255,255 // movaps -0xc8(%ebp),%xmm3
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,40,157,40,255,255,255 // movaps -0xd8(%ebp),%xmm3
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,157,216,254,255,255 // movaps -0x128(%ebp),%xmm3
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 129,196,44,1,0,0 // add $0x12c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_clut_4D_sse2
-.globl _sk_clut_4D_sse2
-FUNCTION(_sk_clut_4D_sse2)
-_sk_clut_4D_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,76,1,0,0 // sub $0x14c,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 139,74,16 // mov 0x10(%edx),%ecx
- .byte 141,113,255 // lea -0x1(%ecx),%esi
- .byte 102,15,110,230 // movd %esi,%xmm4
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 102,15,112,251,0 // pshufd $0x0,%xmm3,%xmm7
- .byte 102,15,127,189,24,255,255,255 // movdqa %xmm7,-0xe8(%ebp)
- .byte 139,74,12 // mov 0xc(%edx),%ecx
- .byte 141,113,255 // lea -0x1(%ecx),%esi
- .byte 102,15,110,230 // movd %esi,%xmm4
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,89,226 // mulps %xmm2,%xmm4
- .byte 15,41,165,248,254,255,255 // movaps %xmm4,-0x108(%ebp)
- .byte 243,15,91,244 // cvttps2dq %xmm4,%xmm6
- .byte 102,15,127,181,216,254,255,255 // movdqa %xmm6,-0x128(%ebp)
- .byte 102,15,112,214,245 // pshufd $0xf5,%xmm6,%xmm2
- .byte 102,15,244,215 // pmuludq %xmm7,%xmm2
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,244,230 // pmuludq %xmm6,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,98,226 // punpckldq %xmm2,%xmm4
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,127,181,8,255,255,255 // movdqa %xmm6,-0xf8(%ebp)
- .byte 102,15,110,209 // movd %ecx,%xmm2
- .byte 102,15,244,211 // pmuludq %xmm3,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,244,216 // pmuludq %xmm0,%xmm3
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,15,98,211 // punpckldq %xmm3,%xmm2
- .byte 139,74,8 // mov 0x8(%edx),%ecx
- .byte 141,113,255 // lea -0x1(%ecx),%esi
- .byte 102,15,110,222 // movd %esi,%xmm3
- .byte 102,15,112,219,0 // pshufd $0x0,%xmm3,%xmm3
- .byte 15,91,219 // cvtdq2ps %xmm3,%xmm3
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,41,157,56,255,255,255 // movaps %xmm3,-0xc8(%ebp)
- .byte 102,15,112,250,0 // pshufd $0x0,%xmm2,%xmm7
- .byte 102,15,127,189,88,255,255,255 // movdqa %xmm7,-0xa8(%ebp)
- .byte 243,15,91,227 // cvttps2dq %xmm3,%xmm4
- .byte 102,15,127,165,40,255,255,255 // movdqa %xmm4,-0xd8(%ebp)
- .byte 102,15,112,204,245 // pshufd $0xf5,%xmm4,%xmm1
- .byte 102,15,244,207 // pmuludq %xmm7,%xmm1
- .byte 102,15,111,223 // movdqa %xmm7,%xmm3
- .byte 102,15,244,220 // pmuludq %xmm4,%xmm3
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,98,217 // punpckldq %xmm1,%xmm3
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,127,165,72,255,255,255 // movdqa %xmm4,-0xb8(%ebp)
- .byte 102,15,110,201 // movd %ecx,%xmm1
- .byte 102,15,244,202 // pmuludq %xmm2,%xmm1
- .byte 139,74,4 // mov 0x4(%edx),%ecx
- .byte 73 // dec %ecx
- .byte 102,15,110,209 // movd %ecx,%xmm2
- .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 102,15,112,217,0 // pshufd $0x0,%xmm1,%xmm3
- .byte 102,15,127,93,168 // movdqa %xmm3,-0x58(%ebp)
- .byte 243,15,91,194 // cvttps2dq %xmm2,%xmm0
- .byte 102,15,127,133,104,255,255,255 // movdqa %xmm0,-0x98(%ebp)
- .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,244,203 // pmuludq %xmm3,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,244,208 // pmuludq %xmm0,%xmm2
- .byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,98,217 // punpckldq %xmm1,%xmm3
- .byte 102,15,127,93,152 // movdqa %xmm3,-0x68(%ebp)
- .byte 232,0,0,0,0 // call 8a80 <_sk_clut_4D_sse2+0x165>
- .byte 89 // pop %ecx
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,41,133,168,254,255,255 // movaps %xmm0,-0x158(%ebp)
- .byte 243,15,91,200 // cvttps2dq %xmm0,%xmm1
- .byte 102,15,127,141,200,254,255,255 // movdqa %xmm1,-0x138(%ebp)
- .byte 102,15,254,241 // paddd %xmm1,%xmm6
- .byte 102,15,127,117,200 // movdqa %xmm6,-0x38(%ebp)
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,254,214 // paddd %xmm6,%xmm2
- .byte 102,15,254,218 // paddd %xmm2,%xmm3
- .byte 102,15,111,161,128,131,0,0 // movdqa 0x8380(%ecx),%xmm4
- .byte 102,15,112,203,245 // pshufd $0xf5,%xmm3,%xmm1
- .byte 102,15,244,220 // pmuludq %xmm4,%xmm3
- .byte 102,15,244,204 // pmuludq %xmm4,%xmm1
- .byte 102,15,112,233,232 // pshufd $0xe8,%xmm1,%xmm5
- .byte 102,15,112,203,232 // pshufd $0xe8,%xmm3,%xmm1
- .byte 102,15,98,205 // punpckldq %xmm5,%xmm1
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,112,217,229 // pshufd $0xe5,%xmm1,%xmm3
- .byte 102,15,126,223 // movd %xmm3,%edi
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,15,126,219 // movd %xmm3,%ebx
- .byte 102,15,112,217,231 // pshufd $0xe7,%xmm1,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 139,18 // mov (%edx),%edx
- .byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3
- .byte 243,15,16,52,154 // movss (%edx,%ebx,4),%xmm6
- .byte 15,20,243 // unpcklps %xmm3,%xmm6
- .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3
- .byte 243,15,16,36,178 // movss (%edx,%esi,4),%xmm4
- .byte 15,20,227 // unpcklps %xmm3,%xmm4
- .byte 102,15,20,230 // unpcklpd %xmm6,%xmm4
- .byte 102,15,41,101,184 // movapd %xmm4,-0x48(%ebp)
- .byte 102,15,118,228 // pcmpeqd %xmm4,%xmm4
- .byte 102,15,111,217 // movdqa %xmm1,%xmm3
- .byte 102,15,250,220 // psubd %xmm4,%xmm3
- .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
- .byte 102,15,112,243,229 // pshufd $0xe5,%xmm3,%xmm6
- .byte 102,15,126,240 // movd %xmm6,%eax
- .byte 102,15,112,243,78 // pshufd $0x4e,%xmm3,%xmm6
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 102,15,126,223 // movd %xmm3,%edi
- .byte 102,15,112,219,231 // pshufd $0xe7,%xmm3,%xmm3
- .byte 102,15,126,219 // movd %xmm3,%ebx
- .byte 243,15,16,28,154 // movss (%edx,%ebx,4),%xmm3
- .byte 243,15,16,52,178 // movss (%edx,%esi,4),%xmm6
- .byte 15,20,243 // unpcklps %xmm3,%xmm6
- .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3
- .byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7
- .byte 15,20,223 // unpcklps %xmm7,%xmm3
- .byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 102,15,41,157,232,254,255,255 // movapd %xmm3,-0x118(%ebp)
- .byte 102,15,254,137,32,125,0,0 // paddd 0x7d20(%ecx),%xmm1
- .byte 102,15,112,241,229 // pshufd $0xe5,%xmm1,%xmm6
- .byte 102,15,126,240 // movd %xmm6,%eax
- .byte 102,15,112,241,78 // pshufd $0x4e,%xmm1,%xmm6
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
- .byte 102,15,126,203 // movd %xmm1,%ebx
- .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1
- .byte 243,15,16,52,178 // movss (%edx,%esi,4),%xmm6
- .byte 15,20,241 // unpcklps %xmm1,%xmm6
- .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3
- .byte 243,15,16,60,130 // movss (%edx,%eax,4),%xmm7
- .byte 15,20,223 // unpcklps %xmm7,%xmm3
- .byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 15,40,185,112,131,0,0 // movaps 0x8370(%ecx),%xmm7
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
- .byte 15,40,133,248,254,255,255 // movaps -0x108(%ebp),%xmm0
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp)
- .byte 15,40,133,56,255,255,255 // movaps -0xc8(%ebp),%xmm0
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,41,133,184,254,255,255 // movaps %xmm0,-0x148(%ebp)
- .byte 15,88,125,216 // addps -0x28(%ebp),%xmm7
- .byte 243,15,91,255 // cvttps2dq %xmm7,%xmm7
- .byte 102,15,112,199,245 // pshufd $0xf5,%xmm7,%xmm0
- .byte 102,15,111,117,168 // movdqa -0x58(%ebp),%xmm6
- .byte 102,15,244,198 // pmuludq %xmm6,%xmm0
- .byte 102,15,244,247 // pmuludq %xmm7,%xmm6
- .byte 102,15,112,230,232 // pshufd $0xe8,%xmm6,%xmm4
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,98,224 // punpckldq %xmm0,%xmm4
- .byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
- .byte 102,15,254,212 // paddd %xmm4,%xmm2
- .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,161,128,131,0,0 // movdqa 0x8380(%ecx),%xmm4
- .byte 102,15,244,212 // pmuludq %xmm4,%xmm2
- .byte 102,15,244,196 // pmuludq %xmm4,%xmm0
- .byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
- .byte 102,15,112,194,232 // pshufd $0xe8,%xmm2,%xmm0
- .byte 102,15,98,198 // punpckldq %xmm6,%xmm0
- .byte 102,15,126,208 // movd %xmm2,%eax
- .byte 102,15,112,208,229 // pshufd $0xe5,%xmm0,%xmm2
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 102,15,112,208,231 // pshufd $0xe7,%xmm0,%xmm2
- .byte 102,15,126,211 // movd %xmm2,%ebx
- .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2
- .byte 243,15,16,52,186 // movss (%edx,%edi,4),%xmm6
- .byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2
- .byte 243,15,16,12,130 // movss (%edx,%eax,4),%xmm1
- .byte 15,20,202 // unpcklps %xmm2,%xmm1
- .byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,250,213 // psubd %xmm5,%xmm2
- .byte 102,15,112,242,229 // pshufd $0xe5,%xmm2,%xmm6
- .byte 102,15,126,240 // movd %xmm6,%eax
- .byte 102,15,112,242,78 // pshufd $0x4e,%xmm2,%xmm6
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2
- .byte 102,15,126,211 // movd %xmm2,%ebx
- .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2
- .byte 243,15,16,52,178 // movss (%edx,%esi,4),%xmm6
- .byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2
- .byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
- .byte 15,20,213 // unpcklps %xmm5,%xmm2
- .byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,32,125,0,0 // paddd 0x7d20(%ecx),%xmm0
- .byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
- .byte 102,15,126,232 // movd %xmm5,%eax
- .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,44,178 // movss (%edx,%esi,4),%xmm5
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 243,15,16,60,186 // movss (%edx,%edi,4),%xmm7
- .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 102,15,20,253 // unpcklpd %xmm5,%xmm7
- .byte 15,91,173,104,255,255,255 // cvtdq2ps -0x98(%ebp),%xmm5
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,41,69,216 // movaps %xmm0,-0x28(%ebp)
- .byte 15,40,109,184 // movaps -0x48(%ebp),%xmm5
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
- .byte 15,40,141,232,254,255,255 // movaps -0x118(%ebp),%xmm1
- .byte 15,92,209 // subps %xmm1,%xmm2
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,92,251 // subps %xmm3,%xmm7
- .byte 15,89,248 // mulps %xmm0,%xmm7
- .byte 15,88,251 // addps %xmm3,%xmm7
- .byte 243,15,91,141,184,254,255,255 // cvttps2dq -0x148(%ebp),%xmm1
- .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3
- .byte 102,15,111,133,88,255,255,255 // movdqa -0xa8(%ebp),%xmm0
- .byte 102,15,244,216 // pmuludq %xmm0,%xmm3
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,244,233 // pmuludq %xmm1,%xmm5
- .byte 102,15,112,197,232 // pshufd $0xe8,%xmm5,%xmm0
- .byte 102,15,112,203,232 // pshufd $0xe8,%xmm3,%xmm1
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 102,15,127,133,88,255,255,255 // movdqa %xmm0,-0xa8(%ebp)
- .byte 102,15,111,85,200 // movdqa -0x38(%ebp),%xmm2
- .byte 102,15,254,208 // paddd %xmm0,%xmm2
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,254,93,152 // paddd -0x68(%ebp),%xmm3
- .byte 102,15,112,203,245 // pshufd $0xf5,%xmm3,%xmm1
- .byte 102,15,244,220 // pmuludq %xmm4,%xmm3
- .byte 102,15,244,204 // pmuludq %xmm4,%xmm1
- .byte 102,15,112,233,232 // pshufd $0xe8,%xmm1,%xmm5
- .byte 102,15,112,203,232 // pshufd $0xe8,%xmm3,%xmm1
- .byte 102,15,98,205 // punpckldq %xmm5,%xmm1
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,217,229 // pshufd $0xe5,%xmm1,%xmm3
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,15,126,223 // movd %xmm3,%edi
- .byte 102,15,112,217,231 // pshufd $0xe7,%xmm1,%xmm3
- .byte 102,15,126,219 // movd %xmm3,%ebx
- .byte 243,15,16,28,154 // movss (%edx,%ebx,4),%xmm3
- .byte 243,15,16,44,186 // movss (%edx,%edi,4),%xmm5
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 243,15,16,52,178 // movss (%edx,%esi,4),%xmm6
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,198 // unpcklps %xmm6,%xmm0
- .byte 102,15,20,197 // unpcklpd %xmm5,%xmm0
- .byte 102,15,41,69,200 // movapd %xmm0,-0x38(%ebp)
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,250,235 // psubd %xmm3,%xmm5
- .byte 102,15,112,245,229 // pshufd $0xe5,%xmm5,%xmm6
- .byte 102,15,126,240 // movd %xmm6,%eax
- .byte 102,15,112,245,78 // pshufd $0x4e,%xmm5,%xmm6
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 102,15,126,239 // movd %xmm5,%edi
- .byte 102,15,112,237,231 // pshufd $0xe7,%xmm5,%xmm5
- .byte 102,15,126,235 // movd %xmm5,%ebx
- .byte 243,15,16,44,154 // movss (%edx,%ebx,4),%xmm5
- .byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0
- .byte 15,20,197 // unpcklps %xmm5,%xmm0
- .byte 243,15,16,52,186 // movss (%edx,%edi,4),%xmm6
- .byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
- .byte 15,20,245 // unpcklps %xmm5,%xmm6
- .byte 102,15,20,240 // unpcklpd %xmm0,%xmm6
- .byte 102,15,254,137,32,125,0,0 // paddd 0x7d20(%ecx),%xmm1
- .byte 102,15,112,193,229 // pshufd $0xe5,%xmm1,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,193,231 // pshufd $0xe7,%xmm1,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,44,178 // movss (%edx,%esi,4),%xmm5
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 243,15,16,36,186 // movss (%edx,%edi,4),%xmm4
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,224 // unpcklps %xmm0,%xmm4
- .byte 102,15,20,229 // unpcklpd %xmm5,%xmm4
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
- .byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,128,131,0,0 // movdqa 0x8380(%ecx),%xmm2
- .byte 102,15,244,202 // pmuludq %xmm2,%xmm1
- .byte 102,15,244,194 // pmuludq %xmm2,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,112,233,232 // pshufd $0xe8,%xmm1,%xmm5
- .byte 102,15,98,232 // punpckldq %xmm0,%xmm5
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 102,15,112,197,229 // pshufd $0xe5,%xmm5,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,197,231 // pshufd $0xe7,%xmm5,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1
- .byte 243,15,16,4,186 // movss (%edx,%edi,4),%xmm0
- .byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 243,15,16,12,178 // movss (%edx,%esi,4),%xmm1
- .byte 243,15,16,20,130 // movss (%edx,%eax,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 102,15,20,208 // unpcklpd %xmm0,%xmm2
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,250,195 // psubd %xmm3,%xmm0
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,12,178 // movss (%edx,%esi,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,216 // unpcklps %xmm0,%xmm3
- .byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,169,32,125,0,0 // paddd 0x7d20(%ecx),%xmm5
- .byte 102,15,112,197,229 // pshufd $0xe5,%xmm5,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,197,78 // pshufd $0x4e,%xmm5,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,126,239 // movd %xmm5,%edi
- .byte 102,15,112,197,231 // pshufd $0xe7,%xmm5,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,12,178 // movss (%edx,%esi,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 243,15,16,44,186 // movss (%edx,%edi,4),%xmm5
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 102,15,20,233 // unpcklpd %xmm1,%xmm5
- .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
- .byte 15,92,209 // subps %xmm1,%xmm2
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,92,222 // subps %xmm6,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,222 // addps %xmm6,%xmm3
- .byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,88,236 // addps %xmm4,%xmm5
- .byte 15,91,133,40,255,255,255 // cvtdq2ps -0xd8(%ebp),%xmm0
- .byte 15,40,141,56,255,255,255 // movaps -0xc8(%ebp),%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,41,141,56,255,255,255 // movaps %xmm1,-0xc8(%ebp)
- .byte 15,40,133,104,255,255,255 // movaps -0x98(%ebp),%xmm0
- .byte 15,92,208 // subps %xmm0,%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,41,149,40,255,255,255 // movaps %xmm2,-0xd8(%ebp)
- .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,41,157,104,255,255,255 // movaps %xmm3,-0x98(%ebp)
- .byte 15,92,239 // subps %xmm7,%xmm5
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,88,239 // addps %xmm7,%xmm5
- .byte 15,41,109,184 // movaps %xmm5,-0x48(%ebp)
- .byte 243,15,91,69,136 // cvttps2dq -0x78(%ebp),%xmm0
- .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,149,24,255,255,255 // movdqa -0xe8(%ebp),%xmm2
- .byte 102,15,244,202 // pmuludq %xmm2,%xmm1
- .byte 102,15,244,208 // pmuludq %xmm0,%xmm2
- .byte 102,15,112,226,232 // pshufd $0xe8,%xmm2,%xmm4
- .byte 102,15,112,193,232 // pshufd $0xe8,%xmm1,%xmm0
- .byte 102,15,98,224 // punpckldq %xmm0,%xmm4
- .byte 102,15,127,165,24,255,255,255 // movdqa %xmm4,-0xe8(%ebp)
- .byte 102,15,254,165,200,254,255,255 // paddd -0x138(%ebp),%xmm4
- .byte 102,15,127,101,200 // movdqa %xmm4,-0x38(%ebp)
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,254,141,72,255,255,255 // paddd -0xb8(%ebp),%xmm1
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,254,85,152 // paddd -0x68(%ebp),%xmm2
- .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,153,128,131,0,0 // movdqa 0x8380(%ecx),%xmm3
- .byte 102,15,244,211 // pmuludq %xmm3,%xmm2
- .byte 102,15,244,195 // pmuludq %xmm3,%xmm0
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,15,112,216,232 // pshufd $0xe8,%xmm0,%xmm3
- .byte 102,15,112,194,232 // pshufd $0xe8,%xmm2,%xmm0
- .byte 102,15,98,195 // punpckldq %xmm3,%xmm0
- .byte 102,15,126,208 // movd %xmm2,%eax
- .byte 102,15,112,208,229 // pshufd $0xe5,%xmm0,%xmm2
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 102,15,112,208,231 // pshufd $0xe7,%xmm0,%xmm2
- .byte 102,15,126,211 // movd %xmm2,%ebx
- .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2
- .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2
- .byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
- .byte 15,20,226 // unpcklps %xmm2,%xmm4
- .byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 102,15,41,101,136 // movapd %xmm4,-0x78(%ebp)
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
- .byte 102,15,250,214 // psubd %xmm6,%xmm2
- .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2
- .byte 102,15,126,211 // movd %xmm2,%ebx
- .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2
- .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 243,15,16,36,186 // movss (%edx,%edi,4),%xmm4
- .byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
- .byte 15,20,229 // unpcklps %xmm5,%xmm4
- .byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 102,15,254,129,32,125,0,0 // paddd 0x7d20(%ecx),%xmm0
- .byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3
- .byte 15,20,216 // unpcklps %xmm0,%xmm3
- .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2
- .byte 243,15,16,44,130 // movss (%edx,%eax,4),%xmm5
- .byte 15,20,213 // unpcklps %xmm5,%xmm2
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
- .byte 102,15,112,217,245 // pshufd $0xf5,%xmm1,%xmm3
- .byte 102,15,244,207 // pmuludq %xmm7,%xmm1
- .byte 102,15,244,223 // pmuludq %xmm7,%xmm3
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,15,112,249,232 // pshufd $0xe8,%xmm1,%xmm7
- .byte 102,15,98,251 // punpckldq %xmm3,%xmm7
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 102,15,112,207,229 // pshufd $0xe5,%xmm7,%xmm1
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,112,207,78 // pshufd $0x4e,%xmm7,%xmm1
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,207,231 // pshufd $0xe7,%xmm7,%xmm1
- .byte 102,15,126,203 // movd %xmm1,%ebx
- .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1
- .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 243,15,16,12,178 // movss (%edx,%esi,4),%xmm1
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 102,15,20,195 // unpcklpd %xmm3,%xmm0
- .byte 102,15,111,207 // movdqa %xmm7,%xmm1
- .byte 102,15,250,206 // psubd %xmm6,%xmm1
- .byte 102,15,112,217,229 // pshufd $0xe5,%xmm1,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
- .byte 102,15,126,203 // movd %xmm1,%ebx
- .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1
- .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 243,15,16,44,186 // movss (%edx,%edi,4),%xmm5
- .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
- .byte 15,20,238 // unpcklps %xmm6,%xmm5
- .byte 102,15,20,235 // unpcklpd %xmm3,%xmm5
- .byte 102,15,111,137,32,125,0,0 // movdqa 0x7d20(%ecx),%xmm1
- .byte 102,15,254,249 // paddd %xmm1,%xmm7
- .byte 102,15,112,223,229 // pshufd $0xe5,%xmm7,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,126,255 // movd %xmm7,%edi
- .byte 102,15,112,223,231 // pshufd $0xe7,%xmm7,%xmm3
- .byte 102,15,126,219 // movd %xmm3,%ebx
- .byte 243,15,16,28,154 // movss (%edx,%ebx,4),%xmm3
- .byte 243,15,16,52,178 // movss (%edx,%esi,4),%xmm6
- .byte 15,20,243 // unpcklps %xmm3,%xmm6
- .byte 243,15,16,60,186 // movss (%edx,%edi,4),%xmm7
- .byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3
- .byte 15,20,251 // unpcklps %xmm3,%xmm7
- .byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 15,40,117,136 // movaps -0x78(%ebp),%xmm6
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp)
- .byte 15,92,236 // subps %xmm4,%xmm5
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,88,236 // addps %xmm4,%xmm5
- .byte 15,92,250 // subps %xmm2,%xmm7
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,88,250 // addps %xmm2,%xmm7
- .byte 102,15,111,85,200 // movdqa -0x38(%ebp),%xmm2
- .byte 102,15,254,149,88,255,255,255 // paddd -0xa8(%ebp),%xmm2
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
- .byte 102,15,112,208,245 // pshufd $0xf5,%xmm0,%xmm2
- .byte 102,15,111,153,128,131,0,0 // movdqa 0x8380(%ecx),%xmm3
- .byte 102,15,244,195 // pmuludq %xmm3,%xmm0
- .byte 102,15,244,211 // pmuludq %xmm3,%xmm2
- .byte 102,15,112,218,232 // pshufd $0xe8,%xmm2,%xmm3
- .byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2
- .byte 102,15,98,211 // punpckldq %xmm3,%xmm2
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3
- .byte 15,20,216 // unpcklps %xmm0,%xmm3
- .byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0
- .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
- .byte 15,20,240 // unpcklps %xmm0,%xmm6
- .byte 102,15,20,243 // unpcklpd %xmm3,%xmm6
- .byte 102,15,41,117,200 // movapd %xmm6,-0x38(%ebp)
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,250,195 // psubd %xmm3,%xmm0
- .byte 102,15,112,216,229 // pshufd $0xe5,%xmm0,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,28,154 // movss (%edx,%ebx,4),%xmm3
- .byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0
- .byte 15,20,195 // unpcklps %xmm3,%xmm0
- .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3
- .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
- .byte 15,20,222 // unpcklps %xmm6,%xmm3
- .byte 102,15,20,216 // unpcklpd %xmm0,%xmm3
- .byte 102,15,41,157,232,254,255,255 // movapd %xmm3,-0x118(%ebp)
- .byte 102,15,254,209 // paddd %xmm1,%xmm2
- .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,52,178 // movss (%edx,%esi,4),%xmm6
- .byte 15,20,240 // unpcklps %xmm0,%xmm6
- .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,216 // unpcklps %xmm0,%xmm3
- .byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,254,85,168 // paddd -0x58(%ebp),%xmm2
- .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,128,131,0,0 // movdqa 0x8380(%ecx),%xmm1
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,193 // pmuludq %xmm1,%xmm0
- .byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
- .byte 102,15,112,194,232 // pshufd $0xe8,%xmm2,%xmm0
- .byte 102,15,98,198 // punpckldq %xmm6,%xmm0
- .byte 102,15,126,208 // movd %xmm2,%eax
- .byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,126,231 // movd %xmm4,%edi
- .byte 102,15,112,224,231 // pshufd $0xe7,%xmm0,%xmm4
- .byte 102,15,126,227 // movd %xmm4,%ebx
- .byte 243,15,16,36,154 // movss (%edx,%ebx,4),%xmm4
- .byte 243,15,16,52,186 // movss (%edx,%edi,4),%xmm6
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 243,15,16,36,178 // movss (%edx,%esi,4),%xmm4
- .byte 243,15,16,12,130 // movss (%edx,%eax,4),%xmm1
- .byte 15,20,204 // unpcklps %xmm4,%xmm1
- .byte 102,15,20,206 // unpcklpd %xmm6,%xmm1
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,118,210 // pcmpeqd %xmm2,%xmm2
- .byte 102,15,250,226 // psubd %xmm2,%xmm4
- .byte 102,15,112,244,229 // pshufd $0xe5,%xmm4,%xmm6
- .byte 102,15,126,240 // movd %xmm6,%eax
- .byte 102,15,112,244,78 // pshufd $0x4e,%xmm4,%xmm6
- .byte 102,15,126,246 // movd %xmm6,%esi
- .byte 102,15,126,231 // movd %xmm4,%edi
- .byte 102,15,112,228,231 // pshufd $0xe7,%xmm4,%xmm4
- .byte 102,15,126,227 // movd %xmm4,%ebx
- .byte 243,15,16,36,154 // movss (%edx,%ebx,4),%xmm4
- .byte 243,15,16,52,178 // movss (%edx,%esi,4),%xmm6
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2
- .byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
- .byte 15,20,212 // unpcklps %xmm4,%xmm2
- .byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,254,129,32,125,0,0 // paddd 0x7d20(%ecx),%xmm0
- .byte 102,15,112,224,229 // pshufd $0xe5,%xmm0,%xmm4
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 102,15,112,224,78 // pshufd $0x4e,%xmm0,%xmm4
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,36,178 // movss (%edx,%esi,4),%xmm4
- .byte 15,20,224 // unpcklps %xmm0,%xmm4
- .byte 243,15,16,52,186 // movss (%edx,%edi,4),%xmm6
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,240 // unpcklps %xmm0,%xmm6
- .byte 102,15,20,244 // unpcklpd %xmm4,%xmm6
- .byte 15,40,101,200 // movaps -0x38(%ebp),%xmm4
- .byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,165,232,254,255,255 // movaps -0x118(%ebp),%xmm4
- .byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,92,243 // subps %xmm3,%xmm6
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,88,243 // addps %xmm3,%xmm6
- .byte 15,40,93,136 // movaps -0x78(%ebp),%xmm3
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,40,133,56,255,255,255 // movaps -0xc8(%ebp),%xmm0
- .byte 15,89,200 // mulps %xmm0,%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,92,213 // subps %xmm5,%xmm2
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 15,89,240 // mulps %xmm0,%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,91,133,216,254,255,255 // cvtdq2ps -0x128(%ebp),%xmm0
- .byte 15,40,141,248,254,255,255 // movaps -0x108(%ebp),%xmm1
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,41,141,248,254,255,255 // movaps %xmm1,-0x108(%ebp)
- .byte 15,40,133,40,255,255,255 // movaps -0xd8(%ebp),%xmm0
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,89,217 // mulps %xmm1,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 15,41,157,40,255,255,255 // movaps %xmm3,-0xd8(%ebp)
- .byte 15,40,133,104,255,255,255 // movaps -0x98(%ebp),%xmm0
- .byte 15,92,208 // subps %xmm0,%xmm2
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,41,149,104,255,255,255 // movaps %xmm2,-0x98(%ebp)
- .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
- .byte 15,92,240 // subps %xmm0,%xmm6
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,41,181,216,254,255,255 // movaps %xmm6,-0x128(%ebp)
- .byte 243,15,91,141,120,255,255,255 // cvttps2dq -0x88(%ebp),%xmm1
- .byte 102,15,127,77,136 // movdqa %xmm1,-0x78(%ebp)
- .byte 102,15,111,133,8,255,255,255 // movdqa -0xf8(%ebp),%xmm0
- .byte 102,15,254,193 // paddd %xmm1,%xmm0
- .byte 102,15,127,133,8,255,255,255 // movdqa %xmm0,-0xf8(%ebp)
- .byte 102,15,111,141,72,255,255,255 // movdqa -0xb8(%ebp),%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,111,93,152 // movdqa -0x68(%ebp),%xmm3
- .byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,111,129,128,131,0,0 // movdqa 0x8380(%ecx),%xmm0
- .byte 102,15,244,216 // pmuludq %xmm0,%xmm3
- .byte 102,15,244,208 // pmuludq %xmm0,%xmm2
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,112,226,232 // pshufd $0xe8,%xmm2,%xmm4
- .byte 102,15,112,211,232 // pshufd $0xe8,%xmm3,%xmm2
- .byte 102,15,98,212 // punpckldq %xmm4,%xmm2
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,15,126,223 // movd %xmm3,%edi
- .byte 102,15,112,218,231 // pshufd $0xe7,%xmm2,%xmm3
- .byte 102,15,126,219 // movd %xmm3,%ebx
- .byte 243,15,16,28,154 // movss (%edx,%ebx,4),%xmm3
- .byte 243,15,16,44,186 // movss (%edx,%edi,4),%xmm5
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,195 // unpcklps %xmm3,%xmm0
- .byte 102,15,20,197 // unpcklpd %xmm5,%xmm0
- .byte 102,15,41,133,120,255,255,255 // movapd %xmm0,-0x88(%ebp)
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,250,216 // psubd %xmm0,%xmm3
- .byte 102,15,112,235,229 // pshufd $0xe5,%xmm3,%xmm5
- .byte 102,15,126,232 // movd %xmm5,%eax
- .byte 102,15,112,235,78 // pshufd $0x4e,%xmm3,%xmm5
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 102,15,126,223 // movd %xmm3,%edi
- .byte 102,15,112,219,231 // pshufd $0xe7,%xmm3,%xmm3
- .byte 102,15,126,219 // movd %xmm3,%ebx
- .byte 243,15,16,28,154 // movss (%edx,%ebx,4),%xmm3
- .byte 243,15,16,52,178 // movss (%edx,%esi,4),%xmm6
- .byte 15,20,243 // unpcklps %xmm3,%xmm6
- .byte 243,15,16,44,186 // movss (%edx,%edi,4),%xmm5
- .byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 102,15,254,145,32,125,0,0 // paddd 0x7d20(%ecx),%xmm2
- .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2
- .byte 102,15,126,211 // movd %xmm2,%ebx
- .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2
- .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 243,15,16,52,186 // movss (%edx,%edi,4),%xmm6
- .byte 243,15,16,20,130 // movss (%edx,%eax,4),%xmm2
- .byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 102,15,20,243 // unpcklpd %xmm3,%xmm6
- .byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
- .byte 102,15,112,209,245 // pshufd $0xf5,%xmm1,%xmm2
- .byte 102,15,244,207 // pmuludq %xmm7,%xmm1
- .byte 102,15,244,215 // pmuludq %xmm7,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,112,217,232 // pshufd $0xe8,%xmm1,%xmm3
- .byte 102,15,98,218 // punpckldq %xmm2,%xmm3
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 102,15,112,203,229 // pshufd $0xe5,%xmm3,%xmm1
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,112,203,78 // pshufd $0x4e,%xmm3,%xmm1
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,203,231 // pshufd $0xe7,%xmm3,%xmm1
- .byte 102,15,126,203 // movd %xmm1,%ebx
- .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1
- .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 243,15,16,60,178 // movss (%edx,%esi,4),%xmm7
- .byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
- .byte 15,20,231 // unpcklps %xmm7,%xmm4
- .byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,250,208 // psubd %xmm0,%xmm2
- .byte 102,15,112,250,229 // pshufd $0xe5,%xmm2,%xmm7
- .byte 102,15,126,248 // movd %xmm7,%eax
- .byte 102,15,112,250,78 // pshufd $0x4e,%xmm2,%xmm7
- .byte 102,15,126,254 // movd %xmm7,%esi
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2
- .byte 102,15,126,211 // movd %xmm2,%ebx
- .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2
- .byte 243,15,16,60,178 // movss (%edx,%esi,4),%xmm7
- .byte 15,20,250 // unpcklps %xmm2,%xmm7
- .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,208 // unpcklps %xmm0,%xmm2
- .byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 102,15,111,137,32,125,0,0 // movdqa 0x7d20(%ecx),%xmm1
- .byte 102,15,254,217 // paddd %xmm1,%xmm3
- .byte 102,15,112,195,229 // pshufd $0xe5,%xmm3,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,195,78 // pshufd $0x4e,%xmm3,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,126,223 // movd %xmm3,%edi
- .byte 102,15,112,195,231 // pshufd $0xe7,%xmm3,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,60,178 // movss (%edx,%esi,4),%xmm7
- .byte 15,20,248 // unpcklps %xmm0,%xmm7
- .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,216 // unpcklps %xmm0,%xmm3
- .byte 102,15,20,223 // unpcklpd %xmm7,%xmm3
- .byte 15,40,189,120,255,255,255 // movaps -0x88(%ebp),%xmm7
- .byte 15,92,231 // subps %xmm7,%xmm4
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,88,231 // addps %xmm7,%xmm4
- .byte 15,41,165,120,255,255,255 // movaps %xmm4,-0x88(%ebp)
- .byte 15,92,213 // subps %xmm5,%xmm2
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,92,222 // subps %xmm6,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,222 // addps %xmm6,%xmm3
- .byte 15,41,93,184 // movaps %xmm3,-0x48(%ebp)
- .byte 102,15,111,149,8,255,255,255 // movdqa -0xf8(%ebp),%xmm2
- .byte 102,15,254,149,88,255,255,255 // paddd -0xa8(%ebp),%xmm2
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
- .byte 102,15,112,224,245 // pshufd $0xf5,%xmm0,%xmm4
- .byte 102,15,111,169,128,131,0,0 // movdqa 0x8380(%ecx),%xmm5
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 102,15,244,195 // pmuludq %xmm3,%xmm0
- .byte 102,15,244,227 // pmuludq %xmm3,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,112,240,232 // pshufd $0xe8,%xmm0,%xmm6
- .byte 102,15,98,244 // punpckldq %xmm4,%xmm6
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,198,229 // pshufd $0xe5,%xmm6,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,112,198,78 // pshufd $0x4e,%xmm6,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,198,231 // pshufd $0xe7,%xmm6,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,44,186 // movss (%edx,%edi,4),%xmm5
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 243,15,16,4,178 // movss (%edx,%esi,4),%xmm0
- .byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
- .byte 15,20,224 // unpcklps %xmm0,%xmm4
- .byte 102,15,20,229 // unpcklpd %xmm5,%xmm4
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,250,195 // psubd %xmm3,%xmm0
- .byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
- .byte 102,15,126,232 // movd %xmm5,%eax
- .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,60,178 // movss (%edx,%esi,4),%xmm7
- .byte 15,20,248 // unpcklps %xmm0,%xmm7
- .byte 243,15,16,44,186 // movss (%edx,%edi,4),%xmm5
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,232 // unpcklps %xmm0,%xmm5
- .byte 102,15,20,239 // unpcklpd %xmm7,%xmm5
- .byte 102,15,254,241 // paddd %xmm1,%xmm6
- .byte 102,15,112,198,229 // pshufd $0xe5,%xmm6,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,198,78 // pshufd $0x4e,%xmm6,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,126,247 // movd %xmm6,%edi
- .byte 102,15,112,198,231 // pshufd $0xe7,%xmm6,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,60,178 // movss (%edx,%esi,4),%xmm7
- .byte 15,20,248 // unpcklps %xmm0,%xmm7
- .byte 243,15,16,52,186 // movss (%edx,%edi,4),%xmm6
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,240 // unpcklps %xmm0,%xmm6
- .byte 102,15,20,247 // unpcklpd %xmm7,%xmm6
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
- .byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,111,145,128,131,0,0 // movdqa 0x8380(%ecx),%xmm2
- .byte 102,15,244,202 // pmuludq %xmm2,%xmm1
- .byte 102,15,244,194 // pmuludq %xmm2,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,112,249,232 // pshufd $0xe8,%xmm1,%xmm7
- .byte 102,15,98,248 // punpckldq %xmm0,%xmm7
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 102,15,112,199,229 // pshufd $0xe5,%xmm7,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,112,199,78 // pshufd $0x4e,%xmm7,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,199,231 // pshufd $0xe7,%xmm7,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1
- .byte 243,15,16,4,186 // movss (%edx,%edi,4),%xmm0
- .byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 243,15,16,12,178 // movss (%edx,%esi,4),%xmm1
- .byte 243,15,16,20,130 // movss (%edx,%eax,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 102,15,20,208 // unpcklpd %xmm0,%xmm2
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,15,250,195 // psubd %xmm3,%xmm0
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,12,178 // movss (%edx,%esi,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 243,15,16,28,186 // movss (%edx,%edi,4),%xmm3
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,216 // unpcklps %xmm0,%xmm3
- .byte 102,15,20,217 // unpcklpd %xmm1,%xmm3
- .byte 102,15,254,185,32,125,0,0 // paddd 0x7d20(%ecx),%xmm7
- .byte 102,15,112,199,229 // pshufd $0xe5,%xmm7,%xmm0
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,199,78 // pshufd $0x4e,%xmm7,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,126,255 // movd %xmm7,%edi
- .byte 102,15,112,199,231 // pshufd $0xe7,%xmm7,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,12,178 // movss (%edx,%esi,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 243,15,16,60,186 // movss (%edx,%edi,4),%xmm7
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,248 // unpcklps %xmm0,%xmm7
- .byte 102,15,20,249 // unpcklpd %xmm1,%xmm7
- .byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,92,221 // subps %xmm5,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 15,92,254 // subps %xmm6,%xmm7
- .byte 15,89,248 // mulps %xmm0,%xmm7
- .byte 15,88,254 // addps %xmm6,%xmm7
- .byte 15,40,141,120,255,255,255 // movaps -0x88(%ebp),%xmm1
- .byte 15,92,209 // subps %xmm1,%xmm2
- .byte 15,40,133,56,255,255,255 // movaps -0xc8(%ebp),%xmm0
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 15,41,149,8,255,255,255 // movaps %xmm2,-0xf8(%ebp)
- .byte 15,40,77,200 // movaps -0x38(%ebp),%xmm1
- .byte 15,92,217 // subps %xmm1,%xmm3
- .byte 15,89,216 // mulps %xmm0,%xmm3
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 15,41,157,120,255,255,255 // movaps %xmm3,-0x88(%ebp)
- .byte 15,40,77,184 // movaps -0x48(%ebp),%xmm1
- .byte 15,92,249 // subps %xmm1,%xmm7
- .byte 15,89,248 // mulps %xmm0,%xmm7
- .byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,41,125,184 // movaps %xmm7,-0x48(%ebp)
- .byte 102,15,111,133,24,255,255,255 // movdqa -0xe8(%ebp),%xmm0
- .byte 102,15,254,69,136 // paddd -0x78(%ebp),%xmm0
- .byte 102,15,127,133,24,255,255,255 // movdqa %xmm0,-0xe8(%ebp)
- .byte 102,15,111,141,72,255,255,255 // movdqa -0xb8(%ebp),%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,254,69,152 // paddd -0x68(%ebp),%xmm0
- .byte 102,15,112,200,245 // pshufd $0xf5,%xmm0,%xmm1
- .byte 102,15,111,145,128,131,0,0 // movdqa 0x8380(%ecx),%xmm2
- .byte 102,15,244,194 // pmuludq %xmm2,%xmm0
- .byte 102,15,244,202 // pmuludq %xmm2,%xmm1
- .byte 102,15,111,250 // movdqa %xmm2,%xmm7
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2
- .byte 102,15,98,209 // punpckldq %xmm1,%xmm2
- .byte 102,15,126,192 // movd %xmm0,%eax
- .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,12,186 // movss (%edx,%edi,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,195 // unpcklps %xmm3,%xmm0
- .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
- .byte 102,15,41,133,72,255,255,255 // movapd %xmm0,-0xb8(%ebp)
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
- .byte 102,15,250,206 // psubd %xmm6,%xmm1
- .byte 102,15,112,217,229 // pshufd $0xe5,%xmm1,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
- .byte 102,15,126,203 // movd %xmm1,%ebx
- .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1
- .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 243,15,16,12,186 // movss (%edx,%edi,4),%xmm1
- .byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
- .byte 15,20,204 // unpcklps %xmm4,%xmm1
- .byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,32,125,0,0 // paddd 0x7d20(%ecx),%xmm2
- .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2
- .byte 102,15,126,211 // movd %xmm2,%ebx
- .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2
- .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2
- .byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
- .byte 15,20,212 // unpcklps %xmm4,%xmm2
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,254,101,168 // paddd -0x58(%ebp),%xmm4
- .byte 102,15,112,220,245 // pshufd $0xf5,%xmm4,%xmm3
- .byte 102,15,244,231 // pmuludq %xmm7,%xmm4
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,244,223 // pmuludq %xmm7,%xmm3
- .byte 102,15,112,227,232 // pshufd $0xe8,%xmm3,%xmm4
- .byte 102,15,112,221,232 // pshufd $0xe8,%xmm5,%xmm3
- .byte 102,15,98,220 // punpckldq %xmm4,%xmm3
- .byte 102,15,126,232 // movd %xmm5,%eax
- .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
- .byte 102,15,126,231 // movd %xmm4,%edi
- .byte 102,15,112,227,231 // pshufd $0xe7,%xmm3,%xmm4
- .byte 102,15,126,227 // movd %xmm4,%ebx
- .byte 243,15,16,36,154 // movss (%edx,%ebx,4),%xmm4
- .byte 243,15,16,44,186 // movss (%edx,%edi,4),%xmm5
- .byte 15,20,236 // unpcklps %xmm4,%xmm5
- .byte 243,15,16,36,178 // movss (%edx,%esi,4),%xmm4
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,196 // unpcklps %xmm4,%xmm0
- .byte 102,15,20,197 // unpcklpd %xmm5,%xmm0
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,250,230 // psubd %xmm6,%xmm4
- .byte 102,15,112,236,229 // pshufd $0xe5,%xmm4,%xmm5
- .byte 102,15,126,232 // movd %xmm5,%eax
- .byte 102,15,112,236,78 // pshufd $0x4e,%xmm4,%xmm5
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 102,15,126,231 // movd %xmm4,%edi
- .byte 102,15,112,228,231 // pshufd $0xe7,%xmm4,%xmm4
- .byte 102,15,126,227 // movd %xmm4,%ebx
- .byte 243,15,16,36,154 // movss (%edx,%ebx,4),%xmm4
- .byte 243,15,16,52,178 // movss (%edx,%esi,4),%xmm6
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 243,15,16,60,186 // movss (%edx,%edi,4),%xmm7
- .byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
- .byte 15,20,252 // unpcklps %xmm4,%xmm7
- .byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 102,15,254,153,32,125,0,0 // paddd 0x7d20(%ecx),%xmm3
- .byte 102,15,112,227,229 // pshufd $0xe5,%xmm3,%xmm4
- .byte 102,15,126,224 // movd %xmm4,%eax
- .byte 102,15,112,227,78 // pshufd $0x4e,%xmm3,%xmm4
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 102,15,126,223 // movd %xmm3,%edi
- .byte 102,15,112,219,231 // pshufd $0xe7,%xmm3,%xmm3
- .byte 102,15,126,219 // movd %xmm3,%ebx
- .byte 243,15,16,28,154 // movss (%edx,%ebx,4),%xmm3
- .byte 243,15,16,52,178 // movss (%edx,%esi,4),%xmm6
- .byte 15,20,243 // unpcklps %xmm3,%xmm6
- .byte 243,15,16,44,186 // movss (%edx,%edi,4),%xmm5
- .byte 243,15,16,28,130 // movss (%edx,%eax,4),%xmm3
- .byte 15,20,235 // unpcklps %xmm3,%xmm5
- .byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 15,40,165,72,255,255,255 // movaps -0xb8(%ebp),%xmm4
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,41,133,72,255,255,255 // movaps %xmm0,-0xb8(%ebp)
- .byte 15,92,249 // subps %xmm1,%xmm7
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,88,249 // addps %xmm1,%xmm7
- .byte 15,92,234 // subps %xmm2,%xmm5
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 102,15,111,133,24,255,255,255 // movdqa -0xe8(%ebp),%xmm0
- .byte 102,15,254,133,88,255,255,255 // paddd -0xa8(%ebp),%xmm0
- .byte 102,15,111,85,152 // movdqa -0x68(%ebp),%xmm2
- .byte 102,15,254,208 // paddd %xmm0,%xmm2
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,112,194,245 // pshufd $0xf5,%xmm2,%xmm0
- .byte 102,15,111,137,128,131,0,0 // movdqa 0x8380(%ecx),%xmm1
- .byte 102,15,244,209 // pmuludq %xmm1,%xmm2
- .byte 102,15,244,193 // pmuludq %xmm1,%xmm0
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,112,200,232 // pshufd $0xe8,%xmm0,%xmm1
- .byte 102,15,112,194,232 // pshufd $0xe8,%xmm2,%xmm0
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 102,15,126,208 // movd %xmm2,%eax
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1
- .byte 102,15,126,203 // movd %xmm1,%ebx
- .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1
- .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 243,15,16,12,178 // movss (%edx,%esi,4),%xmm1
- .byte 243,15,16,36,130 // movss (%edx,%eax,4),%xmm4
- .byte 15,20,225 // unpcklps %xmm1,%xmm4
- .byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,41,101,152 // movapd %xmm4,-0x68(%ebp)
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,118,210 // pcmpeqd %xmm2,%xmm2
- .byte 102,15,250,202 // psubd %xmm2,%xmm1
- .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
- .byte 102,15,126,208 // movd %xmm2,%eax
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
- .byte 102,15,126,203 // movd %xmm1,%ebx
- .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1
- .byte 243,15,16,20,178 // movss (%edx,%esi,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 243,15,16,36,186 // movss (%edx,%edi,4),%xmm4
- .byte 243,15,16,12,130 // movss (%edx,%eax,4),%xmm1
- .byte 15,20,225 // unpcklps %xmm1,%xmm4
- .byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 102,15,41,165,88,255,255,255 // movapd %xmm4,-0xa8(%ebp)
- .byte 102,15,254,129,32,125,0,0 // paddd 0x7d20(%ecx),%xmm0
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,12,178 // movss (%edx,%esi,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 243,15,16,36,186 // movss (%edx,%edi,4),%xmm4
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,224 // unpcklps %xmm0,%xmm4
- .byte 102,15,20,225 // unpcklpd %xmm1,%xmm4
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,254,77,168 // paddd -0x58(%ebp),%xmm1
- .byte 102,15,112,193,245 // pshufd $0xf5,%xmm1,%xmm0
- .byte 102,15,244,206 // pmuludq %xmm6,%xmm1
- .byte 102,15,244,198 // pmuludq %xmm6,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,112,209,232 // pshufd $0xe8,%xmm1,%xmm2
- .byte 102,15,98,208 // punpckldq %xmm0,%xmm2
- .byte 102,15,126,200 // movd %xmm1,%eax
- .byte 102,15,112,194,229 // pshufd $0xe5,%xmm2,%xmm0
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 102,15,112,194,78 // pshufd $0x4e,%xmm2,%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,194,231 // pshufd $0xe7,%xmm2,%xmm0
- .byte 102,15,126,195 // movd %xmm0,%ebx
- .byte 243,15,16,4,154 // movss (%edx,%ebx,4),%xmm0
- .byte 243,15,16,12,186 // movss (%edx,%edi,4),%xmm1
- .byte 15,20,200 // unpcklps %xmm0,%xmm1
- .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3
- .byte 243,15,16,4,130 // movss (%edx,%eax,4),%xmm0
- .byte 15,20,195 // unpcklps %xmm3,%xmm0
- .byte 102,15,20,193 // unpcklpd %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,118,219 // pcmpeqd %xmm3,%xmm3
- .byte 102,15,250,203 // psubd %xmm3,%xmm1
- .byte 102,15,112,217,229 // pshufd $0xe5,%xmm1,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
- .byte 102,15,126,203 // movd %xmm1,%ebx
- .byte 243,15,16,12,154 // movss (%edx,%ebx,4),%xmm1
- .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 243,15,16,12,186 // movss (%edx,%edi,4),%xmm1
- .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
- .byte 15,20,206 // unpcklps %xmm6,%xmm1
- .byte 102,15,20,203 // unpcklpd %xmm3,%xmm1
- .byte 102,15,254,145,32,125,0,0 // paddd 0x7d20(%ecx),%xmm2
- .byte 102,15,112,218,229 // pshufd $0xe5,%xmm2,%xmm3
- .byte 102,15,126,216 // movd %xmm3,%eax
- .byte 102,15,112,218,78 // pshufd $0x4e,%xmm2,%xmm3
- .byte 102,15,126,222 // movd %xmm3,%esi
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 102,15,112,210,231 // pshufd $0xe7,%xmm2,%xmm2
- .byte 102,15,126,211 // movd %xmm2,%ebx
- .byte 243,15,16,20,154 // movss (%edx,%ebx,4),%xmm2
- .byte 243,15,16,28,178 // movss (%edx,%esi,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 243,15,16,20,186 // movss (%edx,%edi,4),%xmm2
- .byte 243,15,16,52,130 // movss (%edx,%eax,4),%xmm6
- .byte 15,20,214 // unpcklps %xmm6,%xmm2
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 15,40,117,152 // movaps -0x68(%ebp),%xmm6
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,198 // addps %xmm6,%xmm0
- .byte 15,40,181,88,255,255,255 // movaps -0xa8(%ebp),%xmm6
- .byte 15,92,206 // subps %xmm6,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,40,165,72,255,255,255 // movaps -0xb8(%ebp),%xmm4
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,40,157,56,255,255,255 // movaps -0xc8(%ebp),%xmm3
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,92,207 // subps %xmm7,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,92,213 // subps %xmm5,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,40,165,8,255,255,255 // movaps -0xf8(%ebp),%xmm4
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,40,157,248,254,255,255 // movaps -0x108(%ebp),%xmm3
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,196 // addps %xmm4,%xmm0
- .byte 15,40,165,120,255,255,255 // movaps -0x88(%ebp),%xmm4
- .byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,101,184 // movaps -0x48(%ebp),%xmm4
- .byte 15,92,212 // subps %xmm4,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,91,157,200,254,255,255 // cvtdq2ps -0x138(%ebp),%xmm3
- .byte 15,40,165,168,254,255,255 // movaps -0x158(%ebp),%xmm4
- .byte 15,92,227 // subps %xmm3,%xmm4
- .byte 15,40,157,40,255,255,255 // movaps -0xd8(%ebp),%xmm3
- .byte 15,92,195 // subps %xmm3,%xmm0
- .byte 15,89,196 // mulps %xmm4,%xmm0
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,40,157,104,255,255,255 // movaps -0x98(%ebp),%xmm3
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,40,157,216,254,255,255 // movaps -0x128(%ebp),%xmm3
- .byte 15,92,211 // subps %xmm3,%xmm2
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 141,66,8 // lea 0x8(%edx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,153,224,124,0,0 // movaps 0x7ce0(%ecx),%xmm3
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 129,196,92,1,0,0 // add $0x15c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_gauss_a_to_rgba_sse2
-.globl _sk_gauss_a_to_rgba_sse2
-FUNCTION(_sk_gauss_a_to_rgba_sse2)
-_sk_gauss_a_to_rgba_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 131,236,8 // sub $0x8,%esp
- .byte 232,0,0,0,0 // call 9ed5 <_sk_gauss_a_to_rgba_sse2+0xb>
- .byte 88 // pop %eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 15,40,128,59,111,0,0 // movaps 0x6f3b(%eax),%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,75,111,0,0 // addps 0x6f4b(%eax),%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,91,111,0,0 // addps 0x6f5b(%eax),%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,107,111,0,0 // addps 0x6f6b(%eax),%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,128,123,111,0,0 // addps 0x6f7b(%eax),%xmm0
- .byte 141,65,4 // lea 0x4(%ecx),%eax
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 80 // push %eax
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,17 // call *(%ecx)
- .byte 131,196,24 // add $0x18,%esp
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_bilerp_clamp_8888_sse2
-.globl _sk_bilerp_clamp_8888_sse2
-FUNCTION(_sk_bilerp_clamp_8888_sse2)
-_sk_bilerp_clamp_8888_sse2:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,44,1,0,0 // sub $0x12c,%esp
- .byte 232,0,0,0,0 // call 9f33 <_sk_bilerp_clamp_8888_sse2+0x11>
- .byte 94 // pop %esi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,56 // mov (%eax),%edi
- .byte 15,40,158,29,104,0,0 // movaps 0x681d(%esi),%xmm3
- .byte 15,41,133,8,255,255,255 // movaps %xmm0,-0xf8(%ebp)
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,88,227 // addps %xmm3,%xmm4
- .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,194,208,1 // cmpltps %xmm0,%xmm2
- .byte 15,40,174,45,104,0,0 // movaps 0x682d(%esi),%xmm5
- .byte 15,84,213 // andps %xmm5,%xmm2
- .byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,92,224 // subps %xmm0,%xmm4
- .byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 243,15,91,195 // cvttps2dq %xmm3,%xmm0
- .byte 15,91,192 // cvtdq2ps %xmm0,%xmm0
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,194,200,1 // cmpltps %xmm0,%xmm1
- .byte 15,84,205 // andps %xmm5,%xmm1
- .byte 15,92,193 // subps %xmm1,%xmm0
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 243,15,16,79,8 // movss 0x8(%edi),%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 102,15,118,192 // pcmpeqd %xmm0,%xmm0
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,127,141,40,255,255,255 // movdqa %xmm1,-0xd8(%ebp)
- .byte 243,15,16,79,12 // movss 0xc(%edi),%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 102,15,254,200 // paddd %xmm0,%xmm1
- .byte 102,15,127,77,152 // movdqa %xmm1,-0x68(%ebp)
- .byte 15,40,197 // movaps %xmm5,%xmm0
- .byte 15,41,165,24,255,255,255 // movaps %xmm4,-0xe8(%ebp)
- .byte 15,92,196 // subps %xmm4,%xmm0
- .byte 15,41,133,88,255,255,255 // movaps %xmm0,-0xa8(%ebp)
- .byte 15,41,93,136 // movaps %xmm3,-0x78(%ebp)
- .byte 15,92,235 // subps %xmm3,%xmm5
- .byte 15,41,109,184 // movaps %xmm5,-0x48(%ebp)
- .byte 139,23 // mov (%edi),%edx
- .byte 102,15,110,71,4 // movd 0x4(%edi),%xmm0
- .byte 102,15,112,192,0 // pshufd $0x0,%xmm0,%xmm0
- .byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 243,15,16,134,49,112,0,0 // movss 0x7031(%esi),%xmm0
- .byte 15,40,150,237,104,0,0 // movaps 0x68ed(%esi),%xmm2
- .byte 15,41,149,56,255,255,255 // movaps %xmm2,-0xc8(%ebp)
- .byte 15,40,150,45,106,0,0 // movaps 0x6a2d(%esi),%xmm2
- .byte 15,41,149,72,255,255,255 // movaps %xmm2,-0xb8(%ebp)
- .byte 243,15,16,150,53,112,0,0 // movss 0x7035(%esi),%xmm2
- .byte 243,15,17,85,236 // movss %xmm2,-0x14(%ebp)
- .byte 243,15,16,150,45,112,0,0 // movss 0x702d(%esi),%xmm2
- .byte 243,15,17,85,240 // movss %xmm2,-0x10(%ebp)
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 243,15,17,69,232 // movss %xmm0,-0x18(%ebp)
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,88,149,120,255,255,255 // addps -0x88(%ebp),%xmm2
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,95,194 // maxps %xmm2,%xmm0
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,41,165,104,255,255,255 // movaps %xmm4,-0x98(%ebp)
- .byte 15,46,226 // ucomiss %xmm2,%xmm4
- .byte 15,40,85,136 // movaps -0x78(%ebp),%xmm2
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 119,8 // ja a071 <_sk_bilerp_clamp_8888_sse2+0x14f>
- .byte 15,40,85,184 // movaps -0x48(%ebp),%xmm2
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,93,69,152 // minps -0x68(%ebp),%xmm0
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,111,101,168 // movdqa -0x58(%ebp),%xmm4
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,244,208 // pmuludq %xmm0,%xmm2
- .byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
- .byte 102,15,112,192,245 // pshufd $0xf5,%xmm0,%xmm0
- .byte 102,15,112,212,245 // pshufd $0xf5,%xmm4,%xmm2
- .byte 102,15,244,208 // pmuludq %xmm0,%xmm2
- .byte 102,15,112,194,232 // pshufd $0xe8,%xmm2,%xmm0
- .byte 102,15,98,232 // punpckldq %xmm0,%xmm5
- .byte 102,15,127,173,248,254,255,255 // movdqa %xmm5,-0x108(%ebp)
- .byte 243,15,16,69,232 // movss -0x18(%ebp),%xmm0
- .byte 15,41,157,232,254,255,255 // movaps %xmm3,-0x118(%ebp)
- .byte 15,41,181,216,254,255,255 // movaps %xmm6,-0x128(%ebp)
- .byte 102,15,127,141,200,254,255,255 // movdqa %xmm1,-0x138(%ebp)
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,88,141,8,255,255,255 // addps -0xf8(%ebp),%xmm1
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 15,95,225 // maxps %xmm1,%xmm4
- .byte 15,93,165,40,255,255,255 // minps -0xd8(%ebp),%xmm4
- .byte 243,15,91,204 // cvttps2dq %xmm4,%xmm1
- .byte 102,15,254,141,248,254,255,255 // paddd -0x108(%ebp),%xmm1
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,112,225,229 // pshufd $0xe5,%xmm1,%xmm4
- .byte 102,15,126,231 // movd %xmm4,%edi
- .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
- .byte 102,15,126,227 // movd %xmm4,%ebx
- .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 102,15,110,12,138 // movd (%edx,%ecx,4),%xmm1
- .byte 102,15,110,36,154 // movd (%edx,%ebx,4),%xmm4
- .byte 102,15,98,225 // punpckldq %xmm1,%xmm4
- .byte 102,15,110,44,178 // movd (%edx,%esi,4),%xmm5
- .byte 102,15,110,12,186 // movd (%edx,%edi,4),%xmm1
- .byte 102,15,98,233 // punpckldq %xmm1,%xmm5
- .byte 102,15,108,236 // punpcklqdq %xmm4,%xmm5
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,111,189,56,255,255,255 // movdqa -0xc8(%ebp),%xmm7
- .byte 102,15,219,207 // pand %xmm7,%xmm1
- .byte 15,91,241 // cvtdq2ps %xmm1,%xmm6
- .byte 15,40,157,72,255,255,255 // movaps -0xb8(%ebp),%xmm3
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,114,209,8 // psrld $0x8,%xmm1
- .byte 102,15,219,207 // pand %xmm7,%xmm1
- .byte 15,91,209 // cvtdq2ps %xmm1,%xmm2
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,114,212,16 // psrld $0x10,%xmm4
- .byte 102,15,219,231 // pand %xmm7,%xmm4
- .byte 15,91,252 // cvtdq2ps %xmm4,%xmm7
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 102,15,114,213,24 // psrld $0x18,%xmm5
- .byte 15,91,229 // cvtdq2ps %xmm5,%xmm4
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,46,193 // ucomiss %xmm1,%xmm0
- .byte 15,40,173,24,255,255,255 // movaps -0xe8(%ebp),%xmm5
- .byte 119,7 // ja a190 <_sk_bilerp_clamp_8888_sse2+0x26e>
- .byte 15,40,173,88,255,255,255 // movaps -0xa8(%ebp),%xmm5
- .byte 15,89,109,200 // mulps -0x38(%ebp),%xmm5
- .byte 15,89,245 // mulps %xmm5,%xmm6
- .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
- .byte 15,88,206 // addps %xmm6,%xmm1
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 15,89,213 // mulps %xmm5,%xmm2
- .byte 15,40,141,200,254,255,255 // movaps -0x138(%ebp),%xmm1
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 15,89,253 // mulps %xmm5,%xmm7
- .byte 15,40,181,216,254,255,255 // movaps -0x128(%ebp),%xmm6
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,40,157,232,254,255,255 // movaps -0x118(%ebp),%xmm3
- .byte 15,88,221 // addps %xmm5,%xmm3
- .byte 243,15,88,69,236 // addss -0x14(%ebp),%xmm0
- .byte 243,15,16,85,240 // movss -0x10(%ebp),%xmm2
- .byte 15,46,208 // ucomiss %xmm0,%xmm2
- .byte 15,131,211,254,255,255 // jae a0af <_sk_bilerp_clamp_8888_sse2+0x18d>
- .byte 15,40,165,104,255,255,255 // movaps -0x98(%ebp),%xmm4
- .byte 243,15,88,101,236 // addss -0x14(%ebp),%xmm4
- .byte 243,15,16,69,240 // movss -0x10(%ebp),%xmm0
- .byte 15,46,196 // ucomiss %xmm4,%xmm0
- .byte 15,131,72,254,255,255 // jae a03e <_sk_bilerp_clamp_8888_sse2+0x11c>
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 131,236,8 // sub $0x8,%esp
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 81 // push %ecx
- .byte 255,117,8 // pushl 0x8(%ebp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,60,1,0,0 // add $0x13c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 144 // nop
- .byte 144 // nop
- .byte 144 // nop
-
-HIDDEN _sk_start_pipeline_sse2_lowp
-.globl _sk_start_pipeline_sse2_lowp
-FUNCTION(_sk_start_pipeline_sse2_lowp)
-_sk_start_pipeline_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,131,193,0,0,0 // jae a2ee <_sk_start_pipeline_sse2_lowp+0xd6>
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,117,24 // mov 0x18(%ebp),%esi
- .byte 139,30 // mov (%esi),%ebx
- .byte 131,198,4 // add $0x4,%esi
- .byte 141,64,8 // lea 0x8(%eax),%eax
- .byte 137,69,236 // mov %eax,-0x14(%ebp)
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 137,125,240 // mov %edi,-0x10(%ebp)
- .byte 57,85,236 // cmp %edx,-0x14(%ebp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 137,223 // mov %ebx,%edi
- .byte 137,243 // mov %esi,%ebx
- .byte 119,77 // ja a2a0 <_sk_start_pipeline_sse2_lowp+0x88>
- .byte 139,117,8 // mov 0x8(%ebp),%esi
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 139,69,240 // mov -0x10(%ebp),%eax
- .byte 137,68,36,12 // mov %eax,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 199,4,36,0,0,0,0 // movl $0x0,(%esp)
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 255,215 // call *%edi
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 141,70,8 // lea 0x8(%esi),%eax
- .byte 131,198,16 // add $0x10,%esi
- .byte 57,214 // cmp %edx,%esi
- .byte 137,198 // mov %eax,%esi
- .byte 118,182 // jbe a256 <_sk_start_pipeline_sse2_lowp+0x3e>
- .byte 137,209 // mov %edx,%ecx
- .byte 41,193 // sub %eax,%ecx
- .byte 137,222 // mov %ebx,%esi
- .byte 137,251 // mov %edi,%ebx
- .byte 139,125,240 // mov -0x10(%ebp),%edi
- .byte 116,55 // je a2e4 <_sk_start_pipeline_sse2_lowp+0xcc>
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,68,36,8 // mov %eax,0x8(%esp)
- .byte 137,116,36,4 // mov %esi,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 255,211 // call *%ebx
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 71 // inc %edi
- .byte 59,125,20 // cmp 0x14(%ebp),%edi
- .byte 15,133,86,255,255,255 // jne a244 <_sk_start_pipeline_sse2_lowp+0x2c>
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_just_return_sse2_lowp
-.globl _sk_just_return_sse2_lowp
-FUNCTION(_sk_just_return_sse2_lowp)
-_sk_just_return_sse2_lowp:
- .byte 195 // ret
-
-HIDDEN _sk_seed_shader_sse2_lowp
-.globl _sk_seed_shader_sse2_lowp
-FUNCTION(_sk_seed_shader_sse2_lowp)
-_sk_seed_shader_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a304 <_sk_seed_shader_sse2_lowp+0xd>
- .byte 89 // pop %ecx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 15,16,7 // movups (%edi),%xmm0
- .byte 15,16,79,16 // movups 0x10(%edi),%xmm1
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 102,15,110,215 // movd %edi,%xmm2
- .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,88,202 // addps %xmm2,%xmm1
- .byte 102,15,110,210 // movd %edx,%xmm2
- .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
- .byte 15,91,210 // cvtdq2ps %xmm2,%xmm2
- .byte 15,88,145,76,100,0,0 // addps 0x644c(%ecx),%xmm2
- .byte 141,78,8 // lea 0x8(%esi),%ecx
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 15,41,92,36,16 // movaps %xmm3,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_matrix_translate_sse2_lowp
-.globl _sk_matrix_translate_sse2_lowp
-FUNCTION(_sk_matrix_translate_sse2_lowp)
-_sk_matrix_translate_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 243,15,16,63 // movss (%edi),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 243,15,16,127,4 // movss 0x4(%edi),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 141,126,8 // lea 0x8(%esi),%edi
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_matrix_scale_translate_sse2_lowp
-.globl _sk_matrix_scale_translate_sse2_lowp
-FUNCTION(_sk_matrix_scale_translate_sse2_lowp)
-_sk_matrix_scale_translate_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,63 // movss (%edi),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,207 // mulps %xmm7,%xmm1
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 243,15,16,127,8 // movss 0x8(%edi),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,88,199 // addps %xmm7,%xmm0
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 243,15,16,127,4 // movss 0x4(%edi),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,89,223 // mulps %xmm7,%xmm3
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 243,15,16,127,12 // movss 0xc(%edi),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,88,223 // addps %xmm7,%xmm3
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 141,121,8 // lea 0x8(%ecx),%edi
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_matrix_2x3_sse2_lowp
-.globl _sk_matrix_2x3_sse2_lowp
-FUNCTION(_sk_matrix_2x3_sse2_lowp)
-_sk_matrix_2x3_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,7 // movss (%edi),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 243,15,16,119,8 // movss 0x8(%edi),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,111,16 // movss 0x10(%edi),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,89,214 // mulps %xmm6,%xmm2
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 15,88,245 // addps %xmm5,%xmm6
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,40,233 // movaps %xmm1,%xmm5
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,88,238 // addps %xmm6,%xmm5
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 243,15,16,119,12 // movss 0xc(%edi),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,89,222 // mulps %xmm6,%xmm3
- .byte 15,89,244 // mulps %xmm4,%xmm6
- .byte 243,15,16,87,20 // movss 0x14(%edi),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,88,242 // addps %xmm2,%xmm6
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 243,15,16,87,4 // movss 0x4(%edi),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,88,241 // addps %xmm1,%xmm6
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,88,218 // addps %xmm2,%xmm3
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
- .byte 141,121,8 // lea 0x8(%ecx),%edi
- .byte 15,41,84,36,64 // movaps %xmm2,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 15,40,77,24 // movaps 0x18(%ebp),%xmm1
- .byte 15,41,76,36,16 // movaps %xmm1,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,222 // movaps %xmm6,%xmm3
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_matrix_perspective_sse2_lowp
-.globl _sk_matrix_perspective_sse2_lowp
-FUNCTION(_sk_matrix_perspective_sse2_lowp)
-_sk_matrix_perspective_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,112 // sub $0x70,%esp
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,9 // movss (%ecx),%xmm1
- .byte 243,15,16,113,4 // movss 0x4(%ecx),%xmm6
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,97,8 // movss 0x8(%ecx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,88,244 // addps %xmm4,%xmm6
- .byte 15,88,252 // addps %xmm4,%xmm7
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,88,230 // addps %xmm6,%xmm4
- .byte 15,89,77,232 // mulps -0x18(%ebp),%xmm1
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 243,15,16,113,16 // movss 0x10(%ecx),%xmm6
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 243,15,16,65,20 // movss 0x14(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,40,253 // movaps %xmm5,%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,89,242 // mulps %xmm2,%xmm6
- .byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 243,15,16,65,12 // movss 0xc(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,89,208 // mulps %xmm0,%xmm2
- .byte 15,88,242 // addps %xmm2,%xmm6
- .byte 15,89,69,232 // mulps -0x18(%ebp),%xmm0
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 243,15,16,65,28 // movss 0x1c(%ecx),%xmm0
- .byte 15,198,192,0 // shufps $0x0,%xmm0,%xmm0
- .byte 15,89,232 // mulps %xmm0,%xmm5
- .byte 15,89,69,216 // mulps -0x28(%ebp),%xmm0
- .byte 243,15,16,81,32 // movss 0x20(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 243,15,16,81,24 // movss 0x18(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,88,216 // addps %xmm0,%xmm3
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,89,85,232 // mulps -0x18(%ebp),%xmm2
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,83,219 // rcpps %xmm3,%xmm3
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,40,93,56 // movaps 0x38(%ebp),%xmm3
- .byte 15,83,210 // rcpps %xmm2,%xmm2
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,89,250 // mulps %xmm2,%xmm7
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
- .byte 141,120,8 // lea 0x8(%eax),%edi
- .byte 15,41,84,36,64 // movaps %xmm2,0x40(%esp)
- .byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,214 // movaps %xmm6,%xmm2
- .byte 15,40,223 // movaps %xmm7,%xmm3
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,112 // add $0x70,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_uniform_color_sse2_lowp
-.globl _sk_uniform_color_sse2_lowp
-FUNCTION(_sk_uniform_color_sse2_lowp)
-_sk_uniform_color_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 139,50 // mov (%edx),%esi
- .byte 15,183,126,18 // movzwl 0x12(%esi),%edi
- .byte 102,15,110,207 // movd %edi,%xmm1
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 102,15,110,70,16 // movd 0x10(%esi),%xmm0
- .byte 242,15,112,192,0 // pshuflw $0x0,%xmm0,%xmm0
- .byte 102,15,112,192,80 // pshufd $0x50,%xmm0,%xmm0
- .byte 242,15,112,201,0 // pshuflw $0x0,%xmm1,%xmm1
- .byte 102,15,112,201,80 // pshufd $0x50,%xmm1,%xmm1
- .byte 102,15,110,86,20 // movd 0x14(%esi),%xmm2
- .byte 242,15,112,210,0 // pshuflw $0x0,%xmm2,%xmm2
- .byte 102,15,112,210,80 // pshufd $0x50,%xmm2,%xmm2
- .byte 15,183,118,22 // movzwl 0x16(%esi),%esi
- .byte 102,15,110,222 // movd %esi,%xmm3
- .byte 242,15,112,219,0 // pshuflw $0x0,%xmm3,%xmm3
- .byte 102,15,112,219,80 // pshufd $0x50,%xmm3,%xmm3
- .byte 141,114,8 // lea 0x8(%edx),%esi
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,116,36,4 // mov %esi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,82,4 // call *0x4(%edx)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_black_color_sse2_lowp
-.globl _sk_black_color_sse2_lowp
-FUNCTION(_sk_black_color_sse2_lowp)
-_sk_black_color_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call a723 <_sk_black_color_sse2_lowp+0xe>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,40,85,56 // movaps 0x38(%ebp),%xmm2
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,152,61,103,0,0 // movaps 0x673d(%eax),%xmm3
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,23 // call *(%edi)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_white_color_sse2_lowp
-.globl _sk_white_color_sse2_lowp
-FUNCTION(_sk_white_color_sse2_lowp)
-_sk_white_color_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call a78e <_sk_white_color_sse2_lowp+0xe>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,40,85,56 // movaps 0x38(%ebp),%xmm2
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,128,210,102,0,0 // movaps 0x66d2(%eax),%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 255,23 // call *(%edi)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_set_rgb_sse2_lowp
-.globl _sk_set_rgb_sse2_lowp
-FUNCTION(_sk_set_rgb_sse2_lowp)
-_sk_set_rgb_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a7f8 <_sk_set_rgb_sse2_lowp+0xd>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,150,116,103,0,0 // movss 0x6774(%esi),%xmm2
- .byte 243,15,16,7 // movss (%edi),%xmm0
- .byte 243,15,89,194 // mulss %xmm2,%xmm0
- .byte 243,15,16,142,104,103,0,0 // movss 0x6768(%esi),%xmm1
- .byte 243,15,88,193 // addss %xmm1,%xmm0
- .byte 243,15,44,240 // cvttss2si %xmm0,%esi
- .byte 102,15,110,198 // movd %esi,%xmm0
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 243,15,16,127,4 // movss 0x4(%edi),%xmm7
- .byte 243,15,89,250 // mulss %xmm2,%xmm7
- .byte 243,15,88,249 // addss %xmm1,%xmm7
- .byte 243,15,89,87,8 // mulss 0x8(%edi),%xmm2
- .byte 243,15,44,255 // cvttss2si %xmm7,%edi
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 242,15,112,192,0 // pshuflw $0x0,%xmm0,%xmm0
- .byte 102,15,112,192,80 // pshufd $0x50,%xmm0,%xmm0
- .byte 243,15,88,209 // addss %xmm1,%xmm2
- .byte 102,15,110,207 // movd %edi,%xmm1
- .byte 242,15,112,201,0 // pshuflw $0x0,%xmm1,%xmm1
- .byte 102,15,112,201,80 // pshufd $0x50,%xmm1,%xmm1
- .byte 243,15,44,250 // cvttss2si %xmm2,%edi
- .byte 102,15,110,215 // movd %edi,%xmm2
- .byte 242,15,112,210,0 // pshuflw $0x0,%xmm2,%xmm2
- .byte 102,15,112,210,80 // pshufd $0x50,%xmm2,%xmm2
- .byte 141,121,8 // lea 0x8(%ecx),%edi
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_clamp_a_sse2_lowp
-.globl _sk_clamp_a_sse2_lowp
-FUNCTION(_sk_clamp_a_sse2_lowp)
-_sk_clamp_a_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call a8bc <_sk_clamp_a_sse2_lowp+0xd>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 102,15,111,166,180,101,0,0 // movdqa 0x65b4(%esi),%xmm4
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,239,236 // pxor %xmm4,%xmm5
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,239,244 // pxor %xmm4,%xmm6
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,15,101,253 // pcmpgtw %xmm5,%xmm7
- .byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,223,251 // pandn %xmm3,%xmm7
- .byte 102,15,235,199 // por %xmm7,%xmm0
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,239,236 // pxor %xmm4,%xmm5
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,15,101,253 // pcmpgtw %xmm5,%xmm7
- .byte 15,40,109,24 // movaps 0x18(%ebp),%xmm5
- .byte 102,15,219,207 // pand %xmm7,%xmm1
- .byte 102,15,223,251 // pandn %xmm3,%xmm7
- .byte 102,15,235,207 // por %xmm7,%xmm1
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 102,15,239,226 // pxor %xmm2,%xmm4
- .byte 102,15,101,244 // pcmpgtw %xmm4,%xmm6
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 102,15,219,214 // pand %xmm6,%xmm2
- .byte 102,15,223,243 // pandn %xmm3,%xmm6
- .byte 102,15,235,214 // por %xmm6,%xmm2
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 15,41,108,36,16 // movaps %xmm5,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_clamp_a_dst_sse2_lowp
-.globl _sk_clamp_a_dst_sse2_lowp
-FUNCTION(_sk_clamp_a_dst_sse2_lowp)
-_sk_clamp_a_dst_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,128,0,0,0 // sub $0x80,%esp
- .byte 15,41,93,200 // movaps %xmm3,-0x38(%ebp)
- .byte 15,41,85,216 // movaps %xmm2,-0x28(%ebp)
- .byte 15,41,77,232 // movaps %xmm1,-0x18(%ebp)
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 232,0,0,0,0 // call a983 <_sk_clamp_a_dst_sse2_lowp+0x1f>
- .byte 88 // pop %eax
- .byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
- .byte 102,15,111,77,24 // movdqa 0x18(%ebp),%xmm1
- .byte 102,15,111,144,237,100,0,0 // movdqa 0x64ed(%eax),%xmm2
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,15,239,250 // pxor %xmm2,%xmm7
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,239,242 // pxor %xmm2,%xmm6
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,15,101,239 // pcmpgtw %xmm7,%xmm5
- .byte 102,15,219,205 // pand %xmm5,%xmm1
- .byte 102,15,223,236 // pandn %xmm4,%xmm5
- .byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,77,40 // movdqa 0x28(%ebp),%xmm1
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,15,239,250 // pxor %xmm2,%xmm7
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,101,199 // pcmpgtw %xmm7,%xmm0
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,223,196 // pandn %xmm4,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 102,15,111,77,56 // movdqa 0x38(%ebp),%xmm1
- .byte 102,15,239,209 // pxor %xmm1,%xmm2
- .byte 102,15,101,242 // pcmpgtw %xmm2,%xmm6
- .byte 102,15,219,206 // pand %xmm6,%xmm1
- .byte 102,15,223,244 // pandn %xmm4,%xmm6
- .byte 102,15,235,241 // por %xmm1,%xmm6
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 102,15,127,116,36,48 // movdqa %xmm6,0x30(%esp)
- .byte 102,15,127,68,36,32 // movdqa %xmm0,0x20(%esp)
- .byte 102,15,127,108,36,16 // movdqa %xmm5,0x10(%esp)
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 15,40,77,232 // movaps -0x18(%ebp),%xmm1
- .byte 15,40,85,216 // movaps -0x28(%ebp),%xmm2
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 255,22 // call *(%esi)
- .byte 129,196,128,0,0,0 // add $0x80,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_premul_sse2_lowp
-.globl _sk_premul_sse2_lowp
-FUNCTION(_sk_premul_sse2_lowp)
-_sk_premul_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call aa52 <_sk_premul_sse2_lowp+0xd>
- .byte 90 // pop %edx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,186,14,100,0,0 // movdqa 0x640e(%edx),%xmm7
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,15,253,207 // paddw %xmm7,%xmm1
- .byte 102,15,213,211 // pmullw %xmm3,%xmm2
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 139,85,12 // mov 0xc(%ebp),%edx
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 141,122,4 // lea 0x4(%edx),%edi
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,18 // call *(%edx)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_premul_dst_sse2_lowp
-.globl _sk_premul_dst_sse2_lowp
-FUNCTION(_sk_premul_dst_sse2_lowp)
-_sk_premul_dst_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,96 // sub $0x60,%esp
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call aae7 <_sk_premul_dst_sse2_lowp+0x1a>
- .byte 88 // pop %eax
- .byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
- .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,213,236 // pmullw %xmm4,%xmm5
- .byte 102,15,111,176,121,99,0,0 // movdqa 0x6379(%eax),%xmm6
- .byte 102,15,253,238 // paddw %xmm6,%xmm5
- .byte 102,15,111,125,40 // movdqa 0x28(%ebp),%xmm7
- .byte 102,15,213,252 // pmullw %xmm4,%xmm7
- .byte 102,15,253,254 // paddw %xmm6,%xmm7
- .byte 102,15,111,69,56 // movdqa 0x38(%ebp),%xmm0
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,253,198 // paddw %xmm6,%xmm0
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 102,15,127,68,36,48 // movdqa %xmm0,0x30(%esp)
- .byte 102,15,127,124,36,32 // movdqa %xmm7,0x20(%esp)
- .byte 102,15,127,108,36,16 // movdqa %xmm5,0x10(%esp)
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 255,22 // call *(%esi)
- .byte 131,196,96 // add $0x60,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_force_opaque_sse2_lowp
-.globl _sk_force_opaque_sse2_lowp
-FUNCTION(_sk_force_opaque_sse2_lowp)
-_sk_force_opaque_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call ab85 <_sk_force_opaque_sse2_lowp+0xe>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 15,41,92,36,16 // movaps %xmm3,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,152,219,98,0,0 // movaps 0x62db(%eax),%xmm3
- .byte 255,23 // call *(%edi)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_force_opaque_dst_sse2_lowp
-.globl _sk_force_opaque_dst_sse2_lowp
-FUNCTION(_sk_force_opaque_dst_sse2_lowp)
-_sk_force_opaque_dst_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 232,0,0,0,0 // call abe7 <_sk_force_opaque_dst_sse2_lowp+0xe>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,95,4 // lea 0x4(%edi),%ebx
- .byte 15,40,184,121,98,0,0 // movaps 0x6279(%eax),%xmm7
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 255,23 // call *(%edi)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_swap_rb_sse2_lowp
-.globl _sk_swap_rb_sse2_lowp
-FUNCTION(_sk_swap_rb_sse2_lowp)
-_sk_swap_rb_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,194 // movaps %xmm2,%xmm0
- .byte 15,40,212 // movaps %xmm4,%xmm2
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_move_src_dst_sse2_lowp
-.globl _sk_move_src_dst_sse2_lowp
-FUNCTION(_sk_move_src_dst_sse2_lowp)
-_sk_move_src_dst_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_move_dst_src_sse2_lowp
-.globl _sk_move_dst_src_sse2_lowp
-FUNCTION(_sk_move_dst_src_sse2_lowp)
-_sk_move_dst_src_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,40,85,56 // movaps 0x38(%ebp),%xmm2
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_invert_sse2_lowp
-.globl _sk_invert_sse2_lowp
-FUNCTION(_sk_invert_sse2_lowp)
-_sk_invert_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call ad36 <_sk_invert_sse2_lowp+0xd>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 102,15,111,160,42,97,0,0 // movdqa 0x612a(%eax),%xmm4
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,249,232 // psubw %xmm0,%xmm5
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,249,241 // psubw %xmm1,%xmm6
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,249,250 // psubw %xmm2,%xmm7
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 102,15,249,227 // psubw %xmm3,%xmm4
- .byte 15,40,77,72 // movaps 0x48(%ebp),%xmm1
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,120,4 // lea 0x4(%eax),%edi
- .byte 15,41,76,36,64 // movaps %xmm1,0x40(%esp)
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,15,111,215 // movdqa %xmm7,%xmm2
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 255,16 // call *(%eax)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_clear_sse2_lowp
-.globl _sk_clear_sse2_lowp
-FUNCTION(_sk_clear_sse2_lowp)
-_sk_clear_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,40,85,56 // movaps 0x38(%ebp),%xmm2
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_srcatop_sse2_lowp
-.globl _sk_srcatop_sse2_lowp
-FUNCTION(_sk_srcatop_sse2_lowp)
-_sk_srcatop_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call ae2e <_sk_srcatop_sse2_lowp+0x19>
- .byte 88 // pop %eax
- .byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
- .byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,128,50,96,0,0 // movdqa 0x6032(%eax),%xmm0
- .byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,214 // pmullw %xmm6,%xmm2
- .byte 102,15,253,208 // paddw %xmm0,%xmm2
- .byte 102,15,213,238 // pmullw %xmm6,%xmm5
- .byte 102,15,253,232 // paddw %xmm0,%xmm5
- .byte 102,15,111,230 // movdqa %xmm6,%xmm4
- .byte 102,15,213,224 // pmullw %xmm0,%xmm4
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,249,195 // psubw %xmm3,%xmm0
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,213,93,24 // pmullw 0x18(%ebp),%xmm3
- .byte 102,15,253,203 // paddw %xmm3,%xmm1
- .byte 102,15,111,93,40 // movdqa 0x28(%ebp),%xmm3
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,213,251 // pmullw %xmm3,%xmm7
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 102,15,111,125,56 // movdqa 0x38(%ebp),%xmm7
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,253,232 // paddw %xmm0,%xmm5
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,116,36,64 // movdqa %xmm6,0x40(%esp)
- .byte 102,15,127,124,36,48 // movdqa %xmm7,0x30(%esp)
- .byte 102,15,127,92,36,32 // movdqa %xmm3,0x20(%esp)
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,111,213 // movdqa %xmm5,%xmm2
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_dstatop_sse2_lowp
-.globl _sk_dstatop_sse2_lowp
-FUNCTION(_sk_dstatop_sse2_lowp)
-_sk_dstatop_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call af02 <_sk_dstatop_sse2_lowp+0xd>
- .byte 88 // pop %eax
- .byte 102,15,111,101,40 // movdqa 0x28(%ebp),%xmm4
- .byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,111,184,94,95,0,0 // movdqa 0x5f5e(%eax),%xmm7
- .byte 102,15,253,247 // paddw %xmm7,%xmm6
- .byte 102,15,213,227 // pmullw %xmm3,%xmm4
- .byte 102,15,253,231 // paddw %xmm7,%xmm4
- .byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
- .byte 102,15,213,235 // pmullw %xmm3,%xmm5
- .byte 102,15,253,239 // paddw %xmm7,%xmm5
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,15,253,223 // paddw %xmm7,%xmm3
- .byte 102,15,249,125,72 // psubw 0x48(%ebp),%xmm7
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,253,198 // paddw %xmm6,%xmm0
- .byte 102,15,213,207 // pmullw %xmm7,%xmm1
- .byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,15,253,213 // paddw %xmm5,%xmm2
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_srcin_sse2_lowp
-.globl _sk_srcin_sse2_lowp
-FUNCTION(_sk_srcin_sse2_lowp)
-_sk_srcin_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call afc3 <_sk_srcin_sse2_lowp+0xd>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
- .byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,190,157,94,0,0 // movdqa 0x5e9d(%esi),%xmm7
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,253,207 // paddw %xmm7,%xmm1
- .byte 102,15,213,214 // pmullw %xmm6,%xmm2
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 102,15,213,222 // pmullw %xmm6,%xmm3
- .byte 102,15,253,223 // paddw %xmm7,%xmm3
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,116,36,64 // movdqa %xmm6,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_dstin_sse2_lowp
-.globl _sk_dstin_sse2_lowp
-FUNCTION(_sk_dstin_sse2_lowp)
-_sk_dstin_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call b05a <_sk_dstin_sse2_lowp+0xd>
- .byte 88 // pop %eax
- .byte 102,15,111,85,56 // movdqa 0x38(%ebp),%xmm2
- .byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
- .byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,184,6,94,0,0 // movdqa 0x5e06(%eax),%xmm7
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,15,253,207 // paddw %xmm7,%xmm1
- .byte 102,15,213,211 // pmullw %xmm3,%xmm2
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
- .byte 102,15,213,220 // pmullw %xmm4,%xmm3
- .byte 102,15,253,223 // paddw %xmm7,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 102,15,127,108,36,32 // movdqa %xmm5,0x20(%esp)
- .byte 102,15,127,116,36,16 // movdqa %xmm6,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_srcout_sse2_lowp
-.globl _sk_srcout_sse2_lowp
-FUNCTION(_sk_srcout_sse2_lowp)
-_sk_srcout_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call b102 <_sk_srcout_sse2_lowp+0xd>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,182,94,93,0,0 // movdqa 0x5d5e(%esi),%xmm6
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,15,249,253 // psubw %xmm5,%xmm7
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,213,207 // pmullw %xmm7,%xmm1
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 102,15,253,198 // paddw %xmm6,%xmm0
- .byte 102,15,253,206 // paddw %xmm6,%xmm1
- .byte 102,15,253,214 // paddw %xmm6,%xmm2
- .byte 102,15,253,222 // paddw %xmm6,%xmm3
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,108,36,64 // movdqa %xmm5,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_dstout_sse2_lowp
-.globl _sk_dstout_sse2_lowp
-FUNCTION(_sk_dstout_sse2_lowp)
-_sk_dstout_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 232,0,0,0,0 // call b1a5 <_sk_dstout_sse2_lowp+0x11>
- .byte 88 // pop %eax
- .byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
- .byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,111,184,187,92,0,0 // movdqa 0x5cbb(%eax),%xmm7
- .byte 102,15,111,223 // movdqa %xmm7,%xmm3
- .byte 102,15,249,216 // psubw %xmm0,%xmm3
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,213,77,40 // pmullw 0x28(%ebp),%xmm1
- .byte 102,15,253,207 // paddw %xmm7,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,213,213 // pmullw %xmm5,%xmm2
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
- .byte 102,15,213,220 // pmullw %xmm4,%xmm3
- .byte 102,15,253,223 // paddw %xmm7,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
- .byte 102,15,127,108,36,48 // movdqa %xmm5,0x30(%esp)
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 102,15,127,116,36,16 // movdqa %xmm6,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_srcover_sse2_lowp
-.globl _sk_srcover_sse2_lowp
-FUNCTION(_sk_srcover_sse2_lowp)
-_sk_srcover_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,96 // sub $0x60,%esp
- .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call b261 <_sk_srcover_sse2_lowp+0x19>
- .byte 88 // pop %eax
- .byte 102,15,111,136,255,91,0,0 // movdqa 0x5bff(%eax),%xmm1
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,249,195 // psubw %xmm3,%xmm0
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,213,125,24 // pmullw 0x18(%ebp),%xmm7
- .byte 102,15,253,249 // paddw %xmm1,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,253,231 // paddw %xmm7,%xmm4
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,213,109,40 // pmullw 0x28(%ebp),%xmm5
- .byte 102,15,253,233 // paddw %xmm1,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,253,213 // paddw %xmm5,%xmm2
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,111,125,56 // movdqa 0x38(%ebp),%xmm7
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,213,247 // pmullw %xmm7,%xmm6
- .byte 102,15,253,241 // paddw %xmm1,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,85,232 // movdqa -0x18(%ebp),%xmm2
- .byte 102,15,253,214 // paddw %xmm6,%xmm2
- .byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
- .byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,116,36,64 // movdqa %xmm6,0x40(%esp)
- .byte 102,15,127,124,36,48 // movdqa %xmm7,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 255,22 // call *(%esi)
- .byte 131,196,96 // add $0x60,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_dstover_sse2_lowp
-.globl _sk_dstover_sse2_lowp
-FUNCTION(_sk_dstover_sse2_lowp)
-_sk_dstover_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call b331 <_sk_dstover_sse2_lowp+0xd>
- .byte 95 // pop %edi
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4
- .byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,111,183,47,91,0,0 // movdqa 0x5b2f(%edi),%xmm6
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,15,249,253 // psubw %xmm5,%xmm7
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,213,207 // pmullw %xmm7,%xmm1
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,15,111,125,40 // movdqa 0x28(%ebp),%xmm7
- .byte 102,15,253,198 // paddw %xmm6,%xmm0
- .byte 102,15,253,206 // paddw %xmm6,%xmm1
- .byte 102,15,253,214 // paddw %xmm6,%xmm2
- .byte 102,15,253,222 // paddw %xmm6,%xmm3
- .byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,253,198 // paddw %xmm6,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,253,207 // paddw %xmm7,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,253,212 // paddw %xmm4,%xmm2
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,253,221 // paddw %xmm5,%xmm3
- .byte 141,120,4 // lea 0x4(%eax),%edi
- .byte 102,15,127,108,36,64 // movdqa %xmm5,0x40(%esp)
- .byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp)
- .byte 102,15,127,124,36,32 // movdqa %xmm7,0x20(%esp)
- .byte 102,15,127,116,36,16 // movdqa %xmm6,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_modulate_sse2_lowp
-.globl _sk_modulate_sse2_lowp
-FUNCTION(_sk_modulate_sse2_lowp)
-_sk_modulate_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call b3e6 <_sk_modulate_sse2_lowp+0xd>
- .byte 88 // pop %eax
- .byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
- .byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,122,90,0,0 // movdqa 0x5a7a(%eax),%xmm7
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,253,207 // paddw %xmm7,%xmm1
- .byte 102,15,213,85,56 // pmullw 0x38(%ebp),%xmm2
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
- .byte 102,15,213,220 // pmullw %xmm4,%xmm3
- .byte 102,15,253,223 // paddw %xmm7,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 102,15,127,108,36,32 // movdqa %xmm5,0x20(%esp)
- .byte 102,15,127,116,36,16 // movdqa %xmm6,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_multiply_sse2_lowp
-.globl _sk_multiply_sse2_lowp
-FUNCTION(_sk_multiply_sse2_lowp)
-_sk_multiply_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call b482 <_sk_multiply_sse2_lowp+0xd>
- .byte 88 // pop %eax
- .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,111,160,222,89,0,0 // movdqa 0x59de(%eax),%xmm4
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,15,253,244 // paddw %xmm4,%xmm6
- .byte 102,15,249,117,72 // psubw 0x48(%ebp),%xmm6
- .byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,249,243 // psubw %xmm3,%xmm6
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,15,111,125,40 // movdqa 0x28(%ebp),%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,249,253 // psubw %xmm5,%xmm7
- .byte 102,15,213,207 // pmullw %xmm7,%xmm1
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,15,213,125,40 // pmullw 0x28(%ebp),%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,15,253,207 // paddw %xmm7,%xmm1
- .byte 102,15,111,125,56 // movdqa 0x38(%ebp),%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,15,249,253 // psubw %xmm5,%xmm7
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,15,213,125,56 // pmullw 0x38(%ebp),%xmm7
- .byte 102,15,253,252 // paddw %xmm4,%xmm7
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 102,15,213,220 // pmullw %xmm4,%xmm3
- .byte 102,15,253,220 // paddw %xmm4,%xmm3
- .byte 102,15,213,245 // pmullw %xmm5,%xmm6
- .byte 102,15,253,222 // paddw %xmm6,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,108,36,64 // movdqa %xmm5,0x40(%esp)
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_plus__sse2_lowp
-.globl _sk_plus__sse2_lowp
-FUNCTION(_sk_plus__sse2_lowp)
-_sk_plus__sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,96 // sub $0x60,%esp
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b583 <_sk_plus__sse2_lowp+0x15>
- .byte 88 // pop %eax
- .byte 102,15,253,77,24 // paddw 0x18(%ebp),%xmm1
- .byte 102,15,111,168,253,88,0,0 // movdqa 0x58fd(%eax),%xmm5
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,217,197 // psubusw %xmm5,%xmm0
- .byte 102,15,127,109,232 // movdqa %xmm5,-0x18(%ebp)
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,117,199 // pcmpeqw %xmm7,%xmm0
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,111,176,221,88,0,0 // movdqa 0x58dd(%eax),%xmm6
- .byte 102,15,223,198 // pandn %xmm6,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 102,15,253,101,40 // paddw 0x28(%ebp),%xmm4
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,217,205 // psubusw %xmm5,%xmm1
- .byte 102,15,117,207 // pcmpeqw %xmm7,%xmm1
- .byte 102,15,219,225 // pand %xmm1,%xmm4
- .byte 102,15,223,206 // pandn %xmm6,%xmm1
- .byte 102,15,235,204 // por %xmm4,%xmm1
- .byte 102,15,253,85,56 // paddw 0x38(%ebp),%xmm2
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 102,15,217,229 // psubusw %xmm5,%xmm4
- .byte 102,15,117,231 // pcmpeqw %xmm7,%xmm4
- .byte 102,15,219,212 // pand %xmm4,%xmm2
- .byte 102,15,223,230 // pandn %xmm6,%xmm4
- .byte 102,15,235,226 // por %xmm2,%xmm4
- .byte 102,15,111,85,72 // movdqa 0x48(%ebp),%xmm2
- .byte 102,15,253,218 // paddw %xmm2,%xmm3
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,217,109,232 // psubusw -0x18(%ebp),%xmm5
- .byte 102,15,117,239 // pcmpeqw %xmm7,%xmm5
- .byte 102,15,219,221 // pand %xmm5,%xmm3
- .byte 102,15,223,238 // pandn %xmm6,%xmm5
- .byte 102,15,235,235 // por %xmm3,%xmm5
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,84,36,64 // movdqa %xmm2,0x40(%esp)
- .byte 15,40,85,56 // movaps 0x38(%ebp),%xmm2
- .byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
- .byte 15,40,85,40 // movaps 0x28(%ebp),%xmm2
- .byte 15,41,84,36,32 // movaps %xmm2,0x20(%esp)
- .byte 15,40,85,24 // movaps 0x18(%ebp),%xmm2
- .byte 15,41,84,36,16 // movaps %xmm2,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 255,22 // call *(%esi)
- .byte 131,196,96 // add $0x60,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_screen_sse2_lowp
-.globl _sk_screen_sse2_lowp
-FUNCTION(_sk_screen_sse2_lowp)
-_sk_screen_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b67b <_sk_screen_sse2_lowp+0x15>
- .byte 88 // pop %eax
- .byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
- .byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,176,229,87,0,0 // movdqa 0x57e5(%eax),%xmm6
- .byte 102,15,253,206 // paddw %xmm6,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,15,213,229 // pmullw %xmm5,%xmm4
- .byte 102,15,253,230 // paddw %xmm6,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,249,204 // psubw %xmm4,%xmm1
- .byte 102,15,111,125,56 // movdqa 0x38(%ebp),%xmm7
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,253,226 // paddw %xmm2,%xmm4
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,15,253,214 // paddw %xmm6,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,249,226 // psubw %xmm2,%xmm4
- .byte 102,15,111,85,72 // movdqa 0x48(%ebp),%xmm2
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,253,235 // paddw %xmm3,%xmm5
- .byte 102,15,213,218 // pmullw %xmm2,%xmm3
- .byte 102,15,253,222 // paddw %xmm6,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,249,235 // psubw %xmm3,%xmm5
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,84,36,64 // movdqa %xmm2,0x40(%esp)
- .byte 102,15,127,124,36,48 // movdqa %xmm7,0x30(%esp)
- .byte 15,40,85,40 // movaps 0x28(%ebp),%xmm2
- .byte 15,41,84,36,32 // movaps %xmm2,0x20(%esp)
- .byte 15,40,85,24 // movaps 0x18(%ebp),%xmm2
- .byte 15,41,84,36,16 // movaps %xmm2,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_xor__sse2_lowp
-.globl _sk_xor__sse2_lowp
-FUNCTION(_sk_xor__sse2_lowp)
-_sk_xor__sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,96 // sub $0x60,%esp
- .byte 102,15,127,93,232 // movdqa %xmm3,-0x18(%ebp)
- .byte 232,0,0,0,0 // call b75b <_sk_xor__sse2_lowp+0x12>
- .byte 88 // pop %eax
- .byte 102,15,111,176,5,87,0,0 // movdqa 0x5705(%eax),%xmm6
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,15,249,125,72 // psubw 0x48(%ebp),%xmm7
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,15,249,235 // psubw %xmm3,%xmm5
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 102,15,213,93,24 // pmullw 0x18(%ebp),%xmm3
- .byte 102,15,253,195 // paddw %xmm3,%xmm0
- .byte 102,15,213,207 // pmullw %xmm7,%xmm1
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 102,15,213,93,40 // pmullw 0x28(%ebp),%xmm3
- .byte 102,15,253,203 // paddw %xmm3,%xmm1
- .byte 102,15,213,215 // pmullw %xmm7,%xmm2
- .byte 102,15,111,93,56 // movdqa 0x38(%ebp),%xmm3
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,213,227 // pmullw %xmm3,%xmm4
- .byte 102,15,253,212 // paddw %xmm4,%xmm2
- .byte 102,15,213,125,232 // pmullw -0x18(%ebp),%xmm7
- .byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
- .byte 102,15,213,236 // pmullw %xmm4,%xmm5
- .byte 102,15,253,239 // paddw %xmm7,%xmm5
- .byte 102,15,253,198 // paddw %xmm6,%xmm0
- .byte 102,15,253,206 // paddw %xmm6,%xmm1
- .byte 102,15,253,214 // paddw %xmm6,%xmm2
- .byte 102,15,253,238 // paddw %xmm6,%xmm5
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
- .byte 102,15,127,92,36,48 // movdqa %xmm3,0x30(%esp)
- .byte 15,40,93,40 // movaps 0x28(%ebp),%xmm3
- .byte 15,41,92,36,32 // movaps %xmm3,0x20(%esp)
- .byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
- .byte 15,41,92,36,16 // movaps %xmm3,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 255,22 // call *(%esi)
- .byte 131,196,96 // add $0x60,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_darken_sse2_lowp
-.globl _sk_darken_sse2_lowp
-FUNCTION(_sk_darken_sse2_lowp)
-_sk_darken_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,144,0,0,0 // sub $0x90,%esp
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,15,127,125,216 // movdqa %xmm7,-0x28(%ebp)
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b850 <_sk_darken_sse2_lowp+0x25>
- .byte 88 // pop %eax
- .byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
- .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,222 // movdqa %xmm6,%xmm3
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,32,86,0,0 // movdqa 0x5620(%eax),%xmm7
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,239,247 // pxor %xmm7,%xmm6
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,239,239 // pxor %xmm7,%xmm5
- .byte 102,15,101,238 // pcmpgtw %xmm6,%xmm5
- .byte 102,15,219,197 // pand %xmm5,%xmm0
- .byte 102,15,223,233 // pandn %xmm1,%xmm5
- .byte 102,15,235,232 // por %xmm0,%xmm5
- .byte 102,15,111,128,16,86,0,0 // movdqa 0x5610(%eax),%xmm0
- .byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
- .byte 102,15,253,232 // paddw %xmm0,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,249,213 // psubw %xmm5,%xmm2
- .byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
- .byte 102,15,111,77,40 // movdqa 0x28(%ebp),%xmm1
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,253,244 // paddw %xmm4,%xmm6
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,213,224 // pmullw %xmm0,%xmm4
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,111,93,216 // movdqa -0x28(%ebp),%xmm3
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,239,239 // pxor %xmm7,%xmm5
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,239,199 // pxor %xmm7,%xmm0
- .byte 102,15,101,197 // pcmpgtw %xmm5,%xmm0
- .byte 102,15,219,200 // pand %xmm0,%xmm1
- .byte 102,15,223,196 // pandn %xmm4,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 102,15,253,69,232 // paddw -0x18(%ebp),%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,249,240 // psubw %xmm0,%xmm6
- .byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,111,69,200 // movdqa -0x38(%ebp),%xmm0
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,213,194 // pmullw %xmm2,%xmm0
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,239,207 // pxor %xmm7,%xmm1
- .byte 102,15,239,248 // pxor %xmm0,%xmm7
- .byte 102,15,101,249 // pcmpgtw %xmm1,%xmm7
- .byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,223,250 // pandn %xmm2,%xmm7
- .byte 102,15,235,248 // por %xmm0,%xmm7
- .byte 102,15,111,77,232 // movdqa -0x18(%ebp),%xmm1
- .byte 102,15,253,249 // paddw %xmm1,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,249,231 // psubw %xmm7,%xmm4
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,249,195 // psubw %xmm3,%xmm0
- .byte 102,15,111,125,72 // movdqa 0x48(%ebp),%xmm7
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,253,194 // paddw %xmm2,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,124,36,64 // movdqa %xmm7,0x40(%esp)
- .byte 102,15,127,108,36,48 // movdqa %xmm5,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 255,22 // call *(%esi)
- .byte 129,196,144,0,0,0 // add $0x90,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_lighten_sse2_lowp
-.globl _sk_lighten_sse2_lowp
-FUNCTION(_sk_lighten_sse2_lowp)
-_sk_lighten_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,144,0,0,0 // sub $0x90,%esp
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,127,117,216 // movdqa %xmm6,-0x28(%ebp)
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call b9f9 <_sk_lighten_sse2_lowp+0x25>
- .byte 88 // pop %eax
- .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,213,77,72 // pmullw 0x48(%ebp),%xmm1
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,111,184,119,84,0,0 // movdqa 0x5477(%eax),%xmm7
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,239,247 // pxor %xmm7,%xmm6
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,239,239 // pxor %xmm7,%xmm5
- .byte 102,15,101,238 // pcmpgtw %xmm6,%xmm5
- .byte 102,15,219,205 // pand %xmm5,%xmm1
- .byte 102,15,223,232 // pandn %xmm0,%xmm5
- .byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,103,84,0,0 // movdqa 0x5467(%eax),%xmm0
- .byte 102,15,253,232 // paddw %xmm0,%xmm5
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,127,85,232 // movdqa %xmm2,-0x18(%ebp)
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,249,221 // psubw %xmm5,%xmm3
- .byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
- .byte 102,15,111,77,40 // movdqa 0x28(%ebp),%xmm1
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,253,244 // paddw %xmm4,%xmm6
- .byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0
- .byte 102,15,213,224 // pmullw %xmm0,%xmm4
- .byte 102,15,111,93,216 // movdqa -0x28(%ebp),%xmm3
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,239,239 // pxor %xmm7,%xmm5
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,239,199 // pxor %xmm7,%xmm0
- .byte 102,15,101,197 // pcmpgtw %xmm5,%xmm0
- .byte 102,15,219,224 // pand %xmm0,%xmm4
- .byte 102,15,223,193 // pandn %xmm1,%xmm0
- .byte 102,15,235,196 // por %xmm4,%xmm0
- .byte 102,15,253,194 // paddw %xmm2,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,249,240 // psubw %xmm0,%xmm6
- .byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,111,85,200 // movdqa -0x38(%ebp),%xmm2
- .byte 102,15,253,226 // paddw %xmm2,%xmm4
- .byte 102,15,213,85,72 // pmullw 0x48(%ebp),%xmm2
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,239,207 // pxor %xmm7,%xmm1
- .byte 102,15,239,248 // pxor %xmm0,%xmm7
- .byte 102,15,101,249 // pcmpgtw %xmm1,%xmm7
- .byte 102,15,219,215 // pand %xmm7,%xmm2
- .byte 102,15,223,248 // pandn %xmm0,%xmm7
- .byte 102,15,235,250 // por %xmm2,%xmm7
- .byte 102,15,111,77,232 // movdqa -0x18(%ebp),%xmm1
- .byte 102,15,253,249 // paddw %xmm1,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,249,231 // psubw %xmm7,%xmm4
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,15,249,195 // psubw %xmm3,%xmm0
- .byte 102,15,111,85,72 // movdqa 0x48(%ebp),%xmm2
- .byte 102,15,213,194 // pmullw %xmm2,%xmm0
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,84,36,64 // movdqa %xmm2,0x40(%esp)
- .byte 102,15,127,108,36,48 // movdqa %xmm5,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 255,22 // call *(%esi)
- .byte 129,196,144,0,0,0 // add $0x90,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_difference_sse2_lowp
-.globl _sk_difference_sse2_lowp
-FUNCTION(_sk_difference_sse2_lowp)
-_sk_difference_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,160,0,0,0 // sub $0xa0,%esp
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp)
- .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call bb97 <_sk_difference_sse2_lowp+0x25>
- .byte 88 // pop %eax
- .byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
- .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,111,222 // movdqa %xmm6,%xmm3
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,111,184,217,82,0,0 // movdqa 0x52d9(%eax),%xmm7
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,239,247 // pxor %xmm7,%xmm6
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,239,239 // pxor %xmm7,%xmm5
- .byte 102,15,101,238 // pcmpgtw %xmm6,%xmm5
- .byte 102,15,219,205 // pand %xmm5,%xmm1
- .byte 102,15,223,232 // pandn %xmm0,%xmm5
- .byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,128,201,82,0,0 // movdqa 0x52c9(%eax),%xmm0
- .byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
- .byte 102,15,253,232 // paddw %xmm0,%xmm5
- .byte 102,15,113,213,7 // psrlw $0x7,%xmm5
- .byte 102,15,111,128,249,82,0,0 // movdqa 0x52f9(%eax),%xmm0
- .byte 102,15,127,69,232 // movdqa %xmm0,-0x18(%ebp)
- .byte 102,15,219,232 // pand %xmm0,%xmm5
- .byte 102,15,249,213 // psubw %xmm5,%xmm2
- .byte 102,15,127,85,168 // movdqa %xmm2,-0x58(%ebp)
- .byte 102,15,111,77,40 // movdqa 0x28(%ebp),%xmm1
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,253,244 // paddw %xmm4,%xmm6
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,213,224 // pmullw %xmm0,%xmm4
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,111,93,200 // movdqa -0x38(%ebp),%xmm3
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,239,239 // pxor %xmm7,%xmm5
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,239,199 // pxor %xmm7,%xmm0
- .byte 102,15,101,197 // pcmpgtw %xmm5,%xmm0
- .byte 102,15,219,224 // pand %xmm0,%xmm4
- .byte 102,15,223,193 // pandn %xmm1,%xmm0
- .byte 102,15,235,196 // por %xmm4,%xmm0
- .byte 102,15,253,69,216 // paddw -0x28(%ebp),%xmm0
- .byte 102,15,113,208,7 // psrlw $0x7,%xmm0
- .byte 102,15,219,69,232 // pand -0x18(%ebp),%xmm0
- .byte 102,15,249,240 // psubw %xmm0,%xmm6
- .byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,111,69,184 // movdqa -0x48(%ebp),%xmm0
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,213,194 // pmullw %xmm2,%xmm0
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,239,207 // pxor %xmm7,%xmm1
- .byte 102,15,239,248 // pxor %xmm0,%xmm7
- .byte 102,15,101,249 // pcmpgtw %xmm1,%xmm7
- .byte 102,15,219,215 // pand %xmm7,%xmm2
- .byte 102,15,223,248 // pandn %xmm0,%xmm7
- .byte 102,15,235,250 // por %xmm2,%xmm7
- .byte 102,15,111,77,216 // movdqa -0x28(%ebp),%xmm1
- .byte 102,15,253,249 // paddw %xmm1,%xmm7
- .byte 102,15,113,215,7 // psrlw $0x7,%xmm7
- .byte 102,15,219,125,232 // pand -0x18(%ebp),%xmm7
- .byte 102,15,249,231 // psubw %xmm7,%xmm4
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,15,249,195 // psubw %xmm3,%xmm0
- .byte 102,15,111,85,72 // movdqa 0x48(%ebp),%xmm2
- .byte 102,15,213,194 // pmullw %xmm2,%xmm0
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,84,36,64 // movdqa %xmm2,0x40(%esp)
- .byte 102,15,127,108,36,48 // movdqa %xmm5,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,69,168 // movaps -0x58(%ebp),%xmm0
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 255,22 // call *(%esi)
- .byte 129,196,160,0,0,0 // add $0xa0,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_exclusion_sse2_lowp
-.globl _sk_exclusion_sse2_lowp
-FUNCTION(_sk_exclusion_sse2_lowp)
-_sk_exclusion_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call bd4b <_sk_exclusion_sse2_lowp+0x15>
- .byte 88 // pop %eax
- .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,253,193 // paddw %xmm1,%xmm0
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,111,184,21,81,0,0 // movdqa 0x5115(%eax),%xmm7
- .byte 102,15,253,207 // paddw %xmm7,%xmm1
- .byte 102,15,113,209,7 // psrlw $0x7,%xmm1
- .byte 102,15,111,176,69,81,0,0 // movdqa 0x5145(%eax),%xmm6
- .byte 102,15,219,206 // pand %xmm6,%xmm1
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,253,204 // paddw %xmm4,%xmm1
- .byte 102,15,213,229 // pmullw %xmm5,%xmm4
- .byte 102,15,253,231 // paddw %xmm7,%xmm4
- .byte 102,15,113,212,7 // psrlw $0x7,%xmm4
- .byte 102,15,219,230 // pand %xmm6,%xmm4
- .byte 102,15,249,204 // psubw %xmm4,%xmm1
- .byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,253,226 // paddw %xmm2,%xmm4
- .byte 102,15,213,213 // pmullw %xmm5,%xmm2
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 102,15,113,210,7 // psrlw $0x7,%xmm2
- .byte 102,15,219,214 // pand %xmm6,%xmm2
- .byte 102,15,249,226 // psubw %xmm2,%xmm4
- .byte 102,15,111,215 // movdqa %xmm7,%xmm2
- .byte 102,15,249,211 // psubw %xmm3,%xmm2
- .byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
- .byte 102,15,213,214 // pmullw %xmm6,%xmm2
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,253,218 // paddw %xmm2,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,116,36,64 // movdqa %xmm6,0x40(%esp)
- .byte 102,15,127,108,36,48 // movdqa %xmm5,0x30(%esp)
- .byte 15,40,85,40 // movaps 0x28(%ebp),%xmm2
- .byte 15,41,84,36,32 // movaps %xmm2,0x20(%esp)
- .byte 15,40,85,24 // movaps 0x18(%ebp),%xmm2
- .byte 15,41,84,36,16 // movaps %xmm2,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_hardlight_sse2_lowp
-.globl _sk_hardlight_sse2_lowp
-FUNCTION(_sk_hardlight_sse2_lowp)
-_sk_hardlight_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,176,0,0,0 // sub $0xb0,%esp
- .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 232,0,0,0,0 // call be45 <_sk_hardlight_sse2_lowp+0x1c>
- .byte 88 // pop %eax
- .byte 102,15,111,184,27,80,0,0 // movdqa 0x501b(%eax),%xmm7
- .byte 102,15,127,125,200 // movdqa %xmm7,-0x38(%ebp)
- .byte 102,15,111,215 // movdqa %xmm7,%xmm2
- .byte 102,15,249,85,72 // psubw 0x48(%ebp),%xmm2
- .byte 102,15,127,85,168 // movdqa %xmm2,-0x58(%ebp)
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,249,250 // psubw %xmm2,%xmm7
- .byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp)
- .byte 102,15,111,117,24 // movdqa 0x18(%ebp),%xmm6
- .byte 102,15,213,254 // pmullw %xmm6,%xmm7
- .byte 102,15,253,248 // paddw %xmm0,%xmm7
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,249,196 // psubw %xmm4,%xmm0
- .byte 102,15,111,93,72 // movdqa 0x48(%ebp),%xmm3
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,249,206 // psubw %xmm6,%xmm1
- .byte 102,15,213,200 // pmullw %xmm0,%xmm1
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,127,93,216 // movdqa %xmm3,-0x28(%ebp)
- .byte 102,15,213,243 // pmullw %xmm3,%xmm6
- .byte 102,15,253,201 // paddw %xmm1,%xmm1
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,15,249,209 // psubw %xmm1,%xmm2
- .byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,128,43,80,0,0 // movdqa 0x502b(%eax),%xmm0
- .byte 102,15,239,216 // pxor %xmm0,%xmm3
- .byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,239,200 // pxor %xmm0,%xmm1
- .byte 102,15,101,203 // pcmpgtw %xmm3,%xmm1
- .byte 102,15,213,101,24 // pmullw 0x18(%ebp),%xmm4
- .byte 102,15,219,209 // pand %xmm1,%xmm2
- .byte 102,15,223,204 // pandn %xmm4,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,253,125,200 // paddw -0x38(%ebp),%xmm7
- .byte 102,15,253,207 // paddw %xmm7,%xmm1
- .byte 102,15,111,85,168 // movdqa -0x58(%ebp),%xmm2
- .byte 102,15,213,213 // pmullw %xmm5,%xmm2
- .byte 102,15,111,93,40 // movdqa 0x28(%ebp),%xmm3
- .byte 102,15,111,125,232 // movdqa -0x18(%ebp),%xmm7
- .byte 102,15,213,251 // pmullw %xmm3,%xmm7
- .byte 102,15,253,250 // paddw %xmm2,%xmm7
- .byte 102,15,111,85,216 // movdqa -0x28(%ebp),%xmm2
- .byte 102,15,249,213 // psubw %xmm5,%xmm2
- .byte 102,15,111,101,72 // movdqa 0x48(%ebp),%xmm4
- .byte 102,15,249,227 // psubw %xmm3,%xmm4
- .byte 102,15,213,226 // pmullw %xmm2,%xmm4
- .byte 102,15,253,228 // paddw %xmm4,%xmm4
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,15,249,212 // psubw %xmm4,%xmm2
- .byte 102,15,253,237 // paddw %xmm5,%xmm5
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,239,224 // pxor %xmm0,%xmm4
- .byte 102,15,101,101,184 // pcmpgtw -0x48(%ebp),%xmm4
- .byte 102,15,213,235 // pmullw %xmm3,%xmm5
- .byte 102,15,219,212 // pand %xmm4,%xmm2
- .byte 102,15,223,229 // pandn %xmm5,%xmm4
- .byte 102,15,235,226 // por %xmm2,%xmm4
- .byte 102,15,253,125,200 // paddw -0x38(%ebp),%xmm7
- .byte 102,15,253,231 // paddw %xmm7,%xmm4
- .byte 102,15,111,93,152 // movdqa -0x68(%ebp),%xmm3
- .byte 102,15,111,85,168 // movdqa -0x58(%ebp),%xmm2
- .byte 102,15,213,211 // pmullw %xmm3,%xmm2
- .byte 102,15,111,109,232 // movdqa -0x18(%ebp),%xmm5
- .byte 102,15,213,109,56 // pmullw 0x38(%ebp),%xmm5
- .byte 102,15,253,234 // paddw %xmm2,%xmm5
- .byte 102,15,111,85,216 // movdqa -0x28(%ebp),%xmm2
- .byte 102,15,249,211 // psubw %xmm3,%xmm2
- .byte 102,15,253,219 // paddw %xmm3,%xmm3
- .byte 102,15,239,195 // pxor %xmm3,%xmm0
- .byte 102,15,101,69,184 // pcmpgtw -0x48(%ebp),%xmm0
- .byte 102,15,111,125,72 // movdqa 0x48(%ebp),%xmm7
- .byte 102,15,249,125,56 // psubw 0x38(%ebp),%xmm7
- .byte 102,15,213,250 // pmullw %xmm2,%xmm7
- .byte 102,15,253,255 // paddw %xmm7,%xmm7
- .byte 102,15,249,247 // psubw %xmm7,%xmm6
- .byte 102,15,111,125,56 // movdqa 0x38(%ebp),%xmm7
- .byte 102,15,213,223 // pmullw %xmm7,%xmm3
- .byte 102,15,219,240 // pand %xmm0,%xmm6
- .byte 102,15,223,195 // pandn %xmm3,%xmm0
- .byte 102,15,235,198 // por %xmm6,%xmm0
- .byte 102,15,111,93,200 // movdqa -0x38(%ebp),%xmm3
- .byte 102,15,253,235 // paddw %xmm3,%xmm5
- .byte 102,15,253,232 // paddw %xmm0,%xmm5
- .byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0
- .byte 102,15,111,85,232 // movdqa -0x18(%ebp),%xmm2
- .byte 102,15,213,208 // pmullw %xmm0,%xmm2
- .byte 102,15,253,211 // paddw %xmm3,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,93,216 // movdqa -0x28(%ebp),%xmm3
- .byte 102,15,253,218 // paddw %xmm2,%xmm3
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,68,36,64 // movdqa %xmm0,0x40(%esp)
- .byte 102,15,127,124,36,48 // movdqa %xmm7,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,111,213 // movdqa %xmm5,%xmm2
- .byte 255,22 // call *(%esi)
- .byte 129,196,176,0,0,0 // add $0xb0,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_overlay_sse2_lowp
-.globl _sk_overlay_sse2_lowp
-FUNCTION(_sk_overlay_sse2_lowp)
-_sk_overlay_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,208,0,0,0 // sub $0xd0,%esp
- .byte 15,41,85,152 // movaps %xmm2,-0x68(%ebp)
- .byte 15,41,141,120,255,255,255 // movaps %xmm1,-0x88(%ebp)
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call c067 <_sk_overlay_sse2_lowp+0x1f>
- .byte 88 // pop %eax
- .byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0
- .byte 102,15,111,184,249,77,0,0 // movdqa 0x4df9(%eax),%xmm7
- .byte 102,15,127,125,232 // movdqa %xmm7,-0x18(%ebp)
- .byte 102,15,111,215 // movdqa %xmm7,%xmm2
- .byte 102,15,249,208 // psubw %xmm0,%xmm2
- .byte 102,15,127,85,168 // movdqa %xmm2,-0x58(%ebp)
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,249,248 // psubw %xmm0,%xmm7
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,213,101,24 // pmullw 0x18(%ebp),%xmm4
- .byte 102,15,253,226 // paddw %xmm2,%xmm4
- .byte 102,15,127,101,216 // movdqa %xmm4,-0x28(%ebp)
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,249,233 // psubw %xmm1,%xmm5
- .byte 102,15,111,230 // movdqa %xmm6,%xmm4
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,111,93,24 // movdqa 0x18(%ebp),%xmm3
- .byte 102,15,249,211 // psubw %xmm3,%xmm2
- .byte 102,15,213,213 // pmullw %xmm5,%xmm2
- .byte 102,15,213,240 // pmullw %xmm0,%xmm6
- .byte 102,15,253,210 // paddw %xmm2,%xmm2
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,15,249,234 // psubw %xmm2,%xmm5
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,111,144,9,78,0,0 // movdqa 0x4e09(%eax),%xmm2
- .byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
- .byte 102,15,239,226 // pxor %xmm2,%xmm4
- .byte 102,15,239,194 // pxor %xmm2,%xmm0
- .byte 102,15,101,196 // pcmpgtw %xmm4,%xmm0
- .byte 102,15,127,101,136 // movdqa %xmm4,-0x78(%ebp)
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,15,253,201 // paddw %xmm1,%xmm1
- .byte 102,15,219,232 // pand %xmm0,%xmm5
- .byte 102,15,223,193 // pandn %xmm1,%xmm0
- .byte 102,15,235,197 // por %xmm5,%xmm0
- .byte 102,15,111,85,232 // movdqa -0x18(%ebp),%xmm2
- .byte 102,15,111,77,216 // movdqa -0x28(%ebp),%xmm1
- .byte 102,15,253,202 // paddw %xmm2,%xmm1
- .byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,127,77,216 // movdqa %xmm1,-0x28(%ebp)
- .byte 102,15,111,69,168 // movdqa -0x58(%ebp),%xmm0
- .byte 102,15,111,141,120,255,255,255 // movdqa -0x88(%ebp),%xmm1
- .byte 102,15,213,193 // pmullw %xmm1,%xmm0
- .byte 102,15,111,85,40 // movdqa 0x28(%ebp),%xmm2
- .byte 102,15,111,223 // movdqa %xmm7,%xmm3
- .byte 102,15,213,218 // pmullw %xmm2,%xmm3
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 102,15,111,69,200 // movdqa -0x38(%ebp),%xmm0
- .byte 102,15,249,193 // psubw %xmm1,%xmm0
- .byte 102,15,111,109,72 // movdqa 0x48(%ebp),%xmm5
- .byte 102,15,249,234 // psubw %xmm2,%xmm5
- .byte 102,15,213,232 // pmullw %xmm0,%xmm5
- .byte 102,15,253,237 // paddw %xmm5,%xmm5
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,249,197 // psubw %xmm5,%xmm0
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,253,237 // paddw %xmm5,%xmm5
- .byte 102,15,239,109,184 // pxor -0x48(%ebp),%xmm5
- .byte 102,15,101,236 // pcmpgtw %xmm4,%xmm5
- .byte 102,15,213,202 // pmullw %xmm2,%xmm1
- .byte 102,15,253,201 // paddw %xmm1,%xmm1
- .byte 102,15,219,197 // pand %xmm5,%xmm0
- .byte 102,15,223,233 // pandn %xmm1,%xmm5
- .byte 102,15,235,232 // por %xmm0,%xmm5
- .byte 102,15,253,93,232 // paddw -0x18(%ebp),%xmm3
- .byte 102,15,253,221 // paddw %xmm5,%xmm3
- .byte 102,15,111,109,152 // movdqa -0x68(%ebp),%xmm5
- .byte 102,15,111,69,168 // movdqa -0x58(%ebp),%xmm0
- .byte 102,15,213,197 // pmullw %xmm5,%xmm0
- .byte 102,15,111,77,56 // movdqa 0x38(%ebp),%xmm1
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,213,225 // pmullw %xmm1,%xmm4
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,253,192 // paddw %xmm0,%xmm0
- .byte 102,15,239,69,184 // pxor -0x48(%ebp),%xmm0
- .byte 102,15,101,69,136 // pcmpgtw -0x78(%ebp),%xmm0
- .byte 102,15,111,85,200 // movdqa -0x38(%ebp),%xmm2
- .byte 102,15,249,213 // psubw %xmm5,%xmm2
- .byte 102,15,111,77,72 // movdqa 0x48(%ebp),%xmm1
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,111,77,56 // movdqa 0x38(%ebp),%xmm1
- .byte 102,15,249,233 // psubw %xmm1,%xmm5
- .byte 102,15,213,234 // pmullw %xmm2,%xmm5
- .byte 102,15,253,237 // paddw %xmm5,%xmm5
- .byte 102,15,249,245 // psubw %xmm5,%xmm6
- .byte 102,15,111,85,152 // movdqa -0x68(%ebp),%xmm2
- .byte 102,15,213,209 // pmullw %xmm1,%xmm2
- .byte 102,15,253,210 // paddw %xmm2,%xmm2
- .byte 102,15,219,240 // pand %xmm0,%xmm6
- .byte 102,15,223,194 // pandn %xmm2,%xmm0
- .byte 102,15,235,198 // por %xmm6,%xmm0
- .byte 102,15,111,85,232 // movdqa -0x18(%ebp),%xmm2
- .byte 102,15,253,226 // paddw %xmm2,%xmm4
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,111,69,72 // movdqa 0x48(%ebp),%xmm0
- .byte 102,15,213,248 // pmullw %xmm0,%xmm7
- .byte 102,15,253,250 // paddw %xmm2,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,111,109,200 // movdqa -0x38(%ebp),%xmm5
- .byte 102,15,253,239 // paddw %xmm7,%xmm5
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 102,15,111,77,216 // movdqa -0x28(%ebp),%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 102,15,127,68,36,64 // movdqa %xmm0,0x40(%esp)
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 255,22 // call *(%esi)
- .byte 129,196,208,0,0,0 // add $0xd0,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_load_8888_sse2_lowp
-.globl _sk_load_8888_sse2_lowp
-FUNCTION(_sk_load_8888_sse2_lowp)
-_sk_load_8888_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 193,227,2 // shl $0x2,%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c2d6 <_sk_load_8888_sse2_lowp+0x30>
- .byte 95 // pop %edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja c2fc <_sk_load_8888_sse2_lowp+0x56>
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,50,1,0,0 // mov 0x132(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 255,225 // jmp *%ecx
- .byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp c345 <_sk_load_8888_sse2_lowp+0x9f>
- .byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
- .byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp c345 <_sk_load_8888_sse2_lowp+0x9f>
- .byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
- .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp c345 <_sk_load_8888_sse2_lowp+0x9f>
- .byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
- .byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
- .byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
- .byte 15,198,198,0 // shufps $0x0,%xmm6,%xmm0
- .byte 15,198,198,226 // shufps $0xe2,%xmm6,%xmm0
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 243,15,16,68,179,16 // movss 0x10(%ebx,%esi,4),%xmm0
- .byte 243,15,16,240 // movss %xmm0,%xmm6
- .byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
- .byte 102,15,40,203 // movapd %xmm3,%xmm1
- .byte 102,15,114,241,16 // pslld $0x10,%xmm1
- .byte 102,15,114,225,16 // psrad $0x10,%xmm1
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,138,75,0,0 // movdqa 0x4b8a(%edi),%xmm5
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,219,197 // pand %xmm5,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 102,15,114,212,16 // psrld $0x10,%xmm4
- .byte 102,15,40,211 // movapd %xmm3,%xmm2
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 102,15,114,227,16 // psrad $0x10,%xmm3
- .byte 102,15,114,214,24 // psrld $0x18,%xmm6
- .byte 102,15,114,246,16 // pslld $0x10,%xmm6
- .byte 102,15,114,230,16 // psrad $0x10,%xmm6
- .byte 102,15,107,222 // packssdw %xmm6,%xmm3
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,114,226,16 // psrad $0x10,%xmm2
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,212 // packssdw %xmm4,%xmm2
- .byte 102,15,219,213 // pand %xmm5,%xmm2
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 28,0 // sbb $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 61,0,0,0,50 // cmp $0x32000000,%eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,106,0 // add %ch,0x0(%edx)
- .byte 0,0 // add %al,(%eax)
- .byte 96 // pusha
- .byte 0,0 // add %al,(%eax)
- .byte 0,79,0 // add %cl,0x0(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 68 // inc %esp
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_load_8888_dst_sse2_lowp
-.globl _sk_load_8888_dst_sse2_lowp
-FUNCTION(_sk_load_8888_dst_sse2_lowp)
-_sk_load_8888_dst_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,140,0,0,0 // sub $0x8c,%esp
- .byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
- .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 193,227,2 // shl $0x2,%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c461 <_sk_load_8888_dst_sse2_lowp+0x3d>
- .byte 95 // pop %edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja c487 <_sk_load_8888_dst_sse2_lowp+0x63>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 255,225 // jmp *%ecx
- .byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp c4d0 <_sk_load_8888_dst_sse2_lowp+0xac>
- .byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
- .byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp c4d0 <_sk_load_8888_dst_sse2_lowp+0xac>
- .byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
- .byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
- .byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp c4d0 <_sk_load_8888_dst_sse2_lowp+0xac>
- .byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
- .byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
- .byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
- .byte 15,198,211,0 // shufps $0x0,%xmm3,%xmm2
- .byte 15,198,211,226 // shufps $0xe2,%xmm3,%xmm2
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 243,15,16,84,179,16 // movss 0x10(%ebx,%esi,4),%xmm2
- .byte 243,15,16,218 // movss %xmm2,%xmm3
- .byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
- .byte 102,15,40,247 // movapd %xmm7,%xmm6
- .byte 102,15,114,246,16 // pslld $0x10,%xmm6
- .byte 102,15,114,230,16 // psrad $0x10,%xmm6
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,114,226,16 // psrad $0x10,%xmm2
- .byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,255,73,0,0 // movdqa 0x49ff(%edi),%xmm2
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 102,15,114,212,16 // psrld $0x10,%xmm4
- .byte 102,15,40,239 // movapd %xmm7,%xmm5
- .byte 102,15,114,213,16 // psrld $0x10,%xmm5
- .byte 102,15,114,215,24 // psrld $0x18,%xmm7
- .byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,114,231,16 // psrad $0x10,%xmm7
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 102,15,114,227,16 // psrad $0x10,%xmm3
- .byte 102,15,107,251 // packssdw %xmm3,%xmm7
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,114,229,16 // psrad $0x10,%xmm5
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,15,219,234 // pand %xmm2,%xmm5
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 102,15,127,124,36,64 // movdqa %xmm7,0x40(%esp)
- .byte 102,15,127,116,36,32 // movdqa %xmm6,0x20(%esp)
- .byte 102,15,127,76,36,16 // movdqa %xmm1,0x10(%esp)
- .byte 102,15,127,108,36,48 // movdqa %xmm5,0x30(%esp)
- .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,140,0,0,0 // add $0x8c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 102,144 // xchg %ax,%ax
- .byte 28,0 // sbb $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 61,0,0,0,50 // cmp $0x32000000,%eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,106,0 // add %ch,0x0(%edx)
- .byte 0,0 // add %al,(%eax)
- .byte 96 // pusha
- .byte 0,0 // add %al,(%eax)
- .byte 0,79,0 // add %cl,0x0(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 68 // inc %esp
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_store_8888_sse2_lowp
-.globl _sk_store_8888_sse2_lowp
-FUNCTION(_sk_store_8888_sse2_lowp)
-_sk_store_8888_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,113,244,8 // psllw $0x8,%xmm4
- .byte 102,15,235,224 // por %xmm0,%xmm4
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,97,238 // punpcklwd %xmm6,%xmm5
- .byte 102,15,127,93,216 // movdqa %xmm3,-0x28(%ebp)
- .byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,15,235,218 // por %xmm2,%xmm3
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,97,251 // punpcklwd %xmm3,%xmm7
- .byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,105,230 // punpckhwd %xmm6,%xmm4
- .byte 102,15,105,243 // punpckhwd %xmm3,%xmm6
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 102,15,235,244 // por %xmm4,%xmm6
- .byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,93,8 // mov 0x8(%ebp),%ebx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,121,4 // mov 0x4(%ecx),%edi
- .byte 15,175,250 // imul %edx,%edi
- .byte 193,231,2 // shl $0x2,%edi
- .byte 3,57 // add (%ecx),%edi
- .byte 128,227,7 // and $0x7,%bl
- .byte 254,203 // dec %bl
- .byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call c62c <_sk_store_8888_sse2_lowp+0x74>
- .byte 89 // pop %ecx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja c649 <_sk_store_8888_sse2_lowp+0x91>
- .byte 15,182,219 // movzbl %bl,%ebx
- .byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
- .byte 255,225 // jmp *%ecx
- .byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp c6a6 <_sk_store_8888_sse2_lowp+0xee>
- .byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
- .byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp c6a6 <_sk_store_8888_sse2_lowp+0xee>
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
- .byte 102,15,126,92,183,8 // movd %xmm3,0x8(%edi,%esi,4)
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 102,15,111,230 // movdqa %xmm6,%xmm4
- .byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp c6a6 <_sk_store_8888_sse2_lowp+0xee>
- .byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
- .byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 102,15,112,222,229 // pshufd $0xe5,%xmm6,%xmm3
- .byte 102,15,126,92,183,20 // movd %xmm3,0x14(%edi,%esi,4)
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4
- .byte 102,15,126,116,183,16 // movd %xmm6,0x10(%edi,%esi,4)
- .byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
- .byte 15,41,92,36,16 // movaps %xmm3,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 144 // nop
- .byte 22 // push %ss
- .byte 0,0 // add %al,(%eax)
- .byte 0,67,0 // add %al,0x0(%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 42,0 // sub (%eax),%al
- .byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne c6f2 <_sk_store_8888_sse2_lowp+0x13a>
- .byte 0,0 // add %al,(%eax)
- .byte 111 // outsl %ds:(%esi),(%dx)
- .byte 0,0 // add %al,(%eax)
- .byte 0,89,0 // add %bl,0x0(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 74 // dec %edx
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_load_bgra_sse2_lowp
-.globl _sk_load_bgra_sse2_lowp
-FUNCTION(_sk_load_bgra_sse2_lowp)
-_sk_load_bgra_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 193,227,2 // shl $0x2,%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c730 <_sk_load_bgra_sse2_lowp+0x30>
- .byte 95 // pop %edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja c756 <_sk_load_bgra_sse2_lowp+0x56>
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,52,1,0,0 // mov 0x134(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 255,225 // jmp *%ecx
- .byte 243,15,16,28,179 // movss (%ebx,%esi,4),%xmm3
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 235,73 // jmp c79f <_sk_load_bgra_sse2_lowp+0x9f>
- .byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
- .byte 15,16,116,179,16 // movups 0x10(%ebx,%esi,4),%xmm6
- .byte 235,61 // jmp c79f <_sk_load_bgra_sse2_lowp+0x9f>
- .byte 102,15,110,68,179,8 // movd 0x8(%ebx,%esi,4),%xmm0
- .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 102,15,18,28,179 // movlpd (%ebx,%esi,4),%xmm3
- .byte 235,43 // jmp c79f <_sk_load_bgra_sse2_lowp+0x9f>
- .byte 102,15,110,68,179,24 // movd 0x18(%ebx,%esi,4),%xmm0
- .byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
- .byte 243,15,16,68,179,20 // movss 0x14(%ebx,%esi,4),%xmm0
- .byte 15,198,198,0 // shufps $0x0,%xmm6,%xmm0
- .byte 15,198,198,226 // shufps $0xe2,%xmm6,%xmm0
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 243,15,16,68,179,16 // movss 0x10(%ebx,%esi,4),%xmm0
- .byte 243,15,16,240 // movss %xmm0,%xmm6
- .byte 102,15,16,28,179 // movupd (%ebx,%esi,4),%xmm3
- .byte 102,15,40,203 // movapd %xmm3,%xmm1
- .byte 102,15,114,241,16 // pslld $0x10,%xmm1
- .byte 102,15,114,225,16 // psrad $0x10,%xmm1
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,175,48,71,0,0 // movdqa 0x4730(%edi),%xmm5
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,219,213 // pand %xmm5,%xmm2
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 102,15,114,212,16 // psrld $0x10,%xmm4
- .byte 102,15,40,195 // movapd %xmm3,%xmm0
- .byte 102,15,114,208,16 // psrld $0x10,%xmm0
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 102,15,114,227,16 // psrad $0x10,%xmm3
- .byte 102,15,114,214,24 // psrld $0x18,%xmm6
- .byte 102,15,114,246,16 // pslld $0x10,%xmm6
- .byte 102,15,114,230,16 // psrad $0x10,%xmm6
- .byte 102,15,107,222 // packssdw %xmm6,%xmm3
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,196 // packssdw %xmm4,%xmm0
- .byte 102,15,219,197 // pand %xmm5,%xmm0
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 102,144 // xchg %ax,%ax
- .byte 28,0 // sbb $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 61,0,0,0,50 // cmp $0x32000000,%eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,106,0 // add %ch,0x0(%edx)
- .byte 0,0 // add %al,(%eax)
- .byte 96 // pusha
- .byte 0,0 // add %al,(%eax)
- .byte 0,79,0 // add %cl,0x0(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 68 // inc %esp
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_load_bgra_dst_sse2_lowp
-.globl _sk_load_bgra_dst_sse2_lowp
-FUNCTION(_sk_load_bgra_dst_sse2_lowp)
-_sk_load_bgra_dst_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,140,0,0,0 // sub $0x8c,%esp
- .byte 102,15,127,93,184 // movdqa %xmm3,-0x48(%ebp)
- .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 193,227,2 // shl $0x2,%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call c8bd <_sk_load_bgra_dst_sse2_lowp+0x3d>
- .byte 95 // pop %edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,32 // ja c8e3 <_sk_load_bgra_dst_sse2_lowp+0x63>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,59,1,0,0 // mov 0x13b(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 255,225 // jmp *%ecx
- .byte 243,15,16,60,179 // movss (%ebx,%esi,4),%xmm7
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp c92c <_sk_load_bgra_dst_sse2_lowp+0xac>
- .byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
- .byte 15,16,92,179,16 // movups 0x10(%ebx,%esi,4),%xmm3
- .byte 235,61 // jmp c92c <_sk_load_bgra_dst_sse2_lowp+0xac>
- .byte 102,15,110,84,179,8 // movd 0x8(%ebx,%esi,4),%xmm2
- .byte 102,15,112,250,69 // pshufd $0x45,%xmm2,%xmm7
- .byte 102,15,18,60,179 // movlpd (%ebx,%esi,4),%xmm7
- .byte 235,43 // jmp c92c <_sk_load_bgra_dst_sse2_lowp+0xac>
- .byte 102,15,110,84,179,24 // movd 0x18(%ebx,%esi,4),%xmm2
- .byte 102,15,112,218,69 // pshufd $0x45,%xmm2,%xmm3
- .byte 243,15,16,84,179,20 // movss 0x14(%ebx,%esi,4),%xmm2
- .byte 15,198,211,0 // shufps $0x0,%xmm3,%xmm2
- .byte 15,198,211,226 // shufps $0xe2,%xmm3,%xmm2
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 243,15,16,84,179,16 // movss 0x10(%ebx,%esi,4),%xmm2
- .byte 243,15,16,218 // movss %xmm2,%xmm3
- .byte 102,15,16,60,179 // movupd (%ebx,%esi,4),%xmm7
- .byte 102,15,40,247 // movapd %xmm7,%xmm6
- .byte 102,15,114,246,16 // pslld $0x10,%xmm6
- .byte 102,15,114,230,16 // psrad $0x10,%xmm6
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,114,226,16 // psrad $0x10,%xmm2
- .byte 102,15,107,242 // packssdw %xmm2,%xmm6
- .byte 102,15,111,151,163,69,0,0 // movdqa 0x45a3(%edi),%xmm2
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,15,219,202 // pand %xmm2,%xmm1
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 102,15,114,212,16 // psrld $0x10,%xmm4
- .byte 102,15,40,239 // movapd %xmm7,%xmm5
- .byte 102,15,114,213,16 // psrld $0x10,%xmm5
- .byte 102,15,114,215,24 // psrld $0x18,%xmm7
- .byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,114,231,16 // psrad $0x10,%xmm7
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 102,15,114,227,16 // psrad $0x10,%xmm3
- .byte 102,15,107,251 // packssdw %xmm3,%xmm7
- .byte 102,15,114,245,16 // pslld $0x10,%xmm5
- .byte 102,15,114,229,16 // psrad $0x10,%xmm5
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,236 // packssdw %xmm4,%xmm5
- .byte 102,15,219,234 // pand %xmm2,%xmm5
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 102,15,127,124,36,64 // movdqa %xmm7,0x40(%esp)
- .byte 102,15,127,76,36,48 // movdqa %xmm1,0x30(%esp)
- .byte 102,15,127,116,36,32 // movdqa %xmm6,0x20(%esp)
- .byte 102,15,127,108,36,16 // movdqa %xmm5,0x10(%esp)
- .byte 15,40,77,216 // movaps -0x28(%ebp),%xmm1
- .byte 15,40,85,200 // movaps -0x38(%ebp),%xmm2
- .byte 15,40,93,184 // movaps -0x48(%ebp),%xmm3
- .byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,140,0,0,0 // add $0x8c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 102,144 // xchg %ax,%ax
- .byte 28,0 // sbb $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 61,0,0,0,50 // cmp $0x32000000,%eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,106,0 // add %ch,0x0(%edx)
- .byte 0,0 // add %al,(%eax)
- .byte 96 // pusha
- .byte 0,0 // add %al,(%eax)
- .byte 0,79,0 // add %cl,0x0(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 68 // inc %esp
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_store_bgra_sse2_lowp
-.globl _sk_store_bgra_sse2_lowp
-FUNCTION(_sk_store_bgra_sse2_lowp)
-_sk_store_bgra_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,113,244,8 // psllw $0x8,%xmm4
- .byte 102,15,235,226 // por %xmm2,%xmm4
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,97,238 // punpcklwd %xmm6,%xmm5
- .byte 102,15,127,93,216 // movdqa %xmm3,-0x28(%ebp)
- .byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,15,235,216 // por %xmm0,%xmm3
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,97,251 // punpcklwd %xmm3,%xmm7
- .byte 102,15,235,253 // por %xmm5,%xmm7
- .byte 102,15,105,230 // punpckhwd %xmm6,%xmm4
- .byte 102,15,105,243 // punpckhwd %xmm3,%xmm6
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 102,15,235,244 // por %xmm4,%xmm6
- .byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,93,8 // mov 0x8(%ebp),%ebx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,121,4 // mov 0x4(%ecx),%edi
- .byte 15,175,250 // imul %edx,%edi
- .byte 193,231,2 // shl $0x2,%edi
- .byte 3,57 // add (%ecx),%edi
- .byte 128,227,7 // and $0x7,%bl
- .byte 254,203 // dec %bl
- .byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call ca88 <_sk_store_bgra_sse2_lowp+0x74>
- .byte 89 // pop %ecx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 119,19 // ja caa5 <_sk_store_bgra_sse2_lowp+0x91>
- .byte 15,182,219 // movzbl %bl,%ebx
- .byte 3,140,153,184,0,0,0 // add 0xb8(%ecx,%ebx,4),%ecx
- .byte 255,225 // jmp *%ecx
- .byte 102,15,126,60,183 // movd %xmm7,(%edi,%esi,4)
- .byte 235,93 // jmp cb02 <_sk_store_bgra_sse2_lowp+0xee>
- .byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
- .byte 243,15,127,116,183,16 // movdqu %xmm6,0x10(%edi,%esi,4)
- .byte 235,80 // jmp cb02 <_sk_store_bgra_sse2_lowp+0xee>
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
- .byte 102,15,126,92,183,8 // movd %xmm3,0x8(%edi,%esi,4)
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 102,15,111,230 // movdqa %xmm6,%xmm4
- .byte 102,15,214,60,183 // movq %xmm7,(%edi,%esi,4)
- .byte 235,48 // jmp cb02 <_sk_store_bgra_sse2_lowp+0xee>
- .byte 102,15,112,222,78 // pshufd $0x4e,%xmm6,%xmm3
- .byte 102,15,126,92,183,24 // movd %xmm3,0x18(%edi,%esi,4)
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 102,15,112,222,229 // pshufd $0xe5,%xmm6,%xmm3
- .byte 102,15,126,92,183,20 // movd %xmm3,0x14(%edi,%esi,4)
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 102,15,111,101,56 // movdqa 0x38(%ebp),%xmm4
- .byte 102,15,126,116,183,16 // movd %xmm6,0x10(%edi,%esi,4)
- .byte 243,15,127,60,183 // movdqu %xmm7,(%edi,%esi,4)
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
- .byte 15,41,92,36,16 // movaps %xmm3,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 144 // nop
- .byte 22 // push %ss
- .byte 0,0 // add %al,(%eax)
- .byte 0,67,0 // add %al,0x0(%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 42,0 // sub (%eax),%al
- .byte 0,0 // add %al,(%eax)
- .byte 117,0 // jne cb4e <_sk_store_bgra_sse2_lowp+0x13a>
- .byte 0,0 // add %al,(%eax)
- .byte 111 // outsl %ds:(%esi),(%dx)
- .byte 0,0 // add %al,(%eax)
- .byte 0,89,0 // add %bl,0x0(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 74 // dec %edx
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_gather_8888_sse2_lowp
-.globl _sk_gather_8888_sse2_lowp
-FUNCTION(_sk_gather_8888_sse2_lowp)
-_sk_gather_8888_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,96 // sub $0x60,%esp
- .byte 232,0,0,0,0 // call cb69 <_sk_gather_8888_sse2_lowp+0xd>
- .byte 90 // pop %edx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,103,8 // movss 0x8(%edi),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
- .byte 102,15,254,229 // paddd %xmm5,%xmm4
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,95,198 // maxps %xmm6,%xmm0
- .byte 15,95,206 // maxps %xmm6,%xmm1
- .byte 15,93,204 // minps %xmm4,%xmm1
- .byte 15,93,196 // minps %xmm4,%xmm0
- .byte 243,15,16,103,12 // movss 0xc(%edi),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 102,15,254,229 // paddd %xmm5,%xmm4
- .byte 15,95,222 // maxps %xmm6,%xmm3
- .byte 15,95,214 // maxps %xmm6,%xmm2
- .byte 15,93,212 // minps %xmm4,%xmm2
- .byte 15,93,220 // minps %xmm4,%xmm3
- .byte 139,55 // mov (%edi),%esi
- .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,15,110,103,4 // movd 0x4(%edi),%xmm4
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,112,234,245 // pshufd $0xf5,%xmm2,%xmm5
- .byte 102,15,244,236 // pmuludq %xmm4,%xmm5
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,112,251,245 // pshufd $0xf5,%xmm3,%xmm7
- .byte 102,15,244,252 // pmuludq %xmm4,%xmm7
- .byte 102,15,244,226 // pmuludq %xmm2,%xmm4
- .byte 102,15,112,212,232 // pshufd $0xe8,%xmm4,%xmm2
- .byte 102,15,112,229,232 // pshufd $0xe8,%xmm5,%xmm4
- .byte 102,15,98,212 // punpckldq %xmm4,%xmm2
- .byte 102,15,244,243 // pmuludq %xmm3,%xmm6
- .byte 102,15,112,222,232 // pshufd $0xe8,%xmm6,%xmm3
- .byte 102,15,112,231,232 // pshufd $0xe8,%xmm7,%xmm4
- .byte 102,15,98,220 // punpckldq %xmm4,%xmm3
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,194 // paddd %xmm2,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,254,203 // paddd %xmm3,%xmm1
- .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
- .byte 102,15,112,216,231 // pshufd $0xe7,%xmm0,%xmm3
- .byte 102,15,126,223 // movd %xmm3,%edi
- .byte 243,15,16,28,190 // movss (%esi,%edi,4),%xmm3
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0
- .byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,15,112,233,231 // pshufd $0xe7,%xmm1,%xmm5
- .byte 102,15,110,52,190 // movd (%esi,%edi,4),%xmm6
- .byte 102,15,126,239 // movd %xmm5,%edi
- .byte 102,15,110,60,190 // movd (%esi,%edi,4),%xmm7
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,110,20,190 // movd (%esi,%edi,4),%xmm2
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1
- .byte 102,15,110,4,190 // movd (%esi,%edi,4),%xmm0
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,110,12,190 // movd (%esi,%edi,4),%xmm1
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 102,15,98,101,232 // punpckldq -0x18(%ebp),%xmm4
- .byte 102,15,98,222 // punpckldq %xmm6,%xmm3
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 102,15,108,220 // punpcklqdq %xmm4,%xmm3
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 102,15,98,215 // punpckldq %xmm7,%xmm2
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 102,15,108,194 // punpcklqdq %xmm2,%xmm0
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,114,226,16 // psrad $0x10,%xmm2
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,241,16 // pslld $0x10,%xmm1
- .byte 102,15,114,225,16 // psrad $0x10,%xmm1
- .byte 102,15,107,202 // packssdw %xmm2,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,111,224 // movdqa %xmm0,%xmm4
- .byte 102,15,114,208,24 // psrld $0x18,%xmm0
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 102,15,114,227,16 // psrad $0x10,%xmm3
- .byte 102,15,107,216 // packssdw %xmm0,%xmm3
- .byte 102,15,111,186,247,66,0,0 // movdqa 0x42f7(%edx),%xmm7
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,114,212,16 // psrld $0x10,%xmm4
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,114,226,16 // psrad $0x10,%xmm2
- .byte 102,15,107,212 // packssdw %xmm4,%xmm2
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,219,199 // pand %xmm7,%xmm0
- .byte 102,15,219,215 // pand %xmm7,%xmm2
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 141,81,8 // lea 0x8(%ecx),%edx
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,84,36,4 // mov %edx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,96 // add $0x60,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_gather_bgra_sse2_lowp
-.globl _sk_gather_bgra_sse2_lowp
-FUNCTION(_sk_gather_bgra_sse2_lowp)
-_sk_gather_bgra_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call cd64 <_sk_gather_bgra_sse2_lowp+0xd>
- .byte 90 // pop %edx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,103,8 // movss 0x8(%edi),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
- .byte 102,15,254,229 // paddd %xmm5,%xmm4
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,95,198 // maxps %xmm6,%xmm0
- .byte 15,95,206 // maxps %xmm6,%xmm1
- .byte 15,93,204 // minps %xmm4,%xmm1
- .byte 15,93,196 // minps %xmm4,%xmm0
- .byte 243,15,16,103,12 // movss 0xc(%edi),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 102,15,254,229 // paddd %xmm5,%xmm4
- .byte 15,95,222 // maxps %xmm6,%xmm3
- .byte 15,95,214 // maxps %xmm6,%xmm2
- .byte 15,93,212 // minps %xmm4,%xmm2
- .byte 15,93,220 // minps %xmm4,%xmm3
- .byte 139,55 // mov (%edi),%esi
- .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,15,110,103,4 // movd 0x4(%edi),%xmm4
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,112,234,245 // pshufd $0xf5,%xmm2,%xmm5
- .byte 102,15,244,236 // pmuludq %xmm4,%xmm5
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,112,251,245 // pshufd $0xf5,%xmm3,%xmm7
- .byte 102,15,244,252 // pmuludq %xmm4,%xmm7
- .byte 102,15,244,226 // pmuludq %xmm2,%xmm4
- .byte 102,15,112,212,232 // pshufd $0xe8,%xmm4,%xmm2
- .byte 102,15,112,229,232 // pshufd $0xe8,%xmm5,%xmm4
- .byte 102,15,98,212 // punpckldq %xmm4,%xmm2
- .byte 102,15,244,243 // pmuludq %xmm3,%xmm6
- .byte 102,15,112,222,232 // pshufd $0xe8,%xmm6,%xmm3
- .byte 102,15,112,231,232 // pshufd $0xe8,%xmm7,%xmm4
- .byte 102,15,98,220 // punpckldq %xmm4,%xmm3
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,194 // paddd %xmm2,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,254,203 // paddd %xmm3,%xmm1
- .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
- .byte 102,15,112,216,231 // pshufd $0xe7,%xmm0,%xmm3
- .byte 102,15,126,223 // movd %xmm3,%edi
- .byte 102,15,110,36,190 // movd (%esi,%edi,4),%xmm4
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 102,15,110,52,190 // movd (%esi,%edi,4),%xmm6
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0
- .byte 102,15,110,28,190 // movd (%esi,%edi,4),%xmm3
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,193,78 // pshufd $0x4e,%xmm1,%xmm0
- .byte 102,15,112,209,231 // pshufd $0xe7,%xmm1,%xmm2
- .byte 102,15,110,44,190 // movd (%esi,%edi,4),%xmm5
- .byte 102,15,126,215 // movd %xmm2,%edi
- .byte 102,15,110,60,190 // movd (%esi,%edi,4),%xmm7
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,110,4,190 // movd (%esi,%edi,4),%xmm0
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1
- .byte 102,15,110,20,190 // movd (%esi,%edi,4),%xmm2
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,110,12,190 // movd (%esi,%edi,4),%xmm1
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 102,15,98,244 // punpckldq %xmm4,%xmm6
- .byte 102,15,98,221 // punpckldq %xmm5,%xmm3
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 102,15,108,222 // punpcklqdq %xmm6,%xmm3
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 102,15,98,199 // punpckldq %xmm7,%xmm0
- .byte 102,15,98,209 // punpckldq %xmm1,%xmm2
- .byte 102,15,108,208 // punpcklqdq %xmm0,%xmm2
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,114,241,16 // pslld $0x10,%xmm1
- .byte 102,15,114,225,16 // psrad $0x10,%xmm1
- .byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,111,250 // movdqa %xmm2,%xmm7
- .byte 102,15,114,210,24 // psrld $0x18,%xmm2
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,114,226,16 // psrad $0x10,%xmm2
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 102,15,114,227,16 // psrad $0x10,%xmm3
- .byte 102,15,107,218 // packssdw %xmm2,%xmm3
- .byte 102,15,111,162,252,64,0,0 // movdqa 0x40fc(%edx),%xmm4
- .byte 102,15,114,208,16 // psrld $0x10,%xmm0
- .byte 102,15,114,215,16 // psrld $0x10,%xmm7
- .byte 102,15,114,247,16 // pslld $0x10,%xmm7
- .byte 102,15,114,231,16 // psrad $0x10,%xmm7
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,107,199 // packssdw %xmm7,%xmm0
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,219,212 // pand %xmm4,%xmm2
- .byte 102,15,219,196 // pand %xmm4,%xmm0
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 141,81,8 // lea 0x8(%ecx),%edx
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,84,36,4 // mov %edx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_load_565_sse2_lowp
-.globl _sk_load_565_sse2_lowp
-FUNCTION(_sk_load_565_sse2_lowp)
-_sk_load_565_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 1,219 // add %ebx,%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call cf88 <_sk_load_565_sse2_lowp+0x3b>
- .byte 94 // pop %esi
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja cfaa <_sk_load_565_sse2_lowp+0x5d>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,142,244,0,0,0 // mov 0xf4(%esi,%ecx,4),%ecx
- .byte 1,241 // add %esi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,183,12,123 // movzwl (%ebx,%edi,2),%ecx
- .byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,59 // jmp cfe5 <_sk_load_565_sse2_lowp+0x98>
- .byte 243,15,111,4,123 // movdqu (%ebx,%edi,2),%xmm0
- .byte 235,52 // jmp cfe5 <_sk_load_565_sse2_lowp+0x98>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,68,123,4,2 // pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
- .byte 243,15,16,12,123 // movss (%ebx,%edi,2),%xmm1
- .byte 243,15,16,193 // movss %xmm1,%xmm0
- .byte 235,30 // jmp cfe5 <_sk_load_565_sse2_lowp+0x98>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,68,123,12,6 // pinsrw $0x6,0xc(%ebx,%edi,2),%xmm0
- .byte 102,15,196,68,123,10,5 // pinsrw $0x5,0xa(%ebx,%edi,2),%xmm0
- .byte 102,15,196,68,123,8,4 // pinsrw $0x4,0x8(%ebx,%edi,2),%xmm0
- .byte 102,15,18,4,123 // movlpd (%ebx,%edi,2),%xmm0
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,219,190,24,63,0,0 // pand 0x3f18(%esi),%xmm7
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,142,40,63,0,0 // pand 0x3f28(%esi),%xmm1
- .byte 102,15,111,150,56,63,0,0 // movdqa 0x3f38(%esi),%xmm2
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,15,113,208,13 // psrlw $0xd,%xmm0
- .byte 102,15,235,199 // por %xmm7,%xmm0
- .byte 102,15,111,249 // movdqa %xmm1,%xmm7
- .byte 102,15,113,247,2 // psllw $0x2,%xmm7
- .byte 102,15,113,209,4 // psrlw $0x4,%xmm1
- .byte 102,15,235,207 // por %xmm7,%xmm1
- .byte 102,15,111,250 // movdqa %xmm2,%xmm7
- .byte 102,15,113,247,3 // psllw $0x3,%xmm7
- .byte 102,15,113,210,2 // psrlw $0x2,%xmm2
- .byte 102,15,235,215 // por %xmm7,%xmm2
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 15,41,92,36,16 // movaps %xmm3,0x10(%esp)
- .byte 139,93,20 // mov 0x14(%ebp),%ebx
- .byte 137,92,36,12 // mov %ebx,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,216,62,0,0 // movaps 0x3ed8(%esi),%xmm3
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 144 // nop
- .byte 24,0 // sbb %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 52,0 // xor $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 41,0 // sub %eax,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 88 // pop %eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,81,0 // add %dl,0x0(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 74 // dec %edx
- .byte 0,0 // add %al,(%eax)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_load_565_dst_sse2_lowp
-.globl _sk_load_565_dst_sse2_lowp
-FUNCTION(_sk_load_565_dst_sse2_lowp)
-_sk_load_565_dst_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 1,219 // add %ebx,%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d0c3 <_sk_load_565_dst_sse2_lowp+0x2b>
- .byte 95 // pop %edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d0e5 <_sk_load_565_dst_sse2_lowp+0x4d>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,249,0,0,0 // mov 0xf9(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp d120 <_sk_load_565_dst_sse2_lowp+0x88>
- .byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp d120 <_sk_load_565_dst_sse2_lowp+0x88>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
- .byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
- .byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,30 // jmp d120 <_sk_load_565_dst_sse2_lowp+0x88>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
- .byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
- .byte 102,15,196,100,115,8,4 // pinsrw $0x4,0x8(%ebx,%esi,2),%xmm4
- .byte 102,15,18,36,115 // movlpd (%ebx,%esi,2),%xmm4
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,219,183,221,61,0,0 // pand 0x3ddd(%edi),%xmm6
- .byte 102,15,111,236 // movdqa %xmm4,%xmm5
- .byte 102,15,113,213,5 // psrlw $0x5,%xmm5
- .byte 102,15,219,175,237,61,0,0 // pand 0x3ded(%edi),%xmm5
- .byte 102,15,111,191,253,61,0,0 // movdqa 0x3dfd(%edi),%xmm7
- .byte 102,15,219,252 // pand %xmm4,%xmm7
- .byte 102,15,113,212,13 // psrlw $0xd,%xmm4
- .byte 102,15,235,230 // por %xmm6,%xmm4
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,15,113,246,2 // psllw $0x2,%xmm6
- .byte 102,15,113,213,4 // psrlw $0x4,%xmm5
- .byte 102,15,235,238 // por %xmm6,%xmm5
- .byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,113,246,3 // psllw $0x3,%xmm6
- .byte 102,15,113,215,2 // psrlw $0x2,%xmm7
- .byte 102,15,235,254 // por %xmm6,%xmm7
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,183,157,61,0,0 // movaps 0x3d9d(%edi),%xmm6
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 102,15,127,124,36,48 // movdqa %xmm7,0x30(%esp)
- .byte 102,15,127,100,36,16 // movdqa %xmm4,0x10(%esp)
- .byte 102,15,127,108,36,32 // movdqa %xmm5,0x20(%esp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 15,31,0 // nopl (%eax)
- .byte 24,0 // sbb %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 52,0 // xor $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 41,0 // sub %eax,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 88 // pop %eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,81,0 // add %dl,0x0(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 74 // dec %edx
- .byte 0,0 // add %al,(%eax)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_store_565_sse2_lowp
-.globl _sk_store_565_sse2_lowp
-FUNCTION(_sk_store_565_sse2_lowp)
-_sk_store_565_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 102,15,111,226 // movdqa %xmm2,%xmm4
- .byte 232,0,0,0,0 // call d1ea <_sk_store_565_sse2_lowp+0x12>
- .byte 95 // pop %edi
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 102,15,113,242,8 // psllw $0x8,%xmm2
- .byte 102,15,219,151,230,60,0,0 // pand 0x3ce6(%edi),%xmm2
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,113,246,3 // psllw $0x3,%xmm6
- .byte 102,15,219,183,246,60,0,0 // pand 0x3cf6(%edi),%xmm6
- .byte 102,15,235,242 // por %xmm2,%xmm6
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,113,210,3 // psrlw $0x3,%xmm2
- .byte 102,15,235,214 // por %xmm6,%xmm2
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 1,219 // add %ebx,%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja d262 <_sk_store_565_sse2_lowp+0x8a>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 3,188,143,242,0,0,0 // add 0xf2(%edi,%ecx,4),%edi
- .byte 255,231 // jmp *%edi
- .byte 102,15,126,209 // movd %xmm2,%ecx
- .byte 102,137,12,115 // mov %cx,(%ebx,%esi,2)
- .byte 235,59 // jmp d29d <_sk_store_565_sse2_lowp+0xc5>
- .byte 243,15,127,20,115 // movdqu %xmm2,(%ebx,%esi,2)
- .byte 235,52 // jmp d29d <_sk_store_565_sse2_lowp+0xc5>
- .byte 102,15,197,202,2 // pextrw $0x2,%xmm2,%ecx
- .byte 102,137,76,115,4 // mov %cx,0x4(%ebx,%esi,2)
- .byte 102,15,126,20,115 // movd %xmm2,(%ebx,%esi,2)
- .byte 235,35 // jmp d29d <_sk_store_565_sse2_lowp+0xc5>
- .byte 102,15,197,202,6 // pextrw $0x6,%xmm2,%ecx
- .byte 102,137,76,115,12 // mov %cx,0xc(%ebx,%esi,2)
- .byte 102,15,197,202,5 // pextrw $0x5,%xmm2,%ecx
- .byte 102,137,76,115,10 // mov %cx,0xa(%ebx,%esi,2)
- .byte 102,15,197,202,4 // pextrw $0x4,%xmm2,%ecx
- .byte 102,137,76,115,8 // mov %cx,0x8(%ebx,%esi,2)
- .byte 102,15,214,20,115 // movq %xmm2,(%ebx,%esi,2)
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,40,85,56 // movaps 0x38(%ebp),%xmm2
- .byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 15,41,124,36,16 // movaps %xmm7,0x10(%esp)
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 15,31,0 // nopl (%eax)
- .byte 110 // outsb %ds:(%esi),(%dx)
- .byte 0,0 // add %al,(%eax)
- .byte 0,137,0,0,0,127 // add %cl,0x7f000000(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 0,174,0,0,0,164 // add %ch,-0x5c000000(%esi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,154,0,0,0,144 // add %bl,-0x70000000(%edx)
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_gather_565_sse2_lowp
-.globl _sk_gather_565_sse2_lowp
-FUNCTION(_sk_gather_565_sse2_lowp)
-_sk_gather_565_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 243,15,16,98,8 // movss 0x8(%edx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
- .byte 102,15,254,229 // paddd %xmm5,%xmm4
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,95,198 // maxps %xmm6,%xmm0
- .byte 15,95,206 // maxps %xmm6,%xmm1
- .byte 15,93,204 // minps %xmm4,%xmm1
- .byte 15,93,196 // minps %xmm4,%xmm0
- .byte 243,15,16,98,12 // movss 0xc(%edx),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 102,15,254,229 // paddd %xmm5,%xmm4
- .byte 15,95,222 // maxps %xmm6,%xmm3
- .byte 15,95,214 // maxps %xmm6,%xmm2
- .byte 15,93,212 // minps %xmm4,%xmm2
- .byte 15,93,220 // minps %xmm4,%xmm3
- .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,15,110,98,4 // movd 0x4(%edx),%xmm4
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,112,234,245 // pshufd $0xf5,%xmm2,%xmm5
- .byte 102,15,244,236 // pmuludq %xmm4,%xmm5
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,244,242 // pmuludq %xmm2,%xmm6
- .byte 102,15,112,211,245 // pshufd $0xf5,%xmm3,%xmm2
- .byte 102,15,244,212 // pmuludq %xmm4,%xmm2
- .byte 232,0,0,0,0 // call d370 <_sk_gather_565_sse2_lowp+0x78>
- .byte 89 // pop %ecx
- .byte 139,50 // mov (%edx),%esi
- .byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,98,245 // punpckldq %xmm5,%xmm6
- .byte 102,15,244,227 // pmuludq %xmm3,%xmm4
- .byte 102,15,112,220,232 // pshufd $0xe8,%xmm4,%xmm3
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,98,218 // punpckldq %xmm2,%xmm3
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,198 // paddd %xmm6,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,254,203 // paddd %xmm3,%xmm1
- .byte 102,15,126,194 // movd %xmm0,%edx
- .byte 102,15,112,208,229 // pshufd $0xe5,%xmm0,%xmm2
- .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp)
- .byte 102,15,112,216,78 // pshufd $0x4e,%xmm0,%xmm3
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
- .byte 102,15,112,233,231 // pshufd $0xe7,%xmm1,%xmm5
- .byte 102,15,126,239 // movd %xmm5,%edi
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 102,15,110,239 // movd %edi,%xmm5
- .byte 102,15,126,231 // movd %xmm4,%edi
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 102,15,110,231 // movd %edi,%xmm4
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 102,15,110,247 // movd %edi,%xmm6
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 102,15,110,215 // movd %edi,%xmm2
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 102,15,110,255 // movd %edi,%xmm7
- .byte 102,15,126,223 // movd %xmm3,%edi
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 102,15,110,207 // movd %edi,%xmm1
- .byte 102,15,111,69,216 // movdqa -0x28(%ebp),%xmm0
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 15,183,20,86 // movzwl (%esi,%edx,2),%edx
- .byte 102,15,110,194 // movd %edx,%xmm0
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 102,15,97,229 // punpcklwd %xmm5,%xmm4
- .byte 102,15,110,239 // movd %edi,%xmm5
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 102,15,97,242 // punpcklwd %xmm2,%xmm6
- .byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
- .byte 102,15,98,244 // punpckldq %xmm4,%xmm6
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 102,15,97,207 // punpcklwd %xmm7,%xmm1
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 102,15,97,197 // punpcklwd %xmm5,%xmm0
- .byte 102,15,98,193 // punpckldq %xmm1,%xmm0
- .byte 102,15,108,198 // punpcklqdq %xmm6,%xmm0
- .byte 102,15,111,232 // movdqa %xmm0,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,219,169,48,59,0,0 // pand 0x3b30(%ecx),%xmm5
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,113,209,5 // psrlw $0x5,%xmm1
- .byte 102,15,219,137,64,59,0,0 // pand 0x3b40(%ecx),%xmm1
- .byte 102,15,111,145,80,59,0,0 // movdqa 0x3b50(%ecx),%xmm2
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,15,113,208,13 // psrlw $0xd,%xmm0
- .byte 102,15,235,197 // por %xmm5,%xmm0
- .byte 102,15,111,233 // movdqa %xmm1,%xmm5
- .byte 102,15,113,245,2 // psllw $0x2,%xmm5
- .byte 102,15,113,209,4 // psrlw $0x4,%xmm1
- .byte 102,15,235,205 // por %xmm5,%xmm1
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,113,245,3 // psllw $0x3,%xmm5
- .byte 102,15,113,210,2 // psrlw $0x2,%xmm2
- .byte 102,15,235,213 // por %xmm5,%xmm2
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 141,88,8 // lea 0x8(%eax),%ebx
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 15,41,92,36,16 // movaps %xmm3,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,153,240,58,0,0 // movaps 0x3af0(%ecx),%xmm3
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_load_4444_sse2_lowp
-.globl _sk_load_4444_sse2_lowp
-FUNCTION(_sk_load_4444_sse2_lowp)
-_sk_load_4444_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 1,219 // add %ebx,%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d52a <_sk_load_4444_sse2_lowp+0x37>
- .byte 95 // pop %edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d54c <_sk_load_4444_sse2_lowp+0x59>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,250,0,0,0 // mov 0xfa(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,59 // jmp d587 <_sk_load_4444_sse2_lowp+0x94>
- .byte 243,15,111,36,115 // movdqu (%ebx,%esi,2),%xmm4
- .byte 235,52 // jmp d587 <_sk_load_4444_sse2_lowp+0x94>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,100,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
- .byte 243,15,16,4,115 // movss (%ebx,%esi,2),%xmm0
- .byte 243,15,16,224 // movss %xmm0,%xmm4
- .byte 235,30 // jmp d587 <_sk_load_4444_sse2_lowp+0x94>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,100,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
- .byte 102,15,196,100,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
- .byte 102,15,196,100,115,8,4 // pinsrw $0x4,0x8(%ebx,%esi,2),%xmm4
- .byte 102,15,18,36,115 // movlpd (%ebx,%esi,2),%xmm4
- .byte 102,15,111,204 // movdqa %xmm4,%xmm1
- .byte 102,15,113,209,12 // psrlw $0xc,%xmm1
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,135,198,57,0,0 // movdqa 0x39c6(%edi),%xmm0
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 102,15,113,211,4 // psrlw $0x4,%xmm3
- .byte 102,15,219,216 // pand %xmm0,%xmm3
- .byte 102,15,219,224 // pand %xmm0,%xmm4
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,113,240,4 // psllw $0x4,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,113,241,4 // psllw $0x4,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,113,242,4 // psllw $0x4,%xmm2
- .byte 102,15,235,211 // por %xmm3,%xmm2
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 102,15,113,243,4 // psllw $0x4,%xmm3
- .byte 102,15,235,220 // por %xmm4,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 102,144 // xchg %ax,%ax
- .byte 24,0 // sbb %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 52,0 // xor $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 41,0 // sub %eax,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 88 // pop %eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,81,0 // add %dl,0x0(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 74 // dec %edx
- .byte 0,0 // add %al,(%eax)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_load_4444_dst_sse2_lowp
-.globl _sk_load_4444_dst_sse2_lowp
-FUNCTION(_sk_load_4444_dst_sse2_lowp)
-_sk_load_4444_dst_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 1,219 // add %ebx,%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call d66f <_sk_load_4444_dst_sse2_lowp+0x2f>
- .byte 95 // pop %edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja d691 <_sk_load_4444_dst_sse2_lowp+0x51>
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,253,0,0,0 // mov 0xfd(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
- .byte 102,15,110,249 // movd %ecx,%xmm7
- .byte 235,59 // jmp d6cc <_sk_load_4444_dst_sse2_lowp+0x8c>
- .byte 243,15,111,60,115 // movdqu (%ebx,%esi,2),%xmm7
- .byte 235,52 // jmp d6cc <_sk_load_4444_dst_sse2_lowp+0x8c>
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,196,124,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm7
- .byte 243,15,16,44,115 // movss (%ebx,%esi,2),%xmm5
- .byte 243,15,16,253 // movss %xmm5,%xmm7
- .byte 235,30 // jmp d6cc <_sk_load_4444_dst_sse2_lowp+0x8c>
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,196,124,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm7
- .byte 102,15,196,124,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm7
- .byte 102,15,196,124,115,8,4 // pinsrw $0x4,0x8(%ebx,%esi,2),%xmm7
- .byte 102,15,18,60,115 // movlpd (%ebx,%esi,2),%xmm7
- .byte 102,15,111,239 // movdqa %xmm7,%xmm5
- .byte 102,15,113,213,12 // psrlw $0xc,%xmm5
- .byte 102,15,111,247 // movdqa %xmm7,%xmm6
- .byte 102,15,113,214,8 // psrlw $0x8,%xmm6
- .byte 102,15,111,159,129,56,0,0 // movdqa 0x3881(%edi),%xmm3
- .byte 102,15,219,243 // pand %xmm3,%xmm6
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,113,212,4 // psrlw $0x4,%xmm4
- .byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,219,251 // pand %xmm3,%xmm7
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 102,15,113,243,4 // psllw $0x4,%xmm3
- .byte 102,15,235,221 // por %xmm5,%xmm3
- .byte 102,15,111,238 // movdqa %xmm6,%xmm5
- .byte 102,15,113,245,4 // psllw $0x4,%xmm5
- .byte 102,15,235,238 // por %xmm6,%xmm5
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,113,246,4 // psllw $0x4,%xmm6
- .byte 102,15,235,244 // por %xmm4,%xmm6
- .byte 102,15,111,231 // movdqa %xmm7,%xmm4
- .byte 102,15,113,244,4 // psllw $0x4,%xmm4
- .byte 102,15,235,231 // por %xmm7,%xmm4
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
- .byte 102,15,127,92,36,16 // movdqa %xmm3,0x10(%esp)
- .byte 102,15,127,116,36,48 // movdqa %xmm6,0x30(%esp)
- .byte 102,15,127,108,36,32 // movdqa %xmm5,0x20(%esp)
- .byte 15,40,93,216 // movaps -0x28(%ebp),%xmm3
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 144 // nop
- .byte 24,0 // sbb %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 52,0 // xor $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 41,0 // sub %eax,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 88 // pop %eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,81,0 // add %dl,0x0(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 74 // dec %edx
- .byte 0,0 // add %al,(%eax)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_store_4444_sse2_lowp
-.globl _sk_store_4444_sse2_lowp
-FUNCTION(_sk_store_4444_sse2_lowp)
-_sk_store_4444_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 232,0,0,0,0 // call d79a <_sk_store_4444_sse2_lowp+0x12>
- .byte 94 // pop %esi
- .byte 102,15,111,216 // movdqa %xmm0,%xmm3
- .byte 102,15,113,243,8 // psllw $0x8,%xmm3
- .byte 102,15,219,158,102,55,0,0 // pand 0x3766(%esi),%xmm3
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,113,246,4 // psllw $0x4,%xmm6
- .byte 102,15,219,182,118,55,0,0 // pand 0x3776(%esi),%xmm6
- .byte 102,15,235,243 // por %xmm3,%xmm6
- .byte 102,15,111,174,134,55,0,0 // movdqa 0x3786(%esi),%xmm5
- .byte 102,15,219,234 // pand %xmm2,%xmm5
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 102,15,113,211,4 // psrlw $0x4,%xmm3
- .byte 102,15,235,221 // por %xmm5,%xmm3
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 102,15,235,222 // por %xmm6,%xmm3
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 1,219 // add %ebx,%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 15,40,125,24 // movaps 0x18(%ebp),%xmm7
- .byte 119,22 // ja d822 <_sk_store_4444_sse2_lowp+0x9a>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 3,180,142,2,1,0,0 // add 0x102(%esi,%ecx,4),%esi
- .byte 255,230 // jmp *%esi
- .byte 102,15,126,217 // movd %xmm3,%ecx
- .byte 102,137,12,123 // mov %cx,(%ebx,%edi,2)
- .byte 235,59 // jmp d85d <_sk_store_4444_sse2_lowp+0xd5>
- .byte 243,15,127,28,123 // movdqu %xmm3,(%ebx,%edi,2)
- .byte 235,52 // jmp d85d <_sk_store_4444_sse2_lowp+0xd5>
- .byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
- .byte 102,137,76,123,4 // mov %cx,0x4(%ebx,%edi,2)
- .byte 102,15,126,28,123 // movd %xmm3,(%ebx,%edi,2)
- .byte 235,35 // jmp d85d <_sk_store_4444_sse2_lowp+0xd5>
- .byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
- .byte 102,137,76,123,12 // mov %cx,0xc(%ebx,%edi,2)
- .byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
- .byte 102,137,76,123,10 // mov %cx,0xa(%ebx,%edi,2)
- .byte 102,15,197,203,4 // pextrw $0x4,%xmm3,%ecx
- .byte 102,137,76,123,8 // mov %cx,0x8(%ebx,%edi,2)
- .byte 102,15,214,28,123 // movq %xmm3,(%ebx,%edi,2)
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 15,41,124,36,16 // movaps %xmm7,0x10(%esp)
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 15,31,0 // nopl (%eax)
- .byte 126,0 // jle d89e <_sk_store_4444_sse2_lowp+0x116>
- .byte 0,0 // add %al,(%eax)
- .byte 153 // cltd
- .byte 0,0 // add %al,(%eax)
- .byte 0,143,0,0,0,190 // add %cl,-0x42000000(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,180,0,0,0,170,0 // add %dh,0xaa0000(%eax,%eax,1)
- .byte 0,0 // add %al,(%eax)
- .byte 160 // .byte 0xa0
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_gather_4444_sse2_lowp
-.globl _sk_gather_4444_sse2_lowp
-FUNCTION(_sk_gather_4444_sse2_lowp)
-_sk_gather_4444_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call d8c5 <_sk_gather_4444_sse2_lowp+0xd>
- .byte 90 // pop %edx
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,103,8 // movss 0x8(%edi),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 102,15,118,237 // pcmpeqd %xmm5,%xmm5
- .byte 102,15,254,229 // paddd %xmm5,%xmm4
- .byte 15,87,246 // xorps %xmm6,%xmm6
- .byte 15,95,198 // maxps %xmm6,%xmm0
- .byte 15,95,206 // maxps %xmm6,%xmm1
- .byte 15,93,204 // minps %xmm4,%xmm1
- .byte 15,93,196 // minps %xmm4,%xmm0
- .byte 243,15,16,103,12 // movss 0xc(%edi),%xmm4
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 102,15,254,229 // paddd %xmm5,%xmm4
- .byte 15,95,222 // maxps %xmm6,%xmm3
- .byte 15,95,214 // maxps %xmm6,%xmm2
- .byte 15,93,212 // minps %xmm4,%xmm2
- .byte 15,93,220 // minps %xmm4,%xmm3
- .byte 139,55 // mov (%edi),%esi
- .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 102,15,110,103,4 // movd 0x4(%edi),%xmm4
- .byte 102,15,112,228,0 // pshufd $0x0,%xmm4,%xmm4
- .byte 102,15,112,234,245 // pshufd $0xf5,%xmm2,%xmm5
- .byte 102,15,244,236 // pmuludq %xmm4,%xmm5
- .byte 102,15,111,244 // movdqa %xmm4,%xmm6
- .byte 102,15,112,251,245 // pshufd $0xf5,%xmm3,%xmm7
- .byte 102,15,244,252 // pmuludq %xmm4,%xmm7
- .byte 102,15,244,226 // pmuludq %xmm2,%xmm4
- .byte 102,15,112,212,232 // pshufd $0xe8,%xmm4,%xmm2
- .byte 102,15,112,229,232 // pshufd $0xe8,%xmm5,%xmm4
- .byte 102,15,98,212 // punpckldq %xmm4,%xmm2
- .byte 102,15,244,243 // pmuludq %xmm3,%xmm6
- .byte 102,15,112,222,232 // pshufd $0xe8,%xmm6,%xmm3
- .byte 102,15,112,231,232 // pshufd $0xe8,%xmm7,%xmm4
- .byte 102,15,98,220 // punpckldq %xmm4,%xmm3
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,194 // paddd %xmm2,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,254,203 // paddd %xmm3,%xmm1
- .byte 102,15,112,248,78 // pshufd $0x4e,%xmm0,%xmm7
- .byte 102,15,112,216,231 // pshufd $0xe7,%xmm0,%xmm3
- .byte 102,15,112,225,78 // pshufd $0x4e,%xmm1,%xmm4
- .byte 102,15,112,233,231 // pshufd $0xe7,%xmm1,%xmm5
- .byte 102,15,126,239 // movd %xmm5,%edi
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 102,15,110,239 // movd %edi,%xmm5
- .byte 102,15,126,231 // movd %xmm4,%edi
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 102,15,110,247 // movd %edi,%xmm6
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 102,15,112,201,229 // pshufd $0xe5,%xmm1,%xmm1
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 102,15,110,215 // movd %edi,%xmm2
- .byte 102,15,126,207 // movd %xmm1,%edi
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 102,15,110,231 // movd %edi,%xmm4
- .byte 102,15,126,223 // movd %xmm3,%edi
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 102,15,110,223 // movd %edi,%xmm3
- .byte 102,15,126,255 // movd %xmm7,%edi
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 102,15,110,207 // movd %edi,%xmm1
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 102,15,110,255 // movd %edi,%xmm7
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 15,183,60,126 // movzwl (%esi,%edi,2),%edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 102,15,110,199 // movd %edi,%xmm0
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 102,15,97,245 // punpcklwd %xmm5,%xmm6
- .byte 102,15,97,212 // punpcklwd %xmm4,%xmm2
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 102,15,98,214 // punpckldq %xmm6,%xmm2
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 102,15,97,203 // punpcklwd %xmm3,%xmm1
- .byte 102,15,97,248 // punpcklwd %xmm0,%xmm7
- .byte 102,15,98,249 // punpckldq %xmm1,%xmm7
- .byte 102,15,108,250 // punpcklqdq %xmm2,%xmm7
- .byte 102,15,111,207 // movdqa %xmm7,%xmm1
- .byte 102,15,113,209,12 // psrlw $0xc,%xmm1
- .byte 102,15,111,215 // movdqa %xmm7,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,111,130,43,54,0,0 // movdqa 0x362b(%edx),%xmm0
- .byte 102,15,219,208 // pand %xmm0,%xmm2
- .byte 102,15,111,223 // movdqa %xmm7,%xmm3
- .byte 102,15,113,211,4 // psrlw $0x4,%xmm3
- .byte 102,15,219,216 // pand %xmm0,%xmm3
- .byte 102,15,219,248 // pand %xmm0,%xmm7
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,113,240,4 // psllw $0x4,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,113,241,4 // psllw $0x4,%xmm1
- .byte 102,15,235,202 // por %xmm2,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,113,242,4 // psllw $0x4,%xmm2
- .byte 102,15,235,211 // por %xmm3,%xmm2
- .byte 102,15,111,223 // movdqa %xmm7,%xmm3
- .byte 102,15,113,243,4 // psllw $0x4,%xmm3
- .byte 102,15,235,223 // por %xmm7,%xmm3
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 141,81,8 // lea 0x8(%ecx),%edx
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,84,36,4 // mov %edx,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_load_a8_sse2_lowp
-.globl _sk_load_a8_sse2_lowp
-FUNCTION(_sk_load_a8_sse2_lowp)
-_sk_load_a8_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,40,85,56 // movaps 0x38(%ebp),%xmm2
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 102,15,111,69,24 // movdqa 0x18(%ebp),%xmm0
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call dae2 <_sk_load_a8_sse2_lowp+0x3a>
- .byte 95 // pop %edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja db04 <_sk_load_a8_sse2_lowp+0x5c>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,198,0,0,0 // mov 0xc6(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp db5e <_sk_load_a8_sse2_lowp+0xb6>
- .byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp db5e <_sk_load_a8_sse2_lowp+0xb6>
- .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
- .byte 15,183,12,51 // movzwl (%ebx,%esi,1),%ecx
- .byte 102,15,110,233 // movd %ecx,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 243,15,16,221 // movss %xmm5,%xmm3
- .byte 235,47 // jmp db5e <_sk_load_a8_sse2_lowp+0xb6>
- .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
- .byte 15,182,76,51,5 // movzbl 0x5(%ebx,%esi,1),%ecx
- .byte 102,15,196,217,5 // pinsrw $0x5,%ecx,%xmm3
- .byte 15,182,76,51,4 // movzbl 0x4(%ebx,%esi,1),%ecx
- .byte 102,15,196,217,4 // pinsrw $0x4,%ecx,%xmm3
- .byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 242,15,16,221 // movsd %xmm5,%xmm3
- .byte 102,15,219,159,126,51,0,0 // pand 0x337e(%edi),%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 102,15,127,68,36,16 // movdqa %xmm0,0x10(%esp)
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 15,31,0 // nopl (%eax)
- .byte 24,0 // sbb %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 59,0 // cmp (%eax),%eax
- .byte 0,0 // add %al,(%eax)
- .byte 45,0,0,0,111 // sub $0x6f000000,%eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,101,0 // add %ah,0x0(%ebp)
- .byte 0,0 // add %al,(%eax)
- .byte 91 // pop %ebx
- .byte 0,0 // add %al,(%eax)
- .byte 0,77,0 // add %cl,0x0(%ebp)
- .byte 0,0 // add %al,(%eax)
-
-HIDDEN _sk_load_a8_dst_sse2_lowp
-.globl _sk_load_a8_dst_sse2_lowp
-FUNCTION(_sk_load_a8_dst_sse2_lowp)
-_sk_load_a8_dst_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call dbed <_sk_load_a8_dst_sse2_lowp+0x29>
- .byte 95 // pop %edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja dc0f <_sk_load_a8_dst_sse2_lowp+0x4b>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp dc69 <_sk_load_a8_dst_sse2_lowp+0xa5>
- .byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp dc69 <_sk_load_a8_dst_sse2_lowp+0xa5>
- .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
- .byte 15,183,12,51 // movzwl (%ebx,%esi,1),%ecx
- .byte 102,15,110,233 // movd %ecx,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp dc69 <_sk_load_a8_dst_sse2_lowp+0xa5>
- .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
- .byte 15,182,76,51,5 // movzbl 0x5(%ebx,%esi,1),%ecx
- .byte 102,15,196,225,5 // pinsrw $0x5,%ecx,%xmm4
- .byte 15,182,76,51,4 // movzbl 0x4(%ebx,%esi,1),%ecx
- .byte 102,15,196,225,4 // pinsrw $0x4,%ecx,%xmm4
- .byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,115,50,0,0 // pand 0x3273(%edi),%xmm4
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 102,15,127,100,36,64 // movdqa %xmm4,0x40(%esp)
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp)
- .byte 102,15,127,100,36,32 // movdqa %xmm4,0x20(%esp)
- .byte 102,15,127,100,36,16 // movdqa %xmm4,0x10(%esp)
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 15,31,0 // nopl (%eax)
- .byte 24,0 // sbb %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 59,0 // cmp (%eax),%eax
- .byte 0,0 // add %al,(%eax)
- .byte 45,0,0,0,111 // sub $0x6f000000,%eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,101,0 // add %ah,0x0(%ebp)
- .byte 0,0 // add %al,(%eax)
- .byte 91 // pop %ebx
- .byte 0,0 // add %al,(%eax)
- .byte 0,77,0 // add %cl,0x0(%ebp)
- .byte 0,0 // add %al,(%eax)
-
-HIDDEN _sk_store_a8_sse2_lowp
-.globl _sk_store_a8_sse2_lowp
-FUNCTION(_sk_store_a8_sse2_lowp)
-_sk_store_a8_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,121,4 // mov 0x4(%ecx),%edi
- .byte 15,175,125,20 // imul 0x14(%ebp),%edi
- .byte 3,57 // add (%ecx),%edi
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call dd05 <_sk_store_a8_sse2_lowp+0x39>
- .byte 91 // pop %ebx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,26 // ja dd25 <_sk_store_a8_sse2_lowp+0x59>
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,139,223,0,0,0 // mov 0xdf(%ebx,%ecx,4),%ecx
- .byte 1,217 // add %ebx,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 102,15,126,217 // movd %xmm3,%ecx
- .byte 136,12,55 // mov %cl,(%edi,%esi,1)
- .byte 233,136,0,0,0 // jmp ddad <_sk_store_a8_sse2_lowp+0xe1>
- .byte 102,15,111,163,91,49,0,0 // movdqa 0x315b(%ebx),%xmm4
- .byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,103,228 // packuswb %xmm4,%xmm4
- .byte 102,15,214,36,55 // movq %xmm4,(%edi,%esi,1)
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 235,109 // jmp ddad <_sk_store_a8_sse2_lowp+0xe1>
- .byte 102,15,197,203,2 // pextrw $0x2,%xmm3,%ecx
- .byte 136,76,55,2 // mov %cl,0x2(%edi,%esi,1)
- .byte 102,15,111,163,91,49,0,0 // movdqa 0x315b(%ebx),%xmm4
- .byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,103,228 // packuswb %xmm4,%xmm4
- .byte 102,15,126,225 // movd %xmm4,%ecx
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 102,137,12,55 // mov %cx,(%edi,%esi,1)
- .byte 235,70 // jmp ddad <_sk_store_a8_sse2_lowp+0xe1>
- .byte 102,15,197,203,6 // pextrw $0x6,%xmm3,%ecx
- .byte 136,76,55,6 // mov %cl,0x6(%edi,%esi,1)
- .byte 102,15,197,203,5 // pextrw $0x5,%xmm3,%ecx
- .byte 136,76,55,5 // mov %cl,0x5(%edi,%esi,1)
- .byte 102,15,197,203,4 // pextrw $0x4,%xmm3,%ecx
- .byte 136,76,55,4 // mov %cl,0x4(%edi,%esi,1)
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 102,15,111,163,91,49,0,0 // movdqa 0x315b(%ebx),%xmm4
- .byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,103,228 // packuswb %xmm4,%xmm4
- .byte 102,15,126,36,55 // movd %xmm4,(%edi,%esi,1)
- .byte 15,40,229 // movaps %xmm5,%xmm4
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,40,247 // movaps %xmm7,%xmm6
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 15,31,0 // nopl (%eax)
- .byte 20,0 // adc $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 68 // inc %esp
- .byte 0,0 // add %al,(%eax)
- .byte 0,59 // add %bh,(%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 0,125,0 // add %bh,0x0(%ebp)
- .byte 0,0 // add %al,(%eax)
- .byte 116,0 // je ddf6 <_sk_store_a8_sse2_lowp+0x12a>
- .byte 0,0 // add %al,(%eax)
- .byte 107,0,0 // imul $0x0,(%eax),%eax
- .byte 0,98,0 // add %ah,0x0(%edx)
- .byte 0,0 // add %al,(%eax)
-
-HIDDEN _sk_gather_a8_sse2_lowp
-.globl _sk_gather_a8_sse2_lowp
-FUNCTION(_sk_gather_a8_sse2_lowp)
-_sk_gather_a8_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,105,8 // movss 0x8(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
- .byte 102,15,254,238 // paddd %xmm6,%xmm5
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,196 // maxps %xmm4,%xmm0
- .byte 15,95,204 // maxps %xmm4,%xmm1
- .byte 15,93,205 // minps %xmm5,%xmm1
- .byte 15,93,197 // minps %xmm5,%xmm0
- .byte 243,15,16,105,12 // movss 0xc(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 102,15,254,238 // paddd %xmm6,%xmm5
- .byte 15,95,220 // maxps %xmm4,%xmm3
- .byte 15,95,212 // maxps %xmm4,%xmm2
- .byte 15,93,213 // minps %xmm5,%xmm2
- .byte 15,93,221 // minps %xmm5,%xmm3
- .byte 243,15,91,234 // cvttps2dq %xmm2,%xmm5
- .byte 102,15,110,81,4 // movd 0x4(%ecx),%xmm2
- .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,15,244,245 // pmuludq %xmm5,%xmm6
- .byte 102,15,112,237,245 // pshufd $0xf5,%xmm5,%xmm5
- .byte 102,15,244,234 // pmuludq %xmm2,%xmm5
- .byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,98,245 // punpckldq %xmm5,%xmm6
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,198 // paddd %xmm6,%xmm0
- .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
- .byte 102,15,126,234 // movd %xmm5,%edx
- .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 139,9 // mov (%ecx),%ecx
- .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 102,15,126,199 // movd %xmm0,%edi
- .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0
- .byte 15,182,20,17 // movzbl (%ecx,%edx,1),%edx
- .byte 15,182,52,49 // movzbl (%ecx,%esi,1),%esi
- .byte 193,230,8 // shl $0x8,%esi
- .byte 9,214 // or %edx,%esi
- .byte 102,15,126,194 // movd %xmm0,%edx
- .byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
- .byte 102,15,244,194 // pmuludq %xmm2,%xmm0
- .byte 15,182,60,57 // movzbl (%ecx,%edi,1),%edi
- .byte 15,182,20,17 // movzbl (%ecx,%edx,1),%edx
- .byte 193,226,8 // shl $0x8,%edx
- .byte 9,250 // or %edi,%edx
- .byte 139,125,8 // mov 0x8(%ebp),%edi
- .byte 102,15,244,211 // pmuludq %xmm3,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,98,208 // punpckldq %xmm0,%xmm2
- .byte 243,15,91,193 // cvttps2dq %xmm1,%xmm0
- .byte 102,15,254,194 // paddd %xmm2,%xmm0
- .byte 102,15,110,218 // movd %edx,%xmm3
- .byte 102,15,126,194 // movd %xmm0,%edx
- .byte 102,15,112,200,229 // pshufd $0xe5,%xmm0,%xmm1
- .byte 102,15,196,222,1 // pinsrw $0x1,%esi,%xmm3
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 102,15,112,200,78 // pshufd $0x4e,%xmm0,%xmm1
- .byte 15,182,20,17 // movzbl (%ecx,%edx,1),%edx
- .byte 15,182,52,49 // movzbl (%ecx,%esi,1),%esi
- .byte 193,230,8 // shl $0x8,%esi
- .byte 9,214 // or %edx,%esi
- .byte 102,15,126,202 // movd %xmm1,%edx
- .byte 102,15,112,192,231 // pshufd $0xe7,%xmm0,%xmm0
- .byte 102,15,196,222,2 // pinsrw $0x2,%esi,%xmm3
- .byte 102,15,126,198 // movd %xmm0,%esi
- .byte 15,182,20,17 // movzbl (%ecx,%edx,1),%edx
- .byte 15,182,12,49 // movzbl (%ecx,%esi,1),%ecx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 193,225,8 // shl $0x8,%ecx
- .byte 9,209 // or %edx,%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,40,85,56 // movaps 0x38(%ebp),%xmm2
- .byte 102,15,196,217,3 // pinsrw $0x3,%ecx,%xmm3
- .byte 102,15,96,220 // punpcklbw %xmm4,%xmm3
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,84,36,48 // movaps %xmm2,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,60,36 // mov %edi,(%esp)
- .byte 15,87,192 // xorps %xmm0,%xmm0
- .byte 15,87,201 // xorps %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_load_g8_sse2_lowp
-.globl _sk_load_g8_sse2_lowp
-FUNCTION(_sk_load_g8_sse2_lowp)
-_sk_load_g8_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 15,40,93,56 // movaps 0x38(%ebp),%xmm3
- .byte 15,40,85,40 // movaps 0x28(%ebp),%xmm2
- .byte 15,40,77,24 // movaps 0x18(%ebp),%xmm1
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call dfb8 <_sk_load_g8_sse2_lowp+0x39>
- .byte 94 // pop %esi
- .byte 139,125,16 // mov 0x10(%ebp),%edi
- .byte 119,28 // ja dfda <_sk_load_g8_sse2_lowp+0x5b>
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,142,200,0,0,0 // mov 0xc8(%esi,%ecx,4),%ecx
- .byte 1,241 // add %esi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,182,12,59 // movzbl (%ebx,%edi,1),%ecx
- .byte 102,15,110,193 // movd %ecx,%xmm0
- .byte 235,90 // jmp e034 <_sk_load_g8_sse2_lowp+0xb5>
- .byte 243,15,126,4,59 // movq (%ebx,%edi,1),%xmm0
- .byte 102,15,96,192 // punpcklbw %xmm0,%xmm0
- .byte 235,79 // jmp e034 <_sk_load_g8_sse2_lowp+0xb5>
- .byte 15,182,76,59,2 // movzbl 0x2(%ebx,%edi,1),%ecx
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,193,2 // pinsrw $0x2,%ecx,%xmm0
- .byte 15,183,12,59 // movzwl (%ebx,%edi,1),%ecx
- .byte 102,15,110,233 // movd %ecx,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 243,15,16,197 // movss %xmm5,%xmm0
- .byte 235,47 // jmp e034 <_sk_load_g8_sse2_lowp+0xb5>
- .byte 15,182,76,59,6 // movzbl 0x6(%ebx,%edi,1),%ecx
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,196,193,6 // pinsrw $0x6,%ecx,%xmm0
- .byte 15,182,76,59,5 // movzbl 0x5(%ebx,%edi,1),%ecx
- .byte 102,15,196,193,5 // pinsrw $0x5,%ecx,%xmm0
- .byte 15,182,76,59,4 // movzbl 0x4(%ebx,%edi,1),%ecx
- .byte 102,15,196,193,4 // pinsrw $0x4,%ecx,%xmm0
- .byte 102,15,110,44,59 // movd (%ebx,%edi,1),%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 242,15,16,197 // movsd %xmm5,%xmm0
- .byte 102,15,219,134,168,46,0,0 // pand 0x2ea8(%esi),%xmm0
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
- .byte 15,41,84,36,32 // movaps %xmm2,0x20(%esp)
- .byte 15,41,76,36,16 // movaps %xmm1,0x10(%esp)
- .byte 139,93,20 // mov 0x14(%ebp),%ebx
- .byte 137,92,36,12 // mov %ebx,0xc(%esp)
- .byte 137,124,36,8 // mov %edi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,158,168,46,0,0 // movaps 0x2ea8(%esi),%xmm3
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 144 // nop
- .byte 24,0 // sbb %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 59,0 // cmp (%eax),%eax
- .byte 0,0 // add %al,(%eax)
- .byte 45,0,0,0,111 // sub $0x6f000000,%eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,101,0 // add %ah,0x0(%ebp)
- .byte 0,0 // add %al,(%eax)
- .byte 91 // pop %ebx
- .byte 0,0 // add %al,(%eax)
- .byte 0,77,0 // add %cl,0x0(%ebp)
- .byte 0,0 // add %al,(%eax)
-
-HIDDEN _sk_load_g8_dst_sse2_lowp
-.globl _sk_load_g8_dst_sse2_lowp
-FUNCTION(_sk_load_g8_dst_sse2_lowp)
-_sk_load_g8_dst_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call e0c5 <_sk_load_g8_dst_sse2_lowp+0x29>
- .byte 95 // pop %edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja e0e7 <_sk_load_g8_dst_sse2_lowp+0x4b>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,195,0,0,0 // mov 0xc3(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp e141 <_sk_load_g8_dst_sse2_lowp+0xa5>
- .byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp e141 <_sk_load_g8_dst_sse2_lowp+0xa5>
- .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
- .byte 15,183,12,51 // movzwl (%ebx,%esi,1),%ecx
- .byte 102,15,110,233 // movd %ecx,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp e141 <_sk_load_g8_dst_sse2_lowp+0xa5>
- .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
- .byte 15,182,76,51,5 // movzbl 0x5(%ebx,%esi,1),%ecx
- .byte 102,15,196,225,5 // pinsrw $0x5,%ecx,%xmm4
- .byte 15,182,76,51,4 // movzbl 0x4(%ebx,%esi,1),%ecx
- .byte 102,15,196,225,4 // pinsrw $0x4,%ecx,%xmm4
- .byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,155,45,0,0 // pand 0x2d9b(%edi),%xmm4
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,175,155,45,0,0 // movaps 0x2d9b(%edi),%xmm5
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 102,15,127,100,36,48 // movdqa %xmm4,0x30(%esp)
- .byte 102,15,127,100,36,32 // movdqa %xmm4,0x20(%esp)
- .byte 102,15,127,100,36,16 // movdqa %xmm4,0x10(%esp)
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 144 // nop
- .byte 24,0 // sbb %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 59,0 // cmp (%eax),%eax
- .byte 0,0 // add %al,(%eax)
- .byte 45,0,0,0,111 // sub $0x6f000000,%eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,101,0 // add %ah,0x0(%ebp)
- .byte 0,0 // add %al,(%eax)
- .byte 91 // pop %ebx
- .byte 0,0 // add %al,(%eax)
- .byte 0,77,0 // add %cl,0x0(%ebp)
- .byte 0,0 // add %al,(%eax)
-
-HIDDEN _sk_luminance_to_alpha_sse2_lowp
-.globl _sk_luminance_to_alpha_sse2_lowp
-FUNCTION(_sk_luminance_to_alpha_sse2_lowp)
-_sk_luminance_to_alpha_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 232,0,0,0,0 // call e1b5 <_sk_luminance_to_alpha_sse2_lowp+0x11>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,40,85,24 // movaps 0x18(%ebp),%xmm2
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 15,40,117,72 // movaps 0x48(%ebp),%xmm6
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 102,15,213,128,123,45,0,0 // pmullw 0x2d7b(%eax),%xmm0
- .byte 102,15,213,136,139,45,0,0 // pmullw 0x2d8b(%eax),%xmm1
- .byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,152,155,45,0,0 // pmullw 0x2d9b(%eax),%xmm3
- .byte 102,15,253,217 // paddw %xmm1,%xmm3
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 141,71,4 // lea 0x4(%edi),%eax
- .byte 15,41,116,36,64 // movaps %xmm6,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 15,41,84,36,16 // movaps %xmm2,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,68,36,4 // mov %eax,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,239,201 // pxor %xmm1,%xmm1
- .byte 15,87,210 // xorps %xmm2,%xmm2
- .byte 255,23 // call *(%edi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_gather_g8_sse2_lowp
-.globl _sk_gather_g8_sse2_lowp
-FUNCTION(_sk_gather_g8_sse2_lowp)
-_sk_gather_g8_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,105,8 // movss 0x8(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 102,15,118,246 // pcmpeqd %xmm6,%xmm6
- .byte 102,15,254,238 // paddd %xmm6,%xmm5
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,196 // maxps %xmm4,%xmm0
- .byte 15,95,204 // maxps %xmm4,%xmm1
- .byte 15,93,205 // minps %xmm5,%xmm1
- .byte 15,93,197 // minps %xmm5,%xmm0
- .byte 243,15,16,105,12 // movss 0xc(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 102,15,254,238 // paddd %xmm6,%xmm5
- .byte 15,95,220 // maxps %xmm4,%xmm3
- .byte 15,95,212 // maxps %xmm4,%xmm2
- .byte 15,93,213 // minps %xmm5,%xmm2
- .byte 15,93,221 // minps %xmm5,%xmm3
- .byte 243,15,91,234 // cvttps2dq %xmm2,%xmm5
- .byte 102,15,110,81,4 // movd 0x4(%ecx),%xmm2
- .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
- .byte 102,15,111,242 // movdqa %xmm2,%xmm6
- .byte 102,15,244,245 // pmuludq %xmm5,%xmm6
- .byte 102,15,112,237,245 // pshufd $0xf5,%xmm5,%xmm5
- .byte 102,15,244,234 // pmuludq %xmm2,%xmm5
- .byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,98,245 // punpckldq %xmm5,%xmm6
- .byte 243,15,91,192 // cvttps2dq %xmm0,%xmm0
- .byte 102,15,254,198 // paddd %xmm6,%xmm0
- .byte 102,15,112,232,78 // pshufd $0x4e,%xmm0,%xmm5
- .byte 102,15,126,234 // movd %xmm5,%edx
- .byte 102,15,112,232,231 // pshufd $0xe7,%xmm0,%xmm5
- .byte 102,15,126,238 // movd %xmm5,%esi
- .byte 139,57 // mov (%ecx),%edi
- .byte 243,15,91,219 // cvttps2dq %xmm3,%xmm3
- .byte 102,15,126,193 // movd %xmm0,%ecx
- .byte 102,15,112,192,229 // pshufd $0xe5,%xmm0,%xmm0
- .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx
- .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
- .byte 193,230,8 // shl $0x8,%esi
- .byte 9,214 // or %edx,%esi
- .byte 102,15,126,194 // movd %xmm0,%edx
- .byte 102,15,112,195,245 // pshufd $0xf5,%xmm3,%xmm0
- .byte 102,15,244,194 // pmuludq %xmm2,%xmm0
- .byte 15,182,12,15 // movzbl (%edi,%ecx,1),%ecx
- .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx
- .byte 193,226,8 // shl $0x8,%edx
- .byte 9,202 // or %ecx,%edx
- .byte 232,0,0,0,0 // call e2fa <_sk_gather_g8_sse2_lowp+0xc9>
- .byte 89 // pop %ecx
- .byte 102,15,244,211 // pmuludq %xmm3,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,98,208 // punpckldq %xmm0,%xmm2
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 102,15,254,202 // paddd %xmm2,%xmm1
- .byte 102,15,110,194 // movd %edx,%xmm0
- .byte 102,15,126,202 // movd %xmm1,%edx
- .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
- .byte 102,15,196,198,1 // pinsrw $0x1,%esi,%xmm0
- .byte 102,15,126,214 // movd %xmm2,%esi
- .byte 102,15,112,209,78 // pshufd $0x4e,%xmm1,%xmm2
- .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx
- .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
- .byte 193,230,8 // shl $0x8,%esi
- .byte 9,214 // or %edx,%esi
- .byte 102,15,126,210 // movd %xmm2,%edx
- .byte 102,15,112,201,231 // pshufd $0xe7,%xmm1,%xmm1
- .byte 102,15,196,198,2 // pinsrw $0x2,%esi,%xmm0
- .byte 102,15,126,206 // movd %xmm1,%esi
- .byte 15,182,20,23 // movzbl (%edi,%edx,1),%edx
- .byte 15,182,52,55 // movzbl (%edi,%esi,1),%esi
- .byte 139,125,8 // mov 0x8(%ebp),%edi
- .byte 193,230,8 // shl $0x8,%esi
- .byte 9,214 // or %edx,%esi
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 102,15,196,198,3 // pinsrw $0x3,%esi,%xmm0
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,40,77,24 // movaps 0x18(%ebp),%xmm1
- .byte 15,40,85,40 // movaps 0x28(%ebp),%xmm2
- .byte 15,40,93,56 // movaps 0x38(%ebp),%xmm3
- .byte 102,15,96,196 // punpcklbw %xmm4,%xmm0
- .byte 15,40,101,72 // movaps 0x48(%ebp),%xmm4
- .byte 141,88,8 // lea 0x8(%eax),%ebx
- .byte 15,41,100,36,64 // movaps %xmm4,0x40(%esp)
- .byte 15,41,92,36,48 // movaps %xmm3,0x30(%esp)
- .byte 15,41,84,36,32 // movaps %xmm2,0x20(%esp)
- .byte 15,41,76,36,16 // movaps %xmm1,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,92,36,4 // mov %ebx,0x4(%esp)
- .byte 137,60,36 // mov %edi,(%esp)
- .byte 15,40,153,102,43,0,0 // movaps 0x2b66(%ecx),%xmm3
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,111,208 // movdqa %xmm0,%xmm2
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_scale_1_float_sse2_lowp
-.globl _sk_scale_1_float_sse2_lowp
-FUNCTION(_sk_scale_1_float_sse2_lowp)
-_sk_scale_1_float_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call e3cb <_sk_scale_1_float_sse2_lowp+0xd>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,57 // mov (%ecx),%edi
- .byte 243,15,16,39 // movss (%edi),%xmm4
- .byte 243,15,89,166,161,43,0,0 // mulss 0x2ba1(%esi),%xmm4
- .byte 243,15,88,166,149,43,0,0 // addss 0x2b95(%esi),%xmm4
- .byte 243,15,44,252 // cvttss2si %xmm4,%edi
- .byte 102,15,110,239 // movd %edi,%xmm5
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 242,15,112,237,0 // pshuflw $0x0,%xmm5,%xmm5
- .byte 102,15,112,237,80 // pshufd $0x50,%xmm5,%xmm5
- .byte 102,15,213,197 // pmullw %xmm5,%xmm0
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,213,213 // pmullw %xmm5,%xmm2
- .byte 102,15,213,221 // pmullw %xmm5,%xmm3
- .byte 102,15,111,174,149,42,0,0 // movdqa 0x2a95(%esi),%xmm5
- .byte 102,15,253,197 // paddw %xmm5,%xmm0
- .byte 102,15,253,205 // paddw %xmm5,%xmm1
- .byte 102,15,253,213 // paddw %xmm5,%xmm2
- .byte 102,15,253,221 // paddw %xmm5,%xmm3
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 141,113,8 // lea 0x8(%ecx),%esi
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,116,36,4 // mov %esi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_lerp_1_float_sse2_lowp
-.globl _sk_lerp_1_float_sse2_lowp
-FUNCTION(_sk_lerp_1_float_sse2_lowp)
-_sk_lerp_1_float_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,111,218 // movdqa %xmm2,%xmm3
- .byte 102,15,111,209 // movdqa %xmm1,%xmm2
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 232,0,0,0,0 // call e499 <_sk_lerp_1_float_sse2_lowp+0x1d>
- .byte 89 // pop %ecx
- .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,16 // mov (%eax),%edx
- .byte 243,15,16,50 // movss (%edx),%xmm6
- .byte 243,15,89,177,211,42,0,0 // mulss 0x2ad3(%ecx),%xmm6
- .byte 243,15,88,177,199,42,0,0 // addss 0x2ac7(%ecx),%xmm6
- .byte 243,15,44,214 // cvttss2si %xmm6,%edx
- .byte 102,15,110,242 // movd %edx,%xmm6
- .byte 242,15,112,246,0 // pshuflw $0x0,%xmm6,%xmm6
- .byte 102,15,112,246,80 // pshufd $0x50,%xmm6,%xmm6
- .byte 102,15,111,129,199,41,0,0 // movdqa 0x29c7(%ecx),%xmm0
- .byte 102,15,213,206 // pmullw %xmm6,%xmm1
- .byte 102,15,253,200 // paddw %xmm0,%xmm1
- .byte 102,15,213,214 // pmullw %xmm6,%xmm2
- .byte 102,15,253,208 // paddw %xmm0,%xmm2
- .byte 102,15,213,222 // pmullw %xmm6,%xmm3
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 102,15,213,230 // pmullw %xmm6,%xmm4
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,249,198 // psubw %xmm6,%xmm0
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,213,245 // pmullw %xmm5,%xmm6
- .byte 102,15,253,206 // paddw %xmm6,%xmm1
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,213,117,40 // pmullw 0x28(%ebp),%xmm6
- .byte 102,15,253,214 // paddw %xmm6,%xmm2
- .byte 102,15,111,117,56 // movdqa 0x38(%ebp),%xmm6
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 102,15,213,254 // pmullw %xmm6,%xmm7
- .byte 102,15,253,223 // paddw %xmm7,%xmm3
- .byte 102,15,111,125,72 // movdqa 0x48(%ebp),%xmm7
- .byte 102,15,213,199 // pmullw %xmm7,%xmm0
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 141,120,8 // lea 0x8(%eax),%edi
- .byte 102,15,127,124,36,64 // movdqa %xmm7,0x40(%esp)
- .byte 102,15,127,116,36,48 // movdqa %xmm6,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 102,15,127,108,36,16 // movdqa %xmm5,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_scale_u8_sse2_lowp
-.globl _sk_scale_u8_sse2_lowp
-FUNCTION(_sk_scale_u8_sse2_lowp)
-_sk_scale_u8_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,92 // sub $0x5c,%esp
- .byte 15,40,125,56 // movaps 0x38(%ebp),%xmm7
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call e5c2 <_sk_scale_u8_sse2_lowp+0x31>
- .byte 95 // pop %edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja e5e4 <_sk_scale_u8_sse2_lowp+0x53>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,2,1,0,0 // mov 0x102(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 235,90 // jmp e63e <_sk_scale_u8_sse2_lowp+0xad>
- .byte 243,15,126,36,51 // movq (%ebx,%esi,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 235,79 // jmp e63e <_sk_scale_u8_sse2_lowp+0xad>
- .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,225,2 // pinsrw $0x2,%ecx,%xmm4
- .byte 15,183,12,51 // movzwl (%ebx,%esi,1),%ecx
- .byte 102,15,110,233 // movd %ecx,%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 243,15,16,229 // movss %xmm5,%xmm4
- .byte 235,47 // jmp e63e <_sk_scale_u8_sse2_lowp+0xad>
- .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 102,15,196,225,6 // pinsrw $0x6,%ecx,%xmm4
- .byte 15,182,76,51,5 // movzbl 0x5(%ebx,%esi,1),%ecx
- .byte 102,15,196,225,5 // pinsrw $0x5,%ecx,%xmm4
- .byte 15,182,76,51,4 // movzbl 0x4(%ebx,%esi,1),%ecx
- .byte 102,15,196,225,4 // pinsrw $0x4,%ecx,%xmm4
- .byte 102,15,110,44,51 // movd (%ebx,%esi,1),%xmm5
- .byte 102,15,96,232 // punpcklbw %xmm0,%xmm5
- .byte 242,15,16,229 // movsd %xmm5,%xmm4
- .byte 102,15,219,167,158,40,0,0 // pand 0x289e(%edi),%xmm4
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,111,175,158,40,0,0 // movdqa 0x289e(%edi),%xmm5
- .byte 102,15,253,197 // paddw %xmm5,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,213,204 // pmullw %xmm4,%xmm1
- .byte 102,15,253,205 // paddw %xmm5,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,213,212 // pmullw %xmm4,%xmm2
- .byte 102,15,253,213 // paddw %xmm5,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,213,227 // pmullw %xmm3,%xmm4
- .byte 102,15,253,229 // paddw %xmm5,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,93,72 // movaps 0x48(%ebp),%xmm3
- .byte 15,41,92,36,64 // movaps %xmm3,0x40(%esp)
- .byte 15,41,124,36,48 // movaps %xmm7,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
- .byte 15,41,92,36,16 // movaps %xmm3,0x10(%esp)
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 102,15,111,220 // movdqa %xmm4,%xmm3
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,92 // add $0x5c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 102,144 // xchg %ax,%ax
- .byte 24,0 // sbb %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 59,0 // cmp (%eax),%eax
- .byte 0,0 // add %al,(%eax)
- .byte 45,0,0,0,111 // sub $0x6f000000,%eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,101,0 // add %ah,0x0(%ebp)
- .byte 0,0 // add %al,(%eax)
- .byte 91 // pop %ebx
- .byte 0,0 // add %al,(%eax)
- .byte 0,77,0 // add %cl,0x0(%ebp)
- .byte 0,0 // add %al,(%eax)
-
-HIDDEN _sk_lerp_u8_sse2_lowp
-.globl _sk_lerp_u8_sse2_lowp
-FUNCTION(_sk_lerp_u8_sse2_lowp)
-_sk_lerp_u8_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,108 // sub $0x6c,%esp
- .byte 102,15,127,93,216 // movdqa %xmm3,-0x28(%ebp)
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call e70e <_sk_lerp_u8_sse2_lowp+0x2e>
- .byte 95 // pop %edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja e730 <_sk_lerp_u8_sse2_lowp+0x50>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,74,1,0,0 // mov 0x14a(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,182,12,51 // movzbl (%ebx,%esi,1),%ecx
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,90 // jmp e78a <_sk_lerp_u8_sse2_lowp+0xaa>
- .byte 243,15,126,28,51 // movq (%ebx,%esi,1),%xmm3
- .byte 102,15,96,216 // punpcklbw %xmm0,%xmm3
- .byte 235,79 // jmp e78a <_sk_lerp_u8_sse2_lowp+0xaa>
- .byte 15,182,76,51,2 // movzbl 0x2(%ebx,%esi,1),%ecx
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,217,2 // pinsrw $0x2,%ecx,%xmm3
- .byte 15,183,12,51 // movzwl (%ebx,%esi,1),%ecx
- .byte 102,15,110,225 // movd %ecx,%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 243,15,16,220 // movss %xmm4,%xmm3
- .byte 235,47 // jmp e78a <_sk_lerp_u8_sse2_lowp+0xaa>
- .byte 15,182,76,51,6 // movzbl 0x6(%ebx,%esi,1),%ecx
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,217,6 // pinsrw $0x6,%ecx,%xmm3
- .byte 15,182,76,51,5 // movzbl 0x5(%ebx,%esi,1),%ecx
- .byte 102,15,196,217,5 // pinsrw $0x5,%ecx,%xmm3
- .byte 15,182,76,51,4 // movzbl 0x4(%ebx,%esi,1),%ecx
- .byte 102,15,196,217,4 // pinsrw $0x4,%ecx,%xmm3
- .byte 102,15,110,36,51 // movd (%ebx,%esi,1),%xmm4
- .byte 102,15,96,224 // punpcklbw %xmm0,%xmm4
- .byte 242,15,16,220 // movsd %xmm4,%xmm3
- .byte 102,15,219,159,82,39,0,0 // pand 0x2752(%edi),%xmm3
- .byte 102,15,111,183,82,39,0,0 // movdqa 0x2752(%edi),%xmm6
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 102,15,239,230 // pxor %xmm6,%xmm4
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,111,109,24 // movdqa 0x18(%ebp),%xmm5
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,15,213,195 // pmullw %xmm3,%xmm0
- .byte 102,15,253,198 // paddw %xmm6,%xmm0
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,15,213,203 // pmullw %xmm3,%xmm1
- .byte 102,15,253,206 // paddw %xmm6,%xmm1
- .byte 102,15,253,207 // paddw %xmm7,%xmm1
- .byte 102,15,111,252 // movdqa %xmm4,%xmm7
- .byte 102,15,111,109,56 // movdqa 0x38(%ebp),%xmm5
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,15,213,211 // pmullw %xmm3,%xmm2
- .byte 102,15,253,214 // paddw %xmm6,%xmm2
- .byte 102,15,253,215 // paddw %xmm7,%xmm2
- .byte 102,15,213,93,216 // pmullw -0x28(%ebp),%xmm3
- .byte 102,15,253,222 // paddw %xmm6,%xmm3
- .byte 102,15,111,117,72 // movdqa 0x48(%ebp),%xmm6
- .byte 102,15,213,230 // pmullw %xmm6,%xmm4
- .byte 102,15,253,220 // paddw %xmm4,%xmm3
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 102,15,127,116,36,64 // movdqa %xmm6,0x40(%esp)
- .byte 102,15,127,108,36,48 // movdqa %xmm5,0x30(%esp)
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,108 // add $0x6c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 15,31,0 // nopl (%eax)
- .byte 24,0 // sbb %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 59,0 // cmp (%eax),%eax
- .byte 0,0 // add %al,(%eax)
- .byte 45,0,0,0,111 // sub $0x6f000000,%eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,101,0 // add %ah,0x0(%ebp)
- .byte 0,0 // add %al,(%eax)
- .byte 91 // pop %ebx
- .byte 0,0 // add %al,(%eax)
- .byte 0,77,0 // add %cl,0x0(%ebp)
- .byte 0,0 // add %al,(%eax)
-
-HIDDEN _sk_scale_565_sse2_lowp
-.globl _sk_scale_565_sse2_lowp
-FUNCTION(_sk_scale_565_sse2_lowp)
-_sk_scale_565_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,188,0,0,0 // sub $0xbc,%esp
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
- .byte 15,41,77,152 // movaps %xmm1,-0x68(%ebp)
- .byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
- .byte 102,15,111,125,72 // movdqa 0x48(%ebp),%xmm7
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 1,219 // add %ebx,%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call e8b7 <_sk_scale_565_sse2_lowp+0x43>
- .byte 95 // pop %edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja e8d9 <_sk_scale_565_sse2_lowp+0x65>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,249,1,0,0 // mov 0x1f9(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp e914 <_sk_scale_565_sse2_lowp+0xa0>
- .byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp e914 <_sk_scale_565_sse2_lowp+0xa0>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
- .byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
- .byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp e914 <_sk_scale_565_sse2_lowp+0xa0>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
- .byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
- .byte 102,15,196,92,115,8,4 // pinsrw $0x4,0x8(%ebx,%esi,2),%xmm3
- .byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,233,37,0,0 // pand 0x25e9(%edi),%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,249,37,0,0 // pand 0x25f9(%edi),%xmm2
- .byte 102,15,111,135,9,38,0,0 // movdqa 0x2609(%edi),%xmm0
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 102,15,113,211,13 // psrlw $0xd,%xmm3
- .byte 102,15,235,217 // por %xmm1,%xmm3
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,113,241,2 // psllw $0x2,%xmm1
- .byte 102,15,113,210,4 // psrlw $0x4,%xmm2
- .byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,113,241,3 // psllw $0x3,%xmm1
- .byte 102,15,113,208,2 // psrlw $0x2,%xmm0
- .byte 102,15,235,193 // por %xmm1,%xmm0
- .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,111,167,185,37,0,0 // movdqa 0x25b9(%edi),%xmm4
- .byte 15,41,117,184 // movaps %xmm6,-0x48(%ebp)
- .byte 102,15,239,244 // pxor %xmm4,%xmm6
- .byte 102,15,239,252 // pxor %xmm4,%xmm7
- .byte 102,15,101,254 // pcmpgtw %xmm6,%xmm7
- .byte 102,15,111,240 // movdqa %xmm0,%xmm6
- .byte 102,15,239,244 // pxor %xmm4,%xmm6
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,239,204 // pxor %xmm4,%xmm1
- .byte 102,15,101,241 // pcmpgtw %xmm1,%xmm6
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,15,223,200 // pandn %xmm0,%xmm1
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,219,238 // pand %xmm6,%xmm5
- .byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,239,204 // pxor %xmm4,%xmm1
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,235,196 // por %xmm4,%xmm0
- .byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
- .byte 102,15,101,200 // pcmpgtw %xmm0,%xmm1
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,219,193 // pand %xmm1,%xmm0
- .byte 102,15,223,205 // pandn %xmm5,%xmm1
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,15,111,109,200 // movdqa -0x38(%ebp),%xmm5
- .byte 102,15,111,197 // movdqa %xmm5,%xmm0
- .byte 102,15,219,198 // pand %xmm6,%xmm0
- .byte 102,15,223,242 // pandn %xmm2,%xmm6
- .byte 102,15,235,240 // por %xmm0,%xmm6
- .byte 102,15,239,230 // pxor %xmm6,%xmm4
- .byte 102,15,101,101,216 // pcmpgtw -0x28(%ebp),%xmm4
- .byte 102,15,219,244 // pand %xmm4,%xmm6
- .byte 102,15,223,227 // pandn %xmm3,%xmm4
- .byte 102,15,235,230 // por %xmm6,%xmm4
- .byte 102,15,219,207 // pand %xmm7,%xmm1
- .byte 102,15,223,252 // pandn %xmm4,%xmm7
- .byte 102,15,235,249 // por %xmm1,%xmm7
- .byte 102,15,213,93,168 // pmullw -0x58(%ebp),%xmm3
- .byte 102,15,213,85,152 // pmullw -0x68(%ebp),%xmm2
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,213,101,136 // pmullw -0x78(%ebp),%xmm4
- .byte 102,15,213,125,184 // pmullw -0x48(%ebp),%xmm7
- .byte 102,15,111,135,169,37,0,0 // movdqa 0x25a9(%edi),%xmm0
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 102,15,253,208 // paddw %xmm0,%xmm2
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,253,248 // paddw %xmm0,%xmm7
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,40,69,72 // movaps 0x48(%ebp),%xmm0
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,111,223 // movdqa %xmm7,%xmm3
- .byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,188,0,0,0 // add $0xbc,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 102,144 // xchg %ax,%ax
- .byte 24,0 // sbb %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 52,0 // xor $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 41,0 // sub %eax,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 88 // pop %eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,81,0 // add %dl,0x0(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 74 // dec %edx
- .byte 0,0 // add %al,(%eax)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_lerp_565_sse2_lowp
-.globl _sk_lerp_565_sse2_lowp
-FUNCTION(_sk_lerp_565_sse2_lowp)
-_sk_lerp_565_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,188,0,0,0 // sub $0xbc,%esp
- .byte 102,15,111,243 // movdqa %xmm3,%xmm6
- .byte 15,41,85,136 // movaps %xmm2,-0x78(%ebp)
- .byte 15,41,77,152 // movaps %xmm1,-0x68(%ebp)
- .byte 15,41,69,168 // movaps %xmm0,-0x58(%ebp)
- .byte 102,15,111,125,72 // movdqa 0x48(%ebp),%xmm7
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,89,4 // mov 0x4(%ecx),%ebx
- .byte 15,175,93,20 // imul 0x14(%ebp),%ebx
- .byte 1,219 // add %ebx,%ebx
- .byte 3,25 // add (%ecx),%ebx
- .byte 137,209 // mov %edx,%ecx
- .byte 128,225,7 // and $0x7,%cl
- .byte 254,201 // dec %cl
- .byte 128,249,6 // cmp $0x6,%cl
- .byte 232,0,0,0,0 // call eb0f <_sk_lerp_565_sse2_lowp+0x43>
- .byte 95 // pop %edi
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 119,28 // ja eb31 <_sk_lerp_565_sse2_lowp+0x65>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 15,182,201 // movzbl %cl,%ecx
- .byte 139,140,143,73,2,0,0 // mov 0x249(%edi,%ecx,4),%ecx
- .byte 1,249 // add %edi,%ecx
- .byte 255,225 // jmp *%ecx
- .byte 15,183,12,115 // movzwl (%ebx,%esi,2),%ecx
- .byte 102,15,110,217 // movd %ecx,%xmm3
- .byte 235,59 // jmp eb6c <_sk_lerp_565_sse2_lowp+0xa0>
- .byte 243,15,111,28,115 // movdqu (%ebx,%esi,2),%xmm3
- .byte 235,52 // jmp eb6c <_sk_lerp_565_sse2_lowp+0xa0>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,92,115,4,2 // pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
- .byte 243,15,16,12,115 // movss (%ebx,%esi,2),%xmm1
- .byte 243,15,16,217 // movss %xmm1,%xmm3
- .byte 235,30 // jmp eb6c <_sk_lerp_565_sse2_lowp+0xa0>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,196,92,115,12,6 // pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
- .byte 102,15,196,92,115,10,5 // pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
- .byte 102,15,196,92,115,8,4 // pinsrw $0x4,0x8(%ebx,%esi,2),%xmm3
- .byte 102,15,18,28,115 // movlpd (%ebx,%esi,2),%xmm3
- .byte 102,15,111,203 // movdqa %xmm3,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,219,143,145,35,0,0 // pand 0x2391(%edi),%xmm1
- .byte 102,15,111,211 // movdqa %xmm3,%xmm2
- .byte 102,15,113,210,5 // psrlw $0x5,%xmm2
- .byte 102,15,219,151,161,35,0,0 // pand 0x23a1(%edi),%xmm2
- .byte 102,15,111,175,177,35,0,0 // movdqa 0x23b1(%edi),%xmm5
- .byte 102,15,219,235 // pand %xmm3,%xmm5
- .byte 102,15,113,211,13 // psrlw $0xd,%xmm3
- .byte 102,15,235,217 // por %xmm1,%xmm3
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,113,241,2 // psllw $0x2,%xmm1
- .byte 102,15,113,210,4 // psrlw $0x4,%xmm2
- .byte 102,15,235,209 // por %xmm1,%xmm2
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,113,241,3 // psllw $0x3,%xmm1
- .byte 102,15,113,213,2 // psrlw $0x2,%xmm5
- .byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,127,109,216 // movdqa %xmm5,-0x28(%ebp)
- .byte 102,15,111,167,97,35,0,0 // movdqa 0x2361(%edi),%xmm4
- .byte 102,15,111,198 // movdqa %xmm6,%xmm0
- .byte 102,15,111,200 // movdqa %xmm0,%xmm1
- .byte 102,15,239,204 // pxor %xmm4,%xmm1
- .byte 102,15,239,252 // pxor %xmm4,%xmm7
- .byte 102,15,101,249 // pcmpgtw %xmm1,%xmm7
- .byte 102,15,111,245 // movdqa %xmm5,%xmm6
- .byte 102,15,239,244 // pxor %xmm4,%xmm6
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,239,204 // pxor %xmm4,%xmm1
- .byte 102,15,101,241 // pcmpgtw %xmm1,%xmm6
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 102,15,223,205 // pandn %xmm5,%xmm1
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 102,15,111,234 // movdqa %xmm2,%xmm5
- .byte 102,15,219,238 // pand %xmm6,%xmm5
- .byte 102,15,235,233 // por %xmm1,%xmm5
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 102,15,239,204 // pxor %xmm4,%xmm1
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,235,196 // por %xmm4,%xmm0
- .byte 102,15,127,69,200 // movdqa %xmm0,-0x38(%ebp)
- .byte 102,15,101,200 // pcmpgtw %xmm0,%xmm1
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,219,193 // pand %xmm1,%xmm0
- .byte 102,15,223,205 // pandn %xmm5,%xmm1
- .byte 102,15,235,200 // por %xmm0,%xmm1
- .byte 102,15,111,69,216 // movdqa -0x28(%ebp),%xmm0
- .byte 102,15,219,198 // pand %xmm6,%xmm0
- .byte 102,15,223,242 // pandn %xmm2,%xmm6
- .byte 102,15,235,240 // por %xmm0,%xmm6
- .byte 102,15,239,230 // pxor %xmm6,%xmm4
- .byte 102,15,101,101,200 // pcmpgtw -0x38(%ebp),%xmm4
- .byte 102,15,219,244 // pand %xmm4,%xmm6
- .byte 102,15,223,227 // pandn %xmm3,%xmm4
- .byte 102,15,235,230 // por %xmm6,%xmm4
- .byte 102,15,219,207 // pand %xmm7,%xmm1
- .byte 102,15,223,252 // pandn %xmm4,%xmm7
- .byte 102,15,235,249 // por %xmm1,%xmm7
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,213,93,168 // pmullw -0x58(%ebp),%xmm3
- .byte 102,15,111,143,81,35,0,0 // movdqa 0x2351(%edi),%xmm1
- .byte 102,15,239,193 // pxor %xmm1,%xmm0
- .byte 102,15,111,101,24 // movdqa 0x18(%ebp),%xmm4
- .byte 102,15,213,196 // pmullw %xmm4,%xmm0
- .byte 102,15,253,217 // paddw %xmm1,%xmm3
- .byte 102,15,253,216 // paddw %xmm0,%xmm3
- .byte 102,15,111,194 // movdqa %xmm2,%xmm0
- .byte 102,15,213,85,152 // pmullw -0x68(%ebp),%xmm2
- .byte 102,15,239,193 // pxor %xmm1,%xmm0
- .byte 102,15,111,109,40 // movdqa 0x28(%ebp),%xmm5
- .byte 102,15,213,197 // pmullw %xmm5,%xmm0
- .byte 102,15,253,209 // paddw %xmm1,%xmm2
- .byte 102,15,253,208 // paddw %xmm0,%xmm2
- .byte 102,15,111,101,216 // movdqa -0x28(%ebp),%xmm4
- .byte 102,15,111,196 // movdqa %xmm4,%xmm0
- .byte 102,15,213,101,136 // pmullw -0x78(%ebp),%xmm4
- .byte 102,15,239,193 // pxor %xmm1,%xmm0
- .byte 102,15,111,117,56 // movdqa 0x38(%ebp),%xmm6
- .byte 102,15,213,198 // pmullw %xmm6,%xmm0
- .byte 102,15,253,225 // paddw %xmm1,%xmm4
- .byte 102,15,253,224 // paddw %xmm0,%xmm4
- .byte 102,15,111,199 // movdqa %xmm7,%xmm0
- .byte 102,15,213,125,184 // pmullw -0x48(%ebp),%xmm7
- .byte 102,15,239,193 // pxor %xmm1,%xmm0
- .byte 102,15,253,249 // paddw %xmm1,%xmm7
- .byte 102,15,111,77,72 // movdqa 0x48(%ebp),%xmm1
- .byte 102,15,213,193 // pmullw %xmm1,%xmm0
- .byte 102,15,253,248 // paddw %xmm0,%xmm7
- .byte 102,15,113,211,8 // psrlw $0x8,%xmm3
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 102,15,127,76,36,64 // movdqa %xmm1,0x40(%esp)
- .byte 102,15,127,116,36,48 // movdqa %xmm6,0x30(%esp)
- .byte 102,15,127,108,36,32 // movdqa %xmm5,0x20(%esp)
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 102,15,111,195 // movdqa %xmm3,%xmm0
- .byte 102,15,111,202 // movdqa %xmm2,%xmm1
- .byte 102,15,111,212 // movdqa %xmm4,%xmm2
- .byte 102,15,111,223 // movdqa %xmm7,%xmm3
- .byte 255,80,4 // call *0x4(%eax)
- .byte 129,196,188,0,0,0 // add $0xbc,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 144 // nop
- .byte 24,0 // sbb %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 52,0 // xor $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 41,0 // sub %eax,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 88 // pop %eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,81,0 // add %dl,0x0(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 74 // dec %edx
- .byte 0,0 // add %al,(%eax)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_clamp_x_1_sse2_lowp
-.globl _sk_clamp_x_1_sse2_lowp
-FUNCTION(_sk_clamp_x_1_sse2_lowp)
-_sk_clamp_x_1_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call ed81 <_sk_clamp_x_1_sse2_lowp+0xd>
- .byte 88 // pop %eax
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,87,255 // xorps %xmm7,%xmm7
- .byte 15,95,207 // maxps %xmm7,%xmm1
- .byte 15,95,199 // maxps %xmm7,%xmm0
- .byte 15,40,184,223,25,0,0 // movaps 0x19df(%eax),%xmm7
- .byte 15,93,199 // minps %xmm7,%xmm0
- .byte 15,93,207 // minps %xmm7,%xmm1
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,120,4 // lea 0x4(%eax),%edi
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 255,16 // call *(%eax)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_repeat_x_1_sse2_lowp
-.globl _sk_repeat_x_1_sse2_lowp
-FUNCTION(_sk_repeat_x_1_sse2_lowp)
-_sk_repeat_x_1_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 232,0,0,0,0 // call edf0 <_sk_repeat_x_1_sse2_lowp+0xd>
- .byte 94 // pop %esi
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 243,15,91,225 // cvttps2dq %xmm1,%xmm4
- .byte 243,15,91,232 // cvttps2dq %xmm0,%xmm5
- .byte 15,91,237 // cvtdq2ps %xmm5,%xmm5
- .byte 15,91,228 // cvtdq2ps %xmm4,%xmm4
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,194,244,1 // cmpltps %xmm4,%xmm6
- .byte 15,40,190,112,25,0,0 // movaps 0x1970(%esi),%xmm7
- .byte 15,84,247 // andps %xmm7,%xmm6
- .byte 15,92,230 // subps %xmm6,%xmm4
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,84,247 // andps %xmm7,%xmm6
- .byte 15,92,238 // subps %xmm6,%xmm5
- .byte 15,40,117,24 // movaps 0x18(%ebp),%xmm6
- .byte 15,92,197 // subps %xmm5,%xmm0
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,92,204 // subps %xmm4,%xmm1
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,204 // maxps %xmm4,%xmm1
- .byte 15,95,196 // maxps %xmm4,%xmm0
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,93,199 // minps %xmm7,%xmm0
- .byte 15,93,207 // minps %xmm7,%xmm1
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,41,116,36,16 // movaps %xmm6,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_mirror_x_1_sse2_lowp
-.globl _sk_mirror_x_1_sse2_lowp
-FUNCTION(_sk_mirror_x_1_sse2_lowp)
-_sk_mirror_x_1_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,96 // sub $0x60,%esp
- .byte 15,41,93,232 // movaps %xmm3,-0x18(%ebp)
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 232,0,0,0,0 // call ee9a <_sk_mirror_x_1_sse2_lowp+0x1a>
- .byte 88 // pop %eax
- .byte 15,40,160,54,25,0,0 // movaps 0x1936(%eax),%xmm4
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,40,176,182,24,0,0 // movaps 0x18b6(%eax),%xmm6
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,89,254 // mulps %xmm6,%xmm7
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 243,15,91,238 // cvttps2dq %xmm6,%xmm5
- .byte 15,91,197 // cvtdq2ps %xmm5,%xmm0
- .byte 15,194,240,1 // cmpltps %xmm0,%xmm6
- .byte 15,40,168,198,24,0,0 // movaps 0x18c6(%eax),%xmm5
- .byte 15,84,245 // andps %xmm5,%xmm6
- .byte 15,92,198 // subps %xmm6,%xmm0
- .byte 243,15,91,247 // cvttps2dq %xmm7,%xmm6
- .byte 15,91,246 // cvtdq2ps %xmm6,%xmm6
- .byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,84,253 // andps %xmm5,%xmm7
- .byte 15,92,247 // subps %xmm7,%xmm6
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,88,192 // addps %xmm0,%xmm0
- .byte 15,92,200 // subps %xmm0,%xmm1
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,88,246 // addps %xmm6,%xmm6
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 15,88,212 // addps %xmm4,%xmm2
- .byte 15,88,204 // addps %xmm4,%xmm1
- .byte 15,40,160,6,30,0,0 // movaps 0x1e06(%eax),%xmm4
- .byte 15,84,204 // andps %xmm4,%xmm1
- .byte 15,84,212 // andps %xmm4,%xmm2
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,95,212 // maxps %xmm4,%xmm2
- .byte 15,95,204 // maxps %xmm4,%xmm1
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 15,93,205 // minps %xmm5,%xmm1
- .byte 15,93,213 // minps %xmm5,%xmm2
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,120,4 // lea 0x4(%eax),%edi
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,193 // movaps %xmm1,%xmm0
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 15,40,211 // movaps %xmm3,%xmm2
- .byte 15,40,93,232 // movaps -0x18(%ebp),%xmm3
- .byte 255,16 // call *(%eax)
- .byte 131,196,96 // add $0x60,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_decal_x_sse2_lowp
-.globl _sk_decal_x_sse2_lowp
-FUNCTION(_sk_decal_x_sse2_lowp)
-_sk_decal_x_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,57 // mov (%ecx),%edi
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,194,233,2 // cmpleps %xmm1,%xmm5
- .byte 242,15,112,237,232 // pshuflw $0xe8,%xmm5,%xmm5
- .byte 243,15,112,237,232 // pshufhw $0xe8,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 15,194,224,2 // cmpleps %xmm0,%xmm4
- .byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
- .byte 243,15,112,228,232 // pshufhw $0xe8,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,108,229 // punpcklqdq %xmm5,%xmm4
- .byte 243,15,16,111,64 // movss 0x40(%edi),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,194,253,1 // cmpltps %xmm5,%xmm7
- .byte 15,40,109,24 // movaps 0x18(%ebp),%xmm5
- .byte 242,15,112,246,232 // pshuflw $0xe8,%xmm6,%xmm6
- .byte 243,15,112,246,232 // pshufhw $0xe8,%xmm6,%xmm6
- .byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6
- .byte 242,15,112,255,232 // pshuflw $0xe8,%xmm7,%xmm7
- .byte 243,15,112,255,232 // pshufhw $0xe8,%xmm7,%xmm7
- .byte 102,15,112,255,232 // pshufd $0xe8,%xmm7,%xmm7
- .byte 102,15,108,254 // punpcklqdq %xmm6,%xmm7
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 102,15,113,244,15 // psllw $0xf,%xmm4
- .byte 102,15,113,228,15 // psraw $0xf,%xmm4
- .byte 102,15,113,247,15 // psllw $0xf,%xmm7
- .byte 102,15,113,231,15 // psraw $0xf,%xmm7
- .byte 102,15,219,252 // pand %xmm4,%xmm7
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 243,15,127,63 // movdqu %xmm7,(%edi)
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 141,121,8 // lea 0x8(%ecx),%edi
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 15,41,108,36,16 // movaps %xmm5,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_decal_y_sse2_lowp
-.globl _sk_decal_y_sse2_lowp
-FUNCTION(_sk_decal_y_sse2_lowp)
-_sk_decal_y_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,57 // mov (%ecx),%edi
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 15,194,235,2 // cmpleps %xmm3,%xmm5
- .byte 242,15,112,237,232 // pshuflw $0xe8,%xmm5,%xmm5
- .byte 243,15,112,237,232 // pshufhw $0xe8,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 15,194,226,2 // cmpleps %xmm2,%xmm4
- .byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
- .byte 243,15,112,228,232 // pshufhw $0xe8,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,108,229 // punpcklqdq %xmm5,%xmm4
- .byte 243,15,16,111,68 // movss 0x44(%edi),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,40,243 // movaps %xmm3,%xmm6
- .byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,194,253,1 // cmpltps %xmm5,%xmm7
- .byte 15,40,109,24 // movaps 0x18(%ebp),%xmm5
- .byte 242,15,112,246,232 // pshuflw $0xe8,%xmm6,%xmm6
- .byte 243,15,112,246,232 // pshufhw $0xe8,%xmm6,%xmm6
- .byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6
- .byte 242,15,112,255,232 // pshuflw $0xe8,%xmm7,%xmm7
- .byte 243,15,112,255,232 // pshufhw $0xe8,%xmm7,%xmm7
- .byte 102,15,112,255,232 // pshufd $0xe8,%xmm7,%xmm7
- .byte 102,15,108,254 // punpcklqdq %xmm6,%xmm7
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 102,15,113,244,15 // psllw $0xf,%xmm4
- .byte 102,15,113,228,15 // psraw $0xf,%xmm4
- .byte 102,15,113,247,15 // psllw $0xf,%xmm7
- .byte 102,15,113,231,15 // psraw $0xf,%xmm7
- .byte 102,15,219,252 // pand %xmm4,%xmm7
- .byte 15,40,101,56 // movaps 0x38(%ebp),%xmm4
- .byte 243,15,127,63 // movdqu %xmm7,(%edi)
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 141,121,8 // lea 0x8(%ecx),%edi
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,100,36,48 // movaps %xmm4,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 15,41,108,36,16 // movaps %xmm5,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_decal_x_and_y_sse2_lowp
-.globl _sk_decal_x_and_y_sse2_lowp
-FUNCTION(_sk_decal_x_and_y_sse2_lowp)
-_sk_decal_x_and_y_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 139,77,12 // mov 0xc(%ebp),%ecx
- .byte 139,57 // mov (%ecx),%edi
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,194,225,2 // cmpleps %xmm1,%xmm4
- .byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
- .byte 243,15,112,228,232 // pshufhw $0xe8,%xmm4,%xmm4
- .byte 102,15,112,236,232 // pshufd $0xe8,%xmm4,%xmm5
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 15,194,224,2 // cmpleps %xmm0,%xmm4
- .byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
- .byte 243,15,112,228,232 // pshufhw $0xe8,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,108,229 // punpcklqdq %xmm5,%xmm4
- .byte 243,15,16,111,64 // movss 0x40(%edi),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 15,194,245,1 // cmpltps %xmm5,%xmm6
- .byte 15,40,248 // movaps %xmm0,%xmm7
- .byte 15,194,253,1 // cmpltps %xmm5,%xmm7
- .byte 15,87,237 // xorps %xmm5,%xmm5
- .byte 102,15,113,244,15 // psllw $0xf,%xmm4
- .byte 102,15,113,228,15 // psraw $0xf,%xmm4
- .byte 242,15,112,246,232 // pshuflw $0xe8,%xmm6,%xmm6
- .byte 243,15,112,246,232 // pshufhw $0xe8,%xmm6,%xmm6
- .byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6
- .byte 242,15,112,255,232 // pshuflw $0xe8,%xmm7,%xmm7
- .byte 243,15,112,255,232 // pshufhw $0xe8,%xmm7,%xmm7
- .byte 102,15,112,255,232 // pshufd $0xe8,%xmm7,%xmm7
- .byte 102,15,108,254 // punpcklqdq %xmm6,%xmm7
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 15,194,243,2 // cmpleps %xmm3,%xmm6
- .byte 242,15,112,246,232 // pshuflw $0xe8,%xmm6,%xmm6
- .byte 243,15,112,246,232 // pshufhw $0xe8,%xmm6,%xmm6
- .byte 102,15,112,246,232 // pshufd $0xe8,%xmm6,%xmm6
- .byte 15,194,234,2 // cmpleps %xmm2,%xmm5
- .byte 242,15,112,237,232 // pshuflw $0xe8,%xmm5,%xmm5
- .byte 243,15,112,237,232 // pshufhw $0xe8,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 102,15,108,238 // punpcklqdq %xmm6,%xmm5
- .byte 243,15,16,119,68 // movss 0x44(%edi),%xmm6
- .byte 102,15,113,247,15 // psllw $0xf,%xmm7
- .byte 102,15,113,231,15 // psraw $0xf,%xmm7
- .byte 102,15,113,245,15 // psllw $0xf,%xmm5
- .byte 102,15,113,229,15 // psraw $0xf,%xmm5
- .byte 102,15,219,236 // pand %xmm4,%xmm5
- .byte 102,15,219,239 // pand %xmm7,%xmm5
- .byte 15,198,246,0 // shufps $0x0,%xmm6,%xmm6
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,194,230,1 // cmpltps %xmm6,%xmm4
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,194,254,1 // cmpltps %xmm6,%xmm7
- .byte 15,40,117,24 // movaps 0x18(%ebp),%xmm6
- .byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
- .byte 243,15,112,228,232 // pshufhw $0xe8,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 242,15,112,255,232 // pshuflw $0xe8,%xmm7,%xmm7
- .byte 243,15,112,255,232 // pshufhw $0xe8,%xmm7,%xmm7
- .byte 102,15,112,255,232 // pshufd $0xe8,%xmm7,%xmm7
- .byte 102,15,108,252 // punpcklqdq %xmm4,%xmm7
- .byte 15,40,101,40 // movaps 0x28(%ebp),%xmm4
- .byte 102,15,113,247,15 // psllw $0xf,%xmm7
- .byte 102,15,113,231,15 // psraw $0xf,%xmm7
- .byte 102,15,219,253 // pand %xmm5,%xmm7
- .byte 15,40,109,56 // movaps 0x38(%ebp),%xmm5
- .byte 243,15,127,63 // movdqu %xmm7,(%edi)
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 141,121,8 // lea 0x8(%ecx),%edi
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,108,36,48 // movaps %xmm5,0x30(%esp)
- .byte 15,41,100,36,32 // movaps %xmm4,0x20(%esp)
- .byte 15,41,116,36,16 // movaps %xmm6,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_check_decal_mask_sse2_lowp
-.globl _sk_check_decal_mask_sse2_lowp
-FUNCTION(_sk_check_decal_mask_sse2_lowp)
-_sk_check_decal_mask_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,40,109,40 // movaps 0x28(%ebp),%xmm5
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 139,62 // mov (%esi),%edi
- .byte 15,16,63 // movups (%edi),%xmm7
- .byte 15,84,199 // andps %xmm7,%xmm0
- .byte 15,84,207 // andps %xmm7,%xmm1
- .byte 15,84,215 // andps %xmm7,%xmm2
- .byte 15,84,223 // andps %xmm7,%xmm3
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 141,126,8 // lea 0x8(%esi),%edi
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,41,108,36,32 // movaps %xmm5,0x20(%esp)
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 255,86,4 // call *0x4(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_gradient_sse2_lowp
-.globl _sk_gradient_sse2_lowp
-FUNCTION(_sk_gradient_sse2_lowp)
-_sk_gradient_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,108,1,0,0 // sub $0x16c,%esp
- .byte 232,0,0,0,0 // call f2f5 <_sk_gradient_sse2_lowp+0x11>
- .byte 88 // pop %eax
- .byte 137,69,164 // mov %eax,-0x5c(%ebp)
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,0 // mov (%eax),%eax
- .byte 137,198 // mov %eax,%esi
- .byte 139,0 // mov (%eax),%eax
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 131,248,2 // cmp $0x2,%eax
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 114,48 // jb f33f <_sk_gradient_sse2_lowp+0x5b>
- .byte 139,78,36 // mov 0x24(%esi),%ecx
- .byte 72 // dec %eax
- .byte 131,193,4 // add $0x4,%ecx
- .byte 102,15,239,255 // pxor %xmm7,%xmm7
- .byte 102,15,239,237 // pxor %xmm5,%xmm5
- .byte 243,15,16,17 // movss (%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,194,216,2 // cmpleps %xmm0,%xmm3
- .byte 102,15,250,251 // psubd %xmm3,%xmm7
- .byte 15,194,209,2 // cmpleps %xmm1,%xmm2
- .byte 102,15,250,234 // psubd %xmm2,%xmm5
- .byte 131,193,4 // add $0x4,%ecx
- .byte 72 // dec %eax
- .byte 117,223 // jne f31e <_sk_gradient_sse2_lowp+0x3a>
- .byte 102,15,112,215,229 // pshufd $0xe5,%xmm7,%xmm2
- .byte 102,15,112,223,78 // pshufd $0x4e,%xmm7,%xmm3
- .byte 15,41,141,104,255,255,255 // movaps %xmm1,-0x98(%ebp)
- .byte 15,41,133,248,254,255,255 // movaps %xmm0,-0x108(%ebp)
- .byte 102,15,112,229,78 // pshufd $0x4e,%xmm5,%xmm4
- .byte 102,15,126,225 // movd %xmm4,%ecx
- .byte 137,77,136 // mov %ecx,-0x78(%ebp)
- .byte 102,15,112,229,231 // pshufd $0xe7,%xmm5,%xmm4
- .byte 102,15,126,226 // movd %xmm4,%edx
- .byte 139,70,4 // mov 0x4(%esi),%eax
- .byte 243,15,16,36,144 // movss (%eax,%edx,4),%xmm4
- .byte 137,85,232 // mov %edx,-0x18(%ebp)
- .byte 243,15,16,52,136 // movss (%eax,%ecx,4),%xmm6
- .byte 15,20,244 // unpcklps %xmm4,%xmm6
- .byte 102,15,112,229,229 // pshufd $0xe5,%xmm5,%xmm4
- .byte 102,15,126,233 // movd %xmm5,%ecx
- .byte 137,77,168 // mov %ecx,-0x58(%ebp)
- .byte 243,15,16,4,136 // movss (%eax,%ecx,4),%xmm0
- .byte 102,15,126,225 // movd %xmm4,%ecx
- .byte 137,77,184 // mov %ecx,-0x48(%ebp)
- .byte 243,15,16,12,136 // movss (%eax,%ecx,4),%xmm1
- .byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 102,15,112,207,231 // pshufd $0xe7,%xmm7,%xmm1
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 137,77,240 // mov %ecx,-0x10(%ebp)
- .byte 243,15,16,12,136 // movss (%eax,%ecx,4),%xmm1
- .byte 102,15,126,217 // movd %xmm3,%ecx
- .byte 243,15,16,28,136 // movss (%eax,%ecx,4),%xmm3
- .byte 137,207 // mov %ecx,%edi
- .byte 137,125,200 // mov %edi,-0x38(%ebp)
- .byte 102,15,126,249 // movd %xmm7,%ecx
- .byte 137,77,236 // mov %ecx,-0x14(%ebp)
- .byte 243,15,16,36,136 // movss (%eax,%ecx,4),%xmm4
- .byte 137,117,228 // mov %esi,-0x1c(%ebp)
- .byte 102,15,126,209 // movd %xmm2,%ecx
- .byte 243,15,16,20,136 // movss (%eax,%ecx,4),%xmm2
- .byte 137,203 // mov %ecx,%ebx
- .byte 137,93,224 // mov %ebx,-0x20(%ebp)
- .byte 102,15,20,198 // unpcklpd %xmm6,%xmm0
- .byte 102,15,41,133,120,255,255,255 // movapd %xmm0,-0x88(%ebp)
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 15,20,226 // unpcklps %xmm2,%xmm4
- .byte 102,15,20,227 // unpcklpd %xmm3,%xmm4
- .byte 139,70,8 // mov 0x8(%esi),%eax
- .byte 243,15,16,12,144 // movss (%eax,%edx,4),%xmm1
- .byte 139,117,136 // mov -0x78(%ebp),%esi
- .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 139,77,168 // mov -0x58(%ebp),%ecx
- .byte 243,15,16,4,136 // movss (%eax,%ecx,4),%xmm0
- .byte 139,85,184 // mov -0x48(%ebp),%edx
- .byte 243,15,16,12,144 // movss (%eax,%edx,4),%xmm1
- .byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 102,15,20,195 // unpcklpd %xmm3,%xmm0
- .byte 102,15,41,133,8,255,255,255 // movapd %xmm0,-0xf8(%ebp)
- .byte 139,85,240 // mov -0x10(%ebp),%edx
- .byte 243,15,16,12,144 // movss (%eax,%edx,4),%xmm1
- .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 139,125,236 // mov -0x14(%ebp),%edi
- .byte 243,15,16,44,184 // movss (%eax,%edi,4),%xmm5
- .byte 243,15,16,12,152 // movss (%eax,%ebx,4),%xmm1
- .byte 15,20,233 // unpcklps %xmm1,%xmm5
- .byte 102,15,20,235 // unpcklpd %xmm3,%xmm5
- .byte 139,93,228 // mov -0x1c(%ebp),%ebx
- .byte 139,67,12 // mov 0xc(%ebx),%eax
- .byte 139,125,232 // mov -0x18(%ebp),%edi
- .byte 243,15,16,12,184 // movss (%eax,%edi,4),%xmm1
- .byte 243,15,16,52,176 // movss (%eax,%esi,4),%xmm6
- .byte 15,20,241 // unpcklps %xmm1,%xmm6
- .byte 243,15,16,28,136 // movss (%eax,%ecx,4),%xmm3
- .byte 139,77,184 // mov -0x48(%ebp),%ecx
- .byte 243,15,16,12,136 // movss (%eax,%ecx,4),%xmm1
- .byte 15,20,217 // unpcklps %xmm1,%xmm3
- .byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 102,15,41,157,232,254,255,255 // movapd %xmm3,-0x118(%ebp)
- .byte 243,15,16,12,144 // movss (%eax,%edx,4),%xmm1
- .byte 139,85,200 // mov -0x38(%ebp),%edx
- .byte 243,15,16,52,144 // movss (%eax,%edx,4),%xmm6
- .byte 15,20,241 // unpcklps %xmm1,%xmm6
- .byte 139,117,236 // mov -0x14(%ebp),%esi
- .byte 243,15,16,4,176 // movss (%eax,%esi,4),%xmm0
- .byte 139,125,224 // mov -0x20(%ebp),%edi
- .byte 243,15,16,60,184 // movss (%eax,%edi,4),%xmm7
- .byte 15,20,199 // unpcklps %xmm7,%xmm0
- .byte 102,15,20,198 // unpcklpd %xmm6,%xmm0
- .byte 102,15,41,133,72,255,255,255 // movapd %xmm0,-0xb8(%ebp)
- .byte 139,67,16 // mov 0x10(%ebx),%eax
- .byte 139,93,232 // mov -0x18(%ebp),%ebx
- .byte 243,15,16,52,152 // movss (%eax,%ebx,4),%xmm6
- .byte 139,125,136 // mov -0x78(%ebp),%edi
- .byte 243,15,16,60,184 // movss (%eax,%edi,4),%xmm7
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 139,125,168 // mov -0x58(%ebp),%edi
- .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
- .byte 243,15,16,52,136 // movss (%eax,%ecx,4),%xmm6
- .byte 15,20,222 // unpcklps %xmm6,%xmm3
- .byte 102,15,20,223 // unpcklpd %xmm7,%xmm3
- .byte 102,15,41,157,216,254,255,255 // movapd %xmm3,-0x128(%ebp)
- .byte 139,77,240 // mov -0x10(%ebp),%ecx
- .byte 243,15,16,52,136 // movss (%eax,%ecx,4),%xmm6
- .byte 243,15,16,60,144 // movss (%eax,%edx,4),%xmm7
- .byte 15,20,254 // unpcklps %xmm6,%xmm7
- .byte 243,15,16,52,176 // movss (%eax,%esi,4),%xmm6
- .byte 139,125,224 // mov -0x20(%ebp),%edi
- .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
- .byte 15,20,243 // unpcklps %xmm3,%xmm6
- .byte 102,15,20,247 // unpcklpd %xmm7,%xmm6
- .byte 139,85,228 // mov -0x1c(%ebp),%edx
- .byte 139,66,20 // mov 0x14(%edx),%eax
- .byte 243,15,16,28,136 // movss (%eax,%ecx,4),%xmm3
- .byte 139,77,200 // mov -0x38(%ebp),%ecx
- .byte 243,15,16,60,136 // movss (%eax,%ecx,4),%xmm7
- .byte 15,20,251 // unpcklps %xmm3,%xmm7
- .byte 243,15,16,12,176 // movss (%eax,%esi,4),%xmm1
- .byte 137,249 // mov %edi,%ecx
- .byte 243,15,16,28,136 // movss (%eax,%ecx,4),%xmm3
- .byte 137,206 // mov %ecx,%esi
- .byte 15,20,203 // unpcklps %xmm3,%xmm1
- .byte 102,15,20,207 // unpcklpd %xmm7,%xmm1
- .byte 243,15,16,28,152 // movss (%eax,%ebx,4),%xmm3
- .byte 139,77,136 // mov -0x78(%ebp),%ecx
- .byte 243,15,16,60,136 // movss (%eax,%ecx,4),%xmm7
- .byte 15,20,251 // unpcklps %xmm3,%xmm7
- .byte 139,125,168 // mov -0x58(%ebp),%edi
- .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2
- .byte 139,125,184 // mov -0x48(%ebp),%edi
- .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
- .byte 15,20,211 // unpcklps %xmm3,%xmm2
- .byte 102,15,20,215 // unpcklpd %xmm7,%xmm2
- .byte 139,66,24 // mov 0x18(%edx),%eax
- .byte 139,85,240 // mov -0x10(%ebp),%edx
- .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3
- .byte 139,93,200 // mov -0x38(%ebp),%ebx
- .byte 243,15,16,60,152 // movss (%eax,%ebx,4),%xmm7
- .byte 15,20,251 // unpcklps %xmm3,%xmm7
- .byte 139,93,236 // mov -0x14(%ebp),%ebx
- .byte 243,15,16,4,152 // movss (%eax,%ebx,4),%xmm0
- .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3
- .byte 15,20,195 // unpcklps %xmm3,%xmm0
- .byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,15,41,133,40,255,255,255 // movapd %xmm0,-0xd8(%ebp)
- .byte 139,117,232 // mov -0x18(%ebp),%esi
- .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3
- .byte 243,15,16,60,136 // movss (%eax,%ecx,4),%xmm7
- .byte 15,20,251 // unpcklps %xmm3,%xmm7
- .byte 139,77,168 // mov -0x58(%ebp),%ecx
- .byte 243,15,16,4,136 // movss (%eax,%ecx,4),%xmm0
- .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
- .byte 15,20,195 // unpcklps %xmm3,%xmm0
- .byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,15,41,133,88,255,255,255 // movapd %xmm0,-0xa8(%ebp)
- .byte 139,69,228 // mov -0x1c(%ebp),%eax
- .byte 139,64,28 // mov 0x1c(%eax),%eax
- .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3
- .byte 139,77,200 // mov -0x38(%ebp),%ecx
- .byte 243,15,16,60,136 // movss (%eax,%ecx,4),%xmm7
- .byte 15,20,251 // unpcklps %xmm3,%xmm7
- .byte 243,15,16,4,152 // movss (%eax,%ebx,4),%xmm0
- .byte 139,77,224 // mov -0x20(%ebp),%ecx
- .byte 243,15,16,28,136 // movss (%eax,%ecx,4),%xmm3
- .byte 15,20,195 // unpcklps %xmm3,%xmm0
- .byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,15,41,133,24,255,255,255 // movapd %xmm0,-0xe8(%ebp)
- .byte 139,117,232 // mov -0x18(%ebp),%esi
- .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3
- .byte 139,125,136 // mov -0x78(%ebp),%edi
- .byte 243,15,16,60,184 // movss (%eax,%edi,4),%xmm7
- .byte 15,20,251 // unpcklps %xmm3,%xmm7
- .byte 139,93,168 // mov -0x58(%ebp),%ebx
- .byte 243,15,16,4,152 // movss (%eax,%ebx,4),%xmm0
- .byte 139,85,184 // mov -0x48(%ebp),%edx
- .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3
- .byte 15,20,195 // unpcklps %xmm3,%xmm0
- .byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,15,41,133,56,255,255,255 // movapd %xmm0,-0xc8(%ebp)
- .byte 139,69,228 // mov -0x1c(%ebp),%eax
- .byte 139,64,32 // mov 0x20(%eax),%eax
- .byte 139,85,240 // mov -0x10(%ebp),%edx
- .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3
- .byte 139,85,200 // mov -0x38(%ebp),%edx
- .byte 243,15,16,60,144 // movss (%eax,%edx,4),%xmm7
- .byte 15,20,251 // unpcklps %xmm3,%xmm7
- .byte 139,85,236 // mov -0x14(%ebp),%edx
- .byte 243,15,16,4,144 // movss (%eax,%edx,4),%xmm0
- .byte 243,15,16,28,136 // movss (%eax,%ecx,4),%xmm3
- .byte 15,20,195 // unpcklps %xmm3,%xmm0
- .byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,15,41,69,200 // movapd %xmm0,-0x38(%ebp)
- .byte 243,15,16,28,176 // movss (%eax,%esi,4),%xmm3
- .byte 243,15,16,60,184 // movss (%eax,%edi,4),%xmm7
- .byte 15,20,251 // unpcklps %xmm3,%xmm7
- .byte 243,15,16,4,152 // movss (%eax,%ebx,4),%xmm0
- .byte 139,77,184 // mov -0x48(%ebp),%ecx
- .byte 243,15,16,28,136 // movss (%eax,%ecx,4),%xmm3
- .byte 15,20,195 // unpcklps %xmm3,%xmm0
- .byte 102,15,20,199 // unpcklpd %xmm7,%xmm0
- .byte 102,15,41,69,184 // movapd %xmm0,-0x48(%ebp)
- .byte 15,40,189,248,254,255,255 // movaps -0x108(%ebp),%xmm7
- .byte 15,89,231 // mulps %xmm7,%xmm4
- .byte 15,88,225 // addps %xmm1,%xmm4
- .byte 15,40,157,104,255,255,255 // movaps -0x98(%ebp),%xmm3
- .byte 15,40,133,120,255,255,255 // movaps -0x88(%ebp),%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 139,69,164 // mov -0x5c(%ebp),%eax
- .byte 15,40,136,59,21,0,0 // movaps 0x153b(%eax),%xmm1
- .byte 15,89,225 // mulps %xmm1,%xmm4
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,144,91,20,0,0 // movaps 0x145b(%eax),%xmm2
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,41,133,120,255,255,255 // movaps %xmm0,-0x88(%ebp)
- .byte 15,88,226 // addps %xmm2,%xmm4
- .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,224,232 // pshufd $0xe8,%xmm0,%xmm4
- .byte 243,15,91,133,120,255,255,255 // cvttps2dq -0x88(%ebp),%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,108,224 // punpcklqdq %xmm0,%xmm4
- .byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
- .byte 15,89,239 // mulps %xmm7,%xmm5
- .byte 15,88,173,40,255,255,255 // addps -0xd8(%ebp),%xmm5
- .byte 15,40,133,8,255,255,255 // movaps -0xf8(%ebp),%xmm0
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,133,88,255,255,255 // addps -0xa8(%ebp),%xmm0
- .byte 15,89,233 // mulps %xmm1,%xmm5
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,40,217 // movaps %xmm1,%xmm3
- .byte 15,88,194 // addps %xmm2,%xmm0
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,88,234 // addps %xmm2,%xmm5
- .byte 15,40,202 // movaps %xmm2,%xmm1
- .byte 243,15,91,197 // cvttps2dq %xmm5,%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2
- .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,108,208 // punpcklqdq %xmm0,%xmm2
- .byte 102,15,127,85,136 // movdqa %xmm2,-0x78(%ebp)
- .byte 15,40,149,72,255,255,255 // movaps -0xb8(%ebp),%xmm2
- .byte 15,89,215 // mulps %xmm7,%xmm2
- .byte 15,88,149,24,255,255,255 // addps -0xe8(%ebp),%xmm2
- .byte 15,40,133,232,254,255,255 // movaps -0x118(%ebp),%xmm0
- .byte 15,40,173,104,255,255,255 // movaps -0x98(%ebp),%xmm5
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,88,133,56,255,255,255 // addps -0xc8(%ebp),%xmm0
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,88,209 // addps %xmm1,%xmm2
- .byte 243,15,91,194 // cvttps2dq %xmm2,%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,208,232 // pshufd $0xe8,%xmm0,%xmm2
- .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,108,208 // punpcklqdq %xmm0,%xmm2
- .byte 15,89,247 // mulps %xmm7,%xmm6
- .byte 15,88,117,200 // addps -0x38(%ebp),%xmm6
- .byte 15,40,133,216,254,255,255 // movaps -0x128(%ebp),%xmm0
- .byte 15,89,197 // mulps %xmm5,%xmm0
- .byte 15,88,69,184 // addps -0x48(%ebp),%xmm0
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,193 // addps %xmm1,%xmm0
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 15,88,241 // addps %xmm1,%xmm6
- .byte 243,15,91,198 // cvttps2dq %xmm6,%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,216,232 // pshufd $0xe8,%xmm0,%xmm3
- .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 102,15,108,216 // punpcklqdq %xmm0,%xmm3
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 137,193 // mov %eax,%ecx
- .byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 15,40,69,72 // movaps 0x48(%ebp),%xmm0
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,40 // movaps 0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,68,36,4 // mov %eax,0x4(%esp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,69,168 // movaps -0x58(%ebp),%xmm0
- .byte 15,40,77,136 // movaps -0x78(%ebp),%xmm1
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 129,196,108,1,0,0 // add $0x16c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_evenly_spaced_gradient_sse2_lowp
-.globl _sk_evenly_spaced_gradient_sse2_lowp
-FUNCTION(_sk_evenly_spaced_gradient_sse2_lowp)
-_sk_evenly_spaced_gradient_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,92,1,0,0 // sub $0x15c,%esp
- .byte 15,41,141,232,254,255,255 // movaps %xmm1,-0x118(%ebp)
- .byte 15,41,69,136 // movaps %xmm0,-0x78(%ebp)
- .byte 232,0,0,0,0 // call f867 <_sk_evenly_spaced_gradient_sse2_lowp+0x1c>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,48 // mov (%eax),%esi
- .byte 139,14 // mov (%esi),%ecx
- .byte 139,70,4 // mov 0x4(%esi),%eax
- .byte 137,243 // mov %esi,%ebx
- .byte 73 // dec %ecx
- .byte 102,15,110,209 // movd %ecx,%xmm2
- .byte 102,15,112,210,0 // pshufd $0x0,%xmm2,%xmm2
- .byte 137,85,164 // mov %edx,-0x5c(%ebp)
- .byte 102,15,111,154,169,20,0,0 // movdqa 0x14a9(%edx),%xmm3
- .byte 102,15,219,218 // pand %xmm2,%xmm3
- .byte 102,15,235,154,41,18,0,0 // por 0x1229(%edx),%xmm3
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,235,146,185,20,0,0 // por 0x14b9(%edx),%xmm2
- .byte 15,88,146,201,20,0,0 // addps 0x14c9(%edx),%xmm2
- .byte 15,88,211 // addps %xmm3,%xmm2
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 15,89,218 // mulps %xmm2,%xmm3
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 243,15,91,194 // cvttps2dq %xmm2,%xmm0
- .byte 243,15,91,203 // cvttps2dq %xmm3,%xmm1
- .byte 102,15,112,209,229 // pshufd $0xe5,%xmm1,%xmm2
- .byte 102,15,112,217,78 // pshufd $0x4e,%xmm1,%xmm3
- .byte 102,15,112,225,231 // pshufd $0xe7,%xmm1,%xmm4
- .byte 102,15,126,230 // movd %xmm4,%esi
- .byte 102,15,112,232,229 // pshufd $0xe5,%xmm0,%xmm5
- .byte 243,15,16,36,176 // movss (%eax,%esi,4),%xmm4
- .byte 137,117,224 // mov %esi,-0x20(%ebp)
- .byte 102,15,126,217 // movd %xmm3,%ecx
- .byte 137,77,200 // mov %ecx,-0x38(%ebp)
- .byte 243,15,16,28,136 // movss (%eax,%ecx,4),%xmm3
- .byte 15,20,220 // unpcklps %xmm4,%xmm3
- .byte 102,15,112,240,78 // pshufd $0x4e,%xmm0,%xmm6
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 243,15,16,60,136 // movss (%eax,%ecx,4),%xmm7
- .byte 137,202 // mov %ecx,%edx
- .byte 137,85,184 // mov %edx,-0x48(%ebp)
- .byte 102,15,126,209 // movd %xmm2,%ecx
- .byte 137,77,228 // mov %ecx,-0x1c(%ebp)
- .byte 243,15,16,12,136 // movss (%eax,%ecx,4),%xmm1
- .byte 15,20,249 // unpcklps %xmm1,%xmm7
- .byte 102,15,112,200,231 // pshufd $0xe7,%xmm0,%xmm1
- .byte 102,15,126,201 // movd %xmm1,%ecx
- .byte 137,77,240 // mov %ecx,-0x10(%ebp)
- .byte 243,15,16,12,136 // movss (%eax,%ecx,4),%xmm1
- .byte 102,15,126,241 // movd %xmm6,%ecx
- .byte 137,77,168 // mov %ecx,-0x58(%ebp)
- .byte 243,15,16,20,136 // movss (%eax,%ecx,4),%xmm2
- .byte 102,15,126,193 // movd %xmm0,%ecx
- .byte 243,15,16,36,136 // movss (%eax,%ecx,4),%xmm4
- .byte 137,207 // mov %ecx,%edi
- .byte 137,125,232 // mov %edi,-0x18(%ebp)
- .byte 102,15,126,233 // movd %xmm5,%ecx
- .byte 137,77,236 // mov %ecx,-0x14(%ebp)
- .byte 243,15,16,44,136 // movss (%eax,%ecx,4),%xmm5
- .byte 102,15,20,251 // unpcklpd %xmm3,%xmm7
- .byte 102,15,41,189,24,255,255,255 // movapd %xmm7,-0xe8(%ebp)
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 15,20,229 // unpcklps %xmm5,%xmm4
- .byte 102,15,20,226 // unpcklpd %xmm2,%xmm4
- .byte 137,217 // mov %ebx,%ecx
- .byte 137,77,220 // mov %ecx,-0x24(%ebp)
- .byte 139,65,8 // mov 0x8(%ecx),%eax
- .byte 243,15,16,12,176 // movss (%eax,%esi,4),%xmm1
- .byte 139,117,200 // mov -0x38(%ebp),%esi
- .byte 243,15,16,20,176 // movss (%eax,%esi,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 243,15,16,4,144 // movss (%eax,%edx,4),%xmm0
- .byte 139,93,228 // mov -0x1c(%ebp),%ebx
- .byte 243,15,16,12,152 // movss (%eax,%ebx,4),%xmm1
- .byte 15,20,193 // unpcklps %xmm1,%xmm0
- .byte 102,15,20,194 // unpcklpd %xmm2,%xmm0
- .byte 102,15,41,133,72,255,255,255 // movapd %xmm0,-0xb8(%ebp)
- .byte 139,85,240 // mov -0x10(%ebp),%edx
- .byte 243,15,16,12,144 // movss (%eax,%edx,4),%xmm1
- .byte 139,117,168 // mov -0x58(%ebp),%esi
- .byte 243,15,16,20,176 // movss (%eax,%esi,4),%xmm2
- .byte 15,20,209 // unpcklps %xmm1,%xmm2
- .byte 243,15,16,12,184 // movss (%eax,%edi,4),%xmm1
- .byte 139,125,236 // mov -0x14(%ebp),%edi
- .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
- .byte 15,20,203 // unpcklps %xmm3,%xmm1
- .byte 102,15,20,202 // unpcklpd %xmm2,%xmm1
- .byte 139,65,12 // mov 0xc(%ecx),%eax
- .byte 139,85,224 // mov -0x20(%ebp),%edx
- .byte 243,15,16,20,144 // movss (%eax,%edx,4),%xmm2
- .byte 139,77,200 // mov -0x38(%ebp),%ecx
- .byte 243,15,16,28,136 // movss (%eax,%ecx,4),%xmm3
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 139,77,184 // mov -0x48(%ebp),%ecx
- .byte 243,15,16,20,136 // movss (%eax,%ecx,4),%xmm2
- .byte 243,15,16,52,152 // movss (%eax,%ebx,4),%xmm6
- .byte 15,20,214 // unpcklps %xmm6,%xmm2
- .byte 102,15,20,211 // unpcklpd %xmm3,%xmm2
- .byte 102,15,41,149,8,255,255,255 // movapd %xmm2,-0xf8(%ebp)
- .byte 139,93,240 // mov -0x10(%ebp),%ebx
- .byte 243,15,16,28,152 // movss (%eax,%ebx,4),%xmm3
- .byte 243,15,16,52,176 // movss (%eax,%esi,4),%xmm6
- .byte 15,20,243 // unpcklps %xmm3,%xmm6
- .byte 139,117,232 // mov -0x18(%ebp),%esi
- .byte 243,15,16,60,176 // movss (%eax,%esi,4),%xmm7
- .byte 243,15,16,28,184 // movss (%eax,%edi,4),%xmm3
- .byte 15,20,251 // unpcklps %xmm3,%xmm7
- .byte 102,15,20,254 // unpcklpd %xmm6,%xmm7
- .byte 139,117,220 // mov -0x24(%ebp),%esi
- .byte 139,70,16 // mov 0x10(%esi),%eax
- .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3
- .byte 139,85,200 // mov -0x38(%ebp),%edx
- .byte 243,15,16,52,144 // movss (%eax,%edx,4),%xmm6
- .byte 15,20,243 // unpcklps %xmm3,%xmm6
- .byte 139,85,184 // mov -0x48(%ebp),%edx
- .byte 243,15,16,20,144 // movss (%eax,%edx,4),%xmm2
- .byte 139,85,228 // mov -0x1c(%ebp),%edx
- .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3
- .byte 15,20,211 // unpcklps %xmm3,%xmm2
- .byte 102,15,20,214 // unpcklpd %xmm6,%xmm2
- .byte 102,15,41,149,248,254,255,255 // movapd %xmm2,-0x108(%ebp)
- .byte 243,15,16,28,152 // movss (%eax,%ebx,4),%xmm3
- .byte 139,125,168 // mov -0x58(%ebp),%edi
- .byte 243,15,16,52,184 // movss (%eax,%edi,4),%xmm6
- .byte 15,20,243 // unpcklps %xmm3,%xmm6
- .byte 139,85,232 // mov -0x18(%ebp),%edx
- .byte 243,15,16,4,144 // movss (%eax,%edx,4),%xmm0
- .byte 139,77,236 // mov -0x14(%ebp),%ecx
- .byte 243,15,16,20,136 // movss (%eax,%ecx,4),%xmm2
- .byte 15,20,194 // unpcklps %xmm2,%xmm0
- .byte 102,15,20,198 // unpcklpd %xmm6,%xmm0
- .byte 102,15,41,133,104,255,255,255 // movapd %xmm0,-0x98(%ebp)
- .byte 139,70,20 // mov 0x14(%esi),%eax
- .byte 243,15,16,20,152 // movss (%eax,%ebx,4),%xmm2
- .byte 243,15,16,52,184 // movss (%eax,%edi,4),%xmm6
- .byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 243,15,16,28,144 // movss (%eax,%edx,4),%xmm3
- .byte 243,15,16,20,136 // movss (%eax,%ecx,4),%xmm2
- .byte 15,20,218 // unpcklps %xmm2,%xmm3
- .byte 102,15,20,222 // unpcklpd %xmm6,%xmm3
- .byte 139,93,224 // mov -0x20(%ebp),%ebx
- .byte 243,15,16,20,152 // movss (%eax,%ebx,4),%xmm2
- .byte 139,125,200 // mov -0x38(%ebp),%edi
- .byte 243,15,16,52,184 // movss (%eax,%edi,4),%xmm6
- .byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 139,77,184 // mov -0x48(%ebp),%ecx
- .byte 243,15,16,44,136 // movss (%eax,%ecx,4),%xmm5
- .byte 139,77,228 // mov -0x1c(%ebp),%ecx
- .byte 243,15,16,20,136 // movss (%eax,%ecx,4),%xmm2
- .byte 15,20,234 // unpcklps %xmm2,%xmm5
- .byte 102,15,20,238 // unpcklpd %xmm6,%xmm5
- .byte 139,69,220 // mov -0x24(%ebp),%eax
- .byte 139,64,24 // mov 0x18(%eax),%eax
- .byte 139,117,240 // mov -0x10(%ebp),%esi
- .byte 243,15,16,20,176 // movss (%eax,%esi,4),%xmm2
- .byte 139,117,168 // mov -0x58(%ebp),%esi
- .byte 243,15,16,52,176 // movss (%eax,%esi,4),%xmm6
- .byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 243,15,16,4,144 // movss (%eax,%edx,4),%xmm0
- .byte 139,85,236 // mov -0x14(%ebp),%edx
- .byte 243,15,16,20,144 // movss (%eax,%edx,4),%xmm2
- .byte 15,20,194 // unpcklps %xmm2,%xmm0
- .byte 102,15,20,198 // unpcklpd %xmm6,%xmm0
- .byte 102,15,41,133,56,255,255,255 // movapd %xmm0,-0xc8(%ebp)
- .byte 243,15,16,20,152 // movss (%eax,%ebx,4),%xmm2
- .byte 243,15,16,52,184 // movss (%eax,%edi,4),%xmm6
- .byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 139,117,184 // mov -0x48(%ebp),%esi
- .byte 243,15,16,4,176 // movss (%eax,%esi,4),%xmm0
- .byte 243,15,16,20,136 // movss (%eax,%ecx,4),%xmm2
- .byte 15,20,194 // unpcklps %xmm2,%xmm0
- .byte 102,15,20,198 // unpcklpd %xmm6,%xmm0
- .byte 102,15,41,133,120,255,255,255 // movapd %xmm0,-0x88(%ebp)
- .byte 139,125,220 // mov -0x24(%ebp),%edi
- .byte 139,71,28 // mov 0x1c(%edi),%eax
- .byte 139,93,240 // mov -0x10(%ebp),%ebx
- .byte 243,15,16,20,152 // movss (%eax,%ebx,4),%xmm2
- .byte 139,77,168 // mov -0x58(%ebp),%ecx
- .byte 243,15,16,52,136 // movss (%eax,%ecx,4),%xmm6
- .byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 139,77,232 // mov -0x18(%ebp),%ecx
- .byte 243,15,16,4,136 // movss (%eax,%ecx,4),%xmm0
- .byte 243,15,16,20,144 // movss (%eax,%edx,4),%xmm2
- .byte 15,20,194 // unpcklps %xmm2,%xmm0
- .byte 102,15,20,198 // unpcklpd %xmm6,%xmm0
- .byte 102,15,41,133,40,255,255,255 // movapd %xmm0,-0xd8(%ebp)
- .byte 139,77,224 // mov -0x20(%ebp),%ecx
- .byte 243,15,16,20,136 // movss (%eax,%ecx,4),%xmm2
- .byte 139,85,200 // mov -0x38(%ebp),%edx
- .byte 243,15,16,52,144 // movss (%eax,%edx,4),%xmm6
- .byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 243,15,16,4,176 // movss (%eax,%esi,4),%xmm0
- .byte 139,117,228 // mov -0x1c(%ebp),%esi
- .byte 243,15,16,20,176 // movss (%eax,%esi,4),%xmm2
- .byte 15,20,194 // unpcklps %xmm2,%xmm0
- .byte 102,15,20,198 // unpcklpd %xmm6,%xmm0
- .byte 102,15,41,133,88,255,255,255 // movapd %xmm0,-0xa8(%ebp)
- .byte 139,71,32 // mov 0x20(%edi),%eax
- .byte 243,15,16,20,152 // movss (%eax,%ebx,4),%xmm2
- .byte 139,125,168 // mov -0x58(%ebp),%edi
- .byte 243,15,16,52,184 // movss (%eax,%edi,4),%xmm6
- .byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 139,125,232 // mov -0x18(%ebp),%edi
- .byte 243,15,16,4,184 // movss (%eax,%edi,4),%xmm0
- .byte 139,125,236 // mov -0x14(%ebp),%edi
- .byte 243,15,16,20,184 // movss (%eax,%edi,4),%xmm2
- .byte 15,20,194 // unpcklps %xmm2,%xmm0
- .byte 102,15,20,198 // unpcklpd %xmm6,%xmm0
- .byte 102,15,41,69,168 // movapd %xmm0,-0x58(%ebp)
- .byte 243,15,16,20,136 // movss (%eax,%ecx,4),%xmm2
- .byte 243,15,16,52,144 // movss (%eax,%edx,4),%xmm6
- .byte 15,20,242 // unpcklps %xmm2,%xmm6
- .byte 139,77,184 // mov -0x48(%ebp),%ecx
- .byte 243,15,16,4,136 // movss (%eax,%ecx,4),%xmm0
- .byte 243,15,16,20,176 // movss (%eax,%esi,4),%xmm2
- .byte 15,20,194 // unpcklps %xmm2,%xmm0
- .byte 102,15,20,198 // unpcklpd %xmm6,%xmm0
- .byte 102,15,41,69,200 // movapd %xmm0,-0x38(%ebp)
- .byte 15,40,181,232,254,255,255 // movaps -0x118(%ebp),%xmm6
- .byte 15,89,230 // mulps %xmm6,%xmm4
- .byte 15,88,227 // addps %xmm3,%xmm4
- .byte 15,40,133,24,255,255,255 // movaps -0xe8(%ebp),%xmm0
- .byte 15,89,69,136 // mulps -0x78(%ebp),%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 139,69,164 // mov -0x5c(%ebp),%eax
- .byte 15,40,152,201,15,0,0 // movaps 0xfc9(%eax),%xmm3
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,40,168,233,14,0,0 // movaps 0xee9(%eax),%xmm5
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,88,229 // addps %xmm5,%xmm4
- .byte 243,15,91,196 // cvttps2dq %xmm4,%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 242,15,112,210,232 // pshuflw $0xe8,%xmm2,%xmm2
- .byte 243,15,112,210,232 // pshufhw $0xe8,%xmm2,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,108,208 // punpcklqdq %xmm0,%xmm2
- .byte 102,15,127,85,184 // movdqa %xmm2,-0x48(%ebp)
- .byte 15,89,206 // mulps %xmm6,%xmm1
- .byte 15,40,230 // movaps %xmm6,%xmm4
- .byte 15,88,141,56,255,255,255 // addps -0xc8(%ebp),%xmm1
- .byte 15,40,85,136 // movaps -0x78(%ebp),%xmm2
- .byte 15,40,133,72,255,255,255 // movaps -0xb8(%ebp),%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,88,133,120,255,255,255 // addps -0x88(%ebp),%xmm0
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,40,240 // movaps %xmm0,%xmm6
- .byte 15,88,205 // addps %xmm5,%xmm1
- .byte 243,15,91,193 // cvttps2dq %xmm1,%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 243,15,91,206 // cvttps2dq %xmm6,%xmm1
- .byte 242,15,112,201,232 // pshuflw $0xe8,%xmm1,%xmm1
- .byte 243,15,112,201,232 // pshufhw $0xe8,%xmm1,%xmm1
- .byte 102,15,112,241,232 // pshufd $0xe8,%xmm1,%xmm6
- .byte 102,15,108,240 // punpcklqdq %xmm0,%xmm6
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,88,189,40,255,255,255 // addps -0xd8(%ebp),%xmm7
- .byte 15,40,133,8,255,255,255 // movaps -0xf8(%ebp),%xmm0
- .byte 15,89,194 // mulps %xmm2,%xmm0
- .byte 15,88,133,88,255,255,255 // addps -0xa8(%ebp),%xmm0
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,89,195 // mulps %xmm3,%xmm0
- .byte 15,88,197 // addps %xmm5,%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,88,253 // addps %xmm5,%xmm7
- .byte 243,15,91,199 // cvttps2dq %xmm7,%xmm0
- .byte 242,15,112,192,232 // pshuflw $0xe8,%xmm0,%xmm0
- .byte 243,15,112,192,232 // pshufhw $0xe8,%xmm0,%xmm0
- .byte 102,15,112,192,232 // pshufd $0xe8,%xmm0,%xmm0
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 242,15,112,201,232 // pshuflw $0xe8,%xmm1,%xmm1
- .byte 243,15,112,201,232 // pshufhw $0xe8,%xmm1,%xmm1
- .byte 102,15,112,209,232 // pshufd $0xe8,%xmm1,%xmm2
- .byte 102,15,108,208 // punpcklqdq %xmm0,%xmm2
- .byte 15,40,189,104,255,255,255 // movaps -0x98(%ebp),%xmm7
- .byte 15,89,252 // mulps %xmm4,%xmm7
- .byte 15,88,125,168 // addps -0x58(%ebp),%xmm7
- .byte 15,40,165,248,254,255,255 // movaps -0x108(%ebp),%xmm4
- .byte 15,89,101,136 // mulps -0x78(%ebp),%xmm4
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 15,88,101,200 // addps -0x38(%ebp),%xmm4
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,40,77,40 // movaps 0x28(%ebp),%xmm1
- .byte 15,88,229 // addps %xmm5,%xmm4
- .byte 15,88,253 // addps %xmm5,%xmm7
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 243,15,91,223 // cvttps2dq %xmm7,%xmm3
- .byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3
- .byte 243,15,112,219,232 // pshufhw $0xe8,%xmm3,%xmm3
- .byte 102,15,112,251,232 // pshufd $0xe8,%xmm3,%xmm7
- .byte 243,15,91,220 // cvttps2dq %xmm4,%xmm3
- .byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3
- .byte 243,15,112,219,232 // pshufhw $0xe8,%xmm3,%xmm3
- .byte 102,15,112,219,232 // pshufd $0xe8,%xmm3,%xmm3
- .byte 102,15,108,223 // punpcklqdq %xmm7,%xmm3
- .byte 15,40,125,72 // movaps 0x48(%ebp),%xmm7
- .byte 139,125,12 // mov 0xc(%ebp),%edi
- .byte 141,119,8 // lea 0x8(%edi),%esi
- .byte 15,41,124,36,64 // movaps %xmm7,0x40(%esp)
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,41,76,36,32 // movaps %xmm1,0x20(%esp)
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,116,36,4 // mov %esi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
- .byte 102,15,111,206 // movdqa %xmm6,%xmm1
- .byte 255,87,4 // call *0x4(%edi)
- .byte 129,196,92,1,0,0 // add $0x15c,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_evenly_spaced_2_stop_gradient_sse2_lowp
-.globl _sk_evenly_spaced_2_stop_gradient_sse2_lowp
-FUNCTION(_sk_evenly_spaced_2_stop_gradient_sse2_lowp)
-_sk_evenly_spaced_2_stop_gradient_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,96 // sub $0x60,%esp
- .byte 15,40,241 // movaps %xmm1,%xmm6
- .byte 232,0,0,0,0 // call fda6 <_sk_evenly_spaced_2_stop_gradient_sse2_lowp+0x10>
- .byte 90 // pop %edx
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,8 // mov (%eax),%ecx
- .byte 243,15,16,33 // movss (%ecx),%xmm4
- .byte 243,15,16,81,4 // movss 0x4(%ecx),%xmm2
- .byte 15,198,228,0 // shufps $0x0,%xmm4,%xmm4
- .byte 243,15,16,89,16 // movss 0x10(%ecx),%xmm3
- .byte 15,198,219,0 // shufps $0x0,%xmm3,%xmm3
- .byte 15,40,238 // movaps %xmm6,%xmm5
- .byte 15,89,236 // mulps %xmm4,%xmm5
- .byte 15,89,224 // mulps %xmm0,%xmm4
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,88,227 // addps %xmm3,%xmm4
- .byte 15,88,235 // addps %xmm3,%xmm5
- .byte 15,40,154,138,10,0,0 // movaps 0xa8a(%edx),%xmm3
- .byte 15,89,235 // mulps %xmm3,%xmm5
- .byte 15,89,227 // mulps %xmm3,%xmm4
- .byte 15,40,130,170,9,0,0 // movaps 0x9aa(%edx),%xmm0
- .byte 15,88,224 // addps %xmm0,%xmm4
- .byte 15,88,232 // addps %xmm0,%xmm5
- .byte 243,15,91,237 // cvttps2dq %xmm5,%xmm5
- .byte 242,15,112,237,232 // pshuflw $0xe8,%xmm5,%xmm5
- .byte 243,15,112,237,232 // pshufhw $0xe8,%xmm5,%xmm5
- .byte 102,15,112,237,232 // pshufd $0xe8,%xmm5,%xmm5
- .byte 243,15,91,228 // cvttps2dq %xmm4,%xmm4
- .byte 242,15,112,228,232 // pshuflw $0xe8,%xmm4,%xmm4
- .byte 243,15,112,228,232 // pshufhw $0xe8,%xmm4,%xmm4
- .byte 102,15,112,228,232 // pshufd $0xe8,%xmm4,%xmm4
- .byte 102,15,108,229 // punpcklqdq %xmm5,%xmm4
- .byte 102,15,127,101,232 // movdqa %xmm4,-0x18(%ebp)
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,105,20 // movss 0x14(%ecx),%xmm5
- .byte 15,198,237,0 // shufps $0x0,%xmm5,%xmm5
- .byte 15,40,254 // movaps %xmm6,%xmm7
- .byte 15,89,250 // mulps %xmm2,%xmm7
- .byte 15,89,209 // mulps %xmm1,%xmm2
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,88,213 // addps %xmm5,%xmm2
- .byte 15,88,253 // addps %xmm5,%xmm7
- .byte 15,89,251 // mulps %xmm3,%xmm7
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 243,15,91,239 // cvttps2dq %xmm7,%xmm5
- .byte 242,15,112,237,232 // pshuflw $0xe8,%xmm5,%xmm5
- .byte 243,15,112,237,232 // pshufhw $0xe8,%xmm5,%xmm5
- .byte 102,15,112,253,232 // pshufd $0xe8,%xmm5,%xmm7
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 242,15,112,210,232 // pshuflw $0xe8,%xmm2,%xmm2
- .byte 243,15,112,210,232 // pshufhw $0xe8,%xmm2,%xmm2
- .byte 102,15,112,234,232 // pshufd $0xe8,%xmm2,%xmm5
- .byte 102,15,108,239 // punpcklqdq %xmm7,%xmm5
- .byte 243,15,16,81,8 // movss 0x8(%ecx),%xmm2
- .byte 15,198,210,0 // shufps $0x0,%xmm2,%xmm2
- .byte 243,15,16,121,24 // movss 0x18(%ecx),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,40,206 // movaps %xmm6,%xmm1
- .byte 15,89,202 // mulps %xmm2,%xmm1
- .byte 15,89,212 // mulps %xmm4,%xmm2
- .byte 15,88,215 // addps %xmm7,%xmm2
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 139,125,20 // mov 0x14(%ebp),%edi
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,89,211 // mulps %xmm3,%xmm2
- .byte 15,88,208 // addps %xmm0,%xmm2
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 242,15,112,201,232 // pshuflw $0xe8,%xmm1,%xmm1
- .byte 243,15,112,201,232 // pshufhw $0xe8,%xmm1,%xmm1
- .byte 102,15,112,201,232 // pshufd $0xe8,%xmm1,%xmm1
- .byte 243,15,91,210 // cvttps2dq %xmm2,%xmm2
- .byte 242,15,112,210,232 // pshuflw $0xe8,%xmm2,%xmm2
- .byte 243,15,112,210,232 // pshufhw $0xe8,%xmm2,%xmm2
- .byte 102,15,112,210,232 // pshufd $0xe8,%xmm2,%xmm2
- .byte 102,15,108,209 // punpcklqdq %xmm1,%xmm2
- .byte 243,15,16,73,12 // movss 0xc(%ecx),%xmm1
- .byte 15,198,201,0 // shufps $0x0,%xmm1,%xmm1
- .byte 15,89,241 // mulps %xmm1,%xmm6
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 243,15,16,121,28 // movss 0x1c(%ecx),%xmm7
- .byte 15,198,255,0 // shufps $0x0,%xmm7,%xmm7
- .byte 15,88,207 // addps %xmm7,%xmm1
- .byte 15,88,247 // addps %xmm7,%xmm6
- .byte 15,40,101,24 // movaps 0x18(%ebp),%xmm4
- .byte 15,89,243 // mulps %xmm3,%xmm6
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,125,40 // movaps 0x28(%ebp),%xmm7
- .byte 15,88,200 // addps %xmm0,%xmm1
- .byte 15,88,240 // addps %xmm0,%xmm6
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 243,15,91,222 // cvttps2dq %xmm6,%xmm3
- .byte 242,15,112,219,232 // pshuflw $0xe8,%xmm3,%xmm3
- .byte 243,15,112,219,232 // pshufhw $0xe8,%xmm3,%xmm3
- .byte 102,15,112,243,232 // pshufd $0xe8,%xmm3,%xmm6
- .byte 243,15,91,201 // cvttps2dq %xmm1,%xmm1
- .byte 242,15,112,201,232 // pshuflw $0xe8,%xmm1,%xmm1
- .byte 243,15,112,201,232 // pshufhw $0xe8,%xmm1,%xmm1
- .byte 102,15,112,217,232 // pshufd $0xe8,%xmm1,%xmm3
- .byte 102,15,108,222 // punpcklqdq %xmm6,%xmm3
- .byte 15,40,77,72 // movaps 0x48(%ebp),%xmm1
- .byte 141,72,8 // lea 0x8(%eax),%ecx
- .byte 15,41,76,36,64 // movaps %xmm1,0x40(%esp)
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,41,124,36,32 // movaps %xmm7,0x20(%esp)
- .byte 15,41,100,36,16 // movaps %xmm4,0x10(%esp)
- .byte 137,124,36,12 // mov %edi,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,76,36,4 // mov %ecx,0x4(%esp)
- .byte 137,20,36 // mov %edx,(%esp)
- .byte 15,40,69,232 // movaps -0x18(%ebp),%xmm0
- .byte 102,15,111,205 // movdqa %xmm5,%xmm1
- .byte 255,80,4 // call *0x4(%eax)
- .byte 131,196,96 // add $0x60,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_xy_to_unit_angle_sse2_lowp
-.globl _sk_xy_to_unit_angle_sse2_lowp
-FUNCTION(_sk_xy_to_unit_angle_sse2_lowp)
-_sk_xy_to_unit_angle_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,160,0,0,0 // sub $0xa0,%esp
- .byte 15,41,93,168 // movaps %xmm3,-0x58(%ebp)
- .byte 15,41,85,232 // movaps %xmm2,-0x18(%ebp)
- .byte 15,41,77,184 // movaps %xmm1,-0x48(%ebp)
- .byte 15,40,208 // movaps %xmm0,%xmm2
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 232,0,0,0,0 // call ff91 <_sk_xy_to_unit_angle_sse2_lowp+0x23>
- .byte 88 // pop %eax
- .byte 15,40,128,15,13,0,0 // movaps 0xd0f(%eax),%xmm0
- .byte 15,40,225 // movaps %xmm1,%xmm4
- .byte 15,84,224 // andps %xmm0,%xmm4
- .byte 15,40,203 // movaps %xmm3,%xmm1
- .byte 15,84,200 // andps %xmm0,%xmm1
- .byte 15,40,236 // movaps %xmm4,%xmm5
- .byte 15,194,233,1 // cmpltps %xmm1,%xmm5
- .byte 15,40,245 // movaps %xmm5,%xmm6
- .byte 15,85,241 // andnps %xmm1,%xmm6
- .byte 15,40,221 // movaps %xmm5,%xmm3
- .byte 15,85,220 // andnps %xmm4,%xmm3
- .byte 15,41,93,216 // movaps %xmm3,-0x28(%ebp)
- .byte 15,84,229 // andps %xmm5,%xmm4
- .byte 15,86,230 // orps %xmm6,%xmm4
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,84,248 // andps %xmm0,%xmm7
- .byte 15,84,69,232 // andps -0x18(%ebp),%xmm0
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 15,194,208,1 // cmpltps %xmm0,%xmm2
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 15,85,240 // andnps %xmm0,%xmm6
- .byte 15,40,218 // movaps %xmm2,%xmm3
- .byte 15,85,223 // andnps %xmm7,%xmm3
- .byte 15,84,250 // andps %xmm2,%xmm7
- .byte 15,86,254 // orps %xmm6,%xmm7
- .byte 15,84,205 // andps %xmm5,%xmm1
- .byte 15,86,77,216 // orps -0x28(%ebp),%xmm1
- .byte 15,94,225 // divps %xmm1,%xmm4
- .byte 15,84,194 // andps %xmm2,%xmm0
- .byte 15,86,195 // orps %xmm3,%xmm0
- .byte 15,94,248 // divps %xmm0,%xmm7
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 15,89,219 // mulps %xmm3,%xmm3
- .byte 15,40,247 // movaps %xmm7,%xmm6
- .byte 15,89,246 // mulps %xmm6,%xmm6
- .byte 15,40,136,175,13,0,0 // movaps 0xdaf(%eax),%xmm1
- .byte 15,40,198 // movaps %xmm6,%xmm0
- .byte 15,89,193 // mulps %xmm1,%xmm0
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,136,191,13,0,0 // addps 0xdbf(%eax),%xmm1
- .byte 15,88,128,191,13,0,0 // addps 0xdbf(%eax),%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,88,136,207,13,0,0 // addps 0xdcf(%eax),%xmm1
- .byte 15,88,128,207,13,0,0 // addps 0xdcf(%eax),%xmm0
- .byte 15,89,198 // mulps %xmm6,%xmm0
- .byte 15,89,203 // mulps %xmm3,%xmm1
- .byte 15,40,152,223,13,0,0 // movaps 0xddf(%eax),%xmm3
- .byte 15,88,203 // addps %xmm3,%xmm1
- .byte 15,88,195 // addps %xmm3,%xmm0
- .byte 15,89,199 // mulps %xmm7,%xmm0
- .byte 15,89,204 // mulps %xmm4,%xmm1
- .byte 15,40,152,239,13,0,0 // movaps 0xdef(%eax),%xmm3
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 15,92,216 // subps %xmm0,%xmm3
- .byte 15,84,218 // andps %xmm2,%xmm3
- .byte 15,85,208 // andnps %xmm0,%xmm2
- .byte 15,86,211 // orps %xmm3,%xmm2
- .byte 15,92,225 // subps %xmm1,%xmm4
- .byte 15,84,229 // andps %xmm5,%xmm4
- .byte 15,85,233 // andnps %xmm1,%xmm5
- .byte 15,86,236 // orps %xmm4,%xmm5
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 15,40,93,200 // movaps -0x38(%ebp),%xmm3
- .byte 15,194,220,1 // cmpltps %xmm4,%xmm3
- .byte 15,40,128,191,7,0,0 // movaps 0x7bf(%eax),%xmm0
- .byte 15,40,200 // movaps %xmm0,%xmm1
- .byte 15,92,194 // subps %xmm2,%xmm0
- .byte 15,84,195 // andps %xmm3,%xmm0
- .byte 15,85,218 // andnps %xmm2,%xmm3
- .byte 139,77,8 // mov 0x8(%ebp),%ecx
- .byte 139,85,16 // mov 0x10(%ebp),%edx
- .byte 139,117,20 // mov 0x14(%ebp),%esi
- .byte 15,40,85,184 // movaps -0x48(%ebp),%xmm2
- .byte 15,194,212,1 // cmpltps %xmm4,%xmm2
- .byte 15,92,205 // subps %xmm5,%xmm1
- .byte 15,86,216 // orps %xmm0,%xmm3
- .byte 15,84,202 // andps %xmm2,%xmm1
- .byte 15,85,213 // andnps %xmm5,%xmm2
- .byte 15,86,209 // orps %xmm1,%xmm2
- .byte 15,40,242 // movaps %xmm2,%xmm6
- .byte 15,40,125,232 // movaps -0x18(%ebp),%xmm7
- .byte 15,40,199 // movaps %xmm7,%xmm0
- .byte 15,194,196,1 // cmpltps %xmm4,%xmm0
- .byte 15,40,136,207,7,0,0 // movaps 0x7cf(%eax),%xmm1
- .byte 15,40,209 // movaps %xmm1,%xmm2
- .byte 15,92,203 // subps %xmm3,%xmm1
- .byte 15,84,200 // andps %xmm0,%xmm1
- .byte 15,85,195 // andnps %xmm3,%xmm0
- .byte 15,86,193 // orps %xmm1,%xmm0
- .byte 15,40,93,168 // movaps -0x58(%ebp),%xmm3
- .byte 15,40,235 // movaps %xmm3,%xmm5
- .byte 15,194,236,1 // cmpltps %xmm4,%xmm5
- .byte 15,92,214 // subps %xmm6,%xmm2
- .byte 15,84,213 // andps %xmm5,%xmm2
- .byte 15,85,238 // andnps %xmm6,%xmm5
- .byte 15,40,117,40 // movaps 0x28(%ebp),%xmm6
- .byte 15,86,234 // orps %xmm2,%xmm5
- .byte 15,40,205 // movaps %xmm5,%xmm1
- .byte 15,194,204,7 // cmpordps %xmm4,%xmm1
- .byte 15,194,224,7 // cmpordps %xmm0,%xmm4
- .byte 15,84,224 // andps %xmm0,%xmm4
- .byte 15,40,69,56 // movaps 0x38(%ebp),%xmm0
- .byte 15,84,205 // andps %xmm5,%xmm1
- .byte 15,40,85,72 // movaps 0x48(%ebp),%xmm2
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 141,120,4 // lea 0x4(%eax),%edi
- .byte 15,41,84,36,64 // movaps %xmm2,0x40(%esp)
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,41,116,36,32 // movaps %xmm6,0x20(%esp)
- .byte 15,40,69,24 // movaps 0x18(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 137,116,36,12 // mov %esi,0xc(%esp)
- .byte 137,84,36,8 // mov %edx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,12,36 // mov %ecx,(%esp)
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 15,40,215 // movaps %xmm7,%xmm2
- .byte 255,16 // call *(%eax)
- .byte 129,196,160,0,0,0 // add $0xa0,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_xy_to_radius_sse2_lowp
-.globl _sk_xy_to_radius_sse2_lowp
-FUNCTION(_sk_xy_to_radius_sse2_lowp)
-_sk_xy_to_radius_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 131,236,80 // sub $0x50,%esp
- .byte 15,40,227 // movaps %xmm3,%xmm4
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 139,77,16 // mov 0x10(%ebp),%ecx
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 15,40,117,56 // movaps 0x38(%ebp),%xmm6
- .byte 15,89,192 // mulps %xmm0,%xmm0
- .byte 15,89,201 // mulps %xmm1,%xmm1
- .byte 15,40,250 // movaps %xmm2,%xmm7
- .byte 15,89,255 // mulps %xmm7,%xmm7
- .byte 15,88,248 // addps %xmm0,%xmm7
- .byte 15,89,219 // mulps %xmm3,%xmm3
- .byte 15,88,217 // addps %xmm1,%xmm3
- .byte 15,40,109,72 // movaps 0x48(%ebp),%xmm5
- .byte 139,117,12 // mov 0xc(%ebp),%esi
- .byte 15,81,199 // sqrtps %xmm7,%xmm0
- .byte 15,81,203 // sqrtps %xmm3,%xmm1
- .byte 141,126,4 // lea 0x4(%esi),%edi
- .byte 15,41,108,36,64 // movaps %xmm5,0x40(%esp)
- .byte 15,41,116,36,48 // movaps %xmm6,0x30(%esp)
- .byte 15,40,93,40 // movaps 0x28(%ebp),%xmm3
- .byte 15,41,92,36,32 // movaps %xmm3,0x20(%esp)
- .byte 15,40,93,24 // movaps 0x18(%ebp),%xmm3
- .byte 15,41,92,36,16 // movaps %xmm3,0x10(%esp)
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,76,36,8 // mov %ecx,0x8(%esp)
- .byte 137,124,36,4 // mov %edi,0x4(%esp)
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,220 // movaps %xmm4,%xmm3
- .byte 255,22 // call *(%esi)
- .byte 131,196,80 // add $0x50,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 93 // pop %ebp
- .byte 195 // ret
-
-HIDDEN _sk_srcover_rgba_8888_sse2_lowp
-.globl _sk_srcover_rgba_8888_sse2_lowp
-FUNCTION(_sk_srcover_rgba_8888_sse2_lowp)
-_sk_srcover_rgba_8888_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,172,0,0,0 // sub $0xac,%esp
- .byte 102,15,111,227 // movdqa %xmm3,%xmm4
- .byte 15,41,85,200 // movaps %xmm2,-0x38(%ebp)
- .byte 15,41,77,216 // movaps %xmm1,-0x28(%ebp)
- .byte 102,15,111,248 // movdqa %xmm0,%xmm7
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,121,4 // mov 0x4(%ecx),%edi
- .byte 15,175,125,20 // imul 0x14(%ebp),%edi
- .byte 193,231,2 // shl $0x2,%edi
- .byte 3,57 // add (%ecx),%edi
- .byte 137,211 // mov %edx,%ebx
- .byte 128,227,7 // and $0x7,%bl
- .byte 254,203 // dec %bl
- .byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call 101f9 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
- .byte 89 // pop %ecx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja 1021f <_sk_srcover_rgba_8888_sse2_lowp+0x65>
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 139,132,145,75,2,0,0 // mov 0x24b(%ecx,%edx,4),%eax
- .byte 1,200 // add %ecx,%eax
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 255,224 // jmp *%eax
- .byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
- .byte 15,87,219 // xorps %xmm3,%xmm3
- .byte 235,73 // jmp 10268 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
- .byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
- .byte 15,16,92,183,16 // movups 0x10(%edi,%esi,4),%xmm3
- .byte 235,61 // jmp 10268 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
- .byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
- .byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
- .byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp 10268 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
- .byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
- .byte 102,15,112,216,69 // pshufd $0x45,%xmm0,%xmm3
- .byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
- .byte 15,198,195,0 // shufps $0x0,%xmm3,%xmm0
- .byte 15,198,195,226 // shufps $0xe2,%xmm3,%xmm0
- .byte 15,40,216 // movaps %xmm0,%xmm3
- .byte 243,15,16,68,183,16 // movss 0x10(%edi,%esi,4),%xmm0
- .byte 243,15,16,216 // movss %xmm0,%xmm3
- .byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
- .byte 102,15,40,206 // movapd %xmm6,%xmm1
- .byte 102,15,114,241,16 // pslld $0x10,%xmm1
- .byte 102,15,114,225,16 // psrad $0x10,%xmm1
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 15,40,195 // movaps %xmm3,%xmm0
- .byte 102,15,40,214 // movapd %xmm6,%xmm2
- .byte 102,15,114,214,24 // psrld $0x18,%xmm6
- .byte 102,15,114,246,16 // pslld $0x10,%xmm6
- .byte 102,15,114,230,16 // psrad $0x10,%xmm6
- .byte 102,15,114,211,24 // psrld $0x18,%xmm3
- .byte 102,15,114,243,16 // pslld $0x10,%xmm3
- .byte 102,15,114,227,16 // psrad $0x10,%xmm3
- .byte 102,15,107,243 // packssdw %xmm3,%xmm6
- .byte 102,15,111,153,103,12,0,0 // movdqa 0xc67(%ecx),%xmm3
- .byte 102,15,114,208,16 // psrld $0x10,%xmm0
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,114,226,16 // psrad $0x10,%xmm2
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,107,208 // packssdw %xmm0,%xmm2
- .byte 102,15,111,193 // movdqa %xmm1,%xmm0
- .byte 102,15,219,195 // pand %xmm3,%xmm0
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,249,236 // psubw %xmm4,%xmm5
- .byte 102,15,127,69,184 // movdqa %xmm0,-0x48(%ebp)
- .byte 102,15,213,197 // pmullw %xmm5,%xmm0
- .byte 102,15,253,195 // paddw %xmm3,%xmm0
- .byte 102,15,113,208,8 // psrlw $0x8,%xmm0
- .byte 102,15,253,199 // paddw %xmm7,%xmm0
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,127,77,152 // movdqa %xmm1,-0x68(%ebp)
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,253,203 // paddw %xmm3,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,253,77,216 // paddw -0x28(%ebp),%xmm1
- .byte 102,15,219,211 // pand %xmm3,%xmm2
- .byte 102,15,127,85,216 // movdqa %xmm2,-0x28(%ebp)
- .byte 102,15,111,250 // movdqa %xmm2,%xmm7
- .byte 102,15,213,253 // pmullw %xmm5,%xmm7
- .byte 102,15,253,251 // paddw %xmm3,%xmm7
- .byte 102,15,113,215,8 // psrlw $0x8,%xmm7
- .byte 102,15,253,125,200 // paddw -0x38(%ebp),%xmm7
- .byte 102,15,127,117,200 // movdqa %xmm6,-0x38(%ebp)
- .byte 102,15,213,238 // pmullw %xmm6,%xmm5
- .byte 102,15,253,235 // paddw %xmm3,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,253,236 // paddw %xmm4,%xmm5
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,113,246,8 // psllw $0x8,%xmm6
- .byte 102,15,127,69,168 // movdqa %xmm0,-0x58(%ebp)
- .byte 102,15,235,240 // por %xmm0,%xmm6
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,111,214 // movdqa %xmm6,%xmm2
- .byte 102,15,97,211 // punpcklwd %xmm3,%xmm2
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,113,244,8 // psllw $0x8,%xmm4
- .byte 102,15,235,231 // por %xmm7,%xmm4
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
- .byte 102,15,235,194 // por %xmm2,%xmm0
- .byte 102,15,105,243 // punpckhwd %xmm3,%xmm6
- .byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
- .byte 102,15,235,222 // por %xmm6,%xmm3
- .byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja 103a9 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
- .byte 3,140,145,103,2,0,0 // add 0x267(%ecx,%edx,4),%ecx
- .byte 255,225 // jmp *%ecx
- .byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp 103e9 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
- .byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
- .byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp 103e9 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
- .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
- .byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
- .byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp 103e9 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
- .byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
- .byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
- .byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
- .byte 102,15,126,84,183,20 // movd %xmm2,0x14(%edi,%esi,4)
- .byte 102,15,126,92,183,16 // movd %xmm3,0x10(%edi,%esi,4)
- .byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 137,193 // mov %eax,%ecx
- .byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,152 // movaps -0x68(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,68,36,4 // mov %eax,0x4(%esp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,69,168 // movaps -0x58(%ebp),%xmm0
- .byte 102,15,111,215 // movdqa %xmm7,%xmm2
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 129,196,172,0,0,0 // add $0xac,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 28,0 // sbb $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 61,0,0,0,50 // cmp $0x32000000,%eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,106,0 // add %ch,0x0(%edx)
- .byte 0,0 // add %al,(%eax)
- .byte 96 // pusha
- .byte 0,0 // add %al,(%eax)
- .byte 0,79,0 // add %cl,0x0(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 68 // inc %esp
- .byte 0,0 // add %al,(%eax)
- .byte 0,169,1,0,0,200 // add %ch,-0x37ffffff(%ecx)
- .byte 1,0 // add %eax,(%eax)
- .byte 0,189,1,0,0,235 // add %bh,-0x14ffffff(%ebp)
- .byte 1,0 // add %eax,(%eax)
- .byte 0,229 // add %ah,%ch
- .byte 1,0 // add %eax,(%eax)
- .byte 0,218 // add %bl,%dl
- .byte 1,0 // add %eax,(%eax)
- .byte 0,207 // add %cl,%bh
- .byte 1,0 // add %eax,(%eax)
- .byte 0 // .byte 0x0
-
-HIDDEN _sk_srcover_bgra_8888_sse2_lowp
-.globl _sk_srcover_bgra_8888_sse2_lowp
-FUNCTION(_sk_srcover_bgra_8888_sse2_lowp)
-_sk_srcover_bgra_8888_sse2_lowp:
- .byte 85 // push %ebp
- .byte 137,229 // mov %esp,%ebp
- .byte 83 // push %ebx
- .byte 87 // push %edi
- .byte 86 // push %esi
- .byte 129,236,188,0,0,0 // sub $0xbc,%esp
- .byte 102,15,111,251 // movdqa %xmm3,%xmm7
- .byte 15,41,85,184 // movaps %xmm2,-0x48(%ebp)
- .byte 15,41,77,200 // movaps %xmm1,-0x38(%ebp)
- .byte 102,15,127,69,216 // movdqa %xmm0,-0x28(%ebp)
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 139,85,8 // mov 0x8(%ebp),%edx
- .byte 139,8 // mov (%eax),%ecx
- .byte 139,121,4 // mov 0x4(%ecx),%edi
- .byte 15,175,125,20 // imul 0x14(%ebp),%edi
- .byte 193,231,2 // shl $0x2,%edi
- .byte 3,57 // add (%ecx),%edi
- .byte 137,211 // mov %edx,%ebx
- .byte 128,227,7 // and $0x7,%bl
- .byte 254,203 // dec %bl
- .byte 128,251,6 // cmp $0x6,%bl
- .byte 232,0,0,0,0 // call 104bc <_sk_srcover_bgra_8888_sse2_lowp+0x40>
- .byte 89 // pop %ecx
- .byte 139,117,16 // mov 0x10(%ebp),%esi
- .byte 15,182,211 // movzbl %bl,%edx
- .byte 119,29 // ja 104e2 <_sk_srcover_bgra_8888_sse2_lowp+0x66>
- .byte 102,15,239,228 // pxor %xmm4,%xmm4
- .byte 139,132,145,80,2,0,0 // mov 0x250(%ecx,%edx,4),%eax
- .byte 1,200 // add %ecx,%eax
- .byte 102,15,239,246 // pxor %xmm6,%xmm6
- .byte 255,224 // jmp *%eax
- .byte 243,15,16,52,183 // movss (%edi,%esi,4),%xmm6
- .byte 15,87,228 // xorps %xmm4,%xmm4
- .byte 235,73 // jmp 1052b <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
- .byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
- .byte 15,16,100,183,16 // movups 0x10(%edi,%esi,4),%xmm4
- .byte 235,61 // jmp 1052b <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
- .byte 102,15,110,68,183,8 // movd 0x8(%edi,%esi,4),%xmm0
- .byte 102,15,112,240,69 // pshufd $0x45,%xmm0,%xmm6
- .byte 102,15,18,52,183 // movlpd (%edi,%esi,4),%xmm6
- .byte 235,43 // jmp 1052b <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
- .byte 102,15,110,68,183,24 // movd 0x18(%edi,%esi,4),%xmm0
- .byte 102,15,112,224,69 // pshufd $0x45,%xmm0,%xmm4
- .byte 243,15,16,68,183,20 // movss 0x14(%edi,%esi,4),%xmm0
- .byte 15,198,196,0 // shufps $0x0,%xmm4,%xmm0
- .byte 15,198,196,226 // shufps $0xe2,%xmm4,%xmm0
- .byte 15,40,224 // movaps %xmm0,%xmm4
- .byte 243,15,16,68,183,16 // movss 0x10(%edi,%esi,4),%xmm0
- .byte 243,15,16,224 // movss %xmm0,%xmm4
- .byte 102,15,16,52,183 // movupd (%edi,%esi,4),%xmm6
- .byte 102,15,40,206 // movapd %xmm6,%xmm1
- .byte 102,15,114,241,16 // pslld $0x10,%xmm1
- .byte 102,15,114,225,16 // psrad $0x10,%xmm1
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,107,200 // packssdw %xmm0,%xmm1
- .byte 15,40,196 // movaps %xmm4,%xmm0
- .byte 102,15,40,214 // movapd %xmm6,%xmm2
- .byte 102,15,114,214,24 // psrld $0x18,%xmm6
- .byte 102,15,114,246,16 // pslld $0x10,%xmm6
- .byte 102,15,114,230,16 // psrad $0x10,%xmm6
- .byte 102,15,114,212,24 // psrld $0x18,%xmm4
- .byte 102,15,114,244,16 // pslld $0x10,%xmm4
- .byte 102,15,114,228,16 // psrad $0x10,%xmm4
- .byte 102,15,107,244 // packssdw %xmm4,%xmm6
- .byte 102,15,111,153,164,9,0,0 // movdqa 0x9a4(%ecx),%xmm3
- .byte 102,15,114,208,16 // psrld $0x10,%xmm0
- .byte 102,15,114,210,16 // psrld $0x10,%xmm2
- .byte 102,15,114,242,16 // pslld $0x10,%xmm2
- .byte 102,15,114,226,16 // psrad $0x10,%xmm2
- .byte 102,15,114,240,16 // pslld $0x10,%xmm0
- .byte 102,15,114,224,16 // psrad $0x10,%xmm0
- .byte 102,15,107,208 // packssdw %xmm0,%xmm2
- .byte 102,15,219,211 // pand %xmm3,%xmm2
- .byte 102,15,111,235 // movdqa %xmm3,%xmm5
- .byte 102,15,249,239 // psubw %xmm7,%xmm5
- .byte 102,15,127,85,136 // movdqa %xmm2,-0x78(%ebp)
- .byte 102,15,213,213 // pmullw %xmm5,%xmm2
- .byte 102,15,253,211 // paddw %xmm3,%xmm2
- .byte 102,15,113,210,8 // psrlw $0x8,%xmm2
- .byte 102,15,253,85,216 // paddw -0x28(%ebp),%xmm2
- .byte 102,15,111,225 // movdqa %xmm1,%xmm4
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,127,77,216 // movdqa %xmm1,-0x28(%ebp)
- .byte 102,15,213,205 // pmullw %xmm5,%xmm1
- .byte 102,15,253,203 // paddw %xmm3,%xmm1
- .byte 102,15,113,209,8 // psrlw $0x8,%xmm1
- .byte 102,15,253,77,200 // paddw -0x38(%ebp),%xmm1
- .byte 102,15,219,227 // pand %xmm3,%xmm4
- .byte 102,15,127,101,168 // movdqa %xmm4,-0x58(%ebp)
- .byte 102,15,213,229 // pmullw %xmm5,%xmm4
- .byte 102,15,253,227 // paddw %xmm3,%xmm4
- .byte 102,15,113,212,8 // psrlw $0x8,%xmm4
- .byte 102,15,253,101,184 // paddw -0x48(%ebp),%xmm4
- .byte 102,15,127,117,184 // movdqa %xmm6,-0x48(%ebp)
- .byte 102,15,213,238 // pmullw %xmm6,%xmm5
- .byte 102,15,253,235 // paddw %xmm3,%xmm5
- .byte 102,15,113,213,8 // psrlw $0x8,%xmm5
- .byte 102,15,253,239 // paddw %xmm7,%xmm5
- .byte 102,15,111,241 // movdqa %xmm1,%xmm6
- .byte 102,15,113,246,8 // psllw $0x8,%xmm6
- .byte 102,15,127,101,152 // movdqa %xmm4,-0x68(%ebp)
- .byte 102,15,235,244 // por %xmm4,%xmm6
- .byte 102,15,239,219 // pxor %xmm3,%xmm3
- .byte 102,15,111,254 // movdqa %xmm6,%xmm7
- .byte 102,15,97,251 // punpcklwd %xmm3,%xmm7
- .byte 102,15,111,229 // movdqa %xmm5,%xmm4
- .byte 102,15,113,244,8 // psllw $0x8,%xmm4
- .byte 102,15,127,85,200 // movdqa %xmm2,-0x38(%ebp)
- .byte 102,15,235,226 // por %xmm2,%xmm4
- .byte 102,15,239,192 // pxor %xmm0,%xmm0
- .byte 102,15,97,196 // punpcklwd %xmm4,%xmm0
- .byte 102,15,235,199 // por %xmm7,%xmm0
- .byte 102,15,105,243 // punpckhwd %xmm3,%xmm6
- .byte 102,15,105,220 // punpckhwd %xmm4,%xmm3
- .byte 102,15,235,222 // por %xmm6,%xmm3
- .byte 128,251,6 // cmp $0x6,%bl
- .byte 119,16 // ja 1066e <_sk_srcover_bgra_8888_sse2_lowp+0x1f2>
- .byte 3,140,145,108,2,0,0 // add 0x26c(%ecx,%edx,4),%ecx
- .byte 255,225 // jmp *%ecx
- .byte 102,15,126,4,183 // movd %xmm0,(%edi,%esi,4)
- .byte 235,64 // jmp 106ae <_sk_srcover_bgra_8888_sse2_lowp+0x232>
- .byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
- .byte 243,15,127,92,183,16 // movdqu %xmm3,0x10(%edi,%esi,4)
- .byte 235,51 // jmp 106ae <_sk_srcover_bgra_8888_sse2_lowp+0x232>
- .byte 102,15,112,208,78 // pshufd $0x4e,%xmm0,%xmm2
- .byte 102,15,126,84,183,8 // movd %xmm2,0x8(%edi,%esi,4)
- .byte 102,15,214,4,183 // movq %xmm0,(%edi,%esi,4)
- .byte 235,33 // jmp 106ae <_sk_srcover_bgra_8888_sse2_lowp+0x232>
- .byte 102,15,112,211,78 // pshufd $0x4e,%xmm3,%xmm2
- .byte 102,15,126,84,183,24 // movd %xmm2,0x18(%edi,%esi,4)
- .byte 102,15,112,211,229 // pshufd $0xe5,%xmm3,%xmm2
- .byte 102,15,126,84,183,20 // movd %xmm2,0x14(%edi,%esi,4)
- .byte 102,15,126,92,183,16 // movd %xmm3,0x10(%edi,%esi,4)
- .byte 243,15,127,4,183 // movdqu %xmm0,(%edi,%esi,4)
- .byte 139,69,12 // mov 0xc(%ebp),%eax
- .byte 137,193 // mov %eax,%ecx
- .byte 141,65,8 // lea 0x8(%ecx),%eax
- .byte 15,40,69,184 // movaps -0x48(%ebp),%xmm0
- .byte 15,41,68,36,64 // movaps %xmm0,0x40(%esp)
- .byte 15,40,69,168 // movaps -0x58(%ebp),%xmm0
- .byte 15,41,68,36,48 // movaps %xmm0,0x30(%esp)
- .byte 15,40,69,216 // movaps -0x28(%ebp),%xmm0
- .byte 15,41,68,36,32 // movaps %xmm0,0x20(%esp)
- .byte 15,40,69,136 // movaps -0x78(%ebp),%xmm0
- .byte 15,41,68,36,16 // movaps %xmm0,0x10(%esp)
- .byte 139,85,20 // mov 0x14(%ebp),%edx
- .byte 137,84,36,12 // mov %edx,0xc(%esp)
- .byte 137,116,36,8 // mov %esi,0x8(%esp)
- .byte 137,68,36,4 // mov %eax,0x4(%esp)
- .byte 139,69,8 // mov 0x8(%ebp),%eax
- .byte 137,4,36 // mov %eax,(%esp)
- .byte 15,40,69,200 // movaps -0x38(%ebp),%xmm0
- .byte 15,40,85,152 // movaps -0x68(%ebp),%xmm2
- .byte 102,15,111,221 // movdqa %xmm5,%xmm3
- .byte 255,81,4 // call *0x4(%ecx)
- .byte 129,196,188,0,0,0 // add $0xbc,%esp
- .byte 94 // pop %esi
- .byte 95 // pop %edi
- .byte 91 // pop %ebx
- .byte 93 // pop %ebp
- .byte 195 // ret
- .byte 15,31,0 // nopl (%eax)
- .byte 28,0 // sbb $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 61,0,0,0,50 // cmp $0x32000000,%eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,106,0 // add %ch,0x0(%edx)
- .byte 0,0 // add %al,(%eax)
- .byte 96 // pusha
- .byte 0,0 // add %al,(%eax)
- .byte 0,79,0 // add %cl,0x0(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 68 // inc %esp
- .byte 0,0 // add %al,(%eax)
- .byte 0,171,1,0,0,202 // add %ch,-0x35ffffff(%ebx)
- .byte 1,0 // add %eax,(%eax)
- .byte 0,191,1,0,0,237 // add %bh,-0x12ffffff(%edi)
- .byte 1,0 // add %eax,(%eax)
- .byte 0,231 // add %ah,%bh
- .byte 1,0 // add %eax,(%eax)
- .byte 0,220 // add %bl,%ah
- .byte 1,0 // add %eax,(%eax)
- .byte 0,209 // add %dl,%cl
- .byte 1,0 // add %eax,(%eax)
- .byte 0 // .byte 0x0
-
-BALIGN16
- .byte 0,0 // add %al,(%eax)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 128,63,0 // cmpb $0x0,(%edi)
- .byte 0,128,63,0,0,128 // add %al,-0x7fffffc1(%eax)
- .byte 63 // aas
- .byte 0,0 // add %al,(%eax)
- .byte 128,63,0 // cmpb $0x0,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,1 // add %al,(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 0,2 // add %al,(%edx)
- .byte 0,0 // add %al,(%eax)
- .byte 0,3 // add %al,(%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 0,1 // add %al,(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 0,1 // add %al,(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 0,1 // add %al,(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 0,1 // add %al,(%ecx)
- .byte 0,0 // add %al,(%eax)
- .byte 0,4,0 // add %al,(%eax,%eax,1)
- .byte 0,0 // add %al,(%eax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 2,0 // add (%eax),%al
- .byte 0,0 // add %al,(%eax)
- .byte 2,0 // add (%eax),%al
- .byte 0,0 // add %al,(%eax)
- .byte 2,0 // add (%eax),%al
- .byte 0,0 // add %al,(%eax)
- .byte 2,0 // add (%eax),%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 128,60,0,0 // cmpb $0x0,(%eax,%eax,1)
- .byte 128,60,0,0 // cmpb $0x0,(%eax,%eax,1)
- .byte 128,60,0,0 // cmpb $0x0,(%eax,%eax,1)
- .byte 128,60,0,0 // cmpb $0x0,(%eax,%eax,1)
- .byte 252 // cld
- .byte 190,0,0,252,190 // mov $0xbefc0000,%esi
- .byte 0,0 // add %al,(%eax)
- .byte 252 // cld
- .byte 190,0,0,252,190 // mov $0xbefc0000,%esi
- .byte 0,0 // add %al,(%eax)
- .byte 128,191,0,0,128,191,0 // cmpb $0x0,-0x40800000(%edi)
- .byte 0,128,191,0,0,128 // add %al,-0x7fffff41(%eax)
- .byte 191,0,0,224,64 // mov $0x40e00000,%edi
- .byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne 10828 <.literal16+0xd8>
- .byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne 1082c <.literal16+0xdc>
- .byte 0,0 // add %al,(%eax)
- .byte 224,64 // loopne 10830 <.literal16+0xe0>
- .byte 154,153,153,62,154,153,153 // lcall $0x9999,$0x9a3e9999
- .byte 62,154,153,153,62,154,153,153 // ds lcall $0x9999,$0x9a3e9999
- .byte 62,61,10,23,63,61 // ds cmp $0x3d3f170a,%eax
- .byte 10,23 // or (%edi),%dl
- .byte 63 // aas
- .byte 61,10,23,63,61 // cmp $0x3d3f170a,%eax
- .byte 10,23 // or (%edi),%dl
- .byte 63 // aas
- .byte 174 // scas %es:(%edi),%al
- .byte 71 // inc %edi
- .byte 225,61 // loope 10851 <.literal16+0x101>
- .byte 174 // scas %es:(%edi),%al
- .byte 71 // inc %edi
- .byte 225,61 // loope 10855 <.literal16+0x105>
- .byte 174 // scas %es:(%edi),%al
- .byte 71 // inc %edi
- .byte 225,61 // loope 10859 <.literal16+0x109>
- .byte 174 // scas %es:(%edi),%al
- .byte 71 // inc %edi
- .byte 225,61 // loope 1085d <.literal16+0x10d>
- .byte 255,0 // incl (%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 255,0 // incl (%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 255,0 // incl (%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 255,0 // incl (%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 10877 <.literal16+0x127>
- .byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 1087b <.literal16+0x12b>
- .byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 1087f <.literal16+0x12f>
- .byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 10883 <.literal16+0x133>
- .byte 0,0 // add %al,(%eax)
- .byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
- .byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
- .byte 128,127,0,0 // cmpb $0x0,0x0(%edi)
- .byte 128,127,145,131 // cmpb $0x83,-0x6f(%edi)
- .byte 158 // sahf
- .byte 61,145,131,158,61 // cmp $0x3d9e8391,%eax
- .byte 145 // xchg %eax,%ecx
- .byte 131,158,61,145,131,158,61 // sbbl $0x3d,-0x617c6ec3(%esi)
- .byte 92 // pop %esp
- .byte 143 // (bad)
- .byte 50,63 // xor (%edi),%bh
- .byte 92 // pop %esp
- .byte 143 // (bad)
- .byte 50,63 // xor (%edi),%bh
- .byte 92 // pop %esp
- .byte 143 // (bad)
- .byte 50,63 // xor (%edi),%bh
- .byte 92 // pop %esp
- .byte 143 // (bad)
- .byte 50,63 // xor (%edi),%bh
- .byte 10,215 // or %bh,%dl
- .byte 35,59 // and (%ebx),%edi
- .byte 10,215 // or %bh,%dl
- .byte 35,59 // and (%ebx),%edi
- .byte 10,215 // or %bh,%dl
- .byte 35,59 // and (%ebx),%edi
- .byte 10,215 // or %bh,%dl
- .byte 35,59 // and (%ebx),%edi
- .byte 174 // scas %es:(%edi),%al
- .byte 71 // inc %edi
- .byte 97 // popa
- .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax
- .byte 174 // scas %es:(%edi),%al
- .byte 71 // inc %edi
- .byte 97 // popa
- .byte 61,174,71,97,61 // cmp $0x3d6147ae,%eax
- .byte 82 // push %edx
- .byte 184,78,65,82,184 // mov $0xb852414e,%eax
- .byte 78 // dec %esi
- .byte 65 // inc %ecx
- .byte 82 // push %edx
- .byte 184,78,65,82,184 // mov $0xb852414e,%eax
- .byte 78 // dec %esi
- .byte 65 // inc %ecx
- .byte 57,215 // cmp %edx,%edi
- .byte 32,187,57,215,32,187 // and %bh,-0x44df28c7(%ebx)
- .byte 57,215 // cmp %edx,%edi
- .byte 32,187,57,215,32,187 // and %bh,-0x44df28c7(%ebx)
- .byte 186,159,98,60,186 // mov $0xba3c629f,%edx
- .byte 159 // lahf
- .byte 98,60,186 // bound %edi,(%edx,%edi,4)
- .byte 159 // lahf
- .byte 98,60,186 // bound %edi,(%edx,%edi,4)
- .byte 159 // lahf
- .byte 98,60,109,165,144,63,109 // bound %edi,0x6d3f90a5(,%ebp,2)
- .byte 165 // movsl %ds:(%esi),%es:(%edi)
- .byte 144 // nop
- .byte 63 // aas
- .byte 109 // insl (%dx),%es:(%edi)
- .byte 165 // movsl %ds:(%esi),%es:(%edi)
- .byte 144 // nop
- .byte 63 // aas
- .byte 109 // insl (%dx),%es:(%edi)
- .byte 165 // movsl %ds:(%esi),%es:(%edi)
- .byte 144 // nop
- .byte 63 // aas
- .byte 252 // cld
- .byte 191,16,62,252,191 // mov $0xbffc3e10,%edi
- .byte 16,62 // adc %bh,(%esi)
- .byte 252 // cld
- .byte 191,16,62,252,191 // mov $0xbffc3e10,%edi
- .byte 16,62 // adc %bh,(%esi)
- .byte 168,177 // test $0xb1,%al
- .byte 152 // cwtl
- .byte 59,168,177,152,59,168 // cmp -0x57c4674f(%eax),%ebp
- .byte 177,152 // mov $0x98,%cl
- .byte 59,168,177,152,59,0 // cmp 0x3b98b1(%eax),%ebp
- .byte 0,192 // add %al,%al
- .byte 64 // inc %eax
- .byte 0,0 // add %al,(%eax)
- .byte 192,64,0,0 // rolb $0x0,0x0(%eax)
- .byte 192,64,0,0 // rolb $0x0,0x0(%eax)
- .byte 192,64,0,0 // rolb $0x0,0x0(%eax)
- .byte 0,64,0 // add %al,0x0(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 64 // inc %eax
- .byte 0,0 // add %al,(%eax)
- .byte 0,64,0 // add %al,0x0(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 64 // inc %eax
- .byte 0,0 // add %al,(%eax)
- .byte 128,64,0,0 // addb $0x0,0x0(%eax)
- .byte 128,64,0,0 // addb $0x0,0x0(%eax)
- .byte 128,64,0,0 // addb $0x0,0x0(%eax)
- .byte 128,64,171,170 // addb $0xaa,-0x55(%eax)
- .byte 42,62 // sub (%esi),%bh
- .byte 171 // stos %eax,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 42,62 // sub (%esi),%bh
- .byte 171 // stos %eax,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 42,62 // sub (%esi),%bh
- .byte 171 // stos %eax,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 42,62 // sub (%esi),%bh
- .byte 171 // stos %eax,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 62,171 // ds stos %eax,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 62,171 // ds stos %eax,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 62,171 // ds stos %eax,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 62,171 // ds stos %eax,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 42,63 // sub (%edi),%bh
- .byte 171 // stos %eax,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 42,63 // sub (%edi),%bh
- .byte 171 // stos %eax,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 42,63 // sub (%edi),%bh
- .byte 171 // stos %eax,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 42,63 // sub (%edi),%bh
- .byte 171 // stos %eax,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
- .byte 171 // stos %eax,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 170 // stos %al,%es:(%edi)
- .byte 190,171,170,170,190 // mov $0xbeaaaaab,%esi
- .byte 129,128,128,59,129,128,128,59,129,128// addl $0x80813b80,-0x7f7ec480(%eax)
- .byte 128,59,129 // cmpb $0x81,(%ebx)
- .byte 128,128,59,0,248,0,0 // addb $0x0,0xf8003b(%eax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,248 // add %bh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 8,33 // or %ah,(%ecx)
- .byte 132,55 // test %dh,(%edi)
- .byte 8,33 // or %ah,(%ecx)
- .byte 132,55 // test %dh,(%edi)
- .byte 8,33 // or %ah,(%ecx)
- .byte 132,55 // test %dh,(%edi)
- .byte 8,33 // or %ah,(%ecx)
- .byte 132,55 // test %dh,(%edi)
- .byte 224,7 // loopne 10999 <.literal16+0x249>
- .byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 1099d <.literal16+0x24d>
- .byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 109a1 <.literal16+0x251>
- .byte 0,0 // add %al,(%eax)
- .byte 224,7 // loopne 109a5 <.literal16+0x255>
- .byte 0,0 // add %al,(%eax)
- .byte 33,8 // and %ecx,(%eax)
- .byte 2,58 // add (%edx),%bh
- .byte 33,8 // and %ecx,(%eax)
- .byte 2,58 // add (%edx),%bh
- .byte 33,8 // and %ecx,(%eax)
- .byte 2,58 // add (%edx),%bh
- .byte 33,8 // and %ecx,(%eax)
- .byte 2,58 // add (%edx),%bh
- .byte 31 // pop %ds
- .byte 0,0 // add %al,(%eax)
- .byte 0,31 // add %bl,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,31 // add %bl,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,31 // add %bl,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,8 // add %cl,(%eax)
- .byte 33,4,61,8,33,4,61 // and %eax,0x3d042108(,%edi,1)
- .byte 8,33 // or %ah,(%ecx)
- .byte 4,61 // add $0x3d,%al
- .byte 8,33 // or %ah,(%ecx)
- .byte 4,61 // add $0x3d,%al
- .byte 255,0 // incl (%eax)
- .byte 255,0 // incl (%eax)
- .byte 255,0 // incl (%eax)
- .byte 255,0 // incl (%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 128,0,128 // addb $0x80,(%eax)
- .byte 55 // aaa
- .byte 128,0,128 // addb $0x80,(%eax)
- .byte 55 // aaa
- .byte 128,0,128 // addb $0x80,(%eax)
- .byte 55 // aaa
- .byte 128,0,128 // addb $0x80,(%eax)
- .byte 55 // aaa
- .byte 0,0 // add %al,(%eax)
- .byte 0,52,0 // add %dh,(%eax,%eax,1)
- .byte 0,0 // add %al,(%eax)
- .byte 52,0 // xor $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 52,0 // xor $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 52,255 // xor $0xff,%al
- .byte 255 // (bad)
- .byte 127,0 // jg 10a04 <.literal16+0x2b4>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,0 // jg 10a08 <.literal16+0x2b8>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,0 // jg 10a0c <.literal16+0x2bc>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,0 // jg 10a10 <.literal16+0x2c0>
- .byte 119,115 // ja 10a85 <.literal16+0x335>
- .byte 248 // clc
- .byte 194,119,115 // ret $0x7377
- .byte 248 // clc
- .byte 194,119,115 // ret $0x7377
- .byte 248 // clc
- .byte 194,119,115 // ret $0x7377
- .byte 248 // clc
- .byte 194,117,191 // ret $0xbf75
- .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
- .byte 63 // aas
- .byte 117,191 // jne 109e9 <.literal16+0x299>
- .byte 191,63,117,191,191 // mov $0xbfbf753f,%edi
- .byte 63 // aas
- .byte 249 // stc
- .byte 68 // inc %esp
- .byte 180,62 // mov $0x3e,%ah
- .byte 249 // stc
- .byte 68 // inc %esp
- .byte 180,62 // mov $0x3e,%ah
- .byte 249 // stc
- .byte 68 // inc %esp
- .byte 180,62 // mov $0x3e,%ah
- .byte 249 // stc
- .byte 68 // inc %esp
- .byte 180,62 // mov $0x3e,%ah
- .byte 163,233,220,63,163 // mov %eax,0xa33fdce9
- .byte 233,220,63,163,233 // jmp e9a44a26 <_sk_srcover_bgra_8888_sse2_lowp+0xe9a345aa>
- .byte 220,63 // fdivrl (%edi)
- .byte 163,233,220,63,81 // mov %eax,0x513fdce9
- .byte 140,242 // mov %?,%edx
- .byte 66 // inc %edx
- .byte 81 // push %ecx
- .byte 140,242 // mov %?,%edx
- .byte 66 // inc %edx
- .byte 81 // push %ecx
- .byte 140,242 // mov %?,%edx
- .byte 66 // inc %edx
- .byte 81 // push %ecx
- .byte 140,242 // mov %?,%edx
- .byte 66 // inc %edx
- .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%esi,%edi,4),%edi
- .byte 63 // aas
- .byte 141,188,190,63,141,188,190 // lea -0x414372c1(%esi,%edi,4),%edi
- .byte 63 // aas
- .byte 248 // clc
- .byte 245 // cmc
- .byte 154,64,248,245,154,64,248 // lcall $0xf840,$0x9af5f840
- .byte 245 // cmc
- .byte 154,64,248,245,154,64,254 // lcall $0xfe40,$0x9af5f840
- .byte 210,221 // rcr %cl,%ch
- .byte 65 // inc %ecx
- .byte 254 // (bad)
- .byte 210,221 // rcr %cl,%ch
- .byte 65 // inc %ecx
- .byte 254 // (bad)
- .byte 210,221 // rcr %cl,%ch
- .byte 65 // inc %ecx
- .byte 254 // (bad)
- .byte 210,221 // rcr %cl,%ch
- .byte 65 // inc %ecx
- .byte 0,0 // add %al,(%eax)
- .byte 0,75,0 // add %cl,0x0(%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 75 // dec %ebx
- .byte 0,0 // add %al,(%eax)
- .byte 0,75,0 // add %cl,0x0(%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 75 // dec %ebx
- .byte 0,0 // add %al,(%eax)
- .byte 200,66,0,0 // enter $0x42,$0x0
- .byte 200,66,0,0 // enter $0x42,$0x0
- .byte 200,66,0,0 // enter $0x42,$0x0
- .byte 200,66,0,0 // enter $0x42,$0x0
- .byte 0,195 // add %al,%bl
- .byte 0,0 // add %al,(%eax)
- .byte 0,195 // add %al,%bl
- .byte 0,0 // add %al,(%eax)
- .byte 0,195 // add %al,%bl
- .byte 0,0 // add %al,(%eax)
- .byte 0,195 // add %al,%bl
- .byte 0,0 // add %al,(%eax)
- .byte 128,65,0,0 // addb $0x0,0x0(%ecx)
- .byte 128,65,0,0 // addb $0x0,0x0(%ecx)
- .byte 128,65,0,0 // addb $0x0,0x0(%ecx)
- .byte 128,65,203,61 // addb $0x3d,-0x35(%ecx)
- .byte 13,60,203,61,13 // or $0xd3dcb3c,%eax
- .byte 60,203 // cmp $0xcb,%al
- .byte 61,13,60,203,61 // cmp $0x3dcb3c0d,%eax
- .byte 13,60,111,18,3 // or $0x3126f3c,%eax
- .byte 59,111,18 // cmp 0x12(%edi),%ebp
- .byte 3,59 // add (%ebx),%edi
- .byte 111 // outsl %ds:(%esi),(%dx)
- .byte 18,3 // adc (%ebx),%al
- .byte 59,111,18 // cmp 0x12(%edi),%ebp
- .byte 3,59 // add (%ebx),%edi
- .byte 10,215 // or %bh,%dl
- .byte 163,59,10,215,163 // mov %eax,0xa3d70a3b
- .byte 59,10 // cmp (%edx),%ecx
- .byte 215 // xlat %ds:(%ebx)
- .byte 163,59,10,215,163 // mov %eax,0xa3d70a3b
- .byte 59,194 // cmp %edx,%eax
- .byte 24,17 // sbb %dl,(%ecx)
- .byte 60,194 // cmp $0xc2,%al
- .byte 24,17 // sbb %dl,(%ecx)
- .byte 60,194 // cmp $0xc2,%al
- .byte 24,17 // sbb %dl,(%ecx)
- .byte 60,194 // cmp $0xc2,%al
- .byte 24,17 // sbb %dl,(%ecx)
- .byte 60,203 // cmp $0xcb,%al
- .byte 61,13,190,203,61 // cmp $0x3dcbbe0d,%eax
- .byte 13,190,203,61,13 // or $0xd3dcbbe,%eax
- .byte 190,203,61,13,190 // mov $0xbe0d3dcb,%esi
- .byte 80 // push %eax
- .byte 128,3,62 // addb $0x3e,(%ebx)
- .byte 80 // push %eax
- .byte 128,3,62 // addb $0x3e,(%ebx)
- .byte 80 // push %eax
- .byte 128,3,62 // addb $0x3e,(%ebx)
- .byte 80 // push %eax
- .byte 128,3,62 // addb $0x3e,(%ebx)
- .byte 31 // pop %ds
- .byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 10b73 <.literal16+0x423>
- .byte 31 // pop %ds
- .byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 10b77 <.literal16+0x427>
- .byte 31 // pop %ds
- .byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 10b7b <.literal16+0x42b>
- .byte 31 // pop %ds
- .byte 215 // xlat %ds:(%ebx)
- .byte 118,63 // jbe 10b7f <.literal16+0x42f>
- .byte 246,64,83,63 // testb $0x3f,0x53(%eax)
- .byte 246,64,83,63 // testb $0x3f,0x53(%eax)
- .byte 246,64,83,63 // testb $0x3f,0x53(%eax)
- .byte 246,64,83,63 // testb $0x3f,0x53(%eax)
- .byte 255,0 // incl (%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 255,0 // incl (%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 248 // clc
- .byte 65 // inc %ecx
- .byte 0,0 // add %al,(%eax)
- .byte 248 // clc
- .byte 65 // inc %ecx
- .byte 0,0 // add %al,(%eax)
- .byte 248 // clc
- .byte 65 // inc %ecx
- .byte 0,0 // add %al,(%eax)
- .byte 248 // clc
- .byte 65 // inc %ecx
- .byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 10bb6 <.literal16+0x466>
- .byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 10bba <.literal16+0x46a>
- .byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 10bbe <.literal16+0x46e>
- .byte 0,0 // add %al,(%eax)
- .byte 124,66 // jl 10bc2 <.literal16+0x472>
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%eax)
- .byte 136,55 // mov %dh,(%edi)
- .byte 137,136,136,55,137,136 // mov %ecx,-0x7776c878(%eax)
- .byte 136,55 // mov %dh,(%edi)
- .byte 0,15 // add %cl,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,15 // add %cl,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,15 // add %cl,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,15 // add %cl,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%eax)
- .byte 136,57 // mov %bh,(%ecx)
- .byte 137,136,136,57,137,136 // mov %ecx,-0x7776c678(%eax)
- .byte 136,57 // mov %bh,(%ecx)
- .byte 240,0,0 // lock add %al,(%eax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,240 // add %dh,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,137,136,136,59,137 // add %cl,-0x76c47778(%ecx)
- .byte 136,136,59,137,136,136 // mov %cl,-0x777776c5(%eax)
- .byte 59,137,136,136,59,15 // cmp 0xf3b8888(%ecx),%ecx
- .byte 0,0 // add %al,(%eax)
- .byte 0,15 // add %cl,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,15 // add %cl,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,15 // add %cl,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,137,136,136,61,137 // add %cl,-0x76c27778(%ecx)
- .byte 136,136,61,137,136,136 // mov %cl,-0x777776c3(%eax)
- .byte 61,137,136,136,61 // cmp $0x3d888889,%eax
- .byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 10c45 <.literal16+0x4f5>
- .byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 10c49 <.literal16+0x4f9>
- .byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 10c4d <.literal16+0x4fd>
- .byte 0,0 // add %al,(%eax)
- .byte 112,65 // jo 10c51 <.literal16+0x501>
- .byte 255,3 // incl (%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 255,3 // incl (%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 255,3 // incl (%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 255,3 // incl (%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 8,32 // or %ah,(%eax)
- .byte 128,58,8 // cmpb $0x8,(%edx)
- .byte 32,128,58,8,32,128 // and %al,-0x7fdff7c6(%eax)
- .byte 58,8 // cmp (%eax),%cl
- .byte 32,128,58,0,192,127 // and %al,0x7fc0003a(%eax)
- .byte 68 // inc %esp
- .byte 0,192 // add %al,%al
- .byte 127,68 // jg 10c7c <.literal16+0x52c>
- .byte 0,192 // add %al,%al
- .byte 127,68 // jg 10c80 <.literal16+0x530>
- .byte 0,192 // add %al,%al
- .byte 127,68 // jg 10c84 <.literal16+0x534>
- .byte 0,0 // add %al,(%eax)
- .byte 64 // inc %eax
- .byte 64 // inc %eax
- .byte 0,0 // add %al,(%eax)
- .byte 64 // inc %eax
- .byte 64 // inc %eax
- .byte 0,0 // add %al,(%eax)
- .byte 64 // inc %eax
- .byte 64 // inc %eax
- .byte 0,0 // add %al,(%eax)
- .byte 64 // inc %eax
- .byte 64 // inc %eax
- .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 255 // (bad)
- .byte 127,0 // jg 10c63 <.literal16+0x513>
- .byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 10c67 <.literal16+0x517>
- .byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 10c6b <.literal16+0x51b>
- .byte 0,255 // add %bh,%bh
- .byte 127,0 // jg 10c6f <.literal16+0x51f>
- .byte 0,0 // add %al,(%eax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 4,0 // add $0x0,%al
- .byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 56,0 // cmp %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 56,0 // cmp %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 56,0 // cmp %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 56,0 // cmp %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 128,0,0 // addb $0x0,(%eax)
- .byte 0,128,0,0,0,128 // add %al,-0x80000000(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0,128,255,255,255,127 // add %al,0x7fffffff(%eax)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,255 // jg 10ca8 <.literal16+0x558>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,255 // jg 10cac <.literal16+0x55c>
- .byte 255 // (bad)
- .byte 255 // (bad)
- .byte 127,0 // jg 10cb1 <.literal16+0x561>
- .byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
- .byte 56,0 // cmp %al,(%eax)
- .byte 0,128,56,0,0,128 // add %al,-0x7fffffc8(%eax)
- .byte 56,0 // cmp %al,(%eax)
- .byte 0,255 // add %bh,%bh
- .byte 255,0 // incl (%eax)
- .byte 0,255 // add %bh,%bh
- .byte 255,0 // incl (%eax)
- .byte 0,255 // add %bh,%bh
- .byte 255,0 // incl (%eax)
- .byte 0,255 // add %bh,%bh
- .byte 255,0 // incl (%eax)
- .byte 255 // (bad)
- .byte 127,71 // jg 10d1b <.literal16+0x5cb>
- .byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 10d1f <.literal16+0x5cf>
- .byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 10d23 <.literal16+0x5d3>
- .byte 0,255 // add %bh,%bh
- .byte 127,71 // jg 10d27 <.literal16+0x5d7>
- .byte 208 // (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,208 // ds (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,208 // ds (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,208 // ds (bad)
- .byte 179,89 // mov $0x59,%bl
- .byte 62,89 // ds pop %ecx
- .byte 23 // pop %ss
- .byte 55 // aaa
- .byte 63 // aas
- .byte 89 // pop %ecx
- .byte 23 // pop %ss
- .byte 55 // aaa
- .byte 63 // aas
- .byte 89 // pop %ecx
- .byte 23 // pop %ss
- .byte 55 // aaa
- .byte 63 // aas
- .byte 89 // pop %ecx
- .byte 23 // pop %ss
- .byte 55 // aaa
- .byte 63 // aas
- .byte 152 // cwtl
- .byte 221,147,61,152,221,147 // fstl -0x6c2267c3(%ebx)
- .byte 61,152,221,147,61 // cmp $0x3d93dd98,%eax
- .byte 152 // cwtl
- .byte 221,147,61,255,255,0 // fstl 0xffff3d(%ebx)
- .byte 0,255 // add %bh,%bh
- .byte 255,0 // incl (%eax)
- .byte 0,255 // add %bh,%bh
- .byte 255,0 // incl (%eax)
- .byte 0,255 // add %bh,%bh
- .byte 255,0 // incl (%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 83 // push %ebx
- .byte 0,0 // add %al,(%eax)
- .byte 0,83,0 // add %dl,0x0(%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 83 // push %ebx
- .byte 0,0 // add %al,(%eax)
- .byte 0,83,128 // add %dl,-0x80(%ebx)
- .byte 0,0 // add %al,(%eax)
- .byte 211,128,0,0,211,128 // roll %cl,-0x7f2d0000(%eax)
- .byte 0,0 // add %al,(%eax)
- .byte 211,128,0,0,211,111 // roll %cl,0x6fd30000(%eax)
- .byte 43,231 // sub %edi,%esp
- .byte 187,111,43,231,187 // mov $0xbbe72b6f,%ebx
- .byte 111 // outsl %ds:(%esi),(%dx)
- .byte 43,231 // sub %edi,%esp
- .byte 187,111,43,231,187 // mov $0xbbe72b6f,%ebx
- .byte 159 // lahf
- .byte 215 // xlat %ds:(%ebx)
- .byte 202,60,159 // lret $0x9f3c
- .byte 215 // xlat %ds:(%ebx)
- .byte 202,60,159 // lret $0x9f3c
- .byte 215 // xlat %ds:(%ebx)
- .byte 202,60,159 // lret $0x9f3c
- .byte 215 // xlat %ds:(%ebx)
- .byte 202,60,212 // lret $0xd43c
- .byte 100,84 // fs push %esp
- .byte 189,212,100,84,189 // mov $0xbd5464d4,%ebp
- .byte 212,100 // aam $0x64
- .byte 84 // push %esp
- .byte 189,212,100,84,189 // mov $0xbd5464d4,%ebp
- .byte 169,240,34,62,169 // test $0xa93e22f0,%eax
- .byte 240,34,62 // lock and (%esi),%bh
- .byte 169,240,34,62,169 // test $0xa93e22f0,%eax
- .byte 240,34,62 // lock and (%esi),%bh
- .byte 0,0 // add %al,(%eax)
- .byte 128,62,0 // cmpb $0x0,(%esi)
- .byte 0,128,62,0,0,128 // add %al,-0x7fffffc2(%eax)
- .byte 62,0,0 // add %al,%ds:(%eax)
- .byte 128,62,0 // cmpb $0x0,(%esi)
- .byte 0,0 // add %al,(%eax)
- .byte 191,0,0,0,191 // mov $0xbf000000,%edi
- .byte 0,0 // add %al,(%eax)
- .byte 0,191,0,0,0,191 // add %bh,-0x41000000(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 192,191,0,0,192,191,0 // sarb $0x0,-0x40400000(%edi)
- .byte 0,192 // add %al,%al
- .byte 191,0,0,192,191 // mov $0xbfc00000,%edi
- .byte 114,28 // jb 10dce <.literal16+0x67e>
- .byte 199 // (bad)
- .byte 62,114,28 // jb,pt 10dd2 <.literal16+0x682>
- .byte 199 // (bad)
- .byte 62,114,28 // jb,pt 10dd6 <.literal16+0x686>
- .byte 199 // (bad)
- .byte 62,114,28 // jb,pt 10dda <.literal16+0x68a>
- .byte 199 // (bad)
- .byte 62,85 // ds push %ebp
- .byte 85 // push %ebp
- .byte 149 // xchg %eax,%ebp
- .byte 191,85,85,149,191 // mov $0xbf955555,%edi
- .byte 85 // push %ebp
- .byte 85 // push %ebp
- .byte 149 // xchg %eax,%ebp
- .byte 191,85,85,149,191 // mov $0xbf955555,%edi
- .byte 0,0 // add %al,(%eax)
- .byte 192,63,0 // sarb $0x0,(%edi)
- .byte 0,192 // add %al,%al
- .byte 63 // aas
- .byte 0,0 // add %al,(%eax)
- .byte 192,63,0 // sarb $0x0,(%edi)
- .byte 0,192 // add %al,%al
- .byte 63 // aas
- .byte 57,142,99,61,57,142 // cmp %ecx,-0x71c6c29d(%esi)
- .byte 99,61,57,142,99,61 // arpl %di,0x3d638e39
- .byte 57,142,99,61,114,249 // cmp %ecx,-0x68dc29d(%esi)
- .byte 127,63 // jg 10e33 <.literal16+0x6e3>
- .byte 114,249 // jb 10def <.literal16+0x69f>
- .byte 127,63 // jg 10e37 <.literal16+0x6e7>
- .byte 114,249 // jb 10df3 <.literal16+0x6a3>
- .byte 127,63 // jg 10e3b <.literal16+0x6eb>
- .byte 114,249 // jb 10df7 <.literal16+0x6a7>
- .byte 127,63 // jg 10e3f <.literal16+0x6ef>
- .byte 3,0 // add (%eax),%eax
- .byte 0,0 // add %al,(%eax)
- .byte 3,0 // add (%eax),%eax
- .byte 0,0 // add %al,(%eax)
- .byte 3,0 // add (%eax),%eax
- .byte 0,0 // add %al,(%eax)
- .byte 3,0 // add (%eax),%eax
- .byte 0,0 // add %al,(%eax)
- .byte 45,16,17,192,45 // sub $0x2dc01110,%eax
- .byte 16,17 // adc %dl,(%ecx)
- .byte 192,45,16,17,192,45,16 // shrb $0x10,0x2dc01110
- .byte 17,192 // adc %eax,%eax
- .byte 18,120,57 // adc 0x39(%eax),%bh
- .byte 64 // inc %eax
- .byte 18,120,57 // adc 0x39(%eax),%bh
- .byte 64 // inc %eax
- .byte 18,120,57 // adc 0x39(%eax),%bh
- .byte 64 // inc %eax
- .byte 18,120,57 // adc 0x39(%eax),%bh
- .byte 64 // inc %eax
- .byte 32,148,90,62,32,148,90 // and %dl,0x5a94203e(%edx,%ebx,2)
- .byte 62,32,148,90,62,32,148,90 // and %dl,%ds:0x5a94203e(%edx,%ebx,2)
- .byte 62,4,157 // ds add $0x9d,%al
- .byte 30 // push %ds
- .byte 62,4,157 // ds add $0x9d,%al
- .byte 30 // push %ds
- .byte 62,4,157 // ds add $0x9d,%al
- .byte 30 // push %ds
- .byte 62,4,157 // ds add $0x9d,%al
- .byte 30 // push %ds
- .byte 62,0,24 // add %bl,%ds:(%eax)
- .byte 161,57,0,24,161 // mov 0xa1180039,%eax
- .byte 57,0 // cmp %eax,(%eax)
- .byte 24,161,57,0,24,161 // sbb %ah,-0x5ee7ffc7(%ecx)
- .byte 57,255 // cmp %edi,%edi
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,0 // add %al,(%eax)
- .byte 128,0,128 // addb $0x80,(%eax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%eax)
- .byte 0,128,0,128,0,128 // add %al,-0x7fff8000(%eax)
- .byte 254,0 // incb (%eax)
- .byte 254,0 // incb (%eax)
- .byte 254,0 // incb (%eax)
- .byte 254,0 // incb (%eax)
- .byte 254,0 // incb (%eax)
- .byte 254,0 // incb (%eax)
- .byte 254,0 // incb (%eax)
- .byte 254,0 // incb (%eax)
- .byte 254,1 // incb (%ecx)
- .byte 254,1 // incb (%ecx)
- .byte 254,1 // incb (%ecx)
- .byte 254,1 // incb (%ecx)
- .byte 254,1 // incb (%ecx)
- .byte 254,1 // incb (%ecx)
- .byte 254,1 // incb (%ecx)
- .byte 254,1 // incb (%ecx)
- .byte 248 // clc
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,63 // add %bh,(%edi)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,31 // add %bl,(%edi)
- .byte 0,31 // add %bl,(%edi)
- .byte 0,31 // add %bl,(%edi)
- .byte 0,31 // add %bl,(%edi)
- .byte 0,31 // add %bl,(%edi)
- .byte 0,31 // add %bl,(%edi)
- .byte 0,31 // add %bl,(%edi)
- .byte 0,31 // add %bl,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 248 // clc
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 0,248 // add %bh,%al
- .byte 224,255 // loopne 10ee1 <.literal16+0x791>
- .byte 224,255 // loopne 10ee3 <.literal16+0x793>
- .byte 224,255 // loopne 10ee5 <.literal16+0x795>
- .byte 224,255 // loopne 10ee7 <.literal16+0x797>
- .byte 224,255 // loopne 10ee9 <.literal16+0x799>
- .byte 224,255 // loopne 10eeb <.literal16+0x79b>
- .byte 224,255 // loopne 10eed <.literal16+0x79d>
- .byte 224,255 // loopne 10eef <.literal16+0x79f>
- .byte 15,0,15 // str (%edi)
- .byte 0,15 // add %cl,(%edi)
- .byte 0,15 // add %cl,(%edi)
- .byte 0,15 // add %cl,(%edi)
- .byte 0,15 // add %cl,(%edi)
- .byte 0,15 // add %cl,(%edi)
- .byte 0,15 // add %cl,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 240,0,240 // lock add %dh,%al
- .byte 0,240 // add %dh,%al
- .byte 0,240 // add %dh,%al
- .byte 0,240 // add %dh,%al
- .byte 0,240 // add %dh,%al
- .byte 0,240 // add %dh,%al
- .byte 0,240 // add %dh,%al
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 0,255 // add %bh,%bh
- .byte 240,255,240 // lock push %eax
- .byte 255,240 // push %eax
- .byte 255,240 // push %eax
- .byte 255,240 // push %eax
- .byte 255,240 // push %eax
- .byte 255,240 // push %eax
- .byte 255,240 // push %eax
- .byte 255,54 // pushl (%esi)
- .byte 0,54 // add %dh,(%esi)
- .byte 0,54 // add %dh,(%esi)
- .byte 0,54 // add %dh,(%esi)
- .byte 0,54 // add %dh,(%esi)
- .byte 0,54 // add %dh,(%esi)
- .byte 0,54 // add %dh,(%esi)
- .byte 0,54 // add %dh,(%esi)
- .byte 0,183,0,183,0,183 // add %dh,-0x48ff4900(%edi)
- .byte 0,183,0,183,0,183 // add %dh,-0x48ff4900(%edi)
- .byte 0,183,0,183,0,19 // add %dh,0x1300b700(%edi)
- .byte 0,19 // add %dl,(%ebx)
- .byte 0,19 // add %dl,(%ebx)
- .byte 0,19 // add %dl,(%ebx)
- .byte 0,19 // add %dl,(%ebx)
- .byte 0,19 // add %dl,(%ebx)
- .byte 0,19 // add %dl,(%ebx)
- .byte 0,19 // add %dl,(%ebx)
- .byte 0 // .byte 0x0
-
-BALIGN4
- .byte 0,0 // add %al,(%eax)
- .byte 0,63 // add %bh,(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 0,191,0,0,128,63 // add %bh,0x3f800000(%edi)
- .byte 0,0 // add %al,(%eax)
- .byte 127,67 // jg 10fb3 <_sk_srcover_bgra_8888_sse2_lowp+0xb37>
-#endif
diff --git a/src/jumper/SkJumper_generated_win.S b/src/jumper/SkJumper_generated_win.S
deleted file mode 100644
index c8bc7df53c..0000000000
--- a/src/jumper/SkJumper_generated_win.S
+++ /dev/null
@@ -1,73478 +0,0 @@
-; Copyright 2017 Google Inc.
-;
-; Use of this source code is governed by a BSD-style license that can be
-; found in the LICENSE file.
-
-; This file is generated semi-automatically with this command:
-; $ src/jumper/build_stages.py
-
-IFDEF RAX
-_text32 SEGMENT ALIGN(32) 'CODE'
-ALIGN 32
-
-PUBLIC _sk_start_pipeline_hsw
-_sk_start_pipeline_hsw LABEL PROC
- DB 85 ; push %rbp
- DB 72,137,229 ; mov %rsp,%rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 86 ; push %rsi
- DB 87 ; push %rdi
- DB 83 ; push %rbx
- DB 72,129,236,200,0,0,0 ; sub $0xc8,%rsp
- DB 197,120,41,125,176 ; vmovaps %xmm15,-0x50(%rbp)
- DB 197,120,41,117,160 ; vmovaps %xmm14,-0x60(%rbp)
- DB 197,120,41,109,144 ; vmovaps %xmm13,-0x70(%rbp)
- DB 197,120,41,101,128 ; vmovaps %xmm12,-0x80(%rbp)
- DB 197,120,41,157,112,255,255,255 ; vmovaps %xmm11,-0x90(%rbp)
- DB 197,120,41,149,96,255,255,255 ; vmovaps %xmm10,-0xa0(%rbp)
- DB 197,120,41,141,80,255,255,255 ; vmovaps %xmm9,-0xb0(%rbp)
- DB 197,120,41,133,64,255,255,255 ; vmovaps %xmm8,-0xc0(%rbp)
- DB 197,248,41,189,48,255,255,255 ; vmovaps %xmm7,-0xd0(%rbp)
- DB 197,248,41,181,32,255,255,255 ; vmovaps %xmm6,-0xe0(%rbp)
- DB 77,137,199 ; mov %r8,%r15
- DB 72,137,211 ; mov %rdx,%rbx
- DB 72,137,141,24,255,255,255 ; mov %rcx,-0xe8(%rbp)
- DB 72,139,117,48 ; mov 0x30(%rbp),%rsi
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 73,137,197 ; mov %rax,%r13
- DB 73,137,246 ; mov %rsi,%r14
- DB 76,137,141,8,255,255,255 ; mov %r9,-0xf8(%rbp)
- DB 76,57,203 ; cmp %r9,%rbx
- DB 15,131,169,0,0,0 ; jae 12c <_sk_start_pipeline_hsw+0x12c>
- DB 72,139,133,24,255,255,255 ; mov -0xe8(%rbp),%rax
- DB 72,141,64,8 ; lea 0x8(%rax),%rax
- DB 72,137,133,16,255,255,255 ; mov %rax,-0xf0(%rbp)
- DB 72,139,149,24,255,255,255 ; mov -0xe8(%rbp),%rdx
- DB 76,57,189,16,255,255,255 ; cmp %r15,-0xf0(%rbp)
- DB 119,70 ; ja eb <_sk_start_pipeline_hsw+0xeb>
- DB 76,139,165,24,255,255,255 ; mov -0xe8(%rbp),%r12
- DB 49,255 ; xor %edi,%edi
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 197,196,87,255 ; vxorps %ymm7,%ymm7,%ymm7
- DB 76,137,246 ; mov %r14,%rsi
- DB 76,137,226 ; mov %r12,%rdx
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 73,141,84,36,8 ; lea 0x8(%r12),%rdx
- DB 73,131,196,16 ; add $0x10,%r12
- DB 77,57,252 ; cmp %r15,%r12
- DB 73,137,212 ; mov %rdx,%r12
- DB 118,193 ; jbe ac <_sk_start_pipeline_hsw+0xac>
- DB 76,137,255 ; mov %r15,%rdi
- DB 72,41,215 ; sub %rdx,%rdi
- DB 116,41 ; je 11c <_sk_start_pipeline_hsw+0x11c>
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 197,196,87,255 ; vxorps %ymm7,%ymm7,%ymm7
- DB 76,137,246 ; mov %r14,%rsi
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 72,255,195 ; inc %rbx
- DB 72,59,157,8,255,255,255 ; cmp -0xf8(%rbp),%rbx
- DB 15,133,105,255,255,255 ; jne 95 <_sk_start_pipeline_hsw+0x95>
- DB 197,248,40,181,32,255,255,255 ; vmovaps -0xe0(%rbp),%xmm6
- DB 197,248,40,189,48,255,255,255 ; vmovaps -0xd0(%rbp),%xmm7
- DB 197,120,40,133,64,255,255,255 ; vmovaps -0xc0(%rbp),%xmm8
- DB 197,120,40,141,80,255,255,255 ; vmovaps -0xb0(%rbp),%xmm9
- DB 197,120,40,149,96,255,255,255 ; vmovaps -0xa0(%rbp),%xmm10
- DB 197,120,40,157,112,255,255,255 ; vmovaps -0x90(%rbp),%xmm11
- DB 197,120,40,101,128 ; vmovaps -0x80(%rbp),%xmm12
- DB 197,120,40,109,144 ; vmovaps -0x70(%rbp),%xmm13
- DB 197,120,40,117,160 ; vmovaps -0x60(%rbp),%xmm14
- DB 197,120,40,125,176 ; vmovaps -0x50(%rbp),%xmm15
- DB 72,129,196,200,0,0,0 ; add $0xc8,%rsp
- DB 91 ; pop %rbx
- DB 95 ; pop %rdi
- DB 94 ; pop %rsi
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 197,248,119 ; vzeroupper
- DB 195 ; retq
-
-PUBLIC _sk_just_return_hsw
-_sk_just_return_hsw LABEL PROC
- DB 195 ; retq
-
-PUBLIC _sk_seed_shader_hsw
-_sk_seed_shader_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,249,110,194 ; vmovd %edx,%xmm0
- DB 196,226,125,88,192 ; vpbroadcastd %xmm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 197,249,110,201 ; vmovd %ecx,%xmm1
- DB 196,226,125,88,201 ; vpbroadcastd %xmm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,21,19,73,3,0 ; vbroadcastss 0x34913(%rip),%ymm2 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,244,88,202 ; vaddps %ymm2,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,21,8,73,3,0 ; vbroadcastss 0x34908(%rip),%ymm2 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 197,196,87,255 ; vxorps %ymm7,%ymm7,%ymm7
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dither_hsw
-_sk_dither_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,121,110,194 ; vmovd %edx,%xmm8
- DB 196,66,125,88,192 ; vpbroadcastd %xmm8,%ymm8
- DB 197,61,254,5,151,74,3,0 ; vpaddd 0x34a97(%rip),%ymm8,%ymm8 # 34c80 <_sk_srcover_bgra_8888_sse2_lowp+0x468>
- DB 197,121,110,201 ; vmovd %ecx,%xmm9
- DB 196,66,125,88,201 ; vpbroadcastd %xmm9,%ymm9
- DB 196,65,53,239,200 ; vpxor %ymm8,%ymm9,%ymm9
- DB 196,98,125,88,21,204,72,3,0 ; vpbroadcastd 0x348cc(%rip),%ymm10 # 34acc <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
- DB 196,65,53,219,218 ; vpand %ymm10,%ymm9,%ymm11
- DB 196,193,37,114,243,5 ; vpslld $0x5,%ymm11,%ymm11
- DB 196,65,61,219,210 ; vpand %ymm10,%ymm8,%ymm10
- DB 196,193,45,114,242,4 ; vpslld $0x4,%ymm10,%ymm10
- DB 196,98,125,88,37,177,72,3,0 ; vpbroadcastd 0x348b1(%rip),%ymm12 # 34ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- DB 196,98,125,88,45,172,72,3,0 ; vpbroadcastd 0x348ac(%rip),%ymm13 # 34ad4 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- DB 196,65,53,219,245 ; vpand %ymm13,%ymm9,%ymm14
- DB 196,193,13,114,246,2 ; vpslld $0x2,%ymm14,%ymm14
- DB 196,65,37,235,222 ; vpor %ymm14,%ymm11,%ymm11
- DB 196,65,61,219,237 ; vpand %ymm13,%ymm8,%ymm13
- DB 196,65,21,254,237 ; vpaddd %ymm13,%ymm13,%ymm13
- DB 196,65,21,235,210 ; vpor %ymm10,%ymm13,%ymm10
- DB 196,65,53,219,204 ; vpand %ymm12,%ymm9,%ymm9
- DB 196,193,53,114,209,1 ; vpsrld $0x1,%ymm9,%ymm9
- DB 196,65,61,219,196 ; vpand %ymm12,%ymm8,%ymm8
- DB 196,193,61,114,208,2 ; vpsrld $0x2,%ymm8,%ymm8
- DB 196,65,45,235,192 ; vpor %ymm8,%ymm10,%ymm8
- DB 196,65,61,235,195 ; vpor %ymm11,%ymm8,%ymm8
- DB 196,65,61,235,193 ; vpor %ymm9,%ymm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,13,94,72,3,0 ; vbroadcastss 0x3485e(%rip),%ymm9 # 34ad8 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- DB 196,98,125,24,21,89,72,3,0 ; vbroadcastss 0x34859(%rip),%ymm10 # 34adc <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
- DB 196,66,61,184,209 ; vfmadd231ps %ymm9,%ymm8,%ymm10
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 196,65,44,89,192 ; vmulps %ymm8,%ymm10,%ymm8
- DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
- DB 197,188,88,201 ; vaddps %ymm1,%ymm8,%ymm1
- DB 197,188,88,210 ; vaddps %ymm2,%ymm8,%ymm2
- DB 197,252,93,195 ; vminps %ymm3,%ymm0,%ymm0
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 197,244,93,203 ; vminps %ymm3,%ymm1,%ymm1
- DB 197,188,95,201 ; vmaxps %ymm1,%ymm8,%ymm1
- DB 197,236,93,211 ; vminps %ymm3,%ymm2,%ymm2
- DB 197,188,95,210 ; vmaxps %ymm2,%ymm8,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_uniform_color_hsw
-_sk_uniform_color_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,0 ; vbroadcastss (%rax),%ymm0
- DB 196,226,125,24,72,4 ; vbroadcastss 0x4(%rax),%ymm1
- DB 196,226,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm2
- DB 196,226,125,24,88,12 ; vbroadcastss 0xc(%rax),%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_black_color_hsw
-_sk_black_color_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,225,71,3,0 ; vbroadcastss 0x347e1(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_white_color_hsw
-_sk_white_color_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,200,71,3,0 ; vbroadcastss 0x347c8(%rip),%ymm0 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 197,252,40,216 ; vmovaps %ymm0,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_rgba_hsw
-_sk_load_rgba_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,0 ; vmovups (%rax),%ymm0
- DB 197,252,16,72,32 ; vmovups 0x20(%rax),%ymm1
- DB 197,252,16,80,64 ; vmovups 0x40(%rax),%ymm2
- DB 197,252,16,88,96 ; vmovups 0x60(%rax),%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_rgba_hsw
-_sk_store_rgba_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,17,0 ; vmovups %ymm0,(%rax)
- DB 197,252,17,72,32 ; vmovups %ymm1,0x20(%rax)
- DB 197,252,17,80,64 ; vmovups %ymm2,0x40(%rax)
- DB 197,252,17,88,96 ; vmovups %ymm3,0x60(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clear_hsw
-_sk_clear_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcatop_hsw
-_sk_srcatop_hsw LABEL PROC
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 196,98,125,24,5,103,71,3,0 ; vbroadcastss 0x34767(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 196,226,61,184,196 ; vfmadd231ps %ymm4,%ymm8,%ymm0
- DB 197,244,89,207 ; vmulps %ymm7,%ymm1,%ymm1
- DB 196,226,61,184,205 ; vfmadd231ps %ymm5,%ymm8,%ymm1
- DB 197,236,89,215 ; vmulps %ymm7,%ymm2,%ymm2
- DB 196,226,61,184,214 ; vfmadd231ps %ymm6,%ymm8,%ymm2
- DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
- DB 196,194,69,168,216 ; vfmadd213ps %ymm8,%ymm7,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstatop_hsw
-_sk_dstatop_hsw LABEL PROC
- DB 196,98,125,24,5,54,71,3,0 ; vbroadcastss 0x34736(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,199 ; vsubps %ymm7,%ymm8,%ymm8
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 196,226,101,184,196 ; vfmadd231ps %ymm4,%ymm3,%ymm0
- DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
- DB 196,226,101,184,205 ; vfmadd231ps %ymm5,%ymm3,%ymm1
- DB 197,188,89,210 ; vmulps %ymm2,%ymm8,%ymm2
- DB 196,226,101,184,214 ; vfmadd231ps %ymm6,%ymm3,%ymm2
- DB 197,60,89,195 ; vmulps %ymm3,%ymm8,%ymm8
- DB 196,194,69,168,216 ; vfmadd213ps %ymm8,%ymm7,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcin_hsw
-_sk_srcin_hsw LABEL PROC
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 197,244,89,207 ; vmulps %ymm7,%ymm1,%ymm1
- DB 197,236,89,215 ; vmulps %ymm7,%ymm2,%ymm2
- DB 197,228,89,223 ; vmulps %ymm7,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstin_hsw
-_sk_dstin_hsw LABEL PROC
- DB 197,228,89,196 ; vmulps %ymm4,%ymm3,%ymm0
- DB 197,228,89,205 ; vmulps %ymm5,%ymm3,%ymm1
- DB 197,228,89,214 ; vmulps %ymm6,%ymm3,%ymm2
- DB 197,228,89,223 ; vmulps %ymm7,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcout_hsw
-_sk_srcout_hsw LABEL PROC
- DB 196,98,125,24,5,217,70,3,0 ; vbroadcastss 0x346d9(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,199 ; vsubps %ymm7,%ymm8,%ymm8
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
- DB 197,188,89,210 ; vmulps %ymm2,%ymm8,%ymm2
- DB 197,188,89,219 ; vmulps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstout_hsw
-_sk_dstout_hsw LABEL PROC
- DB 196,226,125,24,5,184,70,3,0 ; vbroadcastss 0x346b8(%rip),%ymm0 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,92,219 ; vsubps %ymm3,%ymm0,%ymm3
- DB 197,228,89,196 ; vmulps %ymm4,%ymm3,%ymm0
- DB 197,228,89,205 ; vmulps %ymm5,%ymm3,%ymm1
- DB 197,228,89,214 ; vmulps %ymm6,%ymm3,%ymm2
- DB 197,228,89,223 ; vmulps %ymm7,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_hsw
-_sk_srcover_hsw LABEL PROC
- DB 196,98,125,24,5,151,70,3,0 ; vbroadcastss 0x34697(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 196,194,93,184,192 ; vfmadd231ps %ymm8,%ymm4,%ymm0
- DB 196,194,85,184,200 ; vfmadd231ps %ymm8,%ymm5,%ymm1
- DB 196,194,77,184,208 ; vfmadd231ps %ymm8,%ymm6,%ymm2
- DB 196,194,69,184,216 ; vfmadd231ps %ymm8,%ymm7,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstover_hsw
-_sk_dstover_hsw LABEL PROC
- DB 196,98,125,24,5,114,70,3,0 ; vbroadcastss 0x34672(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,199 ; vsubps %ymm7,%ymm8,%ymm8
- DB 196,226,61,168,196 ; vfmadd213ps %ymm4,%ymm8,%ymm0
- DB 196,226,61,168,205 ; vfmadd213ps %ymm5,%ymm8,%ymm1
- DB 196,226,61,168,214 ; vfmadd213ps %ymm6,%ymm8,%ymm2
- DB 196,226,61,168,223 ; vfmadd213ps %ymm7,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_modulate_hsw
-_sk_modulate_hsw LABEL PROC
- DB 197,252,89,196 ; vmulps %ymm4,%ymm0,%ymm0
- DB 197,244,89,205 ; vmulps %ymm5,%ymm1,%ymm1
- DB 197,236,89,214 ; vmulps %ymm6,%ymm2,%ymm2
- DB 197,228,89,223 ; vmulps %ymm7,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_multiply_hsw
-_sk_multiply_hsw LABEL PROC
- DB 196,98,125,24,5,57,70,3,0 ; vbroadcastss 0x34639(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
- DB 197,52,89,208 ; vmulps %ymm0,%ymm9,%ymm10
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 196,98,61,184,212 ; vfmadd231ps %ymm4,%ymm8,%ymm10
- DB 196,194,93,168,194 ; vfmadd213ps %ymm10,%ymm4,%ymm0
- DB 197,52,89,209 ; vmulps %ymm1,%ymm9,%ymm10
- DB 196,98,61,184,213 ; vfmadd231ps %ymm5,%ymm8,%ymm10
- DB 196,194,85,168,202 ; vfmadd213ps %ymm10,%ymm5,%ymm1
- DB 197,52,89,210 ; vmulps %ymm2,%ymm9,%ymm10
- DB 196,98,61,184,214 ; vfmadd231ps %ymm6,%ymm8,%ymm10
- DB 196,194,77,168,210 ; vfmadd213ps %ymm10,%ymm6,%ymm2
- DB 197,52,89,203 ; vmulps %ymm3,%ymm9,%ymm9
- DB 196,66,69,168,193 ; vfmadd213ps %ymm9,%ymm7,%ymm8
- DB 196,194,69,168,216 ; vfmadd213ps %ymm8,%ymm7,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_plus__hsw
-_sk_plus__hsw LABEL PROC
- DB 197,252,88,196 ; vaddps %ymm4,%ymm0,%ymm0
- DB 196,98,125,24,5,232,69,3,0 ; vbroadcastss 0x345e8(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 197,244,88,205 ; vaddps %ymm5,%ymm1,%ymm1
- DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
- DB 197,236,88,214 ; vaddps %ymm6,%ymm2,%ymm2
- DB 196,193,108,93,208 ; vminps %ymm8,%ymm2,%ymm2
- DB 197,228,88,223 ; vaddps %ymm7,%ymm3,%ymm3
- DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_screen_hsw
-_sk_screen_hsw LABEL PROC
- DB 197,124,88,196 ; vaddps %ymm4,%ymm0,%ymm8
- DB 196,194,93,172,192 ; vfnmadd213ps %ymm8,%ymm4,%ymm0
- DB 197,116,88,197 ; vaddps %ymm5,%ymm1,%ymm8
- DB 196,194,85,172,200 ; vfnmadd213ps %ymm8,%ymm5,%ymm1
- DB 197,108,88,198 ; vaddps %ymm6,%ymm2,%ymm8
- DB 196,194,77,172,208 ; vfnmadd213ps %ymm8,%ymm6,%ymm2
- DB 197,100,88,199 ; vaddps %ymm7,%ymm3,%ymm8
- DB 196,194,69,172,216 ; vfnmadd213ps %ymm8,%ymm7,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xor__hsw
-_sk_xor__hsw LABEL PROC
- DB 196,98,125,24,5,147,69,3,0 ; vbroadcastss 0x34593(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 196,226,61,184,196 ; vfmadd231ps %ymm4,%ymm8,%ymm0
- DB 197,180,89,201 ; vmulps %ymm1,%ymm9,%ymm1
- DB 196,226,61,184,205 ; vfmadd231ps %ymm5,%ymm8,%ymm1
- DB 197,180,89,210 ; vmulps %ymm2,%ymm9,%ymm2
- DB 196,226,61,184,214 ; vfmadd231ps %ymm6,%ymm8,%ymm2
- DB 197,180,89,219 ; vmulps %ymm3,%ymm9,%ymm3
- DB 196,98,69,168,195 ; vfmadd213ps %ymm3,%ymm7,%ymm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,195 ; vmovaps %ymm8,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_darken_hsw
-_sk_darken_hsw LABEL PROC
- DB 197,124,88,196 ; vaddps %ymm4,%ymm0,%ymm8
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 197,100,89,204 ; vmulps %ymm4,%ymm3,%ymm9
- DB 196,193,124,95,193 ; vmaxps %ymm9,%ymm0,%ymm0
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 197,116,88,197 ; vaddps %ymm5,%ymm1,%ymm8
- DB 197,244,89,207 ; vmulps %ymm7,%ymm1,%ymm1
- DB 197,100,89,205 ; vmulps %ymm5,%ymm3,%ymm9
- DB 196,193,116,95,201 ; vmaxps %ymm9,%ymm1,%ymm1
- DB 197,188,92,201 ; vsubps %ymm1,%ymm8,%ymm1
- DB 197,108,88,198 ; vaddps %ymm6,%ymm2,%ymm8
- DB 197,236,89,215 ; vmulps %ymm7,%ymm2,%ymm2
- DB 197,100,89,206 ; vmulps %ymm6,%ymm3,%ymm9
- DB 196,193,108,95,209 ; vmaxps %ymm9,%ymm2,%ymm2
- DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,23,69,3,0 ; vbroadcastss 0x34517(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 196,194,69,184,216 ; vfmadd231ps %ymm8,%ymm7,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lighten_hsw
-_sk_lighten_hsw LABEL PROC
- DB 197,124,88,196 ; vaddps %ymm4,%ymm0,%ymm8
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 197,100,89,204 ; vmulps %ymm4,%ymm3,%ymm9
- DB 196,193,124,93,193 ; vminps %ymm9,%ymm0,%ymm0
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 197,116,88,197 ; vaddps %ymm5,%ymm1,%ymm8
- DB 197,244,89,207 ; vmulps %ymm7,%ymm1,%ymm1
- DB 197,100,89,205 ; vmulps %ymm5,%ymm3,%ymm9
- DB 196,193,116,93,201 ; vminps %ymm9,%ymm1,%ymm1
- DB 197,188,92,201 ; vsubps %ymm1,%ymm8,%ymm1
- DB 197,108,88,198 ; vaddps %ymm6,%ymm2,%ymm8
- DB 197,236,89,215 ; vmulps %ymm7,%ymm2,%ymm2
- DB 197,100,89,206 ; vmulps %ymm6,%ymm3,%ymm9
- DB 196,193,108,93,209 ; vminps %ymm9,%ymm2,%ymm2
- DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,194,68,3,0 ; vbroadcastss 0x344c2(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 196,194,69,184,216 ; vfmadd231ps %ymm8,%ymm7,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_difference_hsw
-_sk_difference_hsw LABEL PROC
- DB 197,124,88,196 ; vaddps %ymm4,%ymm0,%ymm8
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 197,100,89,204 ; vmulps %ymm4,%ymm3,%ymm9
- DB 196,193,124,93,193 ; vminps %ymm9,%ymm0,%ymm0
- DB 197,252,88,192 ; vaddps %ymm0,%ymm0,%ymm0
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 197,116,88,197 ; vaddps %ymm5,%ymm1,%ymm8
- DB 197,244,89,207 ; vmulps %ymm7,%ymm1,%ymm1
- DB 197,100,89,205 ; vmulps %ymm5,%ymm3,%ymm9
- DB 196,193,116,93,201 ; vminps %ymm9,%ymm1,%ymm1
- DB 197,244,88,201 ; vaddps %ymm1,%ymm1,%ymm1
- DB 197,188,92,201 ; vsubps %ymm1,%ymm8,%ymm1
- DB 197,108,88,198 ; vaddps %ymm6,%ymm2,%ymm8
- DB 197,236,89,215 ; vmulps %ymm7,%ymm2,%ymm2
- DB 197,100,89,206 ; vmulps %ymm6,%ymm3,%ymm9
- DB 196,193,108,93,209 ; vminps %ymm9,%ymm2,%ymm2
- DB 197,236,88,210 ; vaddps %ymm2,%ymm2,%ymm2
- DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,97,68,3,0 ; vbroadcastss 0x34461(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 196,194,69,184,216 ; vfmadd231ps %ymm8,%ymm7,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_exclusion_hsw
-_sk_exclusion_hsw LABEL PROC
- DB 197,124,88,196 ; vaddps %ymm4,%ymm0,%ymm8
- DB 197,252,89,196 ; vmulps %ymm4,%ymm0,%ymm0
- DB 197,252,88,192 ; vaddps %ymm0,%ymm0,%ymm0
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 197,116,88,197 ; vaddps %ymm5,%ymm1,%ymm8
- DB 197,244,89,205 ; vmulps %ymm5,%ymm1,%ymm1
- DB 197,244,88,201 ; vaddps %ymm1,%ymm1,%ymm1
- DB 197,188,92,201 ; vsubps %ymm1,%ymm8,%ymm1
- DB 197,108,88,198 ; vaddps %ymm6,%ymm2,%ymm8
- DB 197,236,89,214 ; vmulps %ymm6,%ymm2,%ymm2
- DB 197,236,88,210 ; vaddps %ymm2,%ymm2,%ymm2
- DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,27,68,3,0 ; vbroadcastss 0x3441b(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 196,194,69,184,216 ; vfmadd231ps %ymm8,%ymm7,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_colorburn_hsw
-_sk_colorburn_hsw LABEL PROC
- DB 196,98,125,24,5,5,68,3,0 ; vbroadcastss 0x34405(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
- DB 197,52,89,216 ; vmulps %ymm0,%ymm9,%ymm11
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 196,65,124,194,226,0 ; vcmpeqps %ymm10,%ymm0,%ymm12
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,68,92,236 ; vsubps %ymm4,%ymm7,%ymm13
- DB 197,20,89,235 ; vmulps %ymm3,%ymm13,%ymm13
- DB 197,252,83,192 ; vrcpps %ymm0,%ymm0
- DB 197,148,89,192 ; vmulps %ymm0,%ymm13,%ymm0
- DB 197,60,89,236 ; vmulps %ymm4,%ymm8,%ymm13
- DB 197,196,93,192 ; vminps %ymm0,%ymm7,%ymm0
- DB 197,196,92,192 ; vsubps %ymm0,%ymm7,%ymm0
- DB 196,194,101,168,195 ; vfmadd213ps %ymm11,%ymm3,%ymm0
- DB 197,148,88,192 ; vaddps %ymm0,%ymm13,%ymm0
- DB 196,195,125,74,197,192 ; vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- DB 197,92,194,231,0 ; vcmpeqps %ymm7,%ymm4,%ymm12
- DB 197,36,88,220 ; vaddps %ymm4,%ymm11,%ymm11
- DB 196,195,125,74,195,192 ; vblendvps %ymm12,%ymm11,%ymm0,%ymm0
- DB 197,52,89,217 ; vmulps %ymm1,%ymm9,%ymm11
- DB 196,65,116,194,226,0 ; vcmpeqps %ymm10,%ymm1,%ymm12
- DB 197,68,92,237 ; vsubps %ymm5,%ymm7,%ymm13
- DB 197,20,89,235 ; vmulps %ymm3,%ymm13,%ymm13
- DB 197,252,83,201 ; vrcpps %ymm1,%ymm1
- DB 197,148,89,201 ; vmulps %ymm1,%ymm13,%ymm1
- DB 197,60,89,237 ; vmulps %ymm5,%ymm8,%ymm13
- DB 197,196,93,201 ; vminps %ymm1,%ymm7,%ymm1
- DB 197,196,92,201 ; vsubps %ymm1,%ymm7,%ymm1
- DB 196,194,101,168,203 ; vfmadd213ps %ymm11,%ymm3,%ymm1
- DB 197,148,88,201 ; vaddps %ymm1,%ymm13,%ymm1
- DB 196,195,117,74,205,192 ; vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- DB 197,84,194,231,0 ; vcmpeqps %ymm7,%ymm5,%ymm12
- DB 197,36,88,221 ; vaddps %ymm5,%ymm11,%ymm11
- DB 196,195,117,74,203,192 ; vblendvps %ymm12,%ymm11,%ymm1,%ymm1
- DB 197,52,89,202 ; vmulps %ymm2,%ymm9,%ymm9
- DB 196,65,108,194,210,0 ; vcmpeqps %ymm10,%ymm2,%ymm10
- DB 197,68,92,222 ; vsubps %ymm6,%ymm7,%ymm11
- DB 197,36,89,219 ; vmulps %ymm3,%ymm11,%ymm11
- DB 197,252,83,210 ; vrcpps %ymm2,%ymm2
- DB 197,164,89,210 ; vmulps %ymm2,%ymm11,%ymm2
- DB 197,60,89,222 ; vmulps %ymm6,%ymm8,%ymm11
- DB 197,196,93,210 ; vminps %ymm2,%ymm7,%ymm2
- DB 197,196,92,210 ; vsubps %ymm2,%ymm7,%ymm2
- DB 196,194,101,168,209 ; vfmadd213ps %ymm9,%ymm3,%ymm2
- DB 197,164,88,210 ; vaddps %ymm2,%ymm11,%ymm2
- DB 196,195,109,74,211,160 ; vblendvps %ymm10,%ymm11,%ymm2,%ymm2
- DB 197,76,194,215,0 ; vcmpeqps %ymm7,%ymm6,%ymm10
- DB 197,52,88,206 ; vaddps %ymm6,%ymm9,%ymm9
- DB 196,195,109,74,209,160 ; vblendvps %ymm10,%ymm9,%ymm2,%ymm2
- DB 196,194,69,184,216 ; vfmadd231ps %ymm8,%ymm7,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_colordodge_hsw
-_sk_colordodge_hsw LABEL PROC
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,98,125,24,13,21,67,3,0 ; vbroadcastss 0x34315(%rip),%ymm9 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,52,92,215 ; vsubps %ymm7,%ymm9,%ymm10
- DB 197,44,89,216 ; vmulps %ymm0,%ymm10,%ymm11
- DB 197,52,92,203 ; vsubps %ymm3,%ymm9,%ymm9
- DB 197,100,89,228 ; vmulps %ymm4,%ymm3,%ymm12
- DB 197,100,92,232 ; vsubps %ymm0,%ymm3,%ymm13
- DB 196,65,124,83,237 ; vrcpps %ymm13,%ymm13
- DB 196,65,28,89,229 ; vmulps %ymm13,%ymm12,%ymm12
- DB 197,52,89,236 ; vmulps %ymm4,%ymm9,%ymm13
- DB 196,65,68,93,228 ; vminps %ymm12,%ymm7,%ymm12
- DB 196,66,101,168,227 ; vfmadd213ps %ymm11,%ymm3,%ymm12
- DB 196,65,20,88,228 ; vaddps %ymm12,%ymm13,%ymm12
- DB 197,20,88,232 ; vaddps %ymm0,%ymm13,%ymm13
- DB 197,252,194,195,0 ; vcmpeqps %ymm3,%ymm0,%ymm0
- DB 196,195,29,74,197,0 ; vblendvps %ymm0,%ymm13,%ymm12,%ymm0
- DB 196,65,92,194,224,0 ; vcmpeqps %ymm8,%ymm4,%ymm12
- DB 196,195,125,74,195,192 ; vblendvps %ymm12,%ymm11,%ymm0,%ymm0
- DB 197,44,89,217 ; vmulps %ymm1,%ymm10,%ymm11
- DB 197,100,89,229 ; vmulps %ymm5,%ymm3,%ymm12
- DB 197,100,92,233 ; vsubps %ymm1,%ymm3,%ymm13
- DB 196,65,124,83,237 ; vrcpps %ymm13,%ymm13
- DB 196,65,28,89,229 ; vmulps %ymm13,%ymm12,%ymm12
- DB 197,52,89,237 ; vmulps %ymm5,%ymm9,%ymm13
- DB 196,65,68,93,228 ; vminps %ymm12,%ymm7,%ymm12
- DB 196,66,101,168,227 ; vfmadd213ps %ymm11,%ymm3,%ymm12
- DB 196,65,20,88,228 ; vaddps %ymm12,%ymm13,%ymm12
- DB 197,20,88,233 ; vaddps %ymm1,%ymm13,%ymm13
- DB 197,244,194,203,0 ; vcmpeqps %ymm3,%ymm1,%ymm1
- DB 196,195,29,74,205,16 ; vblendvps %ymm1,%ymm13,%ymm12,%ymm1
- DB 196,65,84,194,224,0 ; vcmpeqps %ymm8,%ymm5,%ymm12
- DB 196,195,117,74,203,192 ; vblendvps %ymm12,%ymm11,%ymm1,%ymm1
- DB 197,44,89,210 ; vmulps %ymm2,%ymm10,%ymm10
- DB 197,100,89,222 ; vmulps %ymm6,%ymm3,%ymm11
- DB 197,100,92,226 ; vsubps %ymm2,%ymm3,%ymm12
- DB 196,65,124,83,228 ; vrcpps %ymm12,%ymm12
- DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 197,52,89,230 ; vmulps %ymm6,%ymm9,%ymm12
- DB 196,65,68,93,219 ; vminps %ymm11,%ymm7,%ymm11
- DB 196,66,101,168,218 ; vfmadd213ps %ymm10,%ymm3,%ymm11
- DB 196,65,28,88,219 ; vaddps %ymm11,%ymm12,%ymm11
- DB 197,28,88,226 ; vaddps %ymm2,%ymm12,%ymm12
- DB 197,236,194,211,0 ; vcmpeqps %ymm3,%ymm2,%ymm2
- DB 196,195,37,74,212,32 ; vblendvps %ymm2,%ymm12,%ymm11,%ymm2
- DB 196,65,76,194,192,0 ; vcmpeqps %ymm8,%ymm6,%ymm8
- DB 196,195,109,74,210,128 ; vblendvps %ymm8,%ymm10,%ymm2,%ymm2
- DB 196,194,69,184,217 ; vfmadd231ps %ymm9,%ymm7,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hardlight_hsw
-_sk_hardlight_hsw LABEL PROC
- DB 196,98,125,24,5,47,66,3,0 ; vbroadcastss 0x3422f(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,215 ; vsubps %ymm7,%ymm8,%ymm10
- DB 197,44,89,216 ; vmulps %ymm0,%ymm10,%ymm11
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 196,98,61,184,220 ; vfmadd231ps %ymm4,%ymm8,%ymm11
- DB 197,124,88,200 ; vaddps %ymm0,%ymm0,%ymm9
- DB 197,52,194,227,2 ; vcmpleps %ymm3,%ymm9,%ymm12
- DB 197,124,89,204 ; vmulps %ymm4,%ymm0,%ymm9
- DB 196,65,52,88,233 ; vaddps %ymm9,%ymm9,%ymm13
- DB 197,100,89,207 ; vmulps %ymm7,%ymm3,%ymm9
- DB 197,68,92,244 ; vsubps %ymm4,%ymm7,%ymm14
- DB 197,228,92,192 ; vsubps %ymm0,%ymm3,%ymm0
- DB 196,193,124,89,198 ; vmulps %ymm14,%ymm0,%ymm0
- DB 197,252,88,192 ; vaddps %ymm0,%ymm0,%ymm0
- DB 197,180,92,192 ; vsubps %ymm0,%ymm9,%ymm0
- DB 196,195,125,74,197,192 ; vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- DB 197,164,88,192 ; vaddps %ymm0,%ymm11,%ymm0
- DB 197,44,89,217 ; vmulps %ymm1,%ymm10,%ymm11
- DB 196,98,61,184,221 ; vfmadd231ps %ymm5,%ymm8,%ymm11
- DB 197,116,88,225 ; vaddps %ymm1,%ymm1,%ymm12
- DB 197,28,194,227,2 ; vcmpleps %ymm3,%ymm12,%ymm12
- DB 197,116,89,237 ; vmulps %ymm5,%ymm1,%ymm13
- DB 196,65,20,88,237 ; vaddps %ymm13,%ymm13,%ymm13
- DB 197,68,92,245 ; vsubps %ymm5,%ymm7,%ymm14
- DB 197,228,92,201 ; vsubps %ymm1,%ymm3,%ymm1
- DB 196,193,116,89,206 ; vmulps %ymm14,%ymm1,%ymm1
- DB 197,244,88,201 ; vaddps %ymm1,%ymm1,%ymm1
- DB 197,180,92,201 ; vsubps %ymm1,%ymm9,%ymm1
- DB 196,195,117,74,205,192 ; vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- DB 197,164,88,201 ; vaddps %ymm1,%ymm11,%ymm1
- DB 197,44,89,210 ; vmulps %ymm2,%ymm10,%ymm10
- DB 196,98,61,184,214 ; vfmadd231ps %ymm6,%ymm8,%ymm10
- DB 197,108,88,218 ; vaddps %ymm2,%ymm2,%ymm11
- DB 197,36,194,219,2 ; vcmpleps %ymm3,%ymm11,%ymm11
- DB 197,108,89,230 ; vmulps %ymm6,%ymm2,%ymm12
- DB 196,65,28,88,228 ; vaddps %ymm12,%ymm12,%ymm12
- DB 197,68,92,238 ; vsubps %ymm6,%ymm7,%ymm13
- DB 197,228,92,210 ; vsubps %ymm2,%ymm3,%ymm2
- DB 196,193,108,89,213 ; vmulps %ymm13,%ymm2,%ymm2
- DB 197,236,88,210 ; vaddps %ymm2,%ymm2,%ymm2
- DB 197,180,92,210 ; vsubps %ymm2,%ymm9,%ymm2
- DB 196,195,109,74,212,176 ; vblendvps %ymm11,%ymm12,%ymm2,%ymm2
- DB 197,172,88,210 ; vaddps %ymm2,%ymm10,%ymm2
- DB 196,194,69,184,216 ; vfmadd231ps %ymm8,%ymm7,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_overlay_hsw
-_sk_overlay_hsw LABEL PROC
- DB 196,98,125,24,5,99,65,3,0 ; vbroadcastss 0x34163(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,215 ; vsubps %ymm7,%ymm8,%ymm10
- DB 197,44,89,216 ; vmulps %ymm0,%ymm10,%ymm11
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 196,98,61,184,220 ; vfmadd231ps %ymm4,%ymm8,%ymm11
- DB 197,92,88,204 ; vaddps %ymm4,%ymm4,%ymm9
- DB 197,52,194,231,2 ; vcmpleps %ymm7,%ymm9,%ymm12
- DB 197,124,89,204 ; vmulps %ymm4,%ymm0,%ymm9
- DB 196,65,52,88,233 ; vaddps %ymm9,%ymm9,%ymm13
- DB 197,100,89,207 ; vmulps %ymm7,%ymm3,%ymm9
- DB 197,68,92,244 ; vsubps %ymm4,%ymm7,%ymm14
- DB 197,228,92,192 ; vsubps %ymm0,%ymm3,%ymm0
- DB 196,193,124,89,198 ; vmulps %ymm14,%ymm0,%ymm0
- DB 197,252,88,192 ; vaddps %ymm0,%ymm0,%ymm0
- DB 197,180,92,192 ; vsubps %ymm0,%ymm9,%ymm0
- DB 196,195,125,74,197,192 ; vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- DB 197,164,88,192 ; vaddps %ymm0,%ymm11,%ymm0
- DB 197,44,89,217 ; vmulps %ymm1,%ymm10,%ymm11
- DB 196,98,61,184,221 ; vfmadd231ps %ymm5,%ymm8,%ymm11
- DB 197,84,88,229 ; vaddps %ymm5,%ymm5,%ymm12
- DB 197,28,194,231,2 ; vcmpleps %ymm7,%ymm12,%ymm12
- DB 197,116,89,237 ; vmulps %ymm5,%ymm1,%ymm13
- DB 196,65,20,88,237 ; vaddps %ymm13,%ymm13,%ymm13
- DB 197,68,92,245 ; vsubps %ymm5,%ymm7,%ymm14
- DB 197,228,92,201 ; vsubps %ymm1,%ymm3,%ymm1
- DB 196,193,116,89,206 ; vmulps %ymm14,%ymm1,%ymm1
- DB 197,244,88,201 ; vaddps %ymm1,%ymm1,%ymm1
- DB 197,180,92,201 ; vsubps %ymm1,%ymm9,%ymm1
- DB 196,195,117,74,205,192 ; vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- DB 197,164,88,201 ; vaddps %ymm1,%ymm11,%ymm1
- DB 197,44,89,210 ; vmulps %ymm2,%ymm10,%ymm10
- DB 196,98,61,184,214 ; vfmadd231ps %ymm6,%ymm8,%ymm10
- DB 197,76,88,222 ; vaddps %ymm6,%ymm6,%ymm11
- DB 197,36,194,223,2 ; vcmpleps %ymm7,%ymm11,%ymm11
- DB 197,108,89,230 ; vmulps %ymm6,%ymm2,%ymm12
- DB 196,65,28,88,228 ; vaddps %ymm12,%ymm12,%ymm12
- DB 197,68,92,238 ; vsubps %ymm6,%ymm7,%ymm13
- DB 197,228,92,210 ; vsubps %ymm2,%ymm3,%ymm2
- DB 196,193,108,89,213 ; vmulps %ymm13,%ymm2,%ymm2
- DB 197,236,88,210 ; vaddps %ymm2,%ymm2,%ymm2
- DB 197,180,92,210 ; vsubps %ymm2,%ymm9,%ymm2
- DB 196,195,109,74,212,176 ; vblendvps %ymm11,%ymm12,%ymm2,%ymm2
- DB 197,172,88,210 ; vaddps %ymm2,%ymm10,%ymm2
- DB 196,194,69,184,216 ; vfmadd231ps %ymm8,%ymm7,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_softlight_hsw
-_sk_softlight_hsw LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 197,252,17,84,36,32 ; vmovups %ymm2,0x20(%rsp)
- DB 197,252,40,209 ; vmovaps %ymm1,%ymm2
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,52,194,215,1 ; vcmpltps %ymm7,%ymm9,%ymm10
- DB 197,92,94,199 ; vdivps %ymm7,%ymm4,%ymm8
- DB 196,67,53,74,232,160 ; vblendvps %ymm10,%ymm8,%ymm9,%ymm13
- DB 196,65,20,88,197 ; vaddps %ymm13,%ymm13,%ymm8
- DB 196,65,60,88,192 ; vaddps %ymm8,%ymm8,%ymm8
- DB 196,66,61,168,192 ; vfmadd213ps %ymm8,%ymm8,%ymm8
- DB 196,98,125,24,29,122,64,3,0 ; vbroadcastss 0x3407a(%rip),%ymm11 # 34ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
- DB 196,65,20,88,227 ; vaddps %ymm11,%ymm13,%ymm12
- DB 196,65,28,89,192 ; vmulps %ymm8,%ymm12,%ymm8
- DB 196,98,125,24,37,107,64,3,0 ; vbroadcastss 0x3406b(%rip),%ymm12 # 34ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
- DB 196,66,21,184,196 ; vfmadd231ps %ymm12,%ymm13,%ymm8
- DB 196,65,124,82,245 ; vrsqrtps %ymm13,%ymm14
- DB 196,65,124,83,246 ; vrcpps %ymm14,%ymm14
- DB 196,65,12,92,245 ; vsubps %ymm13,%ymm14,%ymm14
- DB 197,92,88,252 ; vaddps %ymm4,%ymm4,%ymm15
- DB 196,65,4,88,255 ; vaddps %ymm15,%ymm15,%ymm15
- DB 197,4,194,255,2 ; vcmpleps %ymm7,%ymm15,%ymm15
- DB 196,67,13,74,240,240 ; vblendvps %ymm15,%ymm8,%ymm14,%ymm14
- DB 197,116,88,249 ; vaddps %ymm1,%ymm1,%ymm15
- DB 196,98,125,24,5,26,64,3,0 ; vbroadcastss 0x3401a(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,60,92,237 ; vsubps %ymm13,%ymm8,%ymm13
- DB 197,132,92,195 ; vsubps %ymm3,%ymm15,%ymm0
- DB 196,98,125,168,235 ; vfmadd213ps %ymm3,%ymm0,%ymm13
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 196,193,124,89,198 ; vmulps %ymm14,%ymm0,%ymm0
- DB 197,20,89,236 ; vmulps %ymm4,%ymm13,%ymm13
- DB 196,226,101,184,196 ; vfmadd231ps %ymm4,%ymm3,%ymm0
- DB 197,4,194,243,2 ; vcmpleps %ymm3,%ymm15,%ymm14
- DB 196,195,125,74,197,224 ; vblendvps %ymm14,%ymm13,%ymm0,%ymm0
- DB 197,252,17,4,36 ; vmovups %ymm0,(%rsp)
- DB 197,212,94,199 ; vdivps %ymm7,%ymm5,%ymm0
- DB 196,227,53,74,192,160 ; vblendvps %ymm10,%ymm0,%ymm9,%ymm0
- DB 197,124,88,240 ; vaddps %ymm0,%ymm0,%ymm14
- DB 196,65,12,88,246 ; vaddps %ymm14,%ymm14,%ymm14
- DB 196,66,13,168,246 ; vfmadd213ps %ymm14,%ymm14,%ymm14
- DB 196,65,124,88,251 ; vaddps %ymm11,%ymm0,%ymm15
- DB 196,65,4,89,246 ; vmulps %ymm14,%ymm15,%ymm14
- DB 196,66,125,184,244 ; vfmadd231ps %ymm12,%ymm0,%ymm14
- DB 197,124,82,248 ; vrsqrtps %ymm0,%ymm15
- DB 196,65,124,83,255 ; vrcpps %ymm15,%ymm15
- DB 197,4,92,248 ; vsubps %ymm0,%ymm15,%ymm15
- DB 197,84,88,237 ; vaddps %ymm5,%ymm5,%ymm13
- DB 196,65,20,88,237 ; vaddps %ymm13,%ymm13,%ymm13
- DB 197,20,194,239,2 ; vcmpleps %ymm7,%ymm13,%ymm13
- DB 196,67,5,74,238,208 ; vblendvps %ymm13,%ymm14,%ymm15,%ymm13
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 197,108,88,242 ; vaddps %ymm2,%ymm2,%ymm14
- DB 197,12,92,251 ; vsubps %ymm3,%ymm14,%ymm15
- DB 196,226,5,168,195 ; vfmadd213ps %ymm3,%ymm15,%ymm0
- DB 197,4,89,255 ; vmulps %ymm7,%ymm15,%ymm15
- DB 196,65,4,89,237 ; vmulps %ymm13,%ymm15,%ymm13
- DB 197,252,89,197 ; vmulps %ymm5,%ymm0,%ymm0
- DB 196,98,101,184,237 ; vfmadd231ps %ymm5,%ymm3,%ymm13
- DB 197,12,194,243,2 ; vcmpleps %ymm3,%ymm14,%ymm14
- DB 196,99,21,74,240,224 ; vblendvps %ymm14,%ymm0,%ymm13,%ymm14
- DB 197,204,94,199 ; vdivps %ymm7,%ymm6,%ymm0
- DB 196,227,53,74,192,160 ; vblendvps %ymm10,%ymm0,%ymm9,%ymm0
- DB 197,124,88,200 ; vaddps %ymm0,%ymm0,%ymm9
- DB 196,65,52,88,201 ; vaddps %ymm9,%ymm9,%ymm9
- DB 196,66,53,168,201 ; vfmadd213ps %ymm9,%ymm9,%ymm9
- DB 196,65,124,88,211 ; vaddps %ymm11,%ymm0,%ymm10
- DB 196,65,44,89,201 ; vmulps %ymm9,%ymm10,%ymm9
- DB 196,66,125,184,204 ; vfmadd231ps %ymm12,%ymm0,%ymm9
- DB 197,124,82,208 ; vrsqrtps %ymm0,%ymm10
- DB 196,65,124,83,210 ; vrcpps %ymm10,%ymm10
- DB 197,44,92,208 ; vsubps %ymm0,%ymm10,%ymm10
- DB 197,76,88,222 ; vaddps %ymm6,%ymm6,%ymm11
- DB 196,65,36,88,219 ; vaddps %ymm11,%ymm11,%ymm11
- DB 197,36,194,223,2 ; vcmpleps %ymm7,%ymm11,%ymm11
- DB 196,67,45,74,201,176 ; vblendvps %ymm11,%ymm9,%ymm10,%ymm9
- DB 197,124,16,100,36,32 ; vmovups 0x20(%rsp),%ymm12
- DB 196,65,28,88,212 ; vaddps %ymm12,%ymm12,%ymm10
- DB 197,44,92,219 ; vsubps %ymm3,%ymm10,%ymm11
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 196,226,37,168,195 ; vfmadd213ps %ymm3,%ymm11,%ymm0
- DB 197,36,89,223 ; vmulps %ymm7,%ymm11,%ymm11
- DB 196,65,36,89,201 ; vmulps %ymm9,%ymm11,%ymm9
- DB 197,252,89,198 ; vmulps %ymm6,%ymm0,%ymm0
- DB 196,98,101,184,206 ; vfmadd231ps %ymm6,%ymm3,%ymm9
- DB 197,44,194,211,2 ; vcmpleps %ymm3,%ymm10,%ymm10
- DB 196,99,53,74,200,160 ; vblendvps %ymm10,%ymm0,%ymm9,%ymm9
- DB 197,60,92,215 ; vsubps %ymm7,%ymm8,%ymm10
- DB 197,172,89,193 ; vmulps %ymm1,%ymm10,%ymm0
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 196,226,61,184,196 ; vfmadd231ps %ymm4,%ymm8,%ymm0
- DB 197,252,88,4,36 ; vaddps (%rsp),%ymm0,%ymm0
- DB 197,172,89,202 ; vmulps %ymm2,%ymm10,%ymm1
- DB 196,226,61,184,205 ; vfmadd231ps %ymm5,%ymm8,%ymm1
- DB 196,193,116,88,206 ; vaddps %ymm14,%ymm1,%ymm1
- DB 196,193,44,89,212 ; vmulps %ymm12,%ymm10,%ymm2
- DB 196,226,61,184,214 ; vfmadd231ps %ymm6,%ymm8,%ymm2
- DB 196,193,108,88,209 ; vaddps %ymm9,%ymm2,%ymm2
- DB 196,194,69,184,216 ; vfmadd231ps %ymm8,%ymm7,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hue_hsw
-_sk_hue_hsw LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 197,124,40,194 ; vmovaps %ymm2,%ymm8
- DB 197,124,17,68,36,32 ; vmovups %ymm8,0x20(%rsp)
- DB 197,252,17,12,36 ; vmovups %ymm1,(%rsp)
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 197,108,89,203 ; vmulps %ymm3,%ymm2,%ymm9
- DB 197,116,89,211 ; vmulps %ymm3,%ymm1,%ymm10
- DB 197,60,89,219 ; vmulps %ymm3,%ymm8,%ymm11
- DB 197,84,95,198 ; vmaxps %ymm6,%ymm5,%ymm8
- DB 196,65,92,95,192 ; vmaxps %ymm8,%ymm4,%ymm8
- DB 197,84,93,230 ; vminps %ymm6,%ymm5,%ymm12
- DB 196,65,92,93,228 ; vminps %ymm12,%ymm4,%ymm12
- DB 196,65,60,92,196 ; vsubps %ymm12,%ymm8,%ymm8
- DB 197,60,89,227 ; vmulps %ymm3,%ymm8,%ymm12
- DB 196,65,44,93,195 ; vminps %ymm11,%ymm10,%ymm8
- DB 196,65,52,93,232 ; vminps %ymm8,%ymm9,%ymm13
- DB 196,65,44,95,195 ; vmaxps %ymm11,%ymm10,%ymm8
- DB 196,65,52,95,192 ; vmaxps %ymm8,%ymm9,%ymm8
- DB 196,65,60,92,245 ; vsubps %ymm13,%ymm8,%ymm14
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,65,12,194,248,0 ; vcmpeqps %ymm8,%ymm14,%ymm15
- DB 196,65,52,92,205 ; vsubps %ymm13,%ymm9,%ymm9
- DB 196,65,28,89,201 ; vmulps %ymm9,%ymm12,%ymm9
- DB 196,65,52,94,206 ; vdivps %ymm14,%ymm9,%ymm9
- DB 196,67,53,74,200,240 ; vblendvps %ymm15,%ymm8,%ymm9,%ymm9
- DB 196,65,44,92,213 ; vsubps %ymm13,%ymm10,%ymm10
- DB 196,65,28,89,210 ; vmulps %ymm10,%ymm12,%ymm10
- DB 196,65,44,94,214 ; vdivps %ymm14,%ymm10,%ymm10
- DB 196,195,45,74,200,240 ; vblendvps %ymm15,%ymm8,%ymm10,%ymm1
- DB 196,65,36,92,213 ; vsubps %ymm13,%ymm11,%ymm10
- DB 196,65,28,89,210 ; vmulps %ymm10,%ymm12,%ymm10
- DB 196,65,44,94,214 ; vdivps %ymm14,%ymm10,%ymm10
- DB 196,67,45,74,224,240 ; vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- DB 196,98,125,24,53,45,62,3,0 ; vbroadcastss 0x33e2d(%rip),%ymm14 # 34ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- DB 196,98,125,24,61,40,62,3,0 ; vbroadcastss 0x33e28(%rip),%ymm15 # 34aec <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- DB 196,65,84,89,239 ; vmulps %ymm15,%ymm5,%ymm13
- DB 196,66,93,184,238 ; vfmadd231ps %ymm14,%ymm4,%ymm13
- DB 196,226,125,24,5,25,62,3,0 ; vbroadcastss 0x33e19(%rip),%ymm0 # 34af0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- DB 196,98,77,184,232 ; vfmadd231ps %ymm0,%ymm6,%ymm13
- DB 196,65,116,89,215 ; vmulps %ymm15,%ymm1,%ymm10
- DB 196,66,53,184,214 ; vfmadd231ps %ymm14,%ymm9,%ymm10
- DB 196,98,29,184,208 ; vfmadd231ps %ymm0,%ymm12,%ymm10
- DB 196,66,101,170,234 ; vfmsub213ps %ymm10,%ymm3,%ymm13
- DB 196,65,52,88,213 ; vaddps %ymm13,%ymm9,%ymm10
- DB 196,65,116,88,221 ; vaddps %ymm13,%ymm1,%ymm11
- DB 196,65,28,88,229 ; vaddps %ymm13,%ymm12,%ymm12
- DB 196,193,36,93,204 ; vminps %ymm12,%ymm11,%ymm1
- DB 197,44,93,233 ; vminps %ymm1,%ymm10,%ymm13
- DB 196,65,36,89,207 ; vmulps %ymm15,%ymm11,%ymm9
- DB 196,66,45,184,206 ; vfmadd231ps %ymm14,%ymm10,%ymm9
- DB 196,98,29,184,200 ; vfmadd231ps %ymm0,%ymm12,%ymm9
- DB 196,193,44,92,193 ; vsubps %ymm9,%ymm10,%ymm0
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 196,193,52,92,205 ; vsubps %ymm13,%ymm9,%ymm1
- DB 197,252,94,193 ; vdivps %ymm1,%ymm0,%ymm0
- DB 196,65,36,92,241 ; vsubps %ymm9,%ymm11,%ymm14
- DB 196,65,52,89,246 ; vmulps %ymm14,%ymm9,%ymm14
- DB 197,12,94,241 ; vdivps %ymm1,%ymm14,%ymm14
- DB 196,65,28,92,249 ; vsubps %ymm9,%ymm12,%ymm15
- DB 196,65,52,89,255 ; vmulps %ymm15,%ymm9,%ymm15
- DB 197,132,94,201 ; vdivps %ymm1,%ymm15,%ymm1
- DB 196,65,60,194,237,2 ; vcmpleps %ymm13,%ymm8,%ymm13
- DB 196,65,52,88,246 ; vaddps %ymm14,%ymm9,%ymm14
- DB 196,67,13,74,243,208 ; vblendvps %ymm13,%ymm11,%ymm14,%ymm14
- DB 196,65,36,95,220 ; vmaxps %ymm12,%ymm11,%ymm11
- DB 197,180,88,201 ; vaddps %ymm1,%ymm9,%ymm1
- DB 196,195,117,74,204,208 ; vblendvps %ymm13,%ymm12,%ymm1,%ymm1
- DB 197,180,88,192 ; vaddps %ymm0,%ymm9,%ymm0
- DB 196,195,125,74,194,208 ; vblendvps %ymm13,%ymm10,%ymm0,%ymm0
- DB 197,100,89,231 ; vmulps %ymm7,%ymm3,%ymm12
- DB 196,65,44,95,211 ; vmaxps %ymm11,%ymm10,%ymm10
- DB 196,65,124,92,217 ; vsubps %ymm9,%ymm0,%ymm11
- DB 196,65,28,92,233 ; vsubps %ymm9,%ymm12,%ymm13
- DB 196,65,20,89,219 ; vmulps %ymm11,%ymm13,%ymm11
- DB 196,65,28,194,250,1 ; vcmpltps %ymm10,%ymm12,%ymm15
- DB 196,65,44,92,209 ; vsubps %ymm9,%ymm10,%ymm10
- DB 196,65,36,94,218 ; vdivps %ymm10,%ymm11,%ymm11
- DB 196,65,52,88,219 ; vaddps %ymm11,%ymm9,%ymm11
- DB 196,195,125,74,195,240 ; vblendvps %ymm15,%ymm11,%ymm0,%ymm0
- DB 196,65,12,92,217 ; vsubps %ymm9,%ymm14,%ymm11
- DB 196,65,20,89,219 ; vmulps %ymm11,%ymm13,%ymm11
- DB 196,65,36,94,218 ; vdivps %ymm10,%ymm11,%ymm11
- DB 196,65,52,88,219 ; vaddps %ymm11,%ymm9,%ymm11
- DB 196,67,13,74,219,240 ; vblendvps %ymm15,%ymm11,%ymm14,%ymm11
- DB 196,65,116,92,241 ; vsubps %ymm9,%ymm1,%ymm14
- DB 196,65,20,89,238 ; vmulps %ymm14,%ymm13,%ymm13
- DB 196,65,20,94,210 ; vdivps %ymm10,%ymm13,%ymm10
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 196,195,117,74,201,240 ; vblendvps %ymm15,%ymm9,%ymm1,%ymm1
- DB 196,193,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm0
- DB 196,65,36,95,200 ; vmaxps %ymm8,%ymm11,%ymm9
- DB 196,65,116,95,192 ; vmaxps %ymm8,%ymm1,%ymm8
- DB 196,226,125,24,13,218,60,3,0 ; vbroadcastss 0x33cda(%rip),%ymm1 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,116,92,215 ; vsubps %ymm7,%ymm1,%ymm10
- DB 197,172,89,210 ; vmulps %ymm2,%ymm10,%ymm2
- DB 197,116,92,219 ; vsubps %ymm3,%ymm1,%ymm11
- DB 196,226,37,184,212 ; vfmadd231ps %ymm4,%ymm11,%ymm2
- DB 197,236,88,192 ; vaddps %ymm0,%ymm2,%ymm0
- DB 197,172,89,12,36 ; vmulps (%rsp),%ymm10,%ymm1
- DB 196,226,37,184,205 ; vfmadd231ps %ymm5,%ymm11,%ymm1
- DB 196,193,116,88,201 ; vaddps %ymm9,%ymm1,%ymm1
- DB 197,172,89,84,36,32 ; vmulps 0x20(%rsp),%ymm10,%ymm2
- DB 196,98,77,168,218 ; vfmadd213ps %ymm2,%ymm6,%ymm11
- DB 196,193,36,88,208 ; vaddps %ymm8,%ymm11,%ymm2
- DB 197,228,88,223 ; vaddps %ymm7,%ymm3,%ymm3
- DB 196,193,100,92,220 ; vsubps %ymm12,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_saturation_hsw
-_sk_saturation_hsw LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 197,124,40,194 ; vmovaps %ymm2,%ymm8
- DB 197,252,17,12,36 ; vmovups %ymm1,(%rsp)
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 197,100,89,204 ; vmulps %ymm4,%ymm3,%ymm9
- DB 197,100,89,213 ; vmulps %ymm5,%ymm3,%ymm10
- DB 197,100,89,222 ; vmulps %ymm6,%ymm3,%ymm11
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 197,252,17,68,36,32 ; vmovups %ymm0,0x20(%rsp)
- DB 197,116,95,192 ; vmaxps %ymm0,%ymm1,%ymm8
- DB 196,65,108,95,192 ; vmaxps %ymm8,%ymm2,%ymm8
- DB 197,116,93,224 ; vminps %ymm0,%ymm1,%ymm12
- DB 196,65,108,93,228 ; vminps %ymm12,%ymm2,%ymm12
- DB 196,65,60,92,196 ; vsubps %ymm12,%ymm8,%ymm8
- DB 197,60,89,231 ; vmulps %ymm7,%ymm8,%ymm12
- DB 196,65,44,93,195 ; vminps %ymm11,%ymm10,%ymm8
- DB 196,65,52,93,232 ; vminps %ymm8,%ymm9,%ymm13
- DB 196,65,44,95,195 ; vmaxps %ymm11,%ymm10,%ymm8
- DB 196,65,52,95,192 ; vmaxps %ymm8,%ymm9,%ymm8
- DB 196,65,60,92,245 ; vsubps %ymm13,%ymm8,%ymm14
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,65,12,194,248,0 ; vcmpeqps %ymm8,%ymm14,%ymm15
- DB 196,65,52,92,205 ; vsubps %ymm13,%ymm9,%ymm9
- DB 196,65,28,89,201 ; vmulps %ymm9,%ymm12,%ymm9
- DB 196,65,52,94,206 ; vdivps %ymm14,%ymm9,%ymm9
- DB 196,67,53,74,200,240 ; vblendvps %ymm15,%ymm8,%ymm9,%ymm9
- DB 196,65,44,92,213 ; vsubps %ymm13,%ymm10,%ymm10
- DB 196,65,28,89,210 ; vmulps %ymm10,%ymm12,%ymm10
- DB 196,65,44,94,214 ; vdivps %ymm14,%ymm10,%ymm10
- DB 196,195,45,74,200,240 ; vblendvps %ymm15,%ymm8,%ymm10,%ymm1
- DB 196,65,36,92,213 ; vsubps %ymm13,%ymm11,%ymm10
- DB 196,65,28,89,210 ; vmulps %ymm10,%ymm12,%ymm10
- DB 196,65,44,94,214 ; vdivps %ymm14,%ymm10,%ymm10
- DB 196,67,45,74,224,240 ; vblendvps %ymm15,%ymm8,%ymm10,%ymm12
- DB 196,98,125,24,53,7,60,3,0 ; vbroadcastss 0x33c07(%rip),%ymm14 # 34ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- DB 196,98,125,24,61,2,60,3,0 ; vbroadcastss 0x33c02(%rip),%ymm15 # 34aec <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- DB 196,65,84,89,239 ; vmulps %ymm15,%ymm5,%ymm13
- DB 196,66,93,184,238 ; vfmadd231ps %ymm14,%ymm4,%ymm13
- DB 196,226,125,24,5,243,59,3,0 ; vbroadcastss 0x33bf3(%rip),%ymm0 # 34af0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- DB 196,98,77,184,232 ; vfmadd231ps %ymm0,%ymm6,%ymm13
- DB 196,65,116,89,215 ; vmulps %ymm15,%ymm1,%ymm10
- DB 196,66,53,184,214 ; vfmadd231ps %ymm14,%ymm9,%ymm10
- DB 196,98,29,184,208 ; vfmadd231ps %ymm0,%ymm12,%ymm10
- DB 196,66,101,170,234 ; vfmsub213ps %ymm10,%ymm3,%ymm13
- DB 196,65,52,88,213 ; vaddps %ymm13,%ymm9,%ymm10
- DB 196,65,116,88,221 ; vaddps %ymm13,%ymm1,%ymm11
- DB 196,65,28,88,229 ; vaddps %ymm13,%ymm12,%ymm12
- DB 196,193,36,93,204 ; vminps %ymm12,%ymm11,%ymm1
- DB 197,44,93,233 ; vminps %ymm1,%ymm10,%ymm13
- DB 196,65,36,89,207 ; vmulps %ymm15,%ymm11,%ymm9
- DB 196,66,45,184,206 ; vfmadd231ps %ymm14,%ymm10,%ymm9
- DB 196,98,29,184,200 ; vfmadd231ps %ymm0,%ymm12,%ymm9
- DB 196,193,44,92,193 ; vsubps %ymm9,%ymm10,%ymm0
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 196,193,52,92,205 ; vsubps %ymm13,%ymm9,%ymm1
- DB 197,252,94,193 ; vdivps %ymm1,%ymm0,%ymm0
- DB 196,65,36,92,241 ; vsubps %ymm9,%ymm11,%ymm14
- DB 196,65,52,89,246 ; vmulps %ymm14,%ymm9,%ymm14
- DB 197,12,94,241 ; vdivps %ymm1,%ymm14,%ymm14
- DB 196,65,28,92,249 ; vsubps %ymm9,%ymm12,%ymm15
- DB 196,65,52,89,255 ; vmulps %ymm15,%ymm9,%ymm15
- DB 197,132,94,201 ; vdivps %ymm1,%ymm15,%ymm1
- DB 196,65,60,194,237,2 ; vcmpleps %ymm13,%ymm8,%ymm13
- DB 196,65,52,88,246 ; vaddps %ymm14,%ymm9,%ymm14
- DB 196,67,13,74,243,208 ; vblendvps %ymm13,%ymm11,%ymm14,%ymm14
- DB 196,65,36,95,220 ; vmaxps %ymm12,%ymm11,%ymm11
- DB 197,180,88,201 ; vaddps %ymm1,%ymm9,%ymm1
- DB 196,195,117,74,204,208 ; vblendvps %ymm13,%ymm12,%ymm1,%ymm1
- DB 197,180,88,192 ; vaddps %ymm0,%ymm9,%ymm0
- DB 196,195,125,74,194,208 ; vblendvps %ymm13,%ymm10,%ymm0,%ymm0
- DB 197,100,89,231 ; vmulps %ymm7,%ymm3,%ymm12
- DB 196,65,44,95,211 ; vmaxps %ymm11,%ymm10,%ymm10
- DB 196,65,124,92,217 ; vsubps %ymm9,%ymm0,%ymm11
- DB 196,65,28,92,233 ; vsubps %ymm9,%ymm12,%ymm13
- DB 196,65,20,89,219 ; vmulps %ymm11,%ymm13,%ymm11
- DB 196,65,28,194,250,1 ; vcmpltps %ymm10,%ymm12,%ymm15
- DB 196,65,44,92,209 ; vsubps %ymm9,%ymm10,%ymm10
- DB 196,65,36,94,218 ; vdivps %ymm10,%ymm11,%ymm11
- DB 196,65,52,88,219 ; vaddps %ymm11,%ymm9,%ymm11
- DB 196,195,125,74,195,240 ; vblendvps %ymm15,%ymm11,%ymm0,%ymm0
- DB 196,65,12,92,217 ; vsubps %ymm9,%ymm14,%ymm11
- DB 196,65,20,89,219 ; vmulps %ymm11,%ymm13,%ymm11
- DB 196,65,36,94,218 ; vdivps %ymm10,%ymm11,%ymm11
- DB 196,65,52,88,219 ; vaddps %ymm11,%ymm9,%ymm11
- DB 196,67,13,74,219,240 ; vblendvps %ymm15,%ymm11,%ymm14,%ymm11
- DB 196,65,116,92,241 ; vsubps %ymm9,%ymm1,%ymm14
- DB 196,65,20,89,238 ; vmulps %ymm14,%ymm13,%ymm13
- DB 196,65,20,94,210 ; vdivps %ymm10,%ymm13,%ymm10
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 196,195,117,74,201,240 ; vblendvps %ymm15,%ymm9,%ymm1,%ymm1
- DB 196,193,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm0
- DB 196,65,36,95,200 ; vmaxps %ymm8,%ymm11,%ymm9
- DB 196,65,116,95,192 ; vmaxps %ymm8,%ymm1,%ymm8
- DB 196,226,125,24,13,180,58,3,0 ; vbroadcastss 0x33ab4(%rip),%ymm1 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,116,92,215 ; vsubps %ymm7,%ymm1,%ymm10
- DB 197,172,89,210 ; vmulps %ymm2,%ymm10,%ymm2
- DB 197,116,92,219 ; vsubps %ymm3,%ymm1,%ymm11
- DB 196,226,37,184,212 ; vfmadd231ps %ymm4,%ymm11,%ymm2
- DB 197,236,88,192 ; vaddps %ymm0,%ymm2,%ymm0
- DB 197,172,89,12,36 ; vmulps (%rsp),%ymm10,%ymm1
- DB 196,226,37,184,205 ; vfmadd231ps %ymm5,%ymm11,%ymm1
- DB 196,193,116,88,201 ; vaddps %ymm9,%ymm1,%ymm1
- DB 197,172,89,84,36,32 ; vmulps 0x20(%rsp),%ymm10,%ymm2
- DB 196,98,77,168,218 ; vfmadd213ps %ymm2,%ymm6,%ymm11
- DB 196,193,36,88,208 ; vaddps %ymm8,%ymm11,%ymm2
- DB 197,228,88,223 ; vaddps %ymm7,%ymm3,%ymm3
- DB 196,193,100,92,220 ; vsubps %ymm12,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_color_hsw
-_sk_color_hsw LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 197,124,40,202 ; vmovaps %ymm2,%ymm9
- DB 197,124,17,76,36,32 ; vmovups %ymm9,0x20(%rsp)
- DB 197,252,17,12,36 ; vmovups %ymm1,(%rsp)
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 197,108,89,199 ; vmulps %ymm7,%ymm2,%ymm8
- DB 197,116,89,215 ; vmulps %ymm7,%ymm1,%ymm10
- DB 197,52,89,223 ; vmulps %ymm7,%ymm9,%ymm11
- DB 196,98,125,24,45,99,58,3,0 ; vbroadcastss 0x33a63(%rip),%ymm13 # 34ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- DB 196,98,125,24,53,94,58,3,0 ; vbroadcastss 0x33a5e(%rip),%ymm14 # 34aec <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- DB 196,65,84,89,230 ; vmulps %ymm14,%ymm5,%ymm12
- DB 196,66,93,184,229 ; vfmadd231ps %ymm13,%ymm4,%ymm12
- DB 196,98,125,24,61,79,58,3,0 ; vbroadcastss 0x33a4f(%rip),%ymm15 # 34af0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- DB 196,66,77,184,231 ; vfmadd231ps %ymm15,%ymm6,%ymm12
- DB 196,65,44,89,206 ; vmulps %ymm14,%ymm10,%ymm9
- DB 196,66,61,184,205 ; vfmadd231ps %ymm13,%ymm8,%ymm9
- DB 196,66,37,184,207 ; vfmadd231ps %ymm15,%ymm11,%ymm9
- DB 196,66,101,170,225 ; vfmsub213ps %ymm9,%ymm3,%ymm12
- DB 196,65,60,88,204 ; vaddps %ymm12,%ymm8,%ymm9
- DB 196,65,44,88,212 ; vaddps %ymm12,%ymm10,%ymm10
- DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 196,65,44,93,195 ; vminps %ymm11,%ymm10,%ymm8
- DB 196,65,52,93,224 ; vminps %ymm8,%ymm9,%ymm12
- DB 196,65,44,89,198 ; vmulps %ymm14,%ymm10,%ymm8
- DB 196,66,53,184,197 ; vfmadd231ps %ymm13,%ymm9,%ymm8
- DB 196,66,37,184,199 ; vfmadd231ps %ymm15,%ymm11,%ymm8
- DB 196,65,52,92,232 ; vsubps %ymm8,%ymm9,%ymm13
- DB 196,65,60,89,237 ; vmulps %ymm13,%ymm8,%ymm13
- DB 196,65,60,92,244 ; vsubps %ymm12,%ymm8,%ymm14
- DB 196,193,20,94,198 ; vdivps %ymm14,%ymm13,%ymm0
- DB 196,65,44,92,248 ; vsubps %ymm8,%ymm10,%ymm15
- DB 196,65,60,89,255 ; vmulps %ymm15,%ymm8,%ymm15
- DB 196,65,4,94,254 ; vdivps %ymm14,%ymm15,%ymm15
- DB 196,65,36,92,232 ; vsubps %ymm8,%ymm11,%ymm13
- DB 196,65,60,89,237 ; vmulps %ymm13,%ymm8,%ymm13
- DB 196,65,20,94,238 ; vdivps %ymm14,%ymm13,%ymm13
- DB 196,65,12,87,246 ; vxorps %ymm14,%ymm14,%ymm14
- DB 196,65,12,194,228,2 ; vcmpleps %ymm12,%ymm14,%ymm12
- DB 196,65,60,88,255 ; vaddps %ymm15,%ymm8,%ymm15
- DB 196,67,5,74,250,192 ; vblendvps %ymm12,%ymm10,%ymm15,%ymm15
- DB 196,65,44,95,211 ; vmaxps %ymm11,%ymm10,%ymm10
- DB 196,65,60,88,237 ; vaddps %ymm13,%ymm8,%ymm13
- DB 196,67,21,74,219,192 ; vblendvps %ymm12,%ymm11,%ymm13,%ymm11
- DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
- DB 196,195,125,74,201,192 ; vblendvps %ymm12,%ymm9,%ymm0,%ymm1
- DB 197,100,89,231 ; vmulps %ymm7,%ymm3,%ymm12
- DB 196,65,52,95,202 ; vmaxps %ymm10,%ymm9,%ymm9
- DB 196,65,116,92,208 ; vsubps %ymm8,%ymm1,%ymm10
- DB 196,65,28,92,232 ; vsubps %ymm8,%ymm12,%ymm13
- DB 196,65,20,89,210 ; vmulps %ymm10,%ymm13,%ymm10
- DB 196,193,28,194,193,1 ; vcmpltps %ymm9,%ymm12,%ymm0
- DB 196,65,52,92,200 ; vsubps %ymm8,%ymm9,%ymm9
- DB 196,65,44,94,209 ; vdivps %ymm9,%ymm10,%ymm10
- DB 196,65,60,88,210 ; vaddps %ymm10,%ymm8,%ymm10
- DB 196,195,117,74,202,0 ; vblendvps %ymm0,%ymm10,%ymm1,%ymm1
- DB 196,65,4,92,208 ; vsubps %ymm8,%ymm15,%ymm10
- DB 196,65,20,89,210 ; vmulps %ymm10,%ymm13,%ymm10
- DB 196,65,44,94,209 ; vdivps %ymm9,%ymm10,%ymm10
- DB 196,65,60,88,210 ; vaddps %ymm10,%ymm8,%ymm10
- DB 196,67,5,74,210,0 ; vblendvps %ymm0,%ymm10,%ymm15,%ymm10
- DB 196,65,36,92,248 ; vsubps %ymm8,%ymm11,%ymm15
- DB 196,65,20,89,239 ; vmulps %ymm15,%ymm13,%ymm13
- DB 196,65,20,94,201 ; vdivps %ymm9,%ymm13,%ymm9
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 196,195,37,74,192,0 ; vblendvps %ymm0,%ymm8,%ymm11,%ymm0
- DB 196,193,116,95,206 ; vmaxps %ymm14,%ymm1,%ymm1
- DB 196,65,44,95,198 ; vmaxps %ymm14,%ymm10,%ymm8
- DB 196,65,124,95,206 ; vmaxps %ymm14,%ymm0,%ymm9
- DB 196,226,125,24,5,5,57,3,0 ; vbroadcastss 0x33905(%rip),%ymm0 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,124,92,215 ; vsubps %ymm7,%ymm0,%ymm10
- DB 197,172,89,210 ; vmulps %ymm2,%ymm10,%ymm2
- DB 197,124,92,219 ; vsubps %ymm3,%ymm0,%ymm11
- DB 196,226,37,184,212 ; vfmadd231ps %ymm4,%ymm11,%ymm2
- DB 197,236,88,193 ; vaddps %ymm1,%ymm2,%ymm0
- DB 197,172,89,12,36 ; vmulps (%rsp),%ymm10,%ymm1
- DB 196,226,37,184,205 ; vfmadd231ps %ymm5,%ymm11,%ymm1
- DB 196,193,116,88,200 ; vaddps %ymm8,%ymm1,%ymm1
- DB 197,172,89,84,36,32 ; vmulps 0x20(%rsp),%ymm10,%ymm2
- DB 196,98,77,168,218 ; vfmadd213ps %ymm2,%ymm6,%ymm11
- DB 196,193,36,88,209 ; vaddps %ymm9,%ymm11,%ymm2
- DB 197,228,88,223 ; vaddps %ymm7,%ymm3,%ymm3
- DB 196,193,100,92,220 ; vsubps %ymm12,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_luminosity_hsw
-_sk_luminosity_hsw LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 197,124,40,202 ; vmovaps %ymm2,%ymm9
- DB 197,124,17,12,36 ; vmovups %ymm9,(%rsp)
- DB 197,252,17,76,36,32 ; vmovups %ymm1,0x20(%rsp)
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 197,100,89,196 ; vmulps %ymm4,%ymm3,%ymm8
- DB 197,100,89,213 ; vmulps %ymm5,%ymm3,%ymm10
- DB 197,100,89,222 ; vmulps %ymm6,%ymm3,%ymm11
- DB 196,98,125,24,45,180,56,3,0 ; vbroadcastss 0x338b4(%rip),%ymm13 # 34ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- DB 196,98,125,24,53,175,56,3,0 ; vbroadcastss 0x338af(%rip),%ymm14 # 34aec <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- DB 196,65,116,89,230 ; vmulps %ymm14,%ymm1,%ymm12
- DB 196,66,109,184,229 ; vfmadd231ps %ymm13,%ymm2,%ymm12
- DB 196,98,125,24,61,160,56,3,0 ; vbroadcastss 0x338a0(%rip),%ymm15 # 34af0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- DB 196,66,53,184,231 ; vfmadd231ps %ymm15,%ymm9,%ymm12
- DB 196,65,44,89,206 ; vmulps %ymm14,%ymm10,%ymm9
- DB 196,66,61,184,205 ; vfmadd231ps %ymm13,%ymm8,%ymm9
- DB 196,66,37,184,207 ; vfmadd231ps %ymm15,%ymm11,%ymm9
- DB 196,66,69,170,225 ; vfmsub213ps %ymm9,%ymm7,%ymm12
- DB 196,65,60,88,204 ; vaddps %ymm12,%ymm8,%ymm9
- DB 196,65,44,88,212 ; vaddps %ymm12,%ymm10,%ymm10
- DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 196,65,44,93,195 ; vminps %ymm11,%ymm10,%ymm8
- DB 196,65,52,93,224 ; vminps %ymm8,%ymm9,%ymm12
- DB 196,65,44,89,198 ; vmulps %ymm14,%ymm10,%ymm8
- DB 196,66,53,184,197 ; vfmadd231ps %ymm13,%ymm9,%ymm8
- DB 196,66,37,184,199 ; vfmadd231ps %ymm15,%ymm11,%ymm8
- DB 196,65,52,92,232 ; vsubps %ymm8,%ymm9,%ymm13
- DB 196,65,60,89,237 ; vmulps %ymm13,%ymm8,%ymm13
- DB 196,65,60,92,244 ; vsubps %ymm12,%ymm8,%ymm14
- DB 196,193,20,94,198 ; vdivps %ymm14,%ymm13,%ymm0
- DB 196,65,44,92,248 ; vsubps %ymm8,%ymm10,%ymm15
- DB 196,65,60,89,255 ; vmulps %ymm15,%ymm8,%ymm15
- DB 196,65,4,94,254 ; vdivps %ymm14,%ymm15,%ymm15
- DB 196,65,36,92,232 ; vsubps %ymm8,%ymm11,%ymm13
- DB 196,65,60,89,237 ; vmulps %ymm13,%ymm8,%ymm13
- DB 196,65,20,94,238 ; vdivps %ymm14,%ymm13,%ymm13
- DB 196,65,12,87,246 ; vxorps %ymm14,%ymm14,%ymm14
- DB 196,65,12,194,228,2 ; vcmpleps %ymm12,%ymm14,%ymm12
- DB 196,65,60,88,255 ; vaddps %ymm15,%ymm8,%ymm15
- DB 196,67,5,74,250,192 ; vblendvps %ymm12,%ymm10,%ymm15,%ymm15
- DB 196,65,44,95,211 ; vmaxps %ymm11,%ymm10,%ymm10
- DB 196,65,60,88,237 ; vaddps %ymm13,%ymm8,%ymm13
- DB 196,67,21,74,219,192 ; vblendvps %ymm12,%ymm11,%ymm13,%ymm11
- DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
- DB 196,195,125,74,201,192 ; vblendvps %ymm12,%ymm9,%ymm0,%ymm1
- DB 197,100,89,231 ; vmulps %ymm7,%ymm3,%ymm12
- DB 196,65,52,95,202 ; vmaxps %ymm10,%ymm9,%ymm9
- DB 196,65,116,92,208 ; vsubps %ymm8,%ymm1,%ymm10
- DB 196,65,28,92,232 ; vsubps %ymm8,%ymm12,%ymm13
- DB 196,65,20,89,210 ; vmulps %ymm10,%ymm13,%ymm10
- DB 196,193,28,194,193,1 ; vcmpltps %ymm9,%ymm12,%ymm0
- DB 196,65,52,92,200 ; vsubps %ymm8,%ymm9,%ymm9
- DB 196,65,44,94,209 ; vdivps %ymm9,%ymm10,%ymm10
- DB 196,65,60,88,210 ; vaddps %ymm10,%ymm8,%ymm10
- DB 196,195,117,74,202,0 ; vblendvps %ymm0,%ymm10,%ymm1,%ymm1
- DB 196,65,4,92,208 ; vsubps %ymm8,%ymm15,%ymm10
- DB 196,65,20,89,210 ; vmulps %ymm10,%ymm13,%ymm10
- DB 196,65,44,94,209 ; vdivps %ymm9,%ymm10,%ymm10
- DB 196,65,60,88,210 ; vaddps %ymm10,%ymm8,%ymm10
- DB 196,67,5,74,210,0 ; vblendvps %ymm0,%ymm10,%ymm15,%ymm10
- DB 196,65,36,92,248 ; vsubps %ymm8,%ymm11,%ymm15
- DB 196,65,20,89,239 ; vmulps %ymm15,%ymm13,%ymm13
- DB 196,65,20,94,201 ; vdivps %ymm9,%ymm13,%ymm9
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 196,195,37,74,192,0 ; vblendvps %ymm0,%ymm8,%ymm11,%ymm0
- DB 196,193,116,95,206 ; vmaxps %ymm14,%ymm1,%ymm1
- DB 196,65,44,95,198 ; vmaxps %ymm14,%ymm10,%ymm8
- DB 196,65,124,95,206 ; vmaxps %ymm14,%ymm0,%ymm9
- DB 196,226,125,24,5,86,55,3,0 ; vbroadcastss 0x33756(%rip),%ymm0 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,124,92,215 ; vsubps %ymm7,%ymm0,%ymm10
- DB 197,172,89,210 ; vmulps %ymm2,%ymm10,%ymm2
- DB 197,124,92,219 ; vsubps %ymm3,%ymm0,%ymm11
- DB 196,226,37,184,212 ; vfmadd231ps %ymm4,%ymm11,%ymm2
- DB 197,236,88,193 ; vaddps %ymm1,%ymm2,%ymm0
- DB 197,172,89,76,36,32 ; vmulps 0x20(%rsp),%ymm10,%ymm1
- DB 196,226,37,184,205 ; vfmadd231ps %ymm5,%ymm11,%ymm1
- DB 196,193,116,88,200 ; vaddps %ymm8,%ymm1,%ymm1
- DB 197,172,89,20,36 ; vmulps (%rsp),%ymm10,%ymm2
- DB 196,98,77,168,218 ; vfmadd213ps %ymm2,%ymm6,%ymm11
- DB 196,193,36,88,209 ; vaddps %ymm9,%ymm11,%ymm2
- DB 197,228,88,223 ; vaddps %ymm7,%ymm3,%ymm3
- DB 196,193,100,92,220 ; vsubps %ymm12,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_rgba_8888_hsw
-_sk_srcover_rgba_8888_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,224,0,0,0 ; jne 14b1 <_sk_srcover_rgba_8888_hsw+0xfa>
- DB 196,193,126,111,60,144 ; vmovdqu (%r8,%rdx,4),%ymm7
- DB 197,197,219,37,193,56,3,0 ; vpand 0x338c1(%rip),%ymm7,%ymm4 # 34ca0 <_sk_srcover_bgra_8888_sse2_lowp+0x488>
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,69,0,45,212,56,3,0 ; vpshufb 0x338d4(%rip),%ymm7,%ymm5 # 34cc0 <_sk_srcover_bgra_8888_sse2_lowp+0x4a8>
- DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,226,69,0,53,231,56,3,0 ; vpshufb 0x338e7(%rip),%ymm7,%ymm6 # 34ce0 <_sk_srcover_bgra_8888_sse2_lowp+0x4c8>
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 197,197,114,215,24 ; vpsrld $0x18,%ymm7,%ymm7
- DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,98,125,24,13,180,54,3,0 ; vbroadcastss 0x336b4(%rip),%ymm9 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,52,92,203 ; vsubps %ymm3,%ymm9,%ymm9
- DB 196,98,125,24,21,211,54,3,0 ; vbroadcastss 0x336d3(%rip),%ymm10 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,193,124,89,194 ; vmulps %ymm10,%ymm0,%ymm0
- DB 196,194,93,184,193 ; vfmadd231ps %ymm9,%ymm4,%ymm0
- DB 196,193,116,89,202 ; vmulps %ymm10,%ymm1,%ymm1
- DB 196,194,85,184,201 ; vfmadd231ps %ymm9,%ymm5,%ymm1
- DB 196,193,108,89,210 ; vmulps %ymm10,%ymm2,%ymm2
- DB 196,194,77,184,209 ; vfmadd231ps %ymm9,%ymm6,%ymm2
- DB 196,193,100,89,218 ; vmulps %ymm10,%ymm3,%ymm3
- DB 196,194,69,184,217 ; vfmadd231ps %ymm9,%ymm7,%ymm3
- DB 197,60,95,200 ; vmaxps %ymm0,%ymm8,%ymm9
- DB 196,65,52,93,202 ; vminps %ymm10,%ymm9,%ymm9
- DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
- DB 197,60,95,217 ; vmaxps %ymm1,%ymm8,%ymm11
- DB 196,65,36,93,218 ; vminps %ymm10,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,193,37,114,243,8 ; vpslld $0x8,%ymm11,%ymm11
- DB 196,65,37,235,201 ; vpor %ymm9,%ymm11,%ymm9
- DB 197,60,95,218 ; vmaxps %ymm2,%ymm8,%ymm11
- DB 196,65,36,93,218 ; vminps %ymm10,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,193,37,114,243,16 ; vpslld $0x10,%ymm11,%ymm11
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,65,60,93,194 ; vminps %ymm10,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,193,61,114,240,24 ; vpslld $0x18,%ymm8,%ymm8
- DB 196,65,37,235,192 ; vpor %ymm8,%ymm11,%ymm8
- DB 196,65,53,235,192 ; vpor %ymm8,%ymm9,%ymm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,58 ; jne 14e1 <_sk_srcover_rgba_8888_hsw+0x12a>
- DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,20,255,255,255 ; ja 13d7 <_sk_srcover_rgba_8888_hsw+0x20>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,247,0,0,0 ; lea 0xf7(%rip),%r9 # 15c4 <_sk_srcover_rgba_8888_hsw+0x20d>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,110,60,144 ; vmovd (%r8,%rdx,4),%xmm7
- DB 233,246,254,255,255 ; jmpq 13d7 <_sk_srcover_rgba_8888_hsw+0x20>
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,194 ; ja 14ad <_sk_srcover_rgba_8888_hsw+0xf6>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,235,0,0,0 ; lea 0xeb(%rip),%r9 # 15e0 <_sk_srcover_rgba_8888_hsw+0x229>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,126,4,144 ; vmovd %xmm8,(%r8,%rdx,4)
- DB 235,167 ; jmp 14ad <_sk_srcover_rgba_8888_hsw+0xf6>
- DB 196,193,121,110,100,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm4
- DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,252,4 ; vpblendd $0x4,%ymm4,%ymm5,%ymm7
- DB 196,193,122,126,36,144 ; vmovq (%r8,%rdx,4),%xmm4
- DB 196,227,69,2,252,3 ; vpblendd $0x3,%ymm4,%ymm7,%ymm7
- DB 233,170,254,255,255 ; jmpq 13d7 <_sk_srcover_rgba_8888_hsw+0x20>
- DB 196,193,121,110,100,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm4
- DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,252,64 ; vpblendd $0x40,%ymm4,%ymm5,%ymm7
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,195,89,34,100,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,227,69,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,195,89,34,100,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,227,69,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- DB 196,193,122,111,36,144 ; vmovdqu (%r8,%rdx,4),%xmm4
- DB 196,227,93,2,255,240 ; vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- DB 233,91,254,255,255 ; jmpq 13d7 <_sk_srcover_rgba_8888_hsw+0x20>
- DB 196,67,121,22,68,144,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 196,65,121,214,4,144 ; vmovq %xmm8,(%r8,%rdx,4)
- DB 233,30,255,255,255 ; jmpq 14ad <_sk_srcover_rgba_8888_hsw+0xf6>
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,24,2 ; vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,20,1 ; vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,121,126,76,144,16 ; vmovd %xmm9,0x10(%r8,%rdx,4)
- DB 196,65,122,127,4,144 ; vmovdqu %xmm8,(%r8,%rdx,4)
- DB 233,234,254,255,255 ; jmpq 14ad <_sk_srcover_rgba_8888_hsw+0xf6>
- DB 144 ; nop
- DB 18,255 ; adc %bh,%bh
- DB 255 ; (bad)
- DB 255,88,255 ; lcall *-0x1(%rax)
- DB 255 ; (bad)
- DB 255,66,255 ; incl -0x1(%rdx)
- DB 255 ; (bad)
- DB 255,167,255,255,255,147 ; jmpq *-0x6c000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,255 ; jg 15d9 <_sk_srcover_rgba_8888_hsw+0x222>
- DB 255 ; (bad)
- DB 255,105,255 ; ljmp *-0x1(%rcx)
- DB 255 ; (bad)
- DB 255,30 ; lcall *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,164,255,255,255,156,255 ; jmpq *-0x630001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 216,255 ; fdivr %st(7),%st
- DB 255 ; (bad)
- DB 255,203 ; dec %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 189,255,255,255,175 ; mov $0xafffffff,%ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_srcover_bgra_8888_hsw
-_sk_srcover_bgra_8888_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,224,0,0,0 ; jne 16f6 <_sk_srcover_bgra_8888_hsw+0xfa>
- DB 196,193,126,111,60,144 ; vmovdqu (%r8,%rdx,4),%ymm7
- DB 197,197,219,37,220,54,3,0 ; vpand 0x336dc(%rip),%ymm7,%ymm4 # 34d00 <_sk_srcover_bgra_8888_sse2_lowp+0x4e8>
- DB 197,252,91,244 ; vcvtdq2ps %ymm4,%ymm6
- DB 196,226,69,0,37,239,54,3,0 ; vpshufb 0x336ef(%rip),%ymm7,%ymm4 # 34d20 <_sk_srcover_bgra_8888_sse2_lowp+0x508>
- DB 197,252,91,236 ; vcvtdq2ps %ymm4,%ymm5
- DB 196,226,69,0,37,2,55,3,0 ; vpshufb 0x33702(%rip),%ymm7,%ymm4 # 34d40 <_sk_srcover_bgra_8888_sse2_lowp+0x528>
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 197,197,114,215,24 ; vpsrld $0x18,%ymm7,%ymm7
- DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,98,125,24,13,111,52,3,0 ; vbroadcastss 0x3346f(%rip),%ymm9 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,52,92,203 ; vsubps %ymm3,%ymm9,%ymm9
- DB 196,98,125,24,21,142,52,3,0 ; vbroadcastss 0x3348e(%rip),%ymm10 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,193,124,89,194 ; vmulps %ymm10,%ymm0,%ymm0
- DB 196,194,93,184,193 ; vfmadd231ps %ymm9,%ymm4,%ymm0
- DB 196,193,116,89,202 ; vmulps %ymm10,%ymm1,%ymm1
- DB 196,194,85,184,201 ; vfmadd231ps %ymm9,%ymm5,%ymm1
- DB 196,193,108,89,210 ; vmulps %ymm10,%ymm2,%ymm2
- DB 196,194,77,184,209 ; vfmadd231ps %ymm9,%ymm6,%ymm2
- DB 196,193,100,89,218 ; vmulps %ymm10,%ymm3,%ymm3
- DB 196,194,69,184,217 ; vfmadd231ps %ymm9,%ymm7,%ymm3
- DB 197,60,95,202 ; vmaxps %ymm2,%ymm8,%ymm9
- DB 196,65,52,93,202 ; vminps %ymm10,%ymm9,%ymm9
- DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
- DB 197,60,95,217 ; vmaxps %ymm1,%ymm8,%ymm11
- DB 196,65,36,93,218 ; vminps %ymm10,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,193,37,114,243,8 ; vpslld $0x8,%ymm11,%ymm11
- DB 196,65,37,235,201 ; vpor %ymm9,%ymm11,%ymm9
- DB 197,60,95,216 ; vmaxps %ymm0,%ymm8,%ymm11
- DB 196,65,36,93,218 ; vminps %ymm10,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,193,37,114,243,16 ; vpslld $0x10,%ymm11,%ymm11
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,65,60,93,194 ; vminps %ymm10,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,193,61,114,240,24 ; vpslld $0x18,%ymm8,%ymm8
- DB 196,65,37,235,192 ; vpor %ymm8,%ymm11,%ymm8
- DB 196,65,53,235,192 ; vpor %ymm8,%ymm9,%ymm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,58 ; jne 1726 <_sk_srcover_bgra_8888_hsw+0x12a>
- DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,20,255,255,255 ; ja 161c <_sk_srcover_bgra_8888_hsw+0x20>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,246,0,0,0 ; lea 0xf6(%rip),%r9 # 1808 <_sk_srcover_bgra_8888_hsw+0x20c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,110,60,144 ; vmovd (%r8,%rdx,4),%xmm7
- DB 233,246,254,255,255 ; jmpq 161c <_sk_srcover_bgra_8888_hsw+0x20>
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,194 ; ja 16f2 <_sk_srcover_bgra_8888_hsw+0xf6>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,234,0,0,0 ; lea 0xea(%rip),%r9 # 1824 <_sk_srcover_bgra_8888_hsw+0x228>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,126,4,144 ; vmovd %xmm8,(%r8,%rdx,4)
- DB 235,167 ; jmp 16f2 <_sk_srcover_bgra_8888_hsw+0xf6>
- DB 196,193,121,110,100,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm4
- DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,252,4 ; vpblendd $0x4,%ymm4,%ymm5,%ymm7
- DB 196,193,122,126,36,144 ; vmovq (%r8,%rdx,4),%xmm4
- DB 196,227,69,2,252,3 ; vpblendd $0x3,%ymm4,%ymm7,%ymm7
- DB 233,170,254,255,255 ; jmpq 161c <_sk_srcover_bgra_8888_hsw+0x20>
- DB 196,193,121,110,100,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm4
- DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,252,64 ; vpblendd $0x40,%ymm4,%ymm5,%ymm7
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,195,89,34,100,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,227,69,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,195,89,34,100,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,227,69,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- DB 196,193,122,111,36,144 ; vmovdqu (%r8,%rdx,4),%xmm4
- DB 196,227,93,2,255,240 ; vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- DB 233,91,254,255,255 ; jmpq 161c <_sk_srcover_bgra_8888_hsw+0x20>
- DB 196,67,121,22,68,144,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 196,65,121,214,4,144 ; vmovq %xmm8,(%r8,%rdx,4)
- DB 233,30,255,255,255 ; jmpq 16f2 <_sk_srcover_bgra_8888_hsw+0xf6>
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,24,2 ; vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,20,1 ; vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,121,126,76,144,16 ; vmovd %xmm9,0x10(%r8,%rdx,4)
- DB 196,65,122,127,4,144 ; vmovdqu %xmm8,(%r8,%rdx,4)
- DB 233,234,254,255,255 ; jmpq 16f2 <_sk_srcover_bgra_8888_hsw+0xf6>
- DB 19,255 ; adc %edi,%edi
- DB 255 ; (bad)
- DB 255,89,255 ; lcall *-0x1(%rcx)
- DB 255 ; (bad)
- DB 255,67,255 ; incl -0x1(%rbx)
- DB 255 ; (bad)
- DB 255,168,255,255,255,148 ; ljmp *-0x6b000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,128,255,255,255,106 ; incl 0x6affffff(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,31 ; lcall *(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,165,255,255,255,157 ; jmpq *-0x62000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 217,255 ; fcos
- DB 255 ; (bad)
- DB 255,204 ; dec %esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 190,255,255,255,176 ; mov $0xb0ffffff,%esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_clamp_0_hsw
-_sk_clamp_0_hsw LABEL PROC
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,193,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm0
- DB 196,193,116,95,200 ; vmaxps %ymm8,%ymm1,%ymm1
- DB 196,193,108,95,208 ; vmaxps %ymm8,%ymm2,%ymm2
- DB 196,193,100,95,216 ; vmaxps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_1_hsw
-_sk_clamp_1_hsw LABEL PROC
- DB 196,98,125,24,5,98,50,3,0 ; vbroadcastss 0x33262(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
- DB 196,193,108,93,208 ; vminps %ymm8,%ymm2,%ymm2
- DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_a_hsw
-_sk_clamp_a_hsw LABEL PROC
- DB 196,98,125,24,5,65,50,3,0 ; vbroadcastss 0x33241(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
- DB 197,252,93,195 ; vminps %ymm3,%ymm0,%ymm0
- DB 197,244,93,203 ; vminps %ymm3,%ymm1,%ymm1
- DB 197,236,93,211 ; vminps %ymm3,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_a_dst_hsw
-_sk_clamp_a_dst_hsw LABEL PROC
- DB 196,98,125,24,5,35,50,3,0 ; vbroadcastss 0x33223(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,68,93,248 ; vminps %ymm8,%ymm7,%ymm7
- DB 197,220,93,231 ; vminps %ymm7,%ymm4,%ymm4
- DB 197,212,93,239 ; vminps %ymm7,%ymm5,%ymm5
- DB 197,204,93,247 ; vminps %ymm7,%ymm6,%ymm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_set_rgb_hsw
-_sk_set_rgb_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,0 ; vbroadcastss (%rax),%ymm0
- DB 196,226,125,24,72,4 ; vbroadcastss 0x4(%rax),%ymm1
- DB 196,226,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_swap_rb_hsw
-_sk_swap_rb_hsw LABEL PROC
- DB 197,124,40,192 ; vmovaps %ymm0,%ymm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,194 ; vmovaps %ymm2,%ymm0
- DB 197,124,41,194 ; vmovaps %ymm8,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_invert_hsw
-_sk_invert_hsw LABEL PROC
- DB 196,98,125,24,5,222,49,3,0 ; vbroadcastss 0x331de(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 197,188,92,201 ; vsubps %ymm1,%ymm8,%ymm1
- DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 197,188,92,219 ; vsubps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_src_dst_hsw
-_sk_move_src_dst_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,224 ; vmovaps %ymm0,%ymm4
- DB 197,252,40,233 ; vmovaps %ymm1,%ymm5
- DB 197,252,40,242 ; vmovaps %ymm2,%ymm6
- DB 197,252,40,251 ; vmovaps %ymm3,%ymm7
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_dst_src_hsw
-_sk_move_dst_src_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,196 ; vmovaps %ymm4,%ymm0
- DB 197,252,40,205 ; vmovaps %ymm5,%ymm1
- DB 197,252,40,214 ; vmovaps %ymm6,%ymm2
- DB 197,252,40,223 ; vmovaps %ymm7,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_hsw
-_sk_premul_hsw LABEL PROC
- DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
- DB 197,236,89,211 ; vmulps %ymm3,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_dst_hsw
-_sk_premul_dst_hsw LABEL PROC
- DB 197,220,89,231 ; vmulps %ymm7,%ymm4,%ymm4
- DB 197,212,89,239 ; vmulps %ymm7,%ymm5,%ymm5
- DB 197,204,89,247 ; vmulps %ymm7,%ymm6,%ymm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_unpremul_hsw
-_sk_unpremul_hsw LABEL PROC
- DB 196,98,125,24,5,121,49,3,0 ; vbroadcastss 0x33179(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,94,195 ; vdivps %ymm3,%ymm8,%ymm8
- DB 196,98,125,24,13,156,49,3,0 ; vbroadcastss 0x3319c(%rip),%ymm9 # 34af8 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
- DB 196,65,60,194,201,1 ; vcmpltps %ymm9,%ymm8,%ymm9
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 196,67,45,74,192,144 ; vblendvps %ymm9,%ymm8,%ymm10,%ymm8
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
- DB 197,188,89,210 ; vmulps %ymm2,%ymm8,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_force_opaque_hsw
-_sk_force_opaque_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,64,49,3,0 ; vbroadcastss 0x33140(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_force_opaque_dst_hsw
-_sk_force_opaque_dst_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,61,51,49,3,0 ; vbroadcastss 0x33133(%rip),%ymm7 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_from_srgb_hsw
-_sk_from_srgb_hsw LABEL PROC
- DB 196,98,125,24,5,92,49,3,0 ; vbroadcastss 0x3315c(%rip),%ymm8 # 34afc <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
- DB 196,65,124,89,200 ; vmulps %ymm8,%ymm0,%ymm9
- DB 197,124,89,208 ; vmulps %ymm0,%ymm0,%ymm10
- DB 196,98,125,24,29,78,49,3,0 ; vbroadcastss 0x3314e(%rip),%ymm11 # 34b00 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- DB 196,98,125,24,37,45,49,3,0 ; vbroadcastss 0x3312d(%rip),%ymm12 # 34ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- DB 196,65,124,40,236 ; vmovaps %ymm12,%ymm13
- DB 196,66,125,168,235 ; vfmadd213ps %ymm11,%ymm0,%ymm13
- DB 196,98,125,24,53,54,49,3,0 ; vbroadcastss 0x33136(%rip),%ymm14 # 34b04 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
- DB 196,66,45,168,238 ; vfmadd213ps %ymm14,%ymm10,%ymm13
- DB 196,98,125,24,21,44,49,3,0 ; vbroadcastss 0x3312c(%rip),%ymm10 # 34b08 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
- DB 196,193,124,194,194,1 ; vcmpltps %ymm10,%ymm0,%ymm0
- DB 196,195,21,74,193,0 ; vblendvps %ymm0,%ymm9,%ymm13,%ymm0
- DB 196,65,116,89,200 ; vmulps %ymm8,%ymm1,%ymm9
- DB 197,116,89,233 ; vmulps %ymm1,%ymm1,%ymm13
- DB 196,65,124,40,252 ; vmovaps %ymm12,%ymm15
- DB 196,66,117,168,251 ; vfmadd213ps %ymm11,%ymm1,%ymm15
- DB 196,66,21,168,254 ; vfmadd213ps %ymm14,%ymm13,%ymm15
- DB 196,193,116,194,202,1 ; vcmpltps %ymm10,%ymm1,%ymm1
- DB 196,195,5,74,201,16 ; vblendvps %ymm1,%ymm9,%ymm15,%ymm1
- DB 196,65,108,89,192 ; vmulps %ymm8,%ymm2,%ymm8
- DB 197,108,89,202 ; vmulps %ymm2,%ymm2,%ymm9
- DB 196,66,109,168,227 ; vfmadd213ps %ymm11,%ymm2,%ymm12
- DB 196,66,53,168,230 ; vfmadd213ps %ymm14,%ymm9,%ymm12
- DB 196,193,108,194,210,1 ; vcmpltps %ymm10,%ymm2,%ymm2
- DB 196,195,29,74,208,32 ; vblendvps %ymm2,%ymm8,%ymm12,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_from_srgb_dst_hsw
-_sk_from_srgb_dst_hsw LABEL PROC
- DB 196,98,125,24,5,196,48,3,0 ; vbroadcastss 0x330c4(%rip),%ymm8 # 34afc <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
- DB 196,65,92,89,200 ; vmulps %ymm8,%ymm4,%ymm9
- DB 197,92,89,212 ; vmulps %ymm4,%ymm4,%ymm10
- DB 196,98,125,24,29,182,48,3,0 ; vbroadcastss 0x330b6(%rip),%ymm11 # 34b00 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- DB 196,98,125,24,37,149,48,3,0 ; vbroadcastss 0x33095(%rip),%ymm12 # 34ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- DB 196,65,124,40,236 ; vmovaps %ymm12,%ymm13
- DB 196,66,93,168,235 ; vfmadd213ps %ymm11,%ymm4,%ymm13
- DB 196,98,125,24,53,158,48,3,0 ; vbroadcastss 0x3309e(%rip),%ymm14 # 34b04 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
- DB 196,66,45,168,238 ; vfmadd213ps %ymm14,%ymm10,%ymm13
- DB 196,98,125,24,21,148,48,3,0 ; vbroadcastss 0x33094(%rip),%ymm10 # 34b08 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
- DB 196,193,92,194,226,1 ; vcmpltps %ymm10,%ymm4,%ymm4
- DB 196,195,21,74,225,64 ; vblendvps %ymm4,%ymm9,%ymm13,%ymm4
- DB 196,65,84,89,200 ; vmulps %ymm8,%ymm5,%ymm9
- DB 197,84,89,237 ; vmulps %ymm5,%ymm5,%ymm13
- DB 196,65,124,40,252 ; vmovaps %ymm12,%ymm15
- DB 196,66,85,168,251 ; vfmadd213ps %ymm11,%ymm5,%ymm15
- DB 196,66,21,168,254 ; vfmadd213ps %ymm14,%ymm13,%ymm15
- DB 196,193,84,194,234,1 ; vcmpltps %ymm10,%ymm5,%ymm5
- DB 196,195,5,74,233,80 ; vblendvps %ymm5,%ymm9,%ymm15,%ymm5
- DB 196,65,76,89,192 ; vmulps %ymm8,%ymm6,%ymm8
- DB 197,76,89,206 ; vmulps %ymm6,%ymm6,%ymm9
- DB 196,66,77,168,227 ; vfmadd213ps %ymm11,%ymm6,%ymm12
- DB 196,66,53,168,230 ; vfmadd213ps %ymm14,%ymm9,%ymm12
- DB 196,193,76,194,242,1 ; vcmpltps %ymm10,%ymm6,%ymm6
- DB 196,195,29,74,240,96 ; vblendvps %ymm6,%ymm8,%ymm12,%ymm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_to_srgb_hsw
-_sk_to_srgb_hsw LABEL PROC
- DB 197,124,82,200 ; vrsqrtps %ymm0,%ymm9
- DB 196,98,125,24,5,56,48,3,0 ; vbroadcastss 0x33038(%rip),%ymm8 # 34b0c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
- DB 196,65,124,89,208 ; vmulps %ymm8,%ymm0,%ymm10
- DB 196,98,125,24,29,46,48,3,0 ; vbroadcastss 0x3302e(%rip),%ymm11 # 34b10 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- DB 196,98,125,24,37,41,48,3,0 ; vbroadcastss 0x33029(%rip),%ymm12 # 34b14 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
- DB 196,65,124,40,236 ; vmovaps %ymm12,%ymm13
- DB 196,66,53,168,235 ; vfmadd213ps %ymm11,%ymm9,%ymm13
- DB 196,98,125,24,53,26,48,3,0 ; vbroadcastss 0x3301a(%rip),%ymm14 # 34b18 <_sk_srcover_bgra_8888_sse2_lowp+0x300>
- DB 196,66,53,168,238 ; vfmadd213ps %ymm14,%ymm9,%ymm13
- DB 196,98,125,24,61,16,48,3,0 ; vbroadcastss 0x33010(%rip),%ymm15 # 34b1c <_sk_srcover_bgra_8888_sse2_lowp+0x304>
- DB 196,65,52,88,207 ; vaddps %ymm15,%ymm9,%ymm9
- DB 196,65,124,83,201 ; vrcpps %ymm9,%ymm9
- DB 196,65,20,89,201 ; vmulps %ymm9,%ymm13,%ymm9
- DB 196,98,125,24,45,252,47,3,0 ; vbroadcastss 0x32ffc(%rip),%ymm13 # 34b20 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
- DB 196,193,124,194,197,1 ; vcmpltps %ymm13,%ymm0,%ymm0
- DB 196,195,53,74,194,0 ; vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- DB 197,124,82,201 ; vrsqrtps %ymm1,%ymm9
- DB 196,65,124,40,212 ; vmovaps %ymm12,%ymm10
- DB 196,66,53,168,211 ; vfmadd213ps %ymm11,%ymm9,%ymm10
- DB 196,66,53,168,214 ; vfmadd213ps %ymm14,%ymm9,%ymm10
- DB 196,65,52,88,207 ; vaddps %ymm15,%ymm9,%ymm9
- DB 196,65,124,83,201 ; vrcpps %ymm9,%ymm9
- DB 196,65,44,89,201 ; vmulps %ymm9,%ymm10,%ymm9
- DB 196,65,116,89,208 ; vmulps %ymm8,%ymm1,%ymm10
- DB 196,193,116,194,205,1 ; vcmpltps %ymm13,%ymm1,%ymm1
- DB 196,195,53,74,202,16 ; vblendvps %ymm1,%ymm10,%ymm9,%ymm1
- DB 197,124,82,202 ; vrsqrtps %ymm2,%ymm9
- DB 196,66,53,168,227 ; vfmadd213ps %ymm11,%ymm9,%ymm12
- DB 196,66,53,168,230 ; vfmadd213ps %ymm14,%ymm9,%ymm12
- DB 196,65,52,88,207 ; vaddps %ymm15,%ymm9,%ymm9
- DB 196,65,124,83,201 ; vrcpps %ymm9,%ymm9
- DB 196,65,28,89,201 ; vmulps %ymm9,%ymm12,%ymm9
- DB 196,65,108,89,192 ; vmulps %ymm8,%ymm2,%ymm8
- DB 196,193,108,194,213,1 ; vcmpltps %ymm13,%ymm2,%ymm2
- DB 196,195,53,74,208,32 ; vblendvps %ymm2,%ymm8,%ymm9,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_rgb_to_hsl_hsw
-_sk_rgb_to_hsl_hsw LABEL PROC
- DB 197,116,95,194 ; vmaxps %ymm2,%ymm1,%ymm8
- DB 196,65,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm8
- DB 197,116,93,202 ; vminps %ymm2,%ymm1,%ymm9
- DB 196,65,124,93,201 ; vminps %ymm9,%ymm0,%ymm9
- DB 196,65,60,92,209 ; vsubps %ymm9,%ymm8,%ymm10
- DB 196,98,125,24,29,19,47,3,0 ; vbroadcastss 0x32f13(%rip),%ymm11 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,36,94,218 ; vdivps %ymm10,%ymm11,%ymm11
- DB 197,116,92,226 ; vsubps %ymm2,%ymm1,%ymm12
- DB 197,116,194,234,1 ; vcmpltps %ymm2,%ymm1,%ymm13
- DB 196,98,125,24,53,88,47,3,0 ; vbroadcastss 0x32f58(%rip),%ymm14 # 34b24 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
- DB 196,65,4,87,255 ; vxorps %ymm15,%ymm15,%ymm15
- DB 196,67,5,74,238,208 ; vblendvps %ymm13,%ymm14,%ymm15,%ymm13
- DB 196,66,37,168,229 ; vfmadd213ps %ymm13,%ymm11,%ymm12
- DB 197,236,92,208 ; vsubps %ymm0,%ymm2,%ymm2
- DB 197,124,92,233 ; vsubps %ymm1,%ymm0,%ymm13
- DB 196,98,125,24,53,63,47,3,0 ; vbroadcastss 0x32f3f(%rip),%ymm14 # 34b2c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
- DB 196,66,37,168,238 ; vfmadd213ps %ymm14,%ymm11,%ymm13
- DB 196,98,125,24,53,45,47,3,0 ; vbroadcastss 0x32f2d(%rip),%ymm14 # 34b28 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
- DB 196,194,37,168,214 ; vfmadd213ps %ymm14,%ymm11,%ymm2
- DB 197,188,194,201,0 ; vcmpeqps %ymm1,%ymm8,%ymm1
- DB 196,227,21,74,202,16 ; vblendvps %ymm1,%ymm2,%ymm13,%ymm1
- DB 197,188,194,192,0 ; vcmpeqps %ymm0,%ymm8,%ymm0
- DB 196,195,117,74,196,0 ; vblendvps %ymm0,%ymm12,%ymm1,%ymm0
- DB 196,193,60,88,201 ; vaddps %ymm9,%ymm8,%ymm1
- DB 196,98,125,24,29,160,46,3,0 ; vbroadcastss 0x32ea0(%rip),%ymm11 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,193,116,89,211 ; vmulps %ymm11,%ymm1,%ymm2
- DB 197,36,194,218,1 ; vcmpltps %ymm2,%ymm11,%ymm11
- DB 196,65,12,92,224 ; vsubps %ymm8,%ymm14,%ymm12
- DB 196,65,28,92,225 ; vsubps %ymm9,%ymm12,%ymm12
- DB 196,195,117,74,204,176 ; vblendvps %ymm11,%ymm12,%ymm1,%ymm1
- DB 196,65,60,194,193,0 ; vcmpeqps %ymm9,%ymm8,%ymm8
- DB 197,172,94,201 ; vdivps %ymm1,%ymm10,%ymm1
- DB 196,195,125,74,199,128 ; vblendvps %ymm8,%ymm15,%ymm0,%ymm0
- DB 196,195,117,74,207,128 ; vblendvps %ymm8,%ymm15,%ymm1,%ymm1
- DB 196,98,125,24,5,211,46,3,0 ; vbroadcastss 0x32ed3(%rip),%ymm8 # 34b30 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hsl_to_rgb_hsw
-_sk_hsl_to_rgb_hsw LABEL PROC
- DB 72,129,236,184,0,0,0 ; sub $0xb8,%rsp
- DB 197,252,17,188,36,128,0,0,0 ; vmovups %ymm7,0x80(%rsp)
- DB 197,252,17,116,36,96 ; vmovups %ymm6,0x60(%rsp)
- DB 197,252,17,108,36,64 ; vmovups %ymm5,0x40(%rsp)
- DB 197,252,17,100,36,32 ; vmovups %ymm4,0x20(%rsp)
- DB 197,252,17,28,36 ; vmovups %ymm3,(%rsp)
- DB 197,252,40,233 ; vmovaps %ymm1,%ymm5
- DB 197,252,40,224 ; vmovaps %ymm0,%ymm4
- DB 196,98,125,24,5,38,46,3,0 ; vbroadcastss 0x32e26(%rip),%ymm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,60,194,202,2 ; vcmpleps %ymm2,%ymm8,%ymm9
- DB 197,84,89,210 ; vmulps %ymm2,%ymm5,%ymm10
- DB 196,65,84,92,218 ; vsubps %ymm10,%ymm5,%ymm11
- DB 196,67,45,74,203,144 ; vblendvps %ymm9,%ymm11,%ymm10,%ymm9
- DB 197,52,88,210 ; vaddps %ymm2,%ymm9,%ymm10
- DB 196,98,125,24,13,105,46,3,0 ; vbroadcastss 0x32e69(%rip),%ymm9 # 34b28 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
- DB 196,66,109,170,202 ; vfmsub213ps %ymm10,%ymm2,%ymm9
- DB 196,98,125,24,29,103,46,3,0 ; vbroadcastss 0x32e67(%rip),%ymm11 # 34b34 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- DB 196,65,92,88,219 ; vaddps %ymm11,%ymm4,%ymm11
- DB 196,67,125,8,227,1 ; vroundps $0x1,%ymm11,%ymm12
- DB 196,65,36,92,252 ; vsubps %ymm12,%ymm11,%ymm15
- DB 196,65,44,92,217 ; vsubps %ymm9,%ymm10,%ymm11
- DB 196,98,125,24,45,57,46,3,0 ; vbroadcastss 0x32e39(%rip),%ymm13 # 34b24 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
- DB 196,193,4,89,197 ; vmulps %ymm13,%ymm15,%ymm0
- DB 196,98,125,24,53,51,46,3,0 ; vbroadcastss 0x32e33(%rip),%ymm14 # 34b2c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
- DB 197,12,92,224 ; vsubps %ymm0,%ymm14,%ymm12
- DB 196,66,37,168,225 ; vfmadd213ps %ymm9,%ymm11,%ymm12
- DB 196,226,125,24,29,45,46,3,0 ; vbroadcastss 0x32e2d(%rip),%ymm3 # 34b38 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
- DB 196,193,100,194,255,2 ; vcmpleps %ymm15,%ymm3,%ymm7
- DB 196,195,29,74,249,112 ; vblendvps %ymm7,%ymm9,%ymm12,%ymm7
- DB 196,65,60,194,231,2 ; vcmpleps %ymm15,%ymm8,%ymm12
- DB 196,227,45,74,255,192 ; vblendvps %ymm12,%ymm7,%ymm10,%ymm7
- DB 196,98,125,24,37,4,46,3,0 ; vbroadcastss 0x32e04(%rip),%ymm12 # 34b30 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
- DB 196,65,28,194,255,2 ; vcmpleps %ymm15,%ymm12,%ymm15
- DB 196,194,37,168,193 ; vfmadd213ps %ymm9,%ymm11,%ymm0
- DB 196,99,125,74,255,240 ; vblendvps %ymm15,%ymm7,%ymm0,%ymm15
- DB 196,227,125,8,196,1 ; vroundps $0x1,%ymm4,%ymm0
- DB 197,220,92,192 ; vsubps %ymm0,%ymm4,%ymm0
- DB 196,193,124,89,253 ; vmulps %ymm13,%ymm0,%ymm7
- DB 197,140,92,207 ; vsubps %ymm7,%ymm14,%ymm1
- DB 196,194,37,168,201 ; vfmadd213ps %ymm9,%ymm11,%ymm1
- DB 197,228,194,240,2 ; vcmpleps %ymm0,%ymm3,%ymm6
- DB 196,195,117,74,201,96 ; vblendvps %ymm6,%ymm9,%ymm1,%ymm1
- DB 197,188,194,240,2 ; vcmpleps %ymm0,%ymm8,%ymm6
- DB 196,227,45,74,201,96 ; vblendvps %ymm6,%ymm1,%ymm10,%ymm1
- DB 197,156,194,192,2 ; vcmpleps %ymm0,%ymm12,%ymm0
- DB 196,194,37,168,249 ; vfmadd213ps %ymm9,%ymm11,%ymm7
- DB 196,227,69,74,201,0 ; vblendvps %ymm0,%ymm1,%ymm7,%ymm1
- DB 196,226,125,24,5,184,45,3,0 ; vbroadcastss 0x32db8(%rip),%ymm0 # 34b3c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- DB 197,220,88,192 ; vaddps %ymm0,%ymm4,%ymm0
- DB 196,227,125,8,224,1 ; vroundps $0x1,%ymm0,%ymm4
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 197,228,194,216,2 ; vcmpleps %ymm0,%ymm3,%ymm3
- DB 196,193,124,89,229 ; vmulps %ymm13,%ymm0,%ymm4
- DB 197,140,92,244 ; vsubps %ymm4,%ymm14,%ymm6
- DB 196,194,37,168,241 ; vfmadd213ps %ymm9,%ymm11,%ymm6
- DB 196,195,77,74,217,48 ; vblendvps %ymm3,%ymm9,%ymm6,%ymm3
- DB 197,188,194,240,2 ; vcmpleps %ymm0,%ymm8,%ymm6
- DB 196,227,45,74,219,96 ; vblendvps %ymm6,%ymm3,%ymm10,%ymm3
- DB 196,98,37,184,204 ; vfmadd231ps %ymm4,%ymm11,%ymm9
- DB 197,156,194,192,2 ; vcmpleps %ymm0,%ymm12,%ymm0
- DB 196,227,53,74,219,0 ; vblendvps %ymm0,%ymm3,%ymm9,%ymm3
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,212,194,224,0 ; vcmpeqps %ymm0,%ymm5,%ymm4
- DB 196,227,5,74,194,64 ; vblendvps %ymm4,%ymm2,%ymm15,%ymm0
- DB 196,227,117,74,202,64 ; vblendvps %ymm4,%ymm2,%ymm1,%ymm1
- DB 196,227,101,74,210,64 ; vblendvps %ymm4,%ymm2,%ymm3,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,28,36 ; vmovups (%rsp),%ymm3
- DB 197,252,16,100,36,32 ; vmovups 0x20(%rsp),%ymm4
- DB 197,252,16,108,36,64 ; vmovups 0x40(%rsp),%ymm5
- DB 197,252,16,116,36,96 ; vmovups 0x60(%rsp),%ymm6
- DB 197,252,16,188,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm7
- DB 72,129,196,184,0,0,0 ; add $0xb8,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_1_float_hsw
-_sk_scale_1_float_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
- DB 197,188,89,210 ; vmulps %ymm2,%ymm8,%ymm2
- DB 197,188,89,219 ; vmulps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_u8_hsw
-_sk_scale_u8_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,58 ; jne 1e73 <_sk_scale_u8_hsw+0x4c>
- DB 196,66,121,48,4,16 ; vpmovzxbw (%r8,%rdx,1),%xmm8
- DB 197,57,219,5,9,54,3,0 ; vpand 0x33609(%rip),%xmm8,%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,66,125,51,192 ; vpmovzxwd %xmm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,13,230,44,3,0 ; vbroadcastss 0x32ce6(%rip),%ymm9 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
- DB 197,188,89,210 ; vmulps %ymm2,%ymm8,%ymm2
- DB 197,188,89,219 ; vmulps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,189 ; ja 1e3f <_sk_scale_u8_hsw+0x18>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,124,0,0,0 ; lea 0x7c(%rip),%r9 # 1f08 <_sk_scale_u8_hsw+0xe1>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 235,159 ; jmp 1e3f <_sk_scale_u8_hsw+0x18>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 197,57,196,192,2 ; vpinsrw $0x2,%eax,%xmm8,%xmm8
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,121,110,200 ; vmovd %eax,%xmm9
- DB 196,66,121,48,201 ; vpmovzxbw %xmm9,%xmm9
- DB 196,67,57,2,193,1 ; vpblendd $0x1,%xmm9,%xmm8,%xmm8
- DB 233,118,255,255,255 ; jmpq 1e3f <_sk_scale_u8_hsw+0x18>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 197,57,196,192,6 ; vpinsrw $0x6,%eax,%xmm8,%xmm8
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 197,57,196,192,5 ; vpinsrw $0x5,%eax,%xmm8,%xmm8
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 197,57,196,192,4 ; vpinsrw $0x4,%eax,%xmm8,%xmm8
- DB 196,65,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm9
- DB 196,66,121,48,201 ; vpmovzxbw %xmm9,%xmm9
- DB 196,67,49,2,192,12 ; vpblendd $0xc,%xmm8,%xmm9,%xmm8
- DB 233,58,255,255,255 ; jmpq 1e3f <_sk_scale_u8_hsw+0x18>
- DB 15,31,0 ; nopl (%rax)
- DB 141 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,168,255,255,255,152 ; ljmp *-0x67000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,193 ; inc %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_scale_565_hsw
-_sk_scale_565_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,161,0,0,0 ; jne 1fde <_sk_scale_565_hsw+0xba>
- DB 196,65,122,111,4,80 ; vmovdqu (%r8,%rdx,2),%xmm8
- DB 196,66,125,51,192 ; vpmovzxwd %xmm8,%ymm8
- DB 196,98,125,88,13,243,43,3,0 ; vpbroadcastd 0x32bf3(%rip),%ymm9 # 34b44 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- DB 196,65,61,219,201 ; vpand %ymm9,%ymm8,%ymm9
- DB 196,65,124,91,201 ; vcvtdq2ps %ymm9,%ymm9
- DB 196,98,125,24,21,228,43,3,0 ; vbroadcastss 0x32be4(%rip),%ymm10 # 34b48 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- DB 196,65,52,89,202 ; vmulps %ymm10,%ymm9,%ymm9
- DB 196,98,125,88,21,218,43,3,0 ; vpbroadcastd 0x32bda(%rip),%ymm10 # 34b4c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- DB 196,65,61,219,210 ; vpand %ymm10,%ymm8,%ymm10
- DB 196,65,124,91,210 ; vcvtdq2ps %ymm10,%ymm10
- DB 196,98,125,24,29,203,43,3,0 ; vbroadcastss 0x32bcb(%rip),%ymm11 # 34b50 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- DB 196,65,44,89,211 ; vmulps %ymm11,%ymm10,%ymm10
- DB 196,98,125,88,29,193,43,3,0 ; vpbroadcastd 0x32bc1(%rip),%ymm11 # 34b54 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- DB 196,65,61,219,195 ; vpand %ymm11,%ymm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,29,178,43,3,0 ; vbroadcastss 0x32bb2(%rip),%ymm11 # 34b58 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
- DB 197,100,194,223,1 ; vcmpltps %ymm7,%ymm3,%ymm11
- DB 196,65,44,93,224 ; vminps %ymm8,%ymm10,%ymm12
- DB 196,65,52,93,228 ; vminps %ymm12,%ymm9,%ymm12
- DB 196,65,44,95,232 ; vmaxps %ymm8,%ymm10,%ymm13
- DB 196,65,52,95,237 ; vmaxps %ymm13,%ymm9,%ymm13
- DB 196,67,21,74,220,176 ; vblendvps %ymm11,%ymm12,%ymm13,%ymm11
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 197,172,89,201 ; vmulps %ymm1,%ymm10,%ymm1
- DB 197,188,89,210 ; vmulps %ymm2,%ymm8,%ymm2
- DB 197,164,89,219 ; vmulps %ymm3,%ymm11,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,82,255,255,255 ; ja 1f43 <_sk_scale_565_hsw+0x1f>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,101,0,0,0 ; lea 0x65(%rip),%r9 # 2060 <_sk_scale_565_hsw+0x13c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 233,49,255,255,255 ; jmpq 1f43 <_sk_scale_565_hsw+0x1f>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,68,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,121,110,12,80 ; vmovd (%r8,%rdx,2),%xmm9
- DB 196,67,57,2,193,1 ; vpblendd $0x1,%xmm9,%xmm8,%xmm8
- DB 233,19,255,255,255 ; jmpq 1f43 <_sk_scale_565_hsw+0x1f>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,68,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,57,196,68,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,57,196,68,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,122,126,12,80 ; vmovq (%r8,%rdx,2),%xmm9
- DB 196,67,49,2,192,12 ; vpblendd $0xc,%xmm8,%xmm9,%xmm8
- DB 233,229,254,255,255 ; jmpq 1f43 <_sk_scale_565_hsw+0x1f>
- DB 102,144 ; xchg %ax,%ax
- DB 164 ; movsb %ds:(%rsi),%es:(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 191,255,255,255,178 ; mov $0xb2ffffff,%edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 237 ; in (%dx),%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 221,255 ; (bad)
- DB 255 ; (bad)
- DB 255,208 ; callq *%rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_lerp_1_float_hsw
-_sk_lerp_1_float_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 196,226,61,168,196 ; vfmadd213ps %ymm4,%ymm8,%ymm0
- DB 197,244,92,205 ; vsubps %ymm5,%ymm1,%ymm1
- DB 196,226,61,168,205 ; vfmadd213ps %ymm5,%ymm8,%ymm1
- DB 197,236,92,214 ; vsubps %ymm6,%ymm2,%ymm2
- DB 196,226,61,168,214 ; vfmadd213ps %ymm6,%ymm8,%ymm2
- DB 197,228,92,223 ; vsubps %ymm7,%ymm3,%ymm3
- DB 196,226,61,168,223 ; vfmadd213ps %ymm7,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lerp_u8_hsw
-_sk_lerp_u8_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,78 ; jne 210b <_sk_lerp_u8_hsw+0x60>
- DB 196,66,121,48,4,16 ; vpmovzxbw (%r8,%rdx,1),%xmm8
- DB 197,57,219,5,133,51,3,0 ; vpand 0x33385(%rip),%xmm8,%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,66,125,51,192 ; vpmovzxwd %xmm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,13,98,42,3,0 ; vbroadcastss 0x32a62(%rip),%ymm9 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 196,226,61,168,196 ; vfmadd213ps %ymm4,%ymm8,%ymm0
- DB 197,244,92,205 ; vsubps %ymm5,%ymm1,%ymm1
- DB 196,226,61,168,205 ; vfmadd213ps %ymm5,%ymm8,%ymm1
- DB 197,236,92,214 ; vsubps %ymm6,%ymm2,%ymm2
- DB 196,226,61,168,214 ; vfmadd213ps %ymm6,%ymm8,%ymm2
- DB 197,228,92,223 ; vsubps %ymm7,%ymm3,%ymm3
- DB 196,226,61,168,223 ; vfmadd213ps %ymm7,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,169 ; ja 20c3 <_sk_lerp_u8_hsw+0x18>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,124,0,0,0 ; lea 0x7c(%rip),%r9 # 21a0 <_sk_lerp_u8_hsw+0xf5>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 235,139 ; jmp 20c3 <_sk_lerp_u8_hsw+0x18>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 197,57,196,192,2 ; vpinsrw $0x2,%eax,%xmm8,%xmm8
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,121,110,200 ; vmovd %eax,%xmm9
- DB 196,66,121,48,201 ; vpmovzxbw %xmm9,%xmm9
- DB 196,67,57,2,193,1 ; vpblendd $0x1,%xmm9,%xmm8,%xmm8
- DB 233,98,255,255,255 ; jmpq 20c3 <_sk_lerp_u8_hsw+0x18>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 197,57,196,192,6 ; vpinsrw $0x6,%eax,%xmm8,%xmm8
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 197,57,196,192,5 ; vpinsrw $0x5,%eax,%xmm8,%xmm8
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 197,57,196,192,4 ; vpinsrw $0x4,%eax,%xmm8,%xmm8
- DB 196,65,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm9
- DB 196,66,121,48,201 ; vpmovzxbw %xmm9,%xmm9
- DB 196,67,49,2,192,12 ; vpblendd $0xc,%xmm8,%xmm9,%xmm8
- DB 233,38,255,255,255 ; jmpq 20c3 <_sk_lerp_u8_hsw+0x18>
- DB 15,31,0 ; nopl (%rax)
- DB 141 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,168,255,255,255,152 ; ljmp *-0x67000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,193 ; inc %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_lerp_565_hsw
-_sk_lerp_565_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,181,0,0,0 ; jne 228a <_sk_lerp_565_hsw+0xce>
- DB 196,65,122,111,4,80 ; vmovdqu (%r8,%rdx,2),%xmm8
- DB 196,66,125,51,192 ; vpmovzxwd %xmm8,%ymm8
- DB 196,98,125,88,13,91,41,3,0 ; vpbroadcastd 0x3295b(%rip),%ymm9 # 34b44 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- DB 196,65,61,219,201 ; vpand %ymm9,%ymm8,%ymm9
- DB 196,65,124,91,201 ; vcvtdq2ps %ymm9,%ymm9
- DB 196,98,125,24,21,76,41,3,0 ; vbroadcastss 0x3294c(%rip),%ymm10 # 34b48 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- DB 196,65,52,89,202 ; vmulps %ymm10,%ymm9,%ymm9
- DB 196,98,125,88,21,66,41,3,0 ; vpbroadcastd 0x32942(%rip),%ymm10 # 34b4c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- DB 196,65,61,219,210 ; vpand %ymm10,%ymm8,%ymm10
- DB 196,65,124,91,210 ; vcvtdq2ps %ymm10,%ymm10
- DB 196,98,125,24,29,51,41,3,0 ; vbroadcastss 0x32933(%rip),%ymm11 # 34b50 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- DB 196,65,44,89,211 ; vmulps %ymm11,%ymm10,%ymm10
- DB 196,98,125,88,29,41,41,3,0 ; vpbroadcastd 0x32929(%rip),%ymm11 # 34b54 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- DB 196,65,61,219,195 ; vpand %ymm11,%ymm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,29,26,41,3,0 ; vbroadcastss 0x3291a(%rip),%ymm11 # 34b58 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
- DB 197,100,194,223,1 ; vcmpltps %ymm7,%ymm3,%ymm11
- DB 196,65,44,93,224 ; vminps %ymm8,%ymm10,%ymm12
- DB 196,65,52,93,228 ; vminps %ymm12,%ymm9,%ymm12
- DB 196,65,44,95,232 ; vmaxps %ymm8,%ymm10,%ymm13
- DB 196,65,52,95,237 ; vmaxps %ymm13,%ymm9,%ymm13
- DB 196,67,21,74,220,176 ; vblendvps %ymm11,%ymm12,%ymm13,%ymm11
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 196,226,53,168,196 ; vfmadd213ps %ymm4,%ymm9,%ymm0
- DB 197,244,92,205 ; vsubps %ymm5,%ymm1,%ymm1
- DB 196,226,45,168,205 ; vfmadd213ps %ymm5,%ymm10,%ymm1
- DB 197,236,92,214 ; vsubps %ymm6,%ymm2,%ymm2
- DB 196,226,61,168,214 ; vfmadd213ps %ymm6,%ymm8,%ymm2
- DB 197,228,92,223 ; vsubps %ymm7,%ymm3,%ymm3
- DB 196,226,37,168,223 ; vfmadd213ps %ymm7,%ymm11,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,62,255,255,255 ; ja 21db <_sk_lerp_565_hsw+0x1f>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,101,0,0,0 ; lea 0x65(%rip),%r9 # 230c <_sk_lerp_565_hsw+0x150>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 233,29,255,255,255 ; jmpq 21db <_sk_lerp_565_hsw+0x1f>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,68,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,121,110,12,80 ; vmovd (%r8,%rdx,2),%xmm9
- DB 196,67,57,2,193,1 ; vpblendd $0x1,%xmm9,%xmm8,%xmm8
- DB 233,255,254,255,255 ; jmpq 21db <_sk_lerp_565_hsw+0x1f>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,68,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,57,196,68,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,57,196,68,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,122,126,12,80 ; vmovq (%r8,%rdx,2),%xmm9
- DB 196,67,49,2,192,12 ; vpblendd $0xc,%xmm8,%xmm9,%xmm8
- DB 233,209,254,255,255 ; jmpq 21db <_sk_lerp_565_hsw+0x1f>
- DB 102,144 ; xchg %ax,%ax
- DB 164 ; movsb %ds:(%rsi),%es:(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 191,255,255,255,178 ; mov $0xb2ffffff,%edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 237 ; in (%dx),%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 221,255 ; (bad)
- DB 255 ; (bad)
- DB 255,208 ; callq *%rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_tables_hsw
-_sk_load_tables_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,116 ; jne 23a6 <_sk_load_tables_hsw+0x7e>
- DB 196,193,126,111,28,144 ; vmovdqu (%r8,%rdx,4),%ymm3
- DB 197,229,219,13,32,42,3,0 ; vpand 0x32a20(%rip),%ymm3,%ymm1 # 34d60 <_sk_srcover_bgra_8888_sse2_lowp+0x548>
- DB 196,65,61,118,192 ; vpcmpeqd %ymm8,%ymm8,%ymm8
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 76,139,72,16 ; mov 0x10(%rax),%r9
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 196,65,53,118,201 ; vpcmpeqd %ymm9,%ymm9,%ymm9
- DB 196,194,53,146,4,136 ; vgatherdps %ymm9,(%r8,%ymm1,4),%ymm0
- DB 196,98,101,0,13,23,42,3,0 ; vpshufb 0x32a17(%rip),%ymm3,%ymm9 # 34d80 <_sk_srcover_bgra_8888_sse2_lowp+0x568>
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 196,65,45,118,210 ; vpcmpeqd %ymm10,%ymm10,%ymm10
- DB 196,130,45,146,12,137 ; vgatherdps %ymm10,(%r9,%ymm9,4),%ymm1
- DB 72,139,64,24 ; mov 0x18(%rax),%rax
- DB 196,98,101,0,13,27,42,3,0 ; vpshufb 0x32a1b(%rip),%ymm3,%ymm9 # 34da0 <_sk_srcover_bgra_8888_sse2_lowp+0x588>
- DB 196,162,61,146,20,136 ; vgatherdps %ymm8,(%rax,%ymm9,4),%ymm2
- DB 197,229,114,211,24 ; vpsrld $0x18,%ymm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,163,39,3,0 ; vbroadcastss 0x327a3(%rip),%ymm8 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 15,135,122,255,255,255 ; ja 2338 <_sk_load_tables_hsw+0x10>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,139,0,0,0 ; lea 0x8b(%rip),%r10 # 2454 <_sk_load_tables_hsw+0x12c>
- DB 79,99,12,138 ; movslq (%r10,%r9,4),%r9
- DB 77,1,209 ; add %r10,%r9
- DB 65,255,225 ; jmpq *%r9
- DB 196,193,121,110,28,144 ; vmovd (%r8,%rdx,4),%xmm3
- DB 233,90,255,255,255 ; jmpq 2338 <_sk_load_tables_hsw+0x10>
- DB 196,193,121,110,68,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm0
- DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,216,4 ; vpblendd $0x4,%ymm0,%ymm1,%ymm3
- DB 196,193,122,126,4,144 ; vmovq (%r8,%rdx,4),%xmm0
- DB 196,227,101,2,216,3 ; vpblendd $0x3,%ymm0,%ymm3,%ymm3
- DB 233,51,255,255,255 ; jmpq 2338 <_sk_load_tables_hsw+0x10>
- DB 196,193,121,110,68,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm0
- DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,216,64 ; vpblendd $0x40,%ymm0,%ymm1,%ymm3
- DB 196,227,125,57,216,1 ; vextracti128 $0x1,%ymm3,%xmm0
- DB 196,195,121,34,68,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,227,101,56,216,1 ; vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- DB 196,227,125,57,216,1 ; vextracti128 $0x1,%ymm3,%xmm0
- DB 196,195,121,34,68,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,227,101,56,216,1 ; vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- DB 196,193,122,111,4,144 ; vmovdqu (%r8,%rdx,4),%xmm0
- DB 196,227,125,2,219,240 ; vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- DB 233,228,254,255,255 ; jmpq 2338 <_sk_load_tables_hsw+0x10>
- DB 127,255 ; jg 2455 <_sk_load_tables_hsw+0x12d>
- DB 255 ; (bad)
- DB 255,160,255,255,255,138 ; jmpq *-0x75000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 239 ; out %eax,(%dx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 219,255 ; (bad)
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 177,255 ; mov $0xff,%cl
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_tables_u16_be_hsw
-_sk_load_tables_u16_be_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 76,141,12,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,215,0,0,0 ; jne 255d <_sk_load_tables_u16_be_hsw+0xed>
- DB 196,1,121,16,4,72 ; vmovupd (%r8,%r9,2),%xmm8
- DB 196,129,121,16,84,72,16 ; vmovupd 0x10(%r8,%r9,2),%xmm2
- DB 196,129,121,16,92,72,32 ; vmovupd 0x20(%r8,%r9,2),%xmm3
- DB 196,1,122,111,76,72,48 ; vmovdqu 0x30(%r8,%r9,2),%xmm9
- DB 197,185,97,194 ; vpunpcklwd %xmm2,%xmm8,%xmm0
- DB 197,185,105,210 ; vpunpckhwd %xmm2,%xmm8,%xmm2
- DB 196,193,97,97,201 ; vpunpcklwd %xmm9,%xmm3,%xmm1
- DB 196,193,97,105,217 ; vpunpckhwd %xmm9,%xmm3,%xmm3
- DB 197,121,97,194 ; vpunpcklwd %xmm2,%xmm0,%xmm8
- DB 197,121,105,202 ; vpunpckhwd %xmm2,%xmm0,%xmm9
- DB 197,241,97,195 ; vpunpcklwd %xmm3,%xmm1,%xmm0
- DB 197,113,105,243 ; vpunpckhwd %xmm3,%xmm1,%xmm14
- DB 197,185,108,200 ; vpunpcklqdq %xmm0,%xmm8,%xmm1
- DB 197,57,109,192 ; vpunpckhqdq %xmm0,%xmm8,%xmm8
- DB 196,65,49,108,214 ; vpunpcklqdq %xmm14,%xmm9,%xmm10
- DB 197,121,111,29,120,47,3,0 ; vmovdqa 0x32f78(%rip),%xmm11 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,193,113,219,195 ; vpand %xmm11,%xmm1,%xmm0
- DB 196,226,125,51,200 ; vpmovzxwd %xmm0,%ymm1
- DB 196,65,29,118,228 ; vpcmpeqd %ymm12,%ymm12,%ymm12
- DB 197,237,239,210 ; vpxor %ymm2,%ymm2,%ymm2
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 76,139,72,16 ; mov 0x10(%rax),%r9
- DB 196,65,21,118,237 ; vpcmpeqd %ymm13,%ymm13,%ymm13
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 196,194,21,146,4,136 ; vgatherdps %ymm13,(%r8,%ymm1,4),%ymm0
- DB 196,193,57,219,203 ; vpand %xmm11,%xmm8,%xmm1
- DB 196,98,125,51,193 ; vpmovzxwd %xmm1,%ymm8
- DB 196,65,21,118,237 ; vpcmpeqd %ymm13,%ymm13,%ymm13
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,130,21,146,12,129 ; vgatherdps %ymm13,(%r9,%ymm8,4),%ymm1
- DB 72,139,64,24 ; mov 0x18(%rax),%rax
- DB 196,193,41,219,219 ; vpand %xmm11,%xmm10,%xmm3
- DB 196,226,125,51,219 ; vpmovzxwd %xmm3,%ymm3
- DB 196,226,29,146,20,152 ; vgatherdps %ymm12,(%rax,%ymm3,4),%ymm2
- DB 196,193,49,109,222 ; vpunpckhqdq %xmm14,%xmm9,%xmm3
- DB 197,185,113,243,8 ; vpsllw $0x8,%xmm3,%xmm8
- DB 197,225,113,211,8 ; vpsrlw $0x8,%xmm3,%xmm3
- DB 197,185,235,219 ; vpor %xmm3,%xmm8,%xmm3
- DB 196,226,125,51,219 ; vpmovzxwd %xmm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,8,38,3,0 ; vbroadcastss 0x32608(%rip),%ymm8 # 34b5c <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 196,1,123,16,4,72 ; vmovsd (%r8,%r9,2),%xmm8
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,85 ; je 25c3 <_sk_load_tables_u16_be_hsw+0x153>
- DB 196,1,57,22,68,72,8 ; vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,72 ; jb 25c3 <_sk_load_tables_u16_be_hsw+0x153>
- DB 196,129,123,16,84,72,16 ; vmovsd 0x10(%r8,%r9,2),%xmm2
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 116,72 ; je 25d0 <_sk_load_tables_u16_be_hsw+0x160>
- DB 196,129,105,22,84,72,24 ; vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,59 ; jb 25d0 <_sk_load_tables_u16_be_hsw+0x160>
- DB 196,129,123,16,92,72,32 ; vmovsd 0x20(%r8,%r9,2),%xmm3
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 15,132,251,254,255,255 ; je 24a1 <_sk_load_tables_u16_be_hsw+0x31>
- DB 196,129,97,22,92,72,40 ; vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 15,130,234,254,255,255 ; jb 24a1 <_sk_load_tables_u16_be_hsw+0x31>
- DB 196,1,122,126,76,72,48 ; vmovq 0x30(%r8,%r9,2),%xmm9
- DB 233,222,254,255,255 ; jmpq 24a1 <_sk_load_tables_u16_be_hsw+0x31>
- DB 197,225,87,219 ; vxorpd %xmm3,%xmm3,%xmm3
- DB 197,233,87,210 ; vxorpd %xmm2,%xmm2,%xmm2
- DB 233,209,254,255,255 ; jmpq 24a1 <_sk_load_tables_u16_be_hsw+0x31>
- DB 197,225,87,219 ; vxorpd %xmm3,%xmm3,%xmm3
- DB 233,200,254,255,255 ; jmpq 24a1 <_sk_load_tables_u16_be_hsw+0x31>
-
-PUBLIC _sk_load_tables_rgb_u16_be_hsw
-_sk_load_tables_rgb_u16_be_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 76,141,12,82 ; lea (%rdx,%rdx,2),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,206,0,0,0 ; jne 26b9 <_sk_load_tables_rgb_u16_be_hsw+0xe0>
- DB 196,1,122,111,28,72 ; vmovdqu (%r8,%r9,2),%xmm11
- DB 196,129,122,111,92,72,12 ; vmovdqu 0xc(%r8,%r9,2),%xmm3
- DB 196,129,122,111,84,72,24 ; vmovdqu 0x18(%r8,%r9,2),%xmm2
- DB 196,129,122,111,68,72,32 ; vmovdqu 0x20(%r8,%r9,2),%xmm0
- DB 197,249,115,216,4 ; vpsrldq $0x4,%xmm0,%xmm0
- DB 196,193,57,115,219,6 ; vpsrldq $0x6,%xmm11,%xmm8
- DB 197,169,115,219,6 ; vpsrldq $0x6,%xmm3,%xmm10
- DB 197,241,115,218,6 ; vpsrldq $0x6,%xmm2,%xmm1
- DB 197,177,115,216,6 ; vpsrldq $0x6,%xmm0,%xmm9
- DB 196,65,113,97,201 ; vpunpcklwd %xmm9,%xmm1,%xmm9
- DB 197,233,97,192 ; vpunpcklwd %xmm0,%xmm2,%xmm0
- DB 196,193,57,97,210 ; vpunpcklwd %xmm10,%xmm8,%xmm2
- DB 197,161,97,219 ; vpunpcklwd %xmm3,%xmm11,%xmm3
- DB 197,225,97,202 ; vpunpcklwd %xmm2,%xmm3,%xmm1
- DB 197,225,105,210 ; vpunpckhwd %xmm2,%xmm3,%xmm2
- DB 196,193,121,97,217 ; vpunpcklwd %xmm9,%xmm0,%xmm3
- DB 196,193,121,105,193 ; vpunpckhwd %xmm9,%xmm0,%xmm0
- DB 197,105,108,192 ; vpunpcklqdq %xmm0,%xmm2,%xmm8
- DB 197,241,108,195 ; vpunpcklqdq %xmm3,%xmm1,%xmm0
- DB 197,241,109,203 ; vpunpckhqdq %xmm3,%xmm1,%xmm1
- DB 197,249,111,29,248,45,3,0 ; vmovdqa 0x32df8(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 197,249,219,195 ; vpand %xmm3,%xmm0,%xmm0
- DB 196,98,125,51,200 ; vpmovzxwd %xmm0,%ymm9
- DB 196,65,45,118,210 ; vpcmpeqd %ymm10,%ymm10,%ymm10
- DB 197,237,239,210 ; vpxor %ymm2,%ymm2,%ymm2
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 76,139,72,16 ; mov 0x10(%rax),%r9
- DB 196,65,37,118,219 ; vpcmpeqd %ymm11,%ymm11,%ymm11
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 196,130,37,146,4,136 ; vgatherdps %ymm11,(%r8,%ymm9,4),%ymm0
- DB 197,241,219,203 ; vpand %xmm3,%xmm1,%xmm1
- DB 196,98,125,51,201 ; vpmovzxwd %xmm1,%ymm9
- DB 196,65,37,118,219 ; vpcmpeqd %ymm11,%ymm11,%ymm11
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,130,37,146,12,137 ; vgatherdps %ymm11,(%r9,%ymm9,4),%ymm1
- DB 72,139,64,24 ; mov 0x18(%rax),%rax
- DB 197,185,219,219 ; vpand %xmm3,%xmm8,%xmm3
- DB 196,226,125,51,219 ; vpmovzxwd %xmm3,%ymm3
- DB 196,226,45,146,20,152 ; vgatherdps %ymm10,(%rax,%ymm3,4),%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,17,36,3,0 ; vbroadcastss 0x32411(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 255,224 ; jmpq *%rax
- DB 196,129,121,110,4,72 ; vmovd (%r8,%r9,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,1,121,196,92,72,4,2 ; vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,31 ; jne 26f1 <_sk_load_tables_rgb_u16_be_hsw+0x118>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,65,41,239,210 ; vpxor %xmm10,%xmm10,%xmm10
- DB 197,225,239,219 ; vpxor %xmm3,%xmm3,%xmm3
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 233,47,255,255,255 ; jmpq 2620 <_sk_load_tables_rgb_u16_be_hsw+0x47>
- DB 196,129,121,110,68,72,6 ; vmovd 0x6(%r8,%r9,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,1,121,196,68,72,10,2 ; vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,48 ; jb 273b <_sk_load_tables_rgb_u16_be_hsw+0x162>
- DB 196,129,121,110,68,72,12 ; vmovd 0xc(%r8,%r9,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,92,72,16,2 ; vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 117,48 ; jne 2755 <_sk_load_tables_rgb_u16_be_hsw+0x17c>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,65,41,239,210 ; vpxor %xmm10,%xmm10,%xmm10
- DB 233,229,254,255,255 ; jmpq 2620 <_sk_load_tables_rgb_u16_be_hsw+0x47>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,65,41,239,210 ; vpxor %xmm10,%xmm10,%xmm10
- DB 197,225,239,219 ; vpxor %xmm3,%xmm3,%xmm3
- DB 233,203,254,255,255 ; jmpq 2620 <_sk_load_tables_rgb_u16_be_hsw+0x47>
- DB 196,129,121,110,68,72,18 ; vmovd 0x12(%r8,%r9,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,1,121,196,84,72,22,2 ; vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,39 ; jb 2796 <_sk_load_tables_rgb_u16_be_hsw+0x1bd>
- DB 196,129,121,110,68,72,24 ; vmovd 0x18(%r8,%r9,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,84,72,28,2 ; vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 117,30 ; jne 27a7 <_sk_load_tables_rgb_u16_be_hsw+0x1ce>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 233,138,254,255,255 ; jmpq 2620 <_sk_load_tables_rgb_u16_be_hsw+0x47>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 233,121,254,255,255 ; jmpq 2620 <_sk_load_tables_rgb_u16_be_hsw+0x47>
- DB 196,129,121,110,68,72,30 ; vmovd 0x1e(%r8,%r9,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,76,72,34,2 ; vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 114,25 ; jb 27da <_sk_load_tables_rgb_u16_be_hsw+0x201>
- DB 196,129,121,110,68,72,36 ; vmovd 0x24(%r8,%r9,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,68,72,40,2 ; vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- DB 233,70,254,255,255 ; jmpq 2620 <_sk_load_tables_rgb_u16_be_hsw+0x47>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 233,61,254,255,255 ; jmpq 2620 <_sk_load_tables_rgb_u16_be_hsw+0x47>
-
-PUBLIC _sk_byte_tables_hsw
-_sk_byte_tables_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,200 ; vmaxps %ymm0,%ymm8,%ymm9
- DB 196,98,125,24,29,209,34,3,0 ; vbroadcastss 0x322d1(%rip),%ymm11 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,52,93,211 ; vminps %ymm11,%ymm9,%ymm10
- DB 196,98,125,24,13,239,34,3,0 ; vbroadcastss 0x322ef(%rip),%ymm9 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,65,44,89,209 ; vmulps %ymm9,%ymm10,%ymm10
- DB 196,65,125,91,210 ; vcvtps2dq %ymm10,%ymm10
- DB 196,65,249,126,208 ; vmovq %xmm10,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 76,139,16 ; mov (%rax),%r10
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,193,121,110,193 ; vmovd %r9d,%xmm0
- DB 196,67,249,22,209,1 ; vpextrq $0x1,%xmm10,%r9
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,67,121,32,224,1 ; vpinsrb $0x1,%r8d,%xmm0,%xmm12
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 196,99,125,57,208,1 ; vextracti128 $0x1,%ymm10,%xmm0
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,67,25,32,208,2 ; vpinsrb $0x2,%r8d,%xmm12,%xmm10
- DB 196,193,249,126,192 ; vmovq %xmm0,%r8
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,67,41,32,209,3 ; vpinsrb $0x3,%r9d,%xmm10,%xmm10
- DB 69,137,193 ; mov %r8d,%r9d
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,67,41,32,209,4 ; vpinsrb $0x4,%r9d,%xmm10,%xmm10
- DB 196,195,249,22,193,1 ; vpextrq $0x1,%xmm0,%r9
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,195,41,32,192,5 ; vpinsrb $0x5,%r8d,%xmm10,%xmm0
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,195,121,32,192,6 ; vpinsrb $0x6,%r8d,%xmm0,%xmm0
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,67,121,32,209,7 ; vpinsrb $0x7,%r9d,%xmm0,%xmm10
- DB 197,188,95,193 ; vmaxps %ymm1,%ymm8,%ymm0
- DB 196,193,124,93,195 ; vminps %ymm11,%ymm0,%ymm0
- DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
- DB 197,253,91,200 ; vcvtps2dq %ymm0,%ymm1
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 69,137,202 ; mov %r9d,%r10d
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,193,121,110,194 ; vmovd %r10d,%xmm0
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,1 ; vpinsrb $0x1,%r9d,%xmm0,%xmm0
- DB 69,137,209 ; mov %r10d,%r9d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,201,1 ; vextracti128 $0x1,%ymm1,%xmm1
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,2 ; vpinsrb $0x2,%r9d,%xmm0,%xmm0
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,195,121,32,194,3 ; vpinsrb $0x3,%r10d,%xmm0,%xmm0
- DB 69,137,202 ; mov %r9d,%r10d
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,195,121,32,194,4 ; vpinsrb $0x4,%r10d,%xmm0,%xmm0
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,5 ; vpinsrb $0x5,%r9d,%xmm0,%xmm0
- DB 69,137,209 ; mov %r10d,%r9d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,6 ; vpinsrb $0x6,%r9d,%xmm0,%xmm0
- DB 71,15,182,4,16 ; movzbl (%r8,%r10,1),%r8d
- DB 196,195,121,32,200,7 ; vpinsrb $0x7,%r8d,%xmm0,%xmm1
- DB 76,139,64,16 ; mov 0x10(%rax),%r8
- DB 197,188,95,194 ; vmaxps %ymm2,%ymm8,%ymm0
- DB 196,193,124,93,195 ; vminps %ymm11,%ymm0,%ymm0
- DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
- DB 197,253,91,208 ; vcvtps2dq %ymm0,%ymm2
- DB 196,193,249,126,209 ; vmovq %xmm2,%r9
- DB 69,137,202 ; mov %r9d,%r10d
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,193,121,110,194 ; vmovd %r10d,%xmm0
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,1 ; vpinsrb $0x1,%r9d,%xmm0,%xmm0
- DB 69,137,209 ; mov %r10d,%r9d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,210,1 ; vextracti128 $0x1,%ymm2,%xmm2
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,2 ; vpinsrb $0x2,%r9d,%xmm0,%xmm0
- DB 196,193,249,126,209 ; vmovq %xmm2,%r9
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,195,121,32,194,3 ; vpinsrb $0x3,%r10d,%xmm0,%xmm0
- DB 69,137,202 ; mov %r9d,%r10d
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,195,121,32,194,4 ; vpinsrb $0x4,%r10d,%xmm0,%xmm0
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,5 ; vpinsrb $0x5,%r9d,%xmm0,%xmm0
- DB 69,137,209 ; mov %r10d,%r9d
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,6 ; vpinsrb $0x6,%r9d,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 71,15,182,4,16 ; movzbl (%r8,%r10,1),%r8d
- DB 196,195,121,32,208,7 ; vpinsrb $0x7,%r8d,%xmm0,%xmm2
- DB 76,139,72,24 ; mov 0x18(%rax),%r9
- DB 197,188,95,195 ; vmaxps %ymm3,%ymm8,%ymm0
- DB 196,193,124,93,195 ; vminps %ymm11,%ymm0,%ymm0
- DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
- DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
- DB 196,193,249,126,192 ; vmovq %xmm0,%r8
- DB 68,137,192 ; mov %r8d,%eax
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 197,249,110,216 ; vmovd %eax,%xmm3
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 67,15,182,4,1 ; movzbl (%r9,%r8,1),%eax
- DB 196,227,97,32,216,1 ; vpinsrb $0x1,%eax,%xmm3,%xmm3
- DB 68,137,208 ; mov %r10d,%eax
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,192,1 ; vextracti128 $0x1,%ymm0,%xmm0
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 196,227,97,32,216,2 ; vpinsrb $0x2,%eax,%xmm3,%xmm3
- DB 196,193,249,126,192 ; vmovq %xmm0,%r8
- DB 67,15,182,4,17 ; movzbl (%r9,%r10,1),%eax
- DB 196,227,97,32,216,3 ; vpinsrb $0x3,%eax,%xmm3,%xmm3
- DB 68,137,192 ; mov %r8d,%eax
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 196,227,97,32,216,4 ; vpinsrb $0x4,%eax,%xmm3,%xmm3
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 67,15,182,4,1 ; movzbl (%r9,%r8,1),%eax
- DB 196,227,97,32,192,5 ; vpinsrb $0x5,%eax,%xmm3,%xmm0
- DB 68,137,208 ; mov %r10d,%eax
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 196,227,121,32,216,6 ; vpinsrb $0x6,%eax,%xmm0,%xmm3
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 67,15,182,4,17 ; movzbl (%r9,%r10,1),%eax
- DB 196,194,125,49,194 ; vpmovzxbd %xmm10,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,5,165,32,3,0 ; vbroadcastss 0x320a5(%rip),%ymm8 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 196,226,125,49,201 ; vpmovzxbd %xmm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 196,226,125,49,210 ; vpmovzxbd %xmm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 196,227,97,32,216,7 ; vpinsrb $0x7,%eax,%xmm3,%xmm3
- DB 196,226,125,49,219 ; vpmovzxbd %xmm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_byte_tables_rgb_hsw
-_sk_byte_tables_rgb_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,139,64,24 ; mov 0x18(%rax),%r8d
- DB 65,255,200 ; dec %r8d
- DB 196,65,121,110,192 ; vmovd %r8d,%xmm8
- DB 196,66,125,88,192 ; vpbroadcastd %xmm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,52,95,208 ; vmaxps %ymm0,%ymm9,%ymm10
- DB 196,98,125,24,29,202,31,3,0 ; vbroadcastss 0x31fca(%rip),%ymm11 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,44,93,211 ; vminps %ymm11,%ymm10,%ymm10
- DB 196,65,44,89,208 ; vmulps %ymm8,%ymm10,%ymm10
- DB 196,65,125,91,210 ; vcvtps2dq %ymm10,%ymm10
- DB 196,65,249,126,208 ; vmovq %xmm10,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 76,139,16 ; mov (%rax),%r10
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,193,121,110,193 ; vmovd %r9d,%xmm0
- DB 196,67,249,22,209,1 ; vpextrq $0x1,%xmm10,%r9
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,67,121,32,224,1 ; vpinsrb $0x1,%r8d,%xmm0,%xmm12
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 196,99,125,57,208,1 ; vextracti128 $0x1,%ymm10,%xmm0
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,67,25,32,208,2 ; vpinsrb $0x2,%r8d,%xmm12,%xmm10
- DB 196,193,249,126,192 ; vmovq %xmm0,%r8
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,67,41,32,209,3 ; vpinsrb $0x3,%r9d,%xmm10,%xmm10
- DB 69,137,193 ; mov %r8d,%r9d
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,67,41,32,209,4 ; vpinsrb $0x4,%r9d,%xmm10,%xmm10
- DB 196,195,249,22,193,1 ; vpextrq $0x1,%xmm0,%r9
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,195,41,32,192,5 ; vpinsrb $0x5,%r8d,%xmm10,%xmm0
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,195,121,32,192,6 ; vpinsrb $0x6,%r8d,%xmm0,%xmm0
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,67,121,32,209,7 ; vpinsrb $0x7,%r9d,%xmm0,%xmm10
- DB 197,180,95,193 ; vmaxps %ymm1,%ymm9,%ymm0
- DB 196,193,124,93,195 ; vminps %ymm11,%ymm0,%ymm0
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 197,253,91,200 ; vcvtps2dq %ymm0,%ymm1
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 69,137,202 ; mov %r9d,%r10d
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,193,121,110,194 ; vmovd %r10d,%xmm0
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,1 ; vpinsrb $0x1,%r9d,%xmm0,%xmm0
- DB 69,137,209 ; mov %r10d,%r9d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,201,1 ; vextracti128 $0x1,%ymm1,%xmm1
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,2 ; vpinsrb $0x2,%r9d,%xmm0,%xmm0
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,195,121,32,194,3 ; vpinsrb $0x3,%r10d,%xmm0,%xmm0
- DB 69,137,202 ; mov %r9d,%r10d
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,195,121,32,194,4 ; vpinsrb $0x4,%r10d,%xmm0,%xmm0
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,5 ; vpinsrb $0x5,%r9d,%xmm0,%xmm0
- DB 69,137,209 ; mov %r10d,%r9d
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,6 ; vpinsrb $0x6,%r9d,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 71,15,182,4,16 ; movzbl (%r8,%r10,1),%r8d
- DB 196,195,121,32,200,7 ; vpinsrb $0x7,%r8d,%xmm0,%xmm1
- DB 76,139,72,16 ; mov 0x10(%rax),%r9
- DB 197,180,95,194 ; vmaxps %ymm2,%ymm9,%ymm0
- DB 196,193,124,93,195 ; vminps %ymm11,%ymm0,%ymm0
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
- DB 196,193,249,126,192 ; vmovq %xmm0,%r8
- DB 68,137,192 ; mov %r8d,%eax
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 197,249,110,208 ; vmovd %eax,%xmm2
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 67,15,182,4,1 ; movzbl (%r9,%r8,1),%eax
- DB 196,227,105,32,208,1 ; vpinsrb $0x1,%eax,%xmm2,%xmm2
- DB 68,137,208 ; mov %r10d,%eax
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,192,1 ; vextracti128 $0x1,%ymm0,%xmm0
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 196,227,105,32,208,2 ; vpinsrb $0x2,%eax,%xmm2,%xmm2
- DB 196,193,249,126,192 ; vmovq %xmm0,%r8
- DB 67,15,182,4,17 ; movzbl (%r9,%r10,1),%eax
- DB 196,227,105,32,208,3 ; vpinsrb $0x3,%eax,%xmm2,%xmm2
- DB 68,137,192 ; mov %r8d,%eax
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 196,227,105,32,208,4 ; vpinsrb $0x4,%eax,%xmm2,%xmm2
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 67,15,182,4,1 ; movzbl (%r9,%r8,1),%eax
- DB 196,227,105,32,192,5 ; vpinsrb $0x5,%eax,%xmm2,%xmm0
- DB 68,137,208 ; mov %r10d,%eax
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 196,227,121,32,208,6 ; vpinsrb $0x6,%eax,%xmm0,%xmm2
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 67,15,182,4,17 ; movzbl (%r9,%r10,1),%eax
- DB 196,194,125,49,194 ; vpmovzxbd %xmm10,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,5,78,30,3,0 ; vbroadcastss 0x31e4e(%rip),%ymm8 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 196,226,125,49,201 ; vpmovzxbd %xmm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 196,227,105,32,208,7 ; vpinsrb $0x7,%eax,%xmm2,%xmm2
- DB 196,226,125,49,210 ; vpmovzxbd %xmm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_r_hsw
-_sk_table_r_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 196,66,125,88,192 ; vpbroadcastd %xmm8,%ymm8
- DB 196,65,124,91,200 ; vcvtdq2ps %ymm8,%ymm9
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,21,129,29,3,0 ; vbroadcastss 0x31d81(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,194 ; vminps %ymm10,%ymm0,%ymm0
- DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
- DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
- DB 196,65,53,118,201 ; vpcmpeqd %ymm9,%ymm9,%ymm9
- DB 196,66,53,146,4,128 ; vgatherdps %ymm9,(%r8,%ymm0,4),%ymm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_g_hsw
-_sk_table_g_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 196,66,125,88,192 ; vpbroadcastd %xmm8,%ymm8
- DB 196,65,124,91,200 ; vcvtdq2ps %ymm8,%ymm9
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,201 ; vmaxps %ymm1,%ymm8,%ymm1
- DB 196,98,125,24,21,54,29,3,0 ; vbroadcastss 0x31d36(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,116,93,202 ; vminps %ymm10,%ymm1,%ymm1
- DB 196,193,116,89,201 ; vmulps %ymm9,%ymm1,%ymm1
- DB 197,253,91,201 ; vcvtps2dq %ymm1,%ymm1
- DB 196,65,53,118,201 ; vpcmpeqd %ymm9,%ymm9,%ymm9
- DB 196,66,53,146,4,136 ; vgatherdps %ymm9,(%r8,%ymm1,4),%ymm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,193 ; vmovaps %ymm8,%ymm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_b_hsw
-_sk_table_b_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 196,66,125,88,192 ; vpbroadcastd %xmm8,%ymm8
- DB 196,65,124,91,200 ; vcvtdq2ps %ymm8,%ymm9
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,210 ; vmaxps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,21,235,28,3,0 ; vbroadcastss 0x31ceb(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,108,93,210 ; vminps %ymm10,%ymm2,%ymm2
- DB 196,193,108,89,209 ; vmulps %ymm9,%ymm2,%ymm2
- DB 197,253,91,210 ; vcvtps2dq %ymm2,%ymm2
- DB 196,65,53,118,201 ; vpcmpeqd %ymm9,%ymm9,%ymm9
- DB 196,66,53,146,4,144 ; vgatherdps %ymm9,(%r8,%ymm2,4),%ymm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,194 ; vmovaps %ymm8,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_a_hsw
-_sk_table_a_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 196,66,125,88,192 ; vpbroadcastd %xmm8,%ymm8
- DB 196,65,124,91,200 ; vcvtdq2ps %ymm8,%ymm9
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,219 ; vmaxps %ymm3,%ymm8,%ymm3
- DB 196,98,125,24,21,160,28,3,0 ; vbroadcastss 0x31ca0(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,100,93,218 ; vminps %ymm10,%ymm3,%ymm3
- DB 196,193,100,89,217 ; vmulps %ymm9,%ymm3,%ymm3
- DB 197,253,91,219 ; vcvtps2dq %ymm3,%ymm3
- DB 196,65,53,118,201 ; vpcmpeqd %ymm9,%ymm9,%ymm9
- DB 196,66,53,146,4,152 ; vgatherdps %ymm9,(%r8,%ymm3,4),%ymm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,195 ; vmovaps %ymm8,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_r_hsw
-_sk_parametric_r_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm8
- DB 196,65,124,194,192,2 ; vcmpleps %ymm8,%ymm0,%ymm8
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 196,98,125,24,80,24 ; vbroadcastss 0x18(%rax),%ymm10
- DB 196,66,125,168,202 ; vfmadd213ps %ymm10,%ymm0,%ymm9
- DB 196,98,125,24,88,4 ; vbroadcastss 0x4(%rax),%ymm11
- DB 196,98,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm10
- DB 196,66,125,168,218 ; vfmadd213ps %ymm10,%ymm0,%ymm11
- DB 196,98,125,24,32 ; vbroadcastss (%rax),%ymm12
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,36,194,208,0 ; vcmpeqps %ymm0,%ymm11,%ymm10
- DB 196,65,124,91,235 ; vcvtdq2ps %ymm11,%ymm13
- DB 196,98,125,24,53,203,28,3,0 ; vbroadcastss 0x31ccb(%rip),%ymm14 # 34b60 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- DB 196,98,125,24,61,198,28,3,0 ; vbroadcastss 0x31cc6(%rip),%ymm15 # 34b64 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- DB 196,65,36,84,223 ; vandps %ymm15,%ymm11,%ymm11
- DB 196,98,125,24,61,24,28,3,0 ; vbroadcastss 0x31c18(%rip),%ymm15 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,36,86,223 ; vorps %ymm15,%ymm11,%ymm11
- DB 196,98,125,24,61,174,28,3,0 ; vbroadcastss 0x31cae(%rip),%ymm15 # 34b68 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- DB 196,66,21,184,254 ; vfmadd231ps %ymm14,%ymm13,%ymm15
- DB 196,98,125,24,45,164,28,3,0 ; vbroadcastss 0x31ca4(%rip),%ymm13 # 34b6c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- DB 196,66,37,172,239 ; vfnmadd213ps %ymm15,%ymm11,%ymm13
- DB 196,98,125,24,53,154,28,3,0 ; vbroadcastss 0x31c9a(%rip),%ymm14 # 34b70 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- DB 196,65,36,88,222 ; vaddps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,144,28,3,0 ; vbroadcastss 0x31c90(%rip),%ymm14 # 34b74 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- DB 196,65,12,94,219 ; vdivps %ymm11,%ymm14,%ymm11
- DB 196,65,20,92,219 ; vsubps %ymm11,%ymm13,%ymm11
- DB 196,65,28,89,219 ; vmulps %ymm11,%ymm12,%ymm11
- DB 196,67,125,8,227,1 ; vroundps $0x1,%ymm11,%ymm12
- DB 196,65,36,92,228 ; vsubps %ymm12,%ymm11,%ymm12
- DB 196,98,125,24,45,113,28,3,0 ; vbroadcastss 0x31c71(%rip),%ymm13 # 34b78 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
- DB 196,98,125,24,45,103,28,3,0 ; vbroadcastss 0x31c67(%rip),%ymm13 # 34b7c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- DB 196,66,29,172,235 ; vfnmadd213ps %ymm11,%ymm12,%ymm13
- DB 196,98,125,24,29,93,28,3,0 ; vbroadcastss 0x31c5d(%rip),%ymm11 # 34b80 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- DB 196,65,36,92,220 ; vsubps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,83,28,3,0 ; vbroadcastss 0x31c53(%rip),%ymm12 # 34b84 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- DB 196,65,28,94,219 ; vdivps %ymm11,%ymm12,%ymm11
- DB 196,65,20,88,219 ; vaddps %ymm11,%ymm13,%ymm11
- DB 196,98,125,24,37,68,28,3,0 ; vbroadcastss 0x31c44(%rip),%ymm12 # 34b88 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,99,37,74,208,160 ; vblendvps %ymm10,%ymm0,%ymm11,%ymm10
- DB 196,98,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm11
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,67,45,74,193,128 ; vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,5,86,27,3,0 ; vbroadcastss 0x31b56(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_g_hsw
-_sk_parametric_g_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm8
- DB 196,65,116,194,192,2 ; vcmpleps %ymm8,%ymm1,%ymm8
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 196,98,125,24,80,24 ; vbroadcastss 0x18(%rax),%ymm10
- DB 196,66,117,168,202 ; vfmadd213ps %ymm10,%ymm1,%ymm9
- DB 196,98,125,24,88,4 ; vbroadcastss 0x4(%rax),%ymm11
- DB 196,98,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm10
- DB 196,66,117,168,218 ; vfmadd213ps %ymm10,%ymm1,%ymm11
- DB 196,98,125,24,32 ; vbroadcastss (%rax),%ymm12
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,36,194,209,0 ; vcmpeqps %ymm1,%ymm11,%ymm10
- DB 196,65,124,91,235 ; vcvtdq2ps %ymm11,%ymm13
- DB 196,98,125,24,53,153,27,3,0 ; vbroadcastss 0x31b99(%rip),%ymm14 # 34b60 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- DB 196,98,125,24,61,148,27,3,0 ; vbroadcastss 0x31b94(%rip),%ymm15 # 34b64 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- DB 196,65,36,84,223 ; vandps %ymm15,%ymm11,%ymm11
- DB 196,98,125,24,61,230,26,3,0 ; vbroadcastss 0x31ae6(%rip),%ymm15 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,36,86,223 ; vorps %ymm15,%ymm11,%ymm11
- DB 196,98,125,24,61,124,27,3,0 ; vbroadcastss 0x31b7c(%rip),%ymm15 # 34b68 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- DB 196,66,21,184,254 ; vfmadd231ps %ymm14,%ymm13,%ymm15
- DB 196,98,125,24,45,114,27,3,0 ; vbroadcastss 0x31b72(%rip),%ymm13 # 34b6c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- DB 196,66,37,172,239 ; vfnmadd213ps %ymm15,%ymm11,%ymm13
- DB 196,98,125,24,53,104,27,3,0 ; vbroadcastss 0x31b68(%rip),%ymm14 # 34b70 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- DB 196,65,36,88,222 ; vaddps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,94,27,3,0 ; vbroadcastss 0x31b5e(%rip),%ymm14 # 34b74 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- DB 196,65,12,94,219 ; vdivps %ymm11,%ymm14,%ymm11
- DB 196,65,20,92,219 ; vsubps %ymm11,%ymm13,%ymm11
- DB 196,65,28,89,219 ; vmulps %ymm11,%ymm12,%ymm11
- DB 196,67,125,8,227,1 ; vroundps $0x1,%ymm11,%ymm12
- DB 196,65,36,92,228 ; vsubps %ymm12,%ymm11,%ymm12
- DB 196,98,125,24,45,63,27,3,0 ; vbroadcastss 0x31b3f(%rip),%ymm13 # 34b78 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
- DB 196,98,125,24,45,53,27,3,0 ; vbroadcastss 0x31b35(%rip),%ymm13 # 34b7c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- DB 196,66,29,172,235 ; vfnmadd213ps %ymm11,%ymm12,%ymm13
- DB 196,98,125,24,29,43,27,3,0 ; vbroadcastss 0x31b2b(%rip),%ymm11 # 34b80 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- DB 196,65,36,92,220 ; vsubps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,33,27,3,0 ; vbroadcastss 0x31b21(%rip),%ymm12 # 34b84 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- DB 196,65,28,94,219 ; vdivps %ymm11,%ymm12,%ymm11
- DB 196,65,20,88,219 ; vaddps %ymm11,%ymm13,%ymm11
- DB 196,98,125,24,37,18,27,3,0 ; vbroadcastss 0x31b12(%rip),%ymm12 # 34b88 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,99,37,74,209,160 ; vblendvps %ymm10,%ymm1,%ymm11,%ymm10
- DB 196,98,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm11
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,67,45,74,193,128 ; vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- DB 197,188,95,201 ; vmaxps %ymm1,%ymm8,%ymm1
- DB 196,98,125,24,5,36,26,3,0 ; vbroadcastss 0x31a24(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_b_hsw
-_sk_parametric_b_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm8
- DB 196,65,108,194,192,2 ; vcmpleps %ymm8,%ymm2,%ymm8
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 196,98,125,24,80,24 ; vbroadcastss 0x18(%rax),%ymm10
- DB 196,66,109,168,202 ; vfmadd213ps %ymm10,%ymm2,%ymm9
- DB 196,98,125,24,88,4 ; vbroadcastss 0x4(%rax),%ymm11
- DB 196,98,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm10
- DB 196,66,109,168,218 ; vfmadd213ps %ymm10,%ymm2,%ymm11
- DB 196,98,125,24,32 ; vbroadcastss (%rax),%ymm12
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,36,194,210,0 ; vcmpeqps %ymm2,%ymm11,%ymm10
- DB 196,65,124,91,235 ; vcvtdq2ps %ymm11,%ymm13
- DB 196,98,125,24,53,103,26,3,0 ; vbroadcastss 0x31a67(%rip),%ymm14 # 34b60 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- DB 196,98,125,24,61,98,26,3,0 ; vbroadcastss 0x31a62(%rip),%ymm15 # 34b64 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- DB 196,65,36,84,223 ; vandps %ymm15,%ymm11,%ymm11
- DB 196,98,125,24,61,180,25,3,0 ; vbroadcastss 0x319b4(%rip),%ymm15 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,36,86,223 ; vorps %ymm15,%ymm11,%ymm11
- DB 196,98,125,24,61,74,26,3,0 ; vbroadcastss 0x31a4a(%rip),%ymm15 # 34b68 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- DB 196,66,21,184,254 ; vfmadd231ps %ymm14,%ymm13,%ymm15
- DB 196,98,125,24,45,64,26,3,0 ; vbroadcastss 0x31a40(%rip),%ymm13 # 34b6c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- DB 196,66,37,172,239 ; vfnmadd213ps %ymm15,%ymm11,%ymm13
- DB 196,98,125,24,53,54,26,3,0 ; vbroadcastss 0x31a36(%rip),%ymm14 # 34b70 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- DB 196,65,36,88,222 ; vaddps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,44,26,3,0 ; vbroadcastss 0x31a2c(%rip),%ymm14 # 34b74 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- DB 196,65,12,94,219 ; vdivps %ymm11,%ymm14,%ymm11
- DB 196,65,20,92,219 ; vsubps %ymm11,%ymm13,%ymm11
- DB 196,65,28,89,219 ; vmulps %ymm11,%ymm12,%ymm11
- DB 196,67,125,8,227,1 ; vroundps $0x1,%ymm11,%ymm12
- DB 196,65,36,92,228 ; vsubps %ymm12,%ymm11,%ymm12
- DB 196,98,125,24,45,13,26,3,0 ; vbroadcastss 0x31a0d(%rip),%ymm13 # 34b78 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
- DB 196,98,125,24,45,3,26,3,0 ; vbroadcastss 0x31a03(%rip),%ymm13 # 34b7c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- DB 196,66,29,172,235 ; vfnmadd213ps %ymm11,%ymm12,%ymm13
- DB 196,98,125,24,29,249,25,3,0 ; vbroadcastss 0x319f9(%rip),%ymm11 # 34b80 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- DB 196,65,36,92,220 ; vsubps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,239,25,3,0 ; vbroadcastss 0x319ef(%rip),%ymm12 # 34b84 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- DB 196,65,28,94,219 ; vdivps %ymm11,%ymm12,%ymm11
- DB 196,65,20,88,219 ; vaddps %ymm11,%ymm13,%ymm11
- DB 196,98,125,24,37,224,25,3,0 ; vbroadcastss 0x319e0(%rip),%ymm12 # 34b88 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,99,37,74,210,160 ; vblendvps %ymm10,%ymm2,%ymm11,%ymm10
- DB 196,98,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm11
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,67,45,74,193,128 ; vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- DB 197,188,95,210 ; vmaxps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,242,24,3,0 ; vbroadcastss 0x318f2(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,108,93,208 ; vminps %ymm8,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_a_hsw
-_sk_parametric_a_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm8
- DB 196,65,100,194,192,2 ; vcmpleps %ymm8,%ymm3,%ymm8
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 196,98,125,24,80,24 ; vbroadcastss 0x18(%rax),%ymm10
- DB 196,66,101,168,202 ; vfmadd213ps %ymm10,%ymm3,%ymm9
- DB 196,98,125,24,88,4 ; vbroadcastss 0x4(%rax),%ymm11
- DB 196,98,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm10
- DB 196,66,101,168,218 ; vfmadd213ps %ymm10,%ymm3,%ymm11
- DB 196,98,125,24,32 ; vbroadcastss (%rax),%ymm12
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 197,36,194,211,0 ; vcmpeqps %ymm3,%ymm11,%ymm10
- DB 196,65,124,91,235 ; vcvtdq2ps %ymm11,%ymm13
- DB 196,98,125,24,53,53,25,3,0 ; vbroadcastss 0x31935(%rip),%ymm14 # 34b60 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- DB 196,98,125,24,61,48,25,3,0 ; vbroadcastss 0x31930(%rip),%ymm15 # 34b64 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- DB 196,65,36,84,223 ; vandps %ymm15,%ymm11,%ymm11
- DB 196,98,125,24,61,130,24,3,0 ; vbroadcastss 0x31882(%rip),%ymm15 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,36,86,223 ; vorps %ymm15,%ymm11,%ymm11
- DB 196,98,125,24,61,24,25,3,0 ; vbroadcastss 0x31918(%rip),%ymm15 # 34b68 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- DB 196,66,21,184,254 ; vfmadd231ps %ymm14,%ymm13,%ymm15
- DB 196,98,125,24,45,14,25,3,0 ; vbroadcastss 0x3190e(%rip),%ymm13 # 34b6c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- DB 196,66,37,172,239 ; vfnmadd213ps %ymm15,%ymm11,%ymm13
- DB 196,98,125,24,53,4,25,3,0 ; vbroadcastss 0x31904(%rip),%ymm14 # 34b70 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- DB 196,65,36,88,222 ; vaddps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,250,24,3,0 ; vbroadcastss 0x318fa(%rip),%ymm14 # 34b74 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- DB 196,65,12,94,219 ; vdivps %ymm11,%ymm14,%ymm11
- DB 196,65,20,92,219 ; vsubps %ymm11,%ymm13,%ymm11
- DB 196,65,28,89,219 ; vmulps %ymm11,%ymm12,%ymm11
- DB 196,67,125,8,227,1 ; vroundps $0x1,%ymm11,%ymm12
- DB 196,65,36,92,228 ; vsubps %ymm12,%ymm11,%ymm12
- DB 196,98,125,24,45,219,24,3,0 ; vbroadcastss 0x318db(%rip),%ymm13 # 34b78 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
- DB 196,98,125,24,45,209,24,3,0 ; vbroadcastss 0x318d1(%rip),%ymm13 # 34b7c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- DB 196,66,29,172,235 ; vfnmadd213ps %ymm11,%ymm12,%ymm13
- DB 196,98,125,24,29,199,24,3,0 ; vbroadcastss 0x318c7(%rip),%ymm11 # 34b80 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- DB 196,65,36,92,220 ; vsubps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,189,24,3,0 ; vbroadcastss 0x318bd(%rip),%ymm12 # 34b84 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- DB 196,65,28,94,219 ; vdivps %ymm11,%ymm12,%ymm11
- DB 196,65,20,88,219 ; vaddps %ymm11,%ymm13,%ymm11
- DB 196,98,125,24,37,174,24,3,0 ; vbroadcastss 0x318ae(%rip),%ymm12 # 34b88 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,99,37,74,211,160 ; vblendvps %ymm10,%ymm3,%ymm11,%ymm10
- DB 196,98,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm11
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,67,45,74,193,128 ; vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- DB 197,188,95,219 ; vmaxps %ymm3,%ymm8,%ymm3
- DB 196,98,125,24,5,192,23,3,0 ; vbroadcastss 0x317c0(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gamma_hsw
-_sk_gamma_hsw LABEL PROC
- DB 72,129,236,120,1,0,0 ; sub $0x178,%rsp
- DB 197,252,17,188,36,64,1,0,0 ; vmovups %ymm7,0x140(%rsp)
- DB 197,252,17,180,36,32,1,0,0 ; vmovups %ymm6,0x120(%rsp)
- DB 197,252,17,172,36,0,1,0,0 ; vmovups %ymm5,0x100(%rsp)
- DB 197,252,17,164,36,224,0,0,0 ; vmovups %ymm4,0xe0(%rsp)
- DB 197,252,17,156,36,192,0,0,0 ; vmovups %ymm3,0xc0(%rsp)
- DB 197,252,17,84,36,96 ; vmovups %ymm2,0x60(%rsp)
- DB 197,252,17,140,36,128,0,0,0 ; vmovups %ymm1,0x80(%rsp)
- DB 197,124,91,208 ; vcvtdq2ps %ymm0,%ymm10
- DB 196,98,125,24,29,255,23,3,0 ; vbroadcastss 0x317ff(%rip),%ymm11 # 34b60 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- DB 196,226,125,24,37,250,23,3,0 ; vbroadcastss 0x317fa(%rip),%ymm4 # 34b64 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- DB 197,124,84,228 ; vandps %ymm4,%ymm0,%ymm12
- DB 196,226,125,24,29,77,23,3,0 ; vbroadcastss 0x3174d(%rip),%ymm3 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,252,17,156,36,160,0,0,0 ; vmovups %ymm3,0xa0(%rsp)
- DB 197,28,86,227 ; vorps %ymm3,%ymm12,%ymm12
- DB 196,98,125,24,45,219,23,3,0 ; vbroadcastss 0x317db(%rip),%ymm13 # 34b68 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- DB 196,66,37,168,213 ; vfmadd213ps %ymm13,%ymm11,%ymm10
- DB 197,124,91,241 ; vcvtdq2ps %ymm1,%ymm14
- DB 196,66,37,168,245 ; vfmadd213ps %ymm13,%ymm11,%ymm14
- DB 197,124,91,250 ; vcvtdq2ps %ymm2,%ymm15
- DB 196,66,37,168,253 ; vfmadd213ps %ymm13,%ymm11,%ymm15
- DB 196,226,125,24,45,191,23,3,0 ; vbroadcastss 0x317bf(%rip),%ymm5 # 34b6c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- DB 196,98,29,188,213 ; vfnmadd231ps %ymm5,%ymm12,%ymm10
- DB 196,226,125,24,13,181,23,3,0 ; vbroadcastss 0x317b5(%rip),%ymm1 # 34b70 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- DB 197,252,17,76,36,32 ; vmovups %ymm1,0x20(%rsp)
- DB 197,28,88,225 ; vaddps %ymm1,%ymm12,%ymm12
- DB 196,98,125,24,5,166,23,3,0 ; vbroadcastss 0x317a6(%rip),%ymm8 # 34b74 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- DB 196,65,60,94,228 ; vdivps %ymm12,%ymm8,%ymm12
- DB 197,124,17,4,36 ; vmovups %ymm8,(%rsp)
- DB 196,65,44,92,212 ; vsubps %ymm12,%ymm10,%ymm10
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,40 ; vbroadcastss (%rax),%ymm13
- DB 196,65,44,89,213 ; vmulps %ymm13,%ymm10,%ymm10
- DB 196,195,125,8,250,1 ; vroundps $0x1,%ymm10,%ymm7
- DB 197,172,92,255 ; vsubps %ymm7,%ymm10,%ymm7
- DB 196,98,125,24,29,124,23,3,0 ; vbroadcastss 0x3177c(%rip),%ymm11 # 34b78 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,98,125,24,37,114,23,3,0 ; vbroadcastss 0x31772(%rip),%ymm12 # 34b7c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- DB 196,66,69,188,212 ; vfnmadd231ps %ymm12,%ymm7,%ymm10
- DB 196,98,125,24,13,104,23,3,0 ; vbroadcastss 0x31768(%rip),%ymm9 # 34b80 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- DB 197,180,92,255 ; vsubps %ymm7,%ymm9,%ymm7
- DB 196,226,125,24,13,95,23,3,0 ; vbroadcastss 0x3175f(%rip),%ymm1 # 34b84 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- DB 197,244,94,255 ; vdivps %ymm7,%ymm1,%ymm7
- DB 197,172,88,255 ; vaddps %ymm7,%ymm10,%ymm7
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 196,193,124,194,242,0 ; vcmpeqps %ymm10,%ymm0,%ymm6
- DB 196,226,125,24,29,71,23,3,0 ; vbroadcastss 0x31747(%rip),%ymm3 # 34b88 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- DB 197,196,89,251 ; vmulps %ymm3,%ymm7,%ymm7
- DB 197,253,91,255 ; vcvtps2dq %ymm7,%ymm7
- DB 196,195,69,74,194,96 ; vblendvps %ymm6,%ymm10,%ymm7,%ymm0
- DB 197,252,17,68,36,64 ; vmovups %ymm0,0x40(%rsp)
- DB 197,252,16,132,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm0
- DB 197,252,84,244 ; vandps %ymm4,%ymm0,%ymm6
- DB 197,252,16,148,36,160,0,0,0 ; vmovups 0xa0(%rsp),%ymm2
- DB 197,204,86,242 ; vorps %ymm2,%ymm6,%ymm6
- DB 196,98,77,188,245 ; vfnmadd231ps %ymm5,%ymm6,%ymm14
- DB 197,252,16,124,36,32 ; vmovups 0x20(%rsp),%ymm7
- DB 197,204,88,247 ; vaddps %ymm7,%ymm6,%ymm6
- DB 197,188,94,246 ; vdivps %ymm6,%ymm8,%ymm6
- DB 197,140,92,246 ; vsubps %ymm6,%ymm14,%ymm6
- DB 196,193,76,89,245 ; vmulps %ymm13,%ymm6,%ymm6
- DB 196,99,125,8,246,1 ; vroundps $0x1,%ymm6,%ymm14
- DB 196,65,76,92,246 ; vsubps %ymm14,%ymm6,%ymm14
- DB 196,193,76,88,243 ; vaddps %ymm11,%ymm6,%ymm6
- DB 196,194,13,188,244 ; vfnmadd231ps %ymm12,%ymm14,%ymm6
- DB 196,65,52,92,246 ; vsubps %ymm14,%ymm9,%ymm14
- DB 196,65,116,94,246 ; vdivps %ymm14,%ymm1,%ymm14
- DB 196,193,76,88,246 ; vaddps %ymm14,%ymm6,%ymm6
- DB 196,65,124,194,242,0 ; vcmpeqps %ymm10,%ymm0,%ymm14
- DB 197,204,89,243 ; vmulps %ymm3,%ymm6,%ymm6
- DB 197,253,91,246 ; vcvtps2dq %ymm6,%ymm6
- DB 196,195,77,74,242,224 ; vblendvps %ymm14,%ymm10,%ymm6,%ymm6
- DB 197,124,16,116,36,96 ; vmovups 0x60(%rsp),%ymm14
- DB 197,12,84,196 ; vandps %ymm4,%ymm14,%ymm8
- DB 197,60,86,194 ; vorps %ymm2,%ymm8,%ymm8
- DB 196,98,61,188,253 ; vfnmadd231ps %ymm5,%ymm8,%ymm15
- DB 197,60,88,199 ; vaddps %ymm7,%ymm8,%ymm8
- DB 197,252,16,4,36 ; vmovups (%rsp),%ymm0
- DB 196,193,124,94,232 ; vdivps %ymm8,%ymm0,%ymm5
- DB 197,132,92,237 ; vsubps %ymm5,%ymm15,%ymm5
- DB 196,193,84,89,237 ; vmulps %ymm13,%ymm5,%ymm5
- DB 196,99,125,8,197,1 ; vroundps $0x1,%ymm5,%ymm8
- DB 196,65,84,92,192 ; vsubps %ymm8,%ymm5,%ymm8
- DB 196,193,84,88,227 ; vaddps %ymm11,%ymm5,%ymm4
- DB 196,194,61,188,228 ; vfnmadd231ps %ymm12,%ymm8,%ymm4
- DB 196,193,52,92,208 ; vsubps %ymm8,%ymm9,%ymm2
- DB 197,244,94,202 ; vdivps %ymm2,%ymm1,%ymm1
- DB 197,220,88,201 ; vaddps %ymm1,%ymm4,%ymm1
- DB 197,244,89,195 ; vmulps %ymm3,%ymm1,%ymm0
- DB 196,193,12,194,202,0 ; vcmpeqps %ymm10,%ymm14,%ymm1
- DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
- DB 196,195,125,74,210,16 ; vblendvps %ymm1,%ymm10,%ymm0,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,68,36,64 ; vmovups 0x40(%rsp),%ymm0
- DB 197,252,40,206 ; vmovaps %ymm6,%ymm1
- DB 197,252,16,156,36,192,0,0,0 ; vmovups 0xc0(%rsp),%ymm3
- DB 197,252,16,164,36,224,0,0,0 ; vmovups 0xe0(%rsp),%ymm4
- DB 197,252,16,172,36,0,1,0,0 ; vmovups 0x100(%rsp),%ymm5
- DB 197,252,16,180,36,32,1,0,0 ; vmovups 0x120(%rsp),%ymm6
- DB 197,252,16,188,36,64,1,0,0 ; vmovups 0x140(%rsp),%ymm7
- DB 72,129,196,120,1,0,0 ; add $0x178,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gamma_dst_hsw
-_sk_gamma_dst_hsw LABEL PROC
- DB 72,129,236,88,1,0,0 ; sub $0x158,%rsp
- DB 197,252,17,188,36,32,1,0,0 ; vmovups %ymm7,0x120(%rsp)
- DB 197,252,17,52,36 ; vmovups %ymm6,(%rsp)
- DB 197,252,17,156,36,0,1,0,0 ; vmovups %ymm3,0x100(%rsp)
- DB 197,252,17,148,36,224,0,0,0 ; vmovups %ymm2,0xe0(%rsp)
- DB 197,252,17,140,36,192,0,0,0 ; vmovups %ymm1,0xc0(%rsp)
- DB 197,252,17,132,36,160,0,0,0 ; vmovups %ymm0,0xa0(%rsp)
- DB 197,124,91,212 ; vcvtdq2ps %ymm4,%ymm10
- DB 196,98,125,24,29,181,21,3,0 ; vbroadcastss 0x315b5(%rip),%ymm11 # 34b60 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- DB 196,226,125,24,5,176,21,3,0 ; vbroadcastss 0x315b0(%rip),%ymm0 # 34b64 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- DB 197,92,84,224 ; vandps %ymm0,%ymm4,%ymm12
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 197,252,40,220 ; vmovaps %ymm4,%ymm3
- DB 196,226,125,24,5,251,20,3,0 ; vbroadcastss 0x314fb(%rip),%ymm0 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,252,17,132,36,128,0,0,0 ; vmovups %ymm0,0x80(%rsp)
- DB 197,28,86,224 ; vorps %ymm0,%ymm12,%ymm12
- DB 196,98,125,24,45,137,21,3,0 ; vbroadcastss 0x31589(%rip),%ymm13 # 34b68 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- DB 196,66,37,168,213 ; vfmadd213ps %ymm13,%ymm11,%ymm10
- DB 197,252,40,197 ; vmovaps %ymm5,%ymm0
- DB 197,124,91,240 ; vcvtdq2ps %ymm0,%ymm14
- DB 196,66,37,168,245 ; vfmadd213ps %ymm13,%ymm11,%ymm14
- DB 197,124,91,60,36 ; vcvtdq2ps (%rsp),%ymm15
- DB 196,66,37,168,253 ; vfmadd213ps %ymm13,%ymm11,%ymm15
- DB 196,226,125,24,45,104,21,3,0 ; vbroadcastss 0x31568(%rip),%ymm5 # 34b6c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- DB 196,98,29,188,213 ; vfnmadd231ps %ymm5,%ymm12,%ymm10
- DB 196,226,125,24,13,94,21,3,0 ; vbroadcastss 0x3155e(%rip),%ymm1 # 34b70 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- DB 197,252,17,76,36,64 ; vmovups %ymm1,0x40(%rsp)
- DB 197,28,88,225 ; vaddps %ymm1,%ymm12,%ymm12
- DB 196,98,125,24,13,79,21,3,0 ; vbroadcastss 0x3154f(%rip),%ymm9 # 34b74 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- DB 196,65,52,94,228 ; vdivps %ymm12,%ymm9,%ymm12
- DB 197,124,17,76,36,32 ; vmovups %ymm9,0x20(%rsp)
- DB 196,65,44,92,212 ; vsubps %ymm12,%ymm10,%ymm10
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,40 ; vbroadcastss (%rax),%ymm13
- DB 196,65,44,89,213 ; vmulps %ymm13,%ymm10,%ymm10
- DB 196,195,125,8,250,1 ; vroundps $0x1,%ymm10,%ymm7
- DB 197,172,92,255 ; vsubps %ymm7,%ymm10,%ymm7
- DB 196,98,125,24,29,36,21,3,0 ; vbroadcastss 0x31524(%rip),%ymm11 # 34b78 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,98,125,24,37,26,21,3,0 ; vbroadcastss 0x3151a(%rip),%ymm12 # 34b7c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- DB 196,66,69,188,212 ; vfnmadd231ps %ymm12,%ymm7,%ymm10
- DB 196,98,125,24,5,16,21,3,0 ; vbroadcastss 0x31510(%rip),%ymm8 # 34b80 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- DB 197,188,92,255 ; vsubps %ymm7,%ymm8,%ymm7
- DB 196,226,125,24,13,7,21,3,0 ; vbroadcastss 0x31507(%rip),%ymm1 # 34b84 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- DB 197,244,94,255 ; vdivps %ymm7,%ymm1,%ymm7
- DB 197,172,88,255 ; vaddps %ymm7,%ymm10,%ymm7
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 196,193,100,194,242,0 ; vcmpeqps %ymm10,%ymm3,%ymm6
- DB 196,226,125,24,29,239,20,3,0 ; vbroadcastss 0x314ef(%rip),%ymm3 # 34b88 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- DB 197,196,89,251 ; vmulps %ymm3,%ymm7,%ymm7
- DB 197,253,91,255 ; vcvtps2dq %ymm7,%ymm7
- DB 196,195,69,74,226,96 ; vblendvps %ymm6,%ymm10,%ymm7,%ymm4
- DB 197,252,17,100,36,96 ; vmovups %ymm4,0x60(%rsp)
- DB 197,252,40,226 ; vmovaps %ymm2,%ymm4
- DB 197,252,84,244 ; vandps %ymm4,%ymm0,%ymm6
- DB 197,252,16,148,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm2
- DB 197,204,86,242 ; vorps %ymm2,%ymm6,%ymm6
- DB 196,98,77,188,245 ; vfnmadd231ps %ymm5,%ymm6,%ymm14
- DB 197,252,16,124,36,64 ; vmovups 0x40(%rsp),%ymm7
- DB 197,204,88,247 ; vaddps %ymm7,%ymm6,%ymm6
- DB 197,180,94,246 ; vdivps %ymm6,%ymm9,%ymm6
- DB 197,140,92,246 ; vsubps %ymm6,%ymm14,%ymm6
- DB 196,193,76,89,245 ; vmulps %ymm13,%ymm6,%ymm6
- DB 196,99,125,8,246,1 ; vroundps $0x1,%ymm6,%ymm14
- DB 196,65,76,92,246 ; vsubps %ymm14,%ymm6,%ymm14
- DB 196,193,76,88,243 ; vaddps %ymm11,%ymm6,%ymm6
- DB 196,194,13,188,244 ; vfnmadd231ps %ymm12,%ymm14,%ymm6
- DB 196,65,60,92,246 ; vsubps %ymm14,%ymm8,%ymm14
- DB 196,65,116,94,246 ; vdivps %ymm14,%ymm1,%ymm14
- DB 196,193,76,88,246 ; vaddps %ymm14,%ymm6,%ymm6
- DB 196,65,124,194,242,0 ; vcmpeqps %ymm10,%ymm0,%ymm14
- DB 197,204,89,243 ; vmulps %ymm3,%ymm6,%ymm6
- DB 197,253,91,246 ; vcvtps2dq %ymm6,%ymm6
- DB 196,67,77,74,242,224 ; vblendvps %ymm14,%ymm10,%ymm6,%ymm14
- DB 197,124,16,12,36 ; vmovups (%rsp),%ymm9
- DB 197,180,84,244 ; vandps %ymm4,%ymm9,%ymm6
- DB 197,204,86,242 ; vorps %ymm2,%ymm6,%ymm6
- DB 196,98,77,188,253 ; vfnmadd231ps %ymm5,%ymm6,%ymm15
- DB 197,204,88,247 ; vaddps %ymm7,%ymm6,%ymm6
- DB 197,252,16,68,36,32 ; vmovups 0x20(%rsp),%ymm0
- DB 197,252,94,238 ; vdivps %ymm6,%ymm0,%ymm5
- DB 197,132,92,237 ; vsubps %ymm5,%ymm15,%ymm5
- DB 196,193,84,89,237 ; vmulps %ymm13,%ymm5,%ymm5
- DB 196,227,125,8,245,1 ; vroundps $0x1,%ymm5,%ymm6
- DB 197,212,92,246 ; vsubps %ymm6,%ymm5,%ymm6
- DB 196,193,84,88,227 ; vaddps %ymm11,%ymm5,%ymm4
- DB 196,194,77,188,228 ; vfnmadd231ps %ymm12,%ymm6,%ymm4
- DB 197,188,92,214 ; vsubps %ymm6,%ymm8,%ymm2
- DB 197,244,94,202 ; vdivps %ymm2,%ymm1,%ymm1
- DB 197,220,88,201 ; vaddps %ymm1,%ymm4,%ymm1
- DB 197,244,89,195 ; vmulps %ymm3,%ymm1,%ymm0
- DB 196,193,52,194,202,0 ; vcmpeqps %ymm10,%ymm9,%ymm1
- DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
- DB 196,195,125,74,242,16 ; vblendvps %ymm1,%ymm10,%ymm0,%ymm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,132,36,160,0,0,0 ; vmovups 0xa0(%rsp),%ymm0
- DB 197,252,16,140,36,192,0,0,0 ; vmovups 0xc0(%rsp),%ymm1
- DB 197,252,16,148,36,224,0,0,0 ; vmovups 0xe0(%rsp),%ymm2
- DB 197,252,16,156,36,0,1,0,0 ; vmovups 0x100(%rsp),%ymm3
- DB 197,252,16,100,36,96 ; vmovups 0x60(%rsp),%ymm4
- DB 197,124,41,245 ; vmovaps %ymm14,%ymm5
- DB 197,252,16,188,36,32,1,0,0 ; vmovups 0x120(%rsp),%ymm7
- DB 72,129,196,88,1,0,0 ; add $0x158,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lab_to_xyz_hsw
-_sk_lab_to_xyz_hsw LABEL PROC
- DB 196,98,125,24,5,206,19,3,0 ; vbroadcastss 0x313ce(%rip),%ymm8 # 34b8c <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- DB 196,98,125,24,13,45,19,3,0 ; vbroadcastss 0x3132d(%rip),%ymm9 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,98,125,24,21,192,19,3,0 ; vbroadcastss 0x313c0(%rip),%ymm10 # 34b90 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
- DB 196,194,53,168,202 ; vfmadd213ps %ymm10,%ymm9,%ymm1
- DB 196,194,53,168,210 ; vfmadd213ps %ymm10,%ymm9,%ymm2
- DB 196,98,125,24,13,177,19,3,0 ; vbroadcastss 0x313b1(%rip),%ymm9 # 34b94 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
- DB 196,66,125,184,200 ; vfmadd231ps %ymm8,%ymm0,%ymm9
- DB 196,226,125,24,5,167,19,3,0 ; vbroadcastss 0x313a7(%rip),%ymm0 # 34b98 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 196,98,125,24,5,158,19,3,0 ; vbroadcastss 0x3139e(%rip),%ymm8 # 34b9c <_sk_srcover_bgra_8888_sse2_lowp+0x384>
- DB 196,98,117,168,192 ; vfmadd213ps %ymm0,%ymm1,%ymm8
- DB 196,98,125,24,13,148,19,3,0 ; vbroadcastss 0x31394(%rip),%ymm9 # 34ba0 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
- DB 196,98,109,172,200 ; vfnmadd213ps %ymm0,%ymm2,%ymm9
- DB 196,193,60,89,200 ; vmulps %ymm8,%ymm8,%ymm1
- DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
- DB 196,226,125,24,21,129,19,3,0 ; vbroadcastss 0x31381(%rip),%ymm2 # 34ba4 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
- DB 197,108,194,209,1 ; vcmpltps %ymm1,%ymm2,%ymm10
- DB 196,98,125,24,29,119,19,3,0 ; vbroadcastss 0x31377(%rip),%ymm11 # 34ba8 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
- DB 196,65,60,88,195 ; vaddps %ymm11,%ymm8,%ymm8
- DB 196,98,125,24,37,109,19,3,0 ; vbroadcastss 0x3136d(%rip),%ymm12 # 34bac <_sk_srcover_bgra_8888_sse2_lowp+0x394>
- DB 196,65,60,89,196 ; vmulps %ymm12,%ymm8,%ymm8
- DB 196,99,61,74,193,160 ; vblendvps %ymm10,%ymm1,%ymm8,%ymm8
- DB 197,252,89,200 ; vmulps %ymm0,%ymm0,%ymm1
- DB 197,252,89,201 ; vmulps %ymm1,%ymm0,%ymm1
- DB 197,108,194,209,1 ; vcmpltps %ymm1,%ymm2,%ymm10
- DB 196,193,124,88,195 ; vaddps %ymm11,%ymm0,%ymm0
- DB 196,193,124,89,196 ; vmulps %ymm12,%ymm0,%ymm0
- DB 196,227,125,74,201,160 ; vblendvps %ymm10,%ymm1,%ymm0,%ymm1
- DB 196,193,52,89,193 ; vmulps %ymm9,%ymm9,%ymm0
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 197,236,194,208,1 ; vcmpltps %ymm0,%ymm2,%ymm2
- DB 196,65,52,88,203 ; vaddps %ymm11,%ymm9,%ymm9
- DB 196,65,52,89,204 ; vmulps %ymm12,%ymm9,%ymm9
- DB 196,227,53,74,208,32 ; vblendvps %ymm2,%ymm0,%ymm9,%ymm2
- DB 196,226,125,24,5,34,19,3,0 ; vbroadcastss 0x31322(%rip),%ymm0 # 34bb0 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,5,25,19,3,0 ; vbroadcastss 0x31319(%rip),%ymm8 # 34bb4 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_a8_hsw
-_sk_load_a8_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,52 ; jne 38ea <_sk_load_a8_hsw+0x46>
- DB 196,194,121,48,4,16 ; vpmovzxbw (%r8,%rdx,1),%xmm0
- DB 197,249,219,5,140,27,3,0 ; vpand 0x31b8c(%rip),%xmm0,%xmm0 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,226,125,51,192 ; vpmovzxwd %xmm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,106,18,3,0 ; vbroadcastss 0x3126a(%rip),%ymm1 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,252,89,217 ; vmulps %ymm1,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,196 ; ja 38bc <_sk_load_a8_hsw+0x18>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,118,0,0,0 ; lea 0x76(%rip),%r9 # 3978 <_sk_load_a8_hsw+0xd4>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 235,166 ; jmp 38bc <_sk_load_a8_hsw+0x18>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,249,196,192,2 ; vpinsrw $0x2,%eax,%xmm0,%xmm0
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,249,110,200 ; vmovd %eax,%xmm1
- DB 196,226,121,48,201 ; vpmovzxbw %xmm1,%xmm1
- DB 196,227,121,2,193,1 ; vpblendd $0x1,%xmm1,%xmm0,%xmm0
- DB 235,129 ; jmp 38bc <_sk_load_a8_hsw+0x18>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,249,196,192,6 ; vpinsrw $0x6,%eax,%xmm0,%xmm0
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 197,249,196,192,5 ; vpinsrw $0x5,%eax,%xmm0,%xmm0
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 197,249,196,192,4 ; vpinsrw $0x4,%eax,%xmm0,%xmm0
- DB 196,193,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm1
- DB 196,226,121,48,201 ; vpmovzxbw %xmm1,%xmm1
- DB 196,227,113,2,192,12 ; vpblendd $0xc,%xmm0,%xmm1,%xmm0
- DB 233,70,255,255,255 ; jmpq 38bc <_sk_load_a8_hsw+0x18>
- DB 102,144 ; xchg %ax,%ax
- DB 147 ; xchg %eax,%ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,173,255,255,255,158 ; ljmp *-0x61000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,255,255,255,221 ; callq ffffffffde003988 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfcf170>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,195 ; inc %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_a8_dst_hsw
-_sk_load_a8_dst_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,52 ; jne 39da <_sk_load_a8_dst_hsw+0x46>
- DB 196,194,121,48,36,16 ; vpmovzxbw (%r8,%rdx,1),%xmm4
- DB 197,217,219,37,156,26,3,0 ; vpand 0x31a9c(%rip),%xmm4,%xmm4 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,226,125,51,228 ; vpmovzxwd %xmm4,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,122,17,3,0 ; vbroadcastss 0x3117a(%rip),%ymm5 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,220,89,253 ; vmulps %ymm5,%ymm4,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,196 ; ja 39ac <_sk_load_a8_dst_hsw+0x18>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,118,0,0,0 ; lea 0x76(%rip),%r9 # 3a68 <_sk_load_a8_dst_hsw+0xd4>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 235,166 ; jmp 39ac <_sk_load_a8_dst_hsw+0x18>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 197,217,196,224,2 ; vpinsrw $0x2,%eax,%xmm4,%xmm4
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,249,110,232 ; vmovd %eax,%xmm5
- DB 196,226,121,48,237 ; vpmovzxbw %xmm5,%xmm5
- DB 196,227,89,2,229,1 ; vpblendd $0x1,%xmm5,%xmm4,%xmm4
- DB 235,129 ; jmp 39ac <_sk_load_a8_dst_hsw+0x18>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 197,217,196,224,6 ; vpinsrw $0x6,%eax,%xmm4,%xmm4
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 197,217,196,224,5 ; vpinsrw $0x5,%eax,%xmm4,%xmm4
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 197,217,196,224,4 ; vpinsrw $0x4,%eax,%xmm4,%xmm4
- DB 196,193,121,110,44,16 ; vmovd (%r8,%rdx,1),%xmm5
- DB 196,226,121,48,237 ; vpmovzxbw %xmm5,%xmm5
- DB 196,227,81,2,228,12 ; vpblendd $0xc,%xmm4,%xmm5,%xmm4
- DB 233,70,255,255,255 ; jmpq 39ac <_sk_load_a8_dst_hsw+0x18>
- DB 102,144 ; xchg %ax,%ax
- DB 147 ; xchg %eax,%ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,173,255,255,255,158 ; ljmp *-0x61000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,255,255,255,221 ; callq ffffffffde003a78 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfcf260>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,195 ; inc %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_a8_hsw
-_sk_gather_a8_hsw LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,88,80,12 ; vpbroadcastd 0xc(%rax),%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 197,252,93,194 ; vminps %ymm2,%ymm0,%ymm0
- DB 196,226,125,88,80,16 ; vpbroadcastd 0x10(%rax),%ymm2
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 197,188,95,201 ; vmaxps %ymm1,%ymm8,%ymm1
- DB 197,244,93,202 ; vminps %ymm2,%ymm1,%ymm1
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,226,125,88,80,8 ; vpbroadcastd 0x8(%rax),%ymm2
- DB 196,226,109,64,201 ; vpmulld %ymm1,%ymm2,%ymm1
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,245,254,192 ; vpaddd %ymm0,%ymm1,%ymm0
- DB 196,227,249,22,192,1 ; vpextrq $0x1,%xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 196,193,249,126,194 ; vmovq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,192,1 ; vextracti128 $0x1,%ymm0,%xmm0
- DB 196,227,249,22,195,1 ; vpextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,193,249,126,199 ; vmovq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 71,15,182,28,24 ; movzbl (%r8,%r11,1),%r11d
- DB 196,193,121,110,195 ; vmovd %r11d,%xmm0
- DB 196,195,121,32,194,1 ; vpinsrb $0x1,%r10d,%xmm0,%xmm0
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,2 ; vpinsrb $0x2,%r9d,%xmm0,%xmm0
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,121,32,192,3 ; vpinsrb $0x3,%eax,%xmm0,%xmm0
- DB 67,15,182,4,32 ; movzbl (%r8,%r12,1),%eax
- DB 196,227,121,32,192,4 ; vpinsrb $0x4,%eax,%xmm0,%xmm0
- DB 67,15,182,4,56 ; movzbl (%r8,%r15,1),%eax
- DB 196,227,121,32,192,5 ; vpinsrb $0x5,%eax,%xmm0,%xmm0
- DB 67,15,182,4,48 ; movzbl (%r8,%r14,1),%eax
- DB 196,227,121,32,192,6 ; vpinsrb $0x6,%eax,%xmm0,%xmm0
- DB 65,15,182,4,24 ; movzbl (%r8,%rbx,1),%eax
- DB 196,227,121,32,192,7 ; vpinsrb $0x7,%eax,%xmm0,%xmm0
- DB 196,226,125,49,192 ; vpmovzxbd %xmm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,203,15,3,0 ; vbroadcastss 0x30fcb(%rip),%ymm1 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,252,89,217 ; vmulps %ymm1,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,237,239,210 ; vpxor %ymm2,%ymm2,%ymm2
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_a8_hsw
-_sk_store_a8_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,98,125,24,13,25,15,3,0 ; vbroadcastss 0x30f19(%rip),%ymm9 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,60,93,193 ; vminps %ymm9,%ymm8,%ymm8
- DB 196,98,125,24,13,55,15,3,0 ; vbroadcastss 0x30f37(%rip),%ymm9 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,66,57,43,193 ; vpackusdw %xmm9,%xmm8,%xmm8
- DB 197,57,103,192 ; vpackuswb %xmm0,%xmm8,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 3be5 <_sk_store_a8_hsw+0x55>
- DB 196,65,121,214,4,16 ; vmovq %xmm8,(%r8,%rdx,1)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,242 ; ja 3be1 <_sk_store_a8_hsw+0x51>
- DB 196,66,121,48,192 ; vpmovzxbw %xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,86,0,0,0 ; lea 0x56(%rip),%r9 # 3c54 <_sk_store_a8_hsw+0xc4>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,67,121,20,4,16,0 ; vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- DB 235,209 ; jmp 3be1 <_sk_store_a8_hsw+0x51>
- DB 196,67,121,20,68,16,2,4 ; vpextrb $0x4,%xmm8,0x2(%r8,%rdx,1)
- DB 196,98,57,0,5,63,24,3,0 ; vpshufb 0x3183f(%rip),%xmm8,%xmm8 # 35460 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
- DB 196,67,121,21,4,16,0 ; vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- DB 235,183 ; jmp 3be1 <_sk_store_a8_hsw+0x51>
- DB 196,67,121,20,68,16,6,12 ; vpextrb $0xc,%xmm8,0x6(%r8,%rdx,1)
- DB 196,67,121,20,68,16,5,10 ; vpextrb $0xa,%xmm8,0x5(%r8,%rdx,1)
- DB 196,67,121,20,68,16,4,8 ; vpextrb $0x8,%xmm8,0x4(%r8,%rdx,1)
- DB 196,98,57,0,5,37,24,3,0 ; vpshufb 0x31825(%rip),%xmm8,%xmm8 # 35470 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
- DB 196,65,121,126,4,16 ; vmovd %xmm8,(%r8,%rdx,1)
- DB 235,142 ; jmp 3be1 <_sk_store_a8_hsw+0x51>
- DB 144 ; nop
- DB 179,255 ; mov $0xff,%bl
- DB 255 ; (bad)
- DB 255,196 ; inc %esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 188,255,255,255,238 ; mov $0xeeffffff,%esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,230 ; jmpq *%rsi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 222,255 ; fdivrp %st,%st(7)
- DB 255 ; (bad)
- DB 255,214 ; callq *%rsi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_g8_hsw
-_sk_load_g8_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,57 ; jne 3cbb <_sk_load_g8_hsw+0x4b>
- DB 196,194,121,48,4,16 ; vpmovzxbw (%r8,%rdx,1),%xmm0
- DB 197,249,219,5,192,23,3,0 ; vpand 0x317c0(%rip),%xmm0,%xmm0 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,226,125,51,192 ; vpmovzxwd %xmm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,158,14,3,0 ; vbroadcastss 0x30e9e(%rip),%ymm1 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,23,14,3,0 ; vbroadcastss 0x30e17(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,191 ; ja 3c88 <_sk_load_g8_hsw+0x18>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,121,0,0,0 ; lea 0x79(%rip),%r9 # 3d4c <_sk_load_g8_hsw+0xdc>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 235,161 ; jmp 3c88 <_sk_load_g8_hsw+0x18>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,249,196,192,2 ; vpinsrw $0x2,%eax,%xmm0,%xmm0
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,249,110,200 ; vmovd %eax,%xmm1
- DB 196,226,121,48,201 ; vpmovzxbw %xmm1,%xmm1
- DB 196,227,121,2,193,1 ; vpblendd $0x1,%xmm1,%xmm0,%xmm0
- DB 233,121,255,255,255 ; jmpq 3c88 <_sk_load_g8_hsw+0x18>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,249,196,192,6 ; vpinsrw $0x6,%eax,%xmm0,%xmm0
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 197,249,196,192,5 ; vpinsrw $0x5,%eax,%xmm0,%xmm0
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 197,249,196,192,4 ; vpinsrw $0x4,%eax,%xmm0,%xmm0
- DB 196,193,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm1
- DB 196,226,121,48,201 ; vpmovzxbw %xmm1,%xmm1
- DB 196,227,113,2,192,12 ; vpblendd $0xc,%xmm0,%xmm1,%xmm0
- DB 233,62,255,255,255 ; jmpq 3c88 <_sk_load_g8_hsw+0x18>
- DB 102,144 ; xchg %ax,%ax
- DB 144 ; nop
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,170,255,255,255,155 ; ljmp *-0x64000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,255,255,255,221 ; callq ffffffffde003d5c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfcf544>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,195 ; inc %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_g8_dst_hsw
-_sk_load_g8_dst_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,57 ; jne 3db3 <_sk_load_g8_dst_hsw+0x4b>
- DB 196,194,121,48,36,16 ; vpmovzxbw (%r8,%rdx,1),%xmm4
- DB 197,217,219,37,200,22,3,0 ; vpand 0x316c8(%rip),%xmm4,%xmm4 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,226,125,51,228 ; vpmovzxwd %xmm4,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,166,13,3,0 ; vbroadcastss 0x30da6(%rip),%ymm5 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,220,89,229 ; vmulps %ymm5,%ymm4,%ymm4
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,61,31,13,3,0 ; vbroadcastss 0x30d1f(%rip),%ymm7 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,40,236 ; vmovaps %ymm4,%ymm5
- DB 197,252,40,244 ; vmovaps %ymm4,%ymm6
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,191 ; ja 3d80 <_sk_load_g8_dst_hsw+0x18>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,121,0,0,0 ; lea 0x79(%rip),%r9 # 3e44 <_sk_load_g8_dst_hsw+0xdc>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 235,161 ; jmp 3d80 <_sk_load_g8_dst_hsw+0x18>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 197,217,196,224,2 ; vpinsrw $0x2,%eax,%xmm4,%xmm4
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,249,110,232 ; vmovd %eax,%xmm5
- DB 196,226,121,48,237 ; vpmovzxbw %xmm5,%xmm5
- DB 196,227,89,2,229,1 ; vpblendd $0x1,%xmm5,%xmm4,%xmm4
- DB 233,121,255,255,255 ; jmpq 3d80 <_sk_load_g8_dst_hsw+0x18>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 197,217,196,224,6 ; vpinsrw $0x6,%eax,%xmm4,%xmm4
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 197,217,196,224,5 ; vpinsrw $0x5,%eax,%xmm4,%xmm4
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 197,217,196,224,4 ; vpinsrw $0x4,%eax,%xmm4,%xmm4
- DB 196,193,121,110,44,16 ; vmovd (%r8,%rdx,1),%xmm5
- DB 196,226,121,48,237 ; vpmovzxbw %xmm5,%xmm5
- DB 196,227,81,2,228,12 ; vpblendd $0xc,%xmm4,%xmm5,%xmm4
- DB 233,62,255,255,255 ; jmpq 3d80 <_sk_load_g8_dst_hsw+0x18>
- DB 102,144 ; xchg %ax,%ax
- DB 144 ; nop
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,170,255,255,255,155 ; ljmp *-0x64000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,255,255,255,221 ; callq ffffffffde003e54 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfcf63c>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,195 ; inc %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_g8_hsw
-_sk_gather_g8_hsw LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,88,80,12 ; vpbroadcastd 0xc(%rax),%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 197,252,93,194 ; vminps %ymm2,%ymm0,%ymm0
- DB 196,226,125,88,80,16 ; vpbroadcastd 0x10(%rax),%ymm2
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 197,188,95,201 ; vmaxps %ymm1,%ymm8,%ymm1
- DB 197,244,93,202 ; vminps %ymm2,%ymm1,%ymm1
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,226,125,88,80,8 ; vpbroadcastd 0x8(%rax),%ymm2
- DB 196,226,109,64,201 ; vpmulld %ymm1,%ymm2,%ymm1
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,245,254,192 ; vpaddd %ymm0,%ymm1,%ymm0
- DB 196,227,249,22,192,1 ; vpextrq $0x1,%xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 196,193,249,126,194 ; vmovq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,192,1 ; vextracti128 $0x1,%ymm0,%xmm0
- DB 196,227,249,22,195,1 ; vpextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,193,249,126,199 ; vmovq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 71,15,182,28,24 ; movzbl (%r8,%r11,1),%r11d
- DB 196,193,121,110,195 ; vmovd %r11d,%xmm0
- DB 196,195,121,32,194,1 ; vpinsrb $0x1,%r10d,%xmm0,%xmm0
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,2 ; vpinsrb $0x2,%r9d,%xmm0,%xmm0
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,121,32,192,3 ; vpinsrb $0x3,%eax,%xmm0,%xmm0
- DB 67,15,182,4,32 ; movzbl (%r8,%r12,1),%eax
- DB 196,227,121,32,192,4 ; vpinsrb $0x4,%eax,%xmm0,%xmm0
- DB 67,15,182,4,56 ; movzbl (%r8,%r15,1),%eax
- DB 196,227,121,32,192,5 ; vpinsrb $0x5,%eax,%xmm0,%xmm0
- DB 67,15,182,4,48 ; movzbl (%r8,%r14,1),%eax
- DB 196,227,121,32,192,6 ; vpinsrb $0x6,%eax,%xmm0,%xmm0
- DB 65,15,182,4,24 ; movzbl (%r8,%rbx,1),%eax
- DB 196,227,121,32,192,7 ; vpinsrb $0x7,%eax,%xmm0,%xmm0
- DB 196,226,125,49,192 ; vpmovzxbd %xmm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,239,11,3,0 ; vbroadcastss 0x30bef(%rip),%ymm1 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,104,11,3,0 ; vbroadcastss 0x30b68(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_565_hsw
-_sk_load_565_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,114 ; jne 3ff8 <_sk_load_565_hsw+0x87>
- DB 196,193,122,111,4,80 ; vmovdqu (%r8,%rdx,2),%xmm0
- DB 196,226,125,51,208 ; vpmovzxwd %xmm0,%ymm2
- DB 196,226,125,88,5,170,11,3,0 ; vpbroadcastd 0x30baa(%rip),%ymm0 # 34b44 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- DB 197,237,219,192 ; vpand %ymm0,%ymm2,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,157,11,3,0 ; vbroadcastss 0x30b9d(%rip),%ymm1 # 34b48 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,88,13,148,11,3,0 ; vpbroadcastd 0x30b94(%rip),%ymm1 # 34b4c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- DB 197,237,219,201 ; vpand %ymm1,%ymm2,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,29,135,11,3,0 ; vbroadcastss 0x30b87(%rip),%ymm3 # 34b50 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
- DB 196,226,125,88,29,126,11,3,0 ; vpbroadcastd 0x30b7e(%rip),%ymm3 # 34b54 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- DB 197,237,219,211 ; vpand %ymm3,%ymm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,226,125,24,29,113,11,3,0 ; vbroadcastss 0x30b71(%rip),%ymm3 # 34b58 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- DB 197,236,89,211 ; vmulps %ymm3,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,210,10,3,0 ; vbroadcastss 0x30ad2(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,134 ; ja 3f8c <_sk_load_565_hsw+0x1b>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,100,0,0,0 ; lea 0x64(%rip),%r9 # 4074 <_sk_load_565_hsw+0x103>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 233,101,255,255,255 ; jmpq 3f8c <_sk_load_565_hsw+0x1b>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,68,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,121,110,12,80 ; vmovd (%r8,%rdx,2),%xmm1
- DB 196,227,121,2,193,1 ; vpblendd $0x1,%xmm1,%xmm0,%xmm0
- DB 233,72,255,255,255 ; jmpq 3f8c <_sk_load_565_hsw+0x1b>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,68,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,121,196,68,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,121,196,68,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,122,126,12,80 ; vmovq (%r8,%rdx,2),%xmm1
- DB 196,227,113,2,192,12 ; vpblendd $0xc,%xmm0,%xmm1,%xmm0
- DB 233,27,255,255,255 ; jmpq 3f8c <_sk_load_565_hsw+0x1b>
- DB 15,31,0 ; nopl (%rax)
- DB 165 ; movsl %ds:(%rsi),%es:(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 191,255,255,255,179 ; mov $0xb3ffffff,%edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 236 ; in (%dx),%al
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,228 ; jmpq *%rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255,208 ; callq *%rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_565_dst_hsw
-_sk_load_565_dst_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,114 ; jne 4117 <_sk_load_565_dst_hsw+0x87>
- DB 196,193,122,111,36,80 ; vmovdqu (%r8,%rdx,2),%xmm4
- DB 196,226,125,51,244 ; vpmovzxwd %xmm4,%ymm6
- DB 196,226,125,88,37,139,10,3,0 ; vpbroadcastd 0x30a8b(%rip),%ymm4 # 34b44 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- DB 197,205,219,228 ; vpand %ymm4,%ymm6,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,126,10,3,0 ; vbroadcastss 0x30a7e(%rip),%ymm5 # 34b48 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- DB 197,220,89,229 ; vmulps %ymm5,%ymm4,%ymm4
- DB 196,226,125,88,45,117,10,3,0 ; vpbroadcastd 0x30a75(%rip),%ymm5 # 34b4c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- DB 197,205,219,237 ; vpand %ymm5,%ymm6,%ymm5
- DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,226,125,24,61,104,10,3,0 ; vbroadcastss 0x30a68(%rip),%ymm7 # 34b50 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- DB 197,212,89,239 ; vmulps %ymm7,%ymm5,%ymm5
- DB 196,226,125,88,61,95,10,3,0 ; vpbroadcastd 0x30a5f(%rip),%ymm7 # 34b54 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- DB 197,205,219,247 ; vpand %ymm7,%ymm6,%ymm6
- DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 196,226,125,24,61,82,10,3,0 ; vbroadcastss 0x30a52(%rip),%ymm7 # 34b58 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- DB 197,204,89,247 ; vmulps %ymm7,%ymm6,%ymm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,61,179,9,3,0 ; vbroadcastss 0x309b3(%rip),%ymm7 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,134 ; ja 40ab <_sk_load_565_dst_hsw+0x1b>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,97,0,0,0 ; lea 0x61(%rip),%r9 # 4190 <_sk_load_565_dst_hsw+0x100>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 233,101,255,255,255 ; jmpq 40ab <_sk_load_565_dst_hsw+0x1b>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,100,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,121,110,44,80 ; vmovd (%r8,%rdx,2),%xmm5
- DB 196,227,89,2,229,1 ; vpblendd $0x1,%xmm5,%xmm4,%xmm4
- DB 233,72,255,255,255 ; jmpq 40ab <_sk_load_565_dst_hsw+0x1b>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,100,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,89,196,100,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,89,196,100,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,122,126,44,80 ; vmovq (%r8,%rdx,2),%xmm5
- DB 196,227,81,2,228,12 ; vpblendd $0xc,%xmm4,%xmm5,%xmm4
- DB 233,27,255,255,255 ; jmpq 40ab <_sk_load_565_dst_hsw+0x1b>
- DB 168,255 ; test $0xff,%al
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,182,255,255,255,239 ; pushq -0x10000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 223,255 ; (bad)
- DB 255 ; (bad)
- DB 255,211 ; callq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_565_hsw
-_sk_gather_565_hsw LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,88,80,12 ; vpbroadcastd 0xc(%rax),%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 197,252,93,194 ; vminps %ymm2,%ymm0,%ymm0
- DB 196,226,125,88,80,16 ; vpbroadcastd 0x10(%rax),%ymm2
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 197,188,95,201 ; vmaxps %ymm1,%ymm8,%ymm1
- DB 197,244,93,202 ; vminps %ymm2,%ymm1,%ymm1
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,226,125,88,80,8 ; vpbroadcastd 0x8(%rax),%ymm2
- DB 196,226,109,64,201 ; vpmulld %ymm1,%ymm2,%ymm1
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,245,254,192 ; vpaddd %ymm0,%ymm1,%ymm0
- DB 196,227,249,22,192,1 ; vpextrq $0x1,%xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 196,193,249,126,194 ; vmovq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,192,1 ; vextracti128 $0x1,%ymm0,%xmm0
- DB 196,227,249,22,195,1 ; vpextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,193,249,126,199 ; vmovq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 71,15,183,20,80 ; movzwl (%r8,%r10,2),%r10d
- DB 71,15,183,28,88 ; movzwl (%r8,%r11,2),%r11d
- DB 196,193,121,110,195 ; vmovd %r11d,%xmm0
- DB 196,193,121,196,194,1 ; vpinsrw $0x1,%r10d,%xmm0,%xmm0
- DB 71,15,183,12,72 ; movzwl (%r8,%r9,2),%r9d
- DB 196,193,121,196,193,2 ; vpinsrw $0x2,%r9d,%xmm0,%xmm0
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,249,196,192,3 ; vpinsrw $0x3,%eax,%xmm0,%xmm0
- DB 67,15,183,4,96 ; movzwl (%r8,%r12,2),%eax
- DB 197,249,196,192,4 ; vpinsrw $0x4,%eax,%xmm0,%xmm0
- DB 67,15,183,4,120 ; movzwl (%r8,%r15,2),%eax
- DB 197,249,196,192,5 ; vpinsrw $0x5,%eax,%xmm0,%xmm0
- DB 67,15,183,4,112 ; movzwl (%r8,%r14,2),%eax
- DB 197,249,196,192,6 ; vpinsrw $0x6,%eax,%xmm0,%xmm0
- DB 65,15,183,4,88 ; movzwl (%r8,%rbx,2),%eax
- DB 197,249,196,192,7 ; vpinsrw $0x7,%eax,%xmm0,%xmm0
- DB 196,226,125,51,208 ; vpmovzxwd %xmm0,%ymm2
- DB 196,226,125,88,5,176,8,3,0 ; vpbroadcastd 0x308b0(%rip),%ymm0 # 34b44 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- DB 197,237,219,192 ; vpand %ymm0,%ymm2,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,163,8,3,0 ; vbroadcastss 0x308a3(%rip),%ymm1 # 34b48 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,88,13,154,8,3,0 ; vpbroadcastd 0x3089a(%rip),%ymm1 # 34b4c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- DB 197,237,219,201 ; vpand %ymm1,%ymm2,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,29,141,8,3,0 ; vbroadcastss 0x3088d(%rip),%ymm3 # 34b50 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
- DB 196,226,125,88,29,132,8,3,0 ; vpbroadcastd 0x30884(%rip),%ymm3 # 34b54 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- DB 197,237,219,211 ; vpand %ymm3,%ymm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,226,125,24,29,119,8,3,0 ; vbroadcastss 0x30877(%rip),%ymm3 # 34b58 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- DB 197,236,89,211 ; vmulps %ymm3,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,216,7,3,0 ; vbroadcastss 0x307d8(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_565_hsw
-_sk_store_565_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,200 ; vmaxps %ymm0,%ymm8,%ymm9
- DB 196,98,125,24,21,173,7,3,0 ; vbroadcastss 0x307ad(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,52,93,202 ; vminps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,29,143,8,3,0 ; vbroadcastss 0x3088f(%rip),%ymm11 # 34bb8 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
- DB 196,65,52,89,203 ; vmulps %ymm11,%ymm9,%ymm9
- DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
- DB 196,193,53,114,241,11 ; vpslld $0xb,%ymm9,%ymm9
- DB 197,60,95,225 ; vmaxps %ymm1,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,98,125,24,45,113,8,3,0 ; vbroadcastss 0x30871(%rip),%ymm13 # 34bbc <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
- DB 196,65,28,89,229 ; vmulps %ymm13,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,29,114,244,5 ; vpslld $0x5,%ymm12,%ymm12
- DB 196,65,29,235,201 ; vpor %ymm9,%ymm12,%ymm9
- DB 197,60,95,194 ; vmaxps %ymm2,%ymm8,%ymm8
- DB 196,65,60,93,194 ; vminps %ymm10,%ymm8,%ymm8
- DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,65,53,235,192 ; vpor %ymm8,%ymm9,%ymm8
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,66,57,43,193 ; vpackusdw %xmm9,%xmm8,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 4392 <_sk_store_565_hsw+0x99>
- DB 196,65,122,127,4,80 ; vmovdqu %xmm8,(%r8,%rdx,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,242 ; ja 438e <_sk_store_565_hsw+0x95>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,66,0,0,0 ; lea 0x42(%rip),%r9 # 43e8 <_sk_store_565_hsw+0xef>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,67,121,21,4,80,0 ; vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- DB 235,214 ; jmp 438e <_sk_store_565_hsw+0x95>
- DB 196,67,121,21,68,80,4,2 ; vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- DB 196,65,121,126,4,80 ; vmovd %xmm8,(%r8,%rdx,2)
- DB 235,198 ; jmp 438e <_sk_store_565_hsw+0x95>
- DB 196,67,121,21,68,80,12,6 ; vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- DB 196,67,121,21,68,80,10,5 ; vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- DB 196,67,121,21,68,80,8,4 ; vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- DB 196,65,121,214,4,80 ; vmovq %xmm8,(%r8,%rdx,2)
- DB 235,166 ; jmp 438e <_sk_store_565_hsw+0x95>
- DB 199 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 216,255 ; fdivr %st(7),%st
- DB 255 ; (bad)
- DB 255,208 ; callq *%rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 248 ; clc
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,240 ; push %rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,255,255,255,224 ; callq ffffffffe1004400 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fcfbe8>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_4444_hsw
-_sk_load_4444_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,138,0,0,0 ; jne 44a7 <_sk_load_4444_hsw+0xa3>
- DB 196,193,122,111,4,80 ; vmovdqu (%r8,%rdx,2),%xmm0
- DB 196,226,125,51,216 ; vpmovzxwd %xmm0,%ymm3
- DB 196,226,125,88,5,143,7,3,0 ; vpbroadcastd 0x3078f(%rip),%ymm0 # 34bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- DB 197,229,219,192 ; vpand %ymm0,%ymm3,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,130,7,3,0 ; vbroadcastss 0x30782(%rip),%ymm1 # 34bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,88,13,121,7,3,0 ; vpbroadcastd 0x30779(%rip),%ymm1 # 34bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- DB 197,229,219,201 ; vpand %ymm1,%ymm3,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,21,108,7,3,0 ; vbroadcastss 0x3076c(%rip),%ymm2 # 34bcc <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- DB 197,244,89,202 ; vmulps %ymm2,%ymm1,%ymm1
- DB 196,226,125,88,21,99,7,3,0 ; vpbroadcastd 0x30763(%rip),%ymm2 # 34bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- DB 197,229,219,210 ; vpand %ymm2,%ymm3,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,98,125,24,5,86,7,3,0 ; vbroadcastss 0x30756(%rip),%ymm8 # 34bd4 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 196,98,125,88,5,76,7,3,0 ; vpbroadcastd 0x3074c(%rip),%ymm8 # 34bd8 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- DB 196,193,101,219,216 ; vpand %ymm8,%ymm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,62,7,3,0 ; vbroadcastss 0x3073e(%rip),%ymm8 # 34bdc <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,106,255,255,255 ; ja 4423 <_sk_load_4444_hsw+0x1f>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,97,0,0,0 ; lea 0x61(%rip),%r9 # 4524 <_sk_load_4444_hsw+0x120>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 233,73,255,255,255 ; jmpq 4423 <_sk_load_4444_hsw+0x1f>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,68,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,121,110,12,80 ; vmovd (%r8,%rdx,2),%xmm1
- DB 196,227,121,2,193,1 ; vpblendd $0x1,%xmm1,%xmm0,%xmm0
- DB 233,44,255,255,255 ; jmpq 4423 <_sk_load_4444_hsw+0x1f>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,68,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,121,196,68,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,121,196,68,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,122,126,12,80 ; vmovq (%r8,%rdx,2),%xmm1
- DB 196,227,113,2,192,12 ; vpblendd $0xc,%xmm0,%xmm1,%xmm0
- DB 233,255,254,255,255 ; jmpq 4423 <_sk_load_4444_hsw+0x1f>
- DB 168,255 ; test $0xff,%al
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,182,255,255,255,239 ; pushq -0x10000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 223,255 ; (bad)
- DB 255 ; (bad)
- DB 255,211 ; callq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_4444_dst_hsw
-_sk_load_4444_dst_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,138,0,0,0 ; jne 45e3 <_sk_load_4444_dst_hsw+0xa3>
- DB 196,193,122,111,36,80 ; vmovdqu (%r8,%rdx,2),%xmm4
- DB 196,226,125,51,252 ; vpmovzxwd %xmm4,%ymm7
- DB 196,226,125,88,37,83,6,3,0 ; vpbroadcastd 0x30653(%rip),%ymm4 # 34bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- DB 197,197,219,228 ; vpand %ymm4,%ymm7,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,70,6,3,0 ; vbroadcastss 0x30646(%rip),%ymm5 # 34bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- DB 197,220,89,229 ; vmulps %ymm5,%ymm4,%ymm4
- DB 196,226,125,88,45,61,6,3,0 ; vpbroadcastd 0x3063d(%rip),%ymm5 # 34bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- DB 197,197,219,237 ; vpand %ymm5,%ymm7,%ymm5
- DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,226,125,24,53,48,6,3,0 ; vbroadcastss 0x30630(%rip),%ymm6 # 34bcc <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- DB 197,212,89,238 ; vmulps %ymm6,%ymm5,%ymm5
- DB 196,226,125,88,53,39,6,3,0 ; vpbroadcastd 0x30627(%rip),%ymm6 # 34bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- DB 197,197,219,246 ; vpand %ymm6,%ymm7,%ymm6
- DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 196,98,125,24,5,26,6,3,0 ; vbroadcastss 0x3061a(%rip),%ymm8 # 34bd4 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- DB 196,193,76,89,240 ; vmulps %ymm8,%ymm6,%ymm6
- DB 196,98,125,88,5,16,6,3,0 ; vpbroadcastd 0x30610(%rip),%ymm8 # 34bd8 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- DB 196,193,69,219,248 ; vpand %ymm8,%ymm7,%ymm7
- DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,98,125,24,5,2,6,3,0 ; vbroadcastss 0x30602(%rip),%ymm8 # 34bdc <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- DB 196,193,68,89,248 ; vmulps %ymm8,%ymm7,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,106,255,255,255 ; ja 455f <_sk_load_4444_dst_hsw+0x1f>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,97,0,0,0 ; lea 0x61(%rip),%r9 # 4660 <_sk_load_4444_dst_hsw+0x120>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 233,73,255,255,255 ; jmpq 455f <_sk_load_4444_dst_hsw+0x1f>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,100,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,121,110,44,80 ; vmovd (%r8,%rdx,2),%xmm5
- DB 196,227,89,2,229,1 ; vpblendd $0x1,%xmm5,%xmm4,%xmm4
- DB 233,44,255,255,255 ; jmpq 455f <_sk_load_4444_dst_hsw+0x1f>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,100,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,89,196,100,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,89,196,100,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,122,126,44,80 ; vmovq (%r8,%rdx,2),%xmm5
- DB 196,227,81,2,228,12 ; vpblendd $0xc,%xmm4,%xmm5,%xmm4
- DB 233,255,254,255,255 ; jmpq 455f <_sk_load_4444_dst_hsw+0x1f>
- DB 168,255 ; test $0xff,%al
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,182,255,255,255,239 ; pushq -0x10000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 223,255 ; (bad)
- DB 255 ; (bad)
- DB 255,211 ; callq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_4444_hsw
-_sk_gather_4444_hsw LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,88,80,12 ; vpbroadcastd 0xc(%rax),%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 197,252,93,194 ; vminps %ymm2,%ymm0,%ymm0
- DB 196,226,125,88,80,16 ; vpbroadcastd 0x10(%rax),%ymm2
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 197,188,95,201 ; vmaxps %ymm1,%ymm8,%ymm1
- DB 197,244,93,202 ; vminps %ymm2,%ymm1,%ymm1
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,226,125,88,80,8 ; vpbroadcastd 0x8(%rax),%ymm2
- DB 196,226,109,64,201 ; vpmulld %ymm1,%ymm2,%ymm1
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,245,254,192 ; vpaddd %ymm0,%ymm1,%ymm0
- DB 196,227,249,22,192,1 ; vpextrq $0x1,%xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 196,193,249,126,194 ; vmovq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,192,1 ; vextracti128 $0x1,%ymm0,%xmm0
- DB 196,227,249,22,195,1 ; vpextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,193,249,126,199 ; vmovq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 71,15,183,20,80 ; movzwl (%r8,%r10,2),%r10d
- DB 71,15,183,28,88 ; movzwl (%r8,%r11,2),%r11d
- DB 196,193,121,110,195 ; vmovd %r11d,%xmm0
- DB 196,193,121,196,194,1 ; vpinsrw $0x1,%r10d,%xmm0,%xmm0
- DB 71,15,183,12,72 ; movzwl (%r8,%r9,2),%r9d
- DB 196,193,121,196,193,2 ; vpinsrw $0x2,%r9d,%xmm0,%xmm0
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,249,196,192,3 ; vpinsrw $0x3,%eax,%xmm0,%xmm0
- DB 67,15,183,4,96 ; movzwl (%r8,%r12,2),%eax
- DB 197,249,196,192,4 ; vpinsrw $0x4,%eax,%xmm0,%xmm0
- DB 67,15,183,4,120 ; movzwl (%r8,%r15,2),%eax
- DB 197,249,196,192,5 ; vpinsrw $0x5,%eax,%xmm0,%xmm0
- DB 67,15,183,4,112 ; movzwl (%r8,%r14,2),%eax
- DB 197,249,196,192,6 ; vpinsrw $0x6,%eax,%xmm0,%xmm0
- DB 65,15,183,4,88 ; movzwl (%r8,%rbx,2),%eax
- DB 197,249,196,192,7 ; vpinsrw $0x7,%eax,%xmm0,%xmm0
- DB 196,226,125,51,216 ; vpmovzxwd %xmm0,%ymm3
- DB 196,226,125,88,5,92,4,3,0 ; vpbroadcastd 0x3045c(%rip),%ymm0 # 34bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- DB 197,229,219,192 ; vpand %ymm0,%ymm3,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,79,4,3,0 ; vbroadcastss 0x3044f(%rip),%ymm1 # 34bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,88,13,70,4,3,0 ; vpbroadcastd 0x30446(%rip),%ymm1 # 34bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- DB 197,229,219,201 ; vpand %ymm1,%ymm3,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,21,57,4,3,0 ; vbroadcastss 0x30439(%rip),%ymm2 # 34bcc <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- DB 197,244,89,202 ; vmulps %ymm2,%ymm1,%ymm1
- DB 196,226,125,88,21,48,4,3,0 ; vpbroadcastd 0x30430(%rip),%ymm2 # 34bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- DB 197,229,219,210 ; vpand %ymm2,%ymm3,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,98,125,24,5,35,4,3,0 ; vbroadcastss 0x30423(%rip),%ymm8 # 34bd4 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 196,98,125,88,5,25,4,3,0 ; vpbroadcastd 0x30419(%rip),%ymm8 # 34bd8 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- DB 196,193,101,219,216 ; vpand %ymm8,%ymm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,11,4,3,0 ; vbroadcastss 0x3040b(%rip),%ymm8 # 34bdc <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_4444_hsw
-_sk_store_4444_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,200 ; vmaxps %ymm0,%ymm8,%ymm9
- DB 196,98,125,24,21,197,2,3,0 ; vbroadcastss 0x302c5(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,52,93,202 ; vminps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,29,207,3,3,0 ; vbroadcastss 0x303cf(%rip),%ymm11 # 34be0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
- DB 196,65,52,89,203 ; vmulps %ymm11,%ymm9,%ymm9
- DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
- DB 196,193,53,114,241,12 ; vpslld $0xc,%ymm9,%ymm9
- DB 197,60,95,225 ; vmaxps %ymm1,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,29,114,244,8 ; vpslld $0x8,%ymm12,%ymm12
- DB 196,65,29,235,201 ; vpor %ymm9,%ymm12,%ymm9
- DB 197,60,95,226 ; vmaxps %ymm2,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,29,114,244,4 ; vpslld $0x4,%ymm12,%ymm12
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,65,60,93,194 ; vminps %ymm10,%ymm8,%ymm8
- DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,65,29,235,192 ; vpor %ymm8,%ymm12,%ymm8
- DB 196,65,53,235,192 ; vpor %ymm8,%ymm9,%ymm8
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,66,57,43,193 ; vpackusdw %xmm9,%xmm8,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 488f <_sk_store_4444_hsw+0xae>
- DB 196,65,122,127,4,80 ; vmovdqu %xmm8,(%r8,%rdx,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,242 ; ja 488b <_sk_store_4444_hsw+0xaa>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,69,0,0,0 ; lea 0x45(%rip),%r9 # 48e8 <_sk_store_4444_hsw+0x107>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,67,121,21,4,80,0 ; vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- DB 235,214 ; jmp 488b <_sk_store_4444_hsw+0xaa>
- DB 196,67,121,21,68,80,4,2 ; vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- DB 196,65,121,126,4,80 ; vmovd %xmm8,(%r8,%rdx,2)
- DB 235,198 ; jmp 488b <_sk_store_4444_hsw+0xaa>
- DB 196,67,121,21,68,80,12,6 ; vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- DB 196,67,121,21,68,80,10,5 ; vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- DB 196,67,121,21,68,80,8,4 ; vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- DB 196,65,121,214,4,80 ; vmovq %xmm8,(%r8,%rdx,2)
- DB 235,166 ; jmp 488b <_sk_store_4444_hsw+0xaa>
- DB 15,31,0 ; nopl (%rax)
- DB 196 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,205 ; dec %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,245 ; push %rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 237 ; in (%dx),%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 221,255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_8888_hsw
-_sk_load_8888_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,86 ; jne 4970 <_sk_load_8888_hsw+0x6c>
- DB 196,193,126,111,28,144 ; vmovdqu (%r8,%rdx,4),%ymm3
- DB 197,229,219,5,152,4,3,0 ; vpand 0x30498(%rip),%ymm3,%ymm0 # 34dc0 <_sk_srcover_bgra_8888_sse2_lowp+0x5a8>
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,5,11,2,3,0 ; vbroadcastss 0x3020b(%rip),%ymm8 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 196,226,101,0,13,157,4,3,0 ; vpshufb 0x3049d(%rip),%ymm3,%ymm1 # 34de0 <_sk_srcover_bgra_8888_sse2_lowp+0x5c8>
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 196,226,101,0,21,171,4,3,0 ; vpshufb 0x304ab(%rip),%ymm3,%ymm2 # 34e00 <_sk_srcover_bgra_8888_sse2_lowp+0x5e8>
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 197,229,114,211,24 ; vpsrld $0x18,%ymm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,162 ; ja 4920 <_sk_load_8888_hsw+0x1c>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,136,0,0,0 ; lea 0x88(%rip),%r9 # 4a10 <_sk_load_8888_hsw+0x10c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,110,28,144 ; vmovd (%r8,%rdx,4),%xmm3
- DB 235,135 ; jmp 4920 <_sk_load_8888_hsw+0x1c>
- DB 196,193,121,110,68,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm0
- DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,216,4 ; vpblendd $0x4,%ymm0,%ymm1,%ymm3
- DB 196,193,122,126,4,144 ; vmovq (%r8,%rdx,4),%xmm0
- DB 196,227,101,2,216,3 ; vpblendd $0x3,%ymm0,%ymm3,%ymm3
- DB 233,96,255,255,255 ; jmpq 4920 <_sk_load_8888_hsw+0x1c>
- DB 196,193,121,110,68,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm0
- DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,216,64 ; vpblendd $0x40,%ymm0,%ymm1,%ymm3
- DB 196,227,125,57,216,1 ; vextracti128 $0x1,%ymm3,%xmm0
- DB 196,195,121,34,68,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,227,101,56,216,1 ; vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- DB 196,227,125,57,216,1 ; vextracti128 $0x1,%ymm3,%xmm0
- DB 196,195,121,34,68,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,227,101,56,216,1 ; vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- DB 196,193,122,111,4,144 ; vmovdqu (%r8,%rdx,4),%xmm0
- DB 196,227,125,2,219,240 ; vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- DB 233,17,255,255,255 ; jmpq 4920 <_sk_load_8888_hsw+0x1c>
- DB 144 ; nop
- DB 129,255,255,255,159,255 ; cmp $0xff9fffff,%edi
- DB 255 ; (bad)
- DB 255,137,255,255,255,238 ; decl -0x11000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 218,255 ; (bad)
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 176,255 ; mov $0xff,%al
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_8888_dst_hsw
-_sk_load_8888_dst_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,86 ; jne 4a98 <_sk_load_8888_dst_hsw+0x6c>
- DB 196,193,126,111,60,144 ; vmovdqu (%r8,%rdx,4),%ymm7
- DB 197,197,219,37,208,3,3,0 ; vpand 0x303d0(%rip),%ymm7,%ymm4 # 34e20 <_sk_srcover_bgra_8888_sse2_lowp+0x608>
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,98,125,24,5,227,0,3,0 ; vbroadcastss 0x300e3(%rip),%ymm8 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,92,89,224 ; vmulps %ymm8,%ymm4,%ymm4
- DB 196,226,69,0,45,213,3,3,0 ; vpshufb 0x303d5(%rip),%ymm7,%ymm5 # 34e40 <_sk_srcover_bgra_8888_sse2_lowp+0x628>
- DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,193,84,89,232 ; vmulps %ymm8,%ymm5,%ymm5
- DB 196,226,69,0,53,227,3,3,0 ; vpshufb 0x303e3(%rip),%ymm7,%ymm6 # 34e60 <_sk_srcover_bgra_8888_sse2_lowp+0x648>
- DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 196,193,76,89,240 ; vmulps %ymm8,%ymm6,%ymm6
- DB 197,197,114,215,24 ; vpsrld $0x18,%ymm7,%ymm7
- DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,193,68,89,248 ; vmulps %ymm8,%ymm7,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,162 ; ja 4a48 <_sk_load_8888_dst_hsw+0x1c>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,136,0,0,0 ; lea 0x88(%rip),%r9 # 4b38 <_sk_load_8888_dst_hsw+0x10c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,110,60,144 ; vmovd (%r8,%rdx,4),%xmm7
- DB 235,135 ; jmp 4a48 <_sk_load_8888_dst_hsw+0x1c>
- DB 196,193,121,110,100,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm4
- DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,252,4 ; vpblendd $0x4,%ymm4,%ymm5,%ymm7
- DB 196,193,122,126,36,144 ; vmovq (%r8,%rdx,4),%xmm4
- DB 196,227,69,2,252,3 ; vpblendd $0x3,%ymm4,%ymm7,%ymm7
- DB 233,96,255,255,255 ; jmpq 4a48 <_sk_load_8888_dst_hsw+0x1c>
- DB 196,193,121,110,100,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm4
- DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,252,64 ; vpblendd $0x40,%ymm4,%ymm5,%ymm7
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,195,89,34,100,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,227,69,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,195,89,34,100,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,227,69,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- DB 196,193,122,111,36,144 ; vmovdqu (%r8,%rdx,4),%xmm4
- DB 196,227,93,2,255,240 ; vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- DB 233,17,255,255,255 ; jmpq 4a48 <_sk_load_8888_dst_hsw+0x1c>
- DB 144 ; nop
- DB 129,255,255,255,159,255 ; cmp $0xff9fffff,%edi
- DB 255 ; (bad)
- DB 255,137,255,255,255,238 ; decl -0x11000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 218,255 ; (bad)
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 176,255 ; mov $0xff,%al
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_8888_hsw
-_sk_gather_8888_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,88,80,12 ; vpbroadcastd 0xc(%rax),%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 197,252,93,194 ; vminps %ymm2,%ymm0,%ymm0
- DB 196,226,125,88,80,16 ; vpbroadcastd 0x10(%rax),%ymm2
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 197,188,95,201 ; vmaxps %ymm1,%ymm8,%ymm1
- DB 197,244,93,202 ; vminps %ymm2,%ymm1,%ymm1
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,226,125,88,80,8 ; vpbroadcastd 0x8(%rax),%ymm2
- DB 196,226,109,64,201 ; vpmulld %ymm1,%ymm2,%ymm1
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,245,254,192 ; vpaddd %ymm0,%ymm1,%ymm0
- DB 196,66,101,144,4,128 ; vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- DB 197,189,219,5,213,2,3,0 ; vpand 0x302d5(%rip),%ymm8,%ymm0 # 34e80 <_sk_srcover_bgra_8888_sse2_lowp+0x668>
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,29,136,255,2,0 ; vbroadcastss 0x2ff88(%rip),%ymm3 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 196,226,61,0,13,219,2,3,0 ; vpshufb 0x302db(%rip),%ymm8,%ymm1 # 34ea0 <_sk_srcover_bgra_8888_sse2_lowp+0x688>
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
- DB 196,226,61,0,21,234,2,3,0 ; vpshufb 0x302ea(%rip),%ymm8,%ymm2 # 34ec0 <_sk_srcover_bgra_8888_sse2_lowp+0x6a8>
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 197,236,89,211 ; vmulps %ymm3,%ymm2,%ymm2
- DB 196,193,61,114,208,24 ; vpsrld $0x18,%ymm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 197,188,89,219 ; vmulps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_8888_hsw
-_sk_store_8888_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,200 ; vmaxps %ymm0,%ymm8,%ymm9
- DB 196,98,125,24,21,180,254,2,0 ; vbroadcastss 0x2feb4(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,52,93,202 ; vminps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,29,210,254,2,0 ; vbroadcastss 0x2fed2(%rip),%ymm11 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,65,52,89,203 ; vmulps %ymm11,%ymm9,%ymm9
- DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
- DB 197,60,95,225 ; vmaxps %ymm1,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,29,114,244,8 ; vpslld $0x8,%ymm12,%ymm12
- DB 196,65,29,235,201 ; vpor %ymm9,%ymm12,%ymm9
- DB 197,60,95,226 ; vmaxps %ymm2,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,29,114,244,16 ; vpslld $0x10,%ymm12,%ymm12
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,65,60,93,194 ; vminps %ymm10,%ymm8,%ymm8
- DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,193,61,114,240,24 ; vpslld $0x18,%ymm8,%ymm8
- DB 196,65,29,235,192 ; vpor %ymm8,%ymm12,%ymm8
- DB 196,65,53,235,192 ; vpor %ymm8,%ymm9,%ymm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 4c95 <_sk_store_8888_hsw+0xa4>
- DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,242 ; ja 4c91 <_sk_store_8888_hsw+0xa0>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,83,0,0,0 ; lea 0x53(%rip),%r9 # 4cfc <_sk_store_8888_hsw+0x10b>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,126,4,144 ; vmovd %xmm8,(%r8,%rdx,4)
- DB 235,215 ; jmp 4c91 <_sk_store_8888_hsw+0xa0>
- DB 196,67,121,22,68,144,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 196,65,121,214,4,144 ; vmovq %xmm8,(%r8,%rdx,4)
- DB 235,199 ; jmp 4c91 <_sk_store_8888_hsw+0xa0>
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,24,2 ; vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,20,1 ; vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,121,126,76,144,16 ; vmovd %xmm9,0x10(%r8,%rdx,4)
- DB 196,65,122,127,4,144 ; vmovdqu %xmm8,(%r8,%rdx,4)
- DB 235,150 ; jmp 4c91 <_sk_store_8888_hsw+0xa0>
- DB 144 ; nop
- DB 182,255 ; mov $0xff,%dh
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 190,255,255,255,247 ; mov $0xf7ffffff,%esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 234 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255,206 ; dec %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_hsw
-_sk_load_bgra_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,86 ; jne 4d84 <_sk_load_bgra_hsw+0x6c>
- DB 196,193,126,111,28,144 ; vmovdqu (%r8,%rdx,4),%ymm3
- DB 197,229,219,5,164,1,3,0 ; vpand 0x301a4(%rip),%ymm3,%ymm0 # 34ee0 <_sk_srcover_bgra_8888_sse2_lowp+0x6c8>
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,5,247,253,2,0 ; vbroadcastss 0x2fdf7(%rip),%ymm8 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,124,89,208 ; vmulps %ymm8,%ymm0,%ymm2
- DB 196,226,101,0,5,169,1,3,0 ; vpshufb 0x301a9(%rip),%ymm3,%ymm0 # 34f00 <_sk_srcover_bgra_8888_sse2_lowp+0x6e8>
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,193,124,89,200 ; vmulps %ymm8,%ymm0,%ymm1
- DB 196,226,101,0,5,183,1,3,0 ; vpshufb 0x301b7(%rip),%ymm3,%ymm0 # 34f20 <_sk_srcover_bgra_8888_sse2_lowp+0x708>
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 197,229,114,211,24 ; vpsrld $0x18,%ymm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,162 ; ja 4d34 <_sk_load_bgra_hsw+0x1c>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,136,0,0,0 ; lea 0x88(%rip),%r9 # 4e24 <_sk_load_bgra_hsw+0x10c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,110,28,144 ; vmovd (%r8,%rdx,4),%xmm3
- DB 235,135 ; jmp 4d34 <_sk_load_bgra_hsw+0x1c>
- DB 196,193,121,110,68,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm0
- DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,216,4 ; vpblendd $0x4,%ymm0,%ymm1,%ymm3
- DB 196,193,122,126,4,144 ; vmovq (%r8,%rdx,4),%xmm0
- DB 196,227,101,2,216,3 ; vpblendd $0x3,%ymm0,%ymm3,%ymm3
- DB 233,96,255,255,255 ; jmpq 4d34 <_sk_load_bgra_hsw+0x1c>
- DB 196,193,121,110,68,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm0
- DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,216,64 ; vpblendd $0x40,%ymm0,%ymm1,%ymm3
- DB 196,227,125,57,216,1 ; vextracti128 $0x1,%ymm3,%xmm0
- DB 196,195,121,34,68,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,227,101,56,216,1 ; vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- DB 196,227,125,57,216,1 ; vextracti128 $0x1,%ymm3,%xmm0
- DB 196,195,121,34,68,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,227,101,56,216,1 ; vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- DB 196,193,122,111,4,144 ; vmovdqu (%r8,%rdx,4),%xmm0
- DB 196,227,125,2,219,240 ; vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- DB 233,17,255,255,255 ; jmpq 4d34 <_sk_load_bgra_hsw+0x1c>
- DB 144 ; nop
- DB 129,255,255,255,159,255 ; cmp $0xff9fffff,%edi
- DB 255 ; (bad)
- DB 255,137,255,255,255,238 ; decl -0x11000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 218,255 ; (bad)
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 176,255 ; mov $0xff,%al
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_dst_hsw
-_sk_load_bgra_dst_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,86 ; jne 4eac <_sk_load_bgra_dst_hsw+0x6c>
- DB 196,193,126,111,60,144 ; vmovdqu (%r8,%rdx,4),%ymm7
- DB 197,197,219,37,220,0,3,0 ; vpand 0x300dc(%rip),%ymm7,%ymm4 # 34f40 <_sk_srcover_bgra_8888_sse2_lowp+0x728>
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,98,125,24,5,207,252,2,0 ; vbroadcastss 0x2fccf(%rip),%ymm8 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,92,89,240 ; vmulps %ymm8,%ymm4,%ymm6
- DB 196,226,69,0,37,225,0,3,0 ; vpshufb 0x300e1(%rip),%ymm7,%ymm4 # 34f60 <_sk_srcover_bgra_8888_sse2_lowp+0x748>
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,193,92,89,232 ; vmulps %ymm8,%ymm4,%ymm5
- DB 196,226,69,0,37,239,0,3,0 ; vpshufb 0x300ef(%rip),%ymm7,%ymm4 # 34f80 <_sk_srcover_bgra_8888_sse2_lowp+0x768>
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,193,92,89,224 ; vmulps %ymm8,%ymm4,%ymm4
- DB 197,197,114,215,24 ; vpsrld $0x18,%ymm7,%ymm7
- DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,193,68,89,248 ; vmulps %ymm8,%ymm7,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,162 ; ja 4e5c <_sk_load_bgra_dst_hsw+0x1c>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,136,0,0,0 ; lea 0x88(%rip),%r9 # 4f4c <_sk_load_bgra_dst_hsw+0x10c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,110,60,144 ; vmovd (%r8,%rdx,4),%xmm7
- DB 235,135 ; jmp 4e5c <_sk_load_bgra_dst_hsw+0x1c>
- DB 196,193,121,110,100,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm4
- DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,252,4 ; vpblendd $0x4,%ymm4,%ymm5,%ymm7
- DB 196,193,122,126,36,144 ; vmovq (%r8,%rdx,4),%xmm4
- DB 196,227,69,2,252,3 ; vpblendd $0x3,%ymm4,%ymm7,%ymm7
- DB 233,96,255,255,255 ; jmpq 4e5c <_sk_load_bgra_dst_hsw+0x1c>
- DB 196,193,121,110,100,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm4
- DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,252,64 ; vpblendd $0x40,%ymm4,%ymm5,%ymm7
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,195,89,34,100,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,227,69,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,195,89,34,100,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,227,69,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- DB 196,193,122,111,36,144 ; vmovdqu (%r8,%rdx,4),%xmm4
- DB 196,227,93,2,255,240 ; vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- DB 233,17,255,255,255 ; jmpq 4e5c <_sk_load_bgra_dst_hsw+0x1c>
- DB 144 ; nop
- DB 129,255,255,255,159,255 ; cmp $0xff9fffff,%edi
- DB 255 ; (bad)
- DB 255,137,255,255,255,238 ; decl -0x11000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 218,255 ; (bad)
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 176,255 ; mov $0xff,%al
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_bgra_hsw
-_sk_gather_bgra_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,88,80,12 ; vpbroadcastd 0xc(%rax),%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 197,252,93,194 ; vminps %ymm2,%ymm0,%ymm0
- DB 196,226,125,88,80,16 ; vpbroadcastd 0x10(%rax),%ymm2
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 197,188,95,201 ; vmaxps %ymm1,%ymm8,%ymm1
- DB 197,244,93,202 ; vminps %ymm2,%ymm1,%ymm1
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,226,125,88,80,8 ; vpbroadcastd 0x8(%rax),%ymm2
- DB 196,226,109,64,201 ; vpmulld %ymm1,%ymm2,%ymm1
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,245,254,192 ; vpaddd %ymm0,%ymm1,%ymm0
- DB 196,66,101,144,4,128 ; vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- DB 197,189,219,5,225,255,2,0 ; vpand 0x2ffe1(%rip),%ymm8,%ymm0 # 34fa0 <_sk_srcover_bgra_8888_sse2_lowp+0x788>
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,29,116,251,2,0 ; vbroadcastss 0x2fb74(%rip),%ymm3 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,252,89,211 ; vmulps %ymm3,%ymm0,%ymm2
- DB 196,226,61,0,5,231,255,2,0 ; vpshufb 0x2ffe7(%rip),%ymm8,%ymm0 # 34fc0 <_sk_srcover_bgra_8888_sse2_lowp+0x7a8>
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 197,252,89,203 ; vmulps %ymm3,%ymm0,%ymm1
- DB 196,226,61,0,5,246,255,2,0 ; vpshufb 0x2fff6(%rip),%ymm8,%ymm0 # 34fe0 <_sk_srcover_bgra_8888_sse2_lowp+0x7c8>
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 196,193,61,114,208,24 ; vpsrld $0x18,%ymm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 197,188,89,219 ; vmulps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_bgra_hsw
-_sk_store_bgra_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,202 ; vmaxps %ymm2,%ymm8,%ymm9
- DB 196,98,125,24,21,160,250,2,0 ; vbroadcastss 0x2faa0(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,52,93,202 ; vminps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,29,190,250,2,0 ; vbroadcastss 0x2fabe(%rip),%ymm11 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,65,52,89,203 ; vmulps %ymm11,%ymm9,%ymm9
- DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
- DB 197,60,95,225 ; vmaxps %ymm1,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,29,114,244,8 ; vpslld $0x8,%ymm12,%ymm12
- DB 196,65,29,235,201 ; vpor %ymm9,%ymm12,%ymm9
- DB 197,60,95,224 ; vmaxps %ymm0,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,29,114,244,16 ; vpslld $0x10,%ymm12,%ymm12
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,65,60,93,194 ; vminps %ymm10,%ymm8,%ymm8
- DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,193,61,114,240,24 ; vpslld $0x18,%ymm8,%ymm8
- DB 196,65,29,235,192 ; vpor %ymm8,%ymm12,%ymm8
- DB 196,65,53,235,192 ; vpor %ymm8,%ymm9,%ymm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 50a9 <_sk_store_bgra_hsw+0xa4>
- DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,242 ; ja 50a5 <_sk_store_bgra_hsw+0xa0>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,83,0,0,0 ; lea 0x53(%rip),%r9 # 5110 <_sk_store_bgra_hsw+0x10b>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,126,4,144 ; vmovd %xmm8,(%r8,%rdx,4)
- DB 235,215 ; jmp 50a5 <_sk_store_bgra_hsw+0xa0>
- DB 196,67,121,22,68,144,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 196,65,121,214,4,144 ; vmovq %xmm8,(%r8,%rdx,4)
- DB 235,199 ; jmp 50a5 <_sk_store_bgra_hsw+0xa0>
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,24,2 ; vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,20,1 ; vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,121,126,76,144,16 ; vmovd %xmm9,0x10(%r8,%rdx,4)
- DB 196,65,122,127,4,144 ; vmovdqu %xmm8,(%r8,%rdx,4)
- DB 235,150 ; jmp 50a5 <_sk_store_bgra_hsw+0xa0>
- DB 144 ; nop
- DB 182,255 ; mov $0xff,%dh
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 190,255,255,255,247 ; mov $0xf7ffffff,%esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 234 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255,206 ; dec %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_1010102_hsw
-_sk_load_1010102_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,100 ; jne 51a6 <_sk_load_1010102_hsw+0x7a>
- DB 196,193,126,111,28,144 ; vmovdqu (%r8,%rdx,4),%ymm3
- DB 196,226,125,88,21,147,250,2,0 ; vpbroadcastd 0x2fa93(%rip),%ymm2 # 34be4 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- DB 197,229,219,194 ; vpand %ymm2,%ymm3,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,5,134,250,2,0 ; vbroadcastss 0x2fa86(%rip),%ymm8 # 34be8 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 197,245,114,211,10 ; vpsrld $0xa,%ymm3,%ymm1
- DB 197,245,219,202 ; vpand %ymm2,%ymm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 197,181,114,211,20 ; vpsrld $0x14,%ymm3,%ymm9
- DB 197,181,219,210 ; vpand %ymm2,%ymm9,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 197,229,114,211,30 ; vpsrld $0x1e,%ymm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,151,249,2,0 ; vbroadcastss 0x2f997(%rip),%ymm8 # 34b34 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,148 ; ja 5148 <_sk_load_1010102_hsw+0x1c>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,138,0,0,0 ; lea 0x8a(%rip),%r9 # 5248 <_sk_load_1010102_hsw+0x11c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,110,28,144 ; vmovd (%r8,%rdx,4),%xmm3
- DB 233,118,255,255,255 ; jmpq 5148 <_sk_load_1010102_hsw+0x1c>
- DB 196,193,121,110,68,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm0
- DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,216,4 ; vpblendd $0x4,%ymm0,%ymm1,%ymm3
- DB 196,193,122,126,4,144 ; vmovq (%r8,%rdx,4),%xmm0
- DB 196,227,101,2,216,3 ; vpblendd $0x3,%ymm0,%ymm3,%ymm3
- DB 233,79,255,255,255 ; jmpq 5148 <_sk_load_1010102_hsw+0x1c>
- DB 196,193,121,110,68,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm0
- DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,216,64 ; vpblendd $0x40,%ymm0,%ymm1,%ymm3
- DB 196,227,125,57,216,1 ; vextracti128 $0x1,%ymm3,%xmm0
- DB 196,195,121,34,68,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,227,101,56,216,1 ; vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- DB 196,227,125,57,216,1 ; vextracti128 $0x1,%ymm3,%xmm0
- DB 196,195,121,34,68,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,227,101,56,216,1 ; vinserti128 $0x1,%xmm0,%ymm3,%ymm3
- DB 196,193,122,111,4,144 ; vmovdqu (%r8,%rdx,4),%xmm0
- DB 196,227,125,2,219,240 ; vpblendd $0xf0,%ymm3,%ymm0,%ymm3
- DB 233,0,255,255,255 ; jmpq 5148 <_sk_load_1010102_hsw+0x1c>
- DB 127,255 ; jg 5249 <_sk_load_1010102_hsw+0x11d>
- DB 255 ; (bad)
- DB 255,160,255,255,255,138 ; jmpq *-0x75000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 239 ; out %eax,(%dx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 219,255 ; (bad)
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 177,255 ; mov $0xff,%cl
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_1010102_dst_hsw
-_sk_load_1010102_dst_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,100 ; jne 52de <_sk_load_1010102_dst_hsw+0x7a>
- DB 196,193,126,111,60,144 ; vmovdqu (%r8,%rdx,4),%ymm7
- DB 196,226,125,88,53,91,249,2,0 ; vpbroadcastd 0x2f95b(%rip),%ymm6 # 34be4 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- DB 197,197,219,230 ; vpand %ymm6,%ymm7,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,98,125,24,5,78,249,2,0 ; vbroadcastss 0x2f94e(%rip),%ymm8 # 34be8 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- DB 196,193,92,89,224 ; vmulps %ymm8,%ymm4,%ymm4
- DB 197,213,114,215,10 ; vpsrld $0xa,%ymm7,%ymm5
- DB 197,213,219,238 ; vpand %ymm6,%ymm5,%ymm5
- DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,193,84,89,232 ; vmulps %ymm8,%ymm5,%ymm5
- DB 197,181,114,215,20 ; vpsrld $0x14,%ymm7,%ymm9
- DB 197,181,219,246 ; vpand %ymm6,%ymm9,%ymm6
- DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 196,193,76,89,240 ; vmulps %ymm8,%ymm6,%ymm6
- DB 197,197,114,215,30 ; vpsrld $0x1e,%ymm7,%ymm7
- DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,98,125,24,5,95,248,2,0 ; vbroadcastss 0x2f85f(%rip),%ymm8 # 34b34 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- DB 196,193,68,89,248 ; vmulps %ymm8,%ymm7,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,148 ; ja 5280 <_sk_load_1010102_dst_hsw+0x1c>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,138,0,0,0 ; lea 0x8a(%rip),%r9 # 5380 <_sk_load_1010102_dst_hsw+0x11c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,110,60,144 ; vmovd (%r8,%rdx,4),%xmm7
- DB 233,118,255,255,255 ; jmpq 5280 <_sk_load_1010102_dst_hsw+0x1c>
- DB 196,193,121,110,100,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm4
- DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,252,4 ; vpblendd $0x4,%ymm4,%ymm5,%ymm7
- DB 196,193,122,126,36,144 ; vmovq (%r8,%rdx,4),%xmm4
- DB 196,227,69,2,252,3 ; vpblendd $0x3,%ymm4,%ymm7,%ymm7
- DB 233,79,255,255,255 ; jmpq 5280 <_sk_load_1010102_dst_hsw+0x1c>
- DB 196,193,121,110,100,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm4
- DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,252,64 ; vpblendd $0x40,%ymm4,%ymm5,%ymm7
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,195,89,34,100,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,227,69,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- DB 196,227,125,57,252,1 ; vextracti128 $0x1,%ymm7,%xmm4
- DB 196,195,89,34,100,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,227,69,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm7,%ymm7
- DB 196,193,122,111,36,144 ; vmovdqu (%r8,%rdx,4),%xmm4
- DB 196,227,93,2,255,240 ; vpblendd $0xf0,%ymm7,%ymm4,%ymm7
- DB 233,0,255,255,255 ; jmpq 5280 <_sk_load_1010102_dst_hsw+0x1c>
- DB 127,255 ; jg 5381 <_sk_load_1010102_dst_hsw+0x11d>
- DB 255 ; (bad)
- DB 255,160,255,255,255,138 ; jmpq *-0x75000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 239 ; out %eax,(%dx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 219,255 ; (bad)
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 177,255 ; mov $0xff,%cl
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_1010102_hsw
-_sk_gather_1010102_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,88,80,12 ; vpbroadcastd 0xc(%rax),%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 197,252,93,194 ; vminps %ymm2,%ymm0,%ymm0
- DB 196,226,125,88,80,16 ; vpbroadcastd 0x10(%rax),%ymm2
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 197,188,95,201 ; vmaxps %ymm1,%ymm8,%ymm1
- DB 197,244,93,202 ; vminps %ymm2,%ymm1,%ymm1
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,226,125,88,80,8 ; vpbroadcastd 0x8(%rax),%ymm2
- DB 196,226,109,64,201 ; vpmulld %ymm1,%ymm2,%ymm1
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,245,254,192 ; vpaddd %ymm0,%ymm1,%ymm0
- DB 196,66,101,144,4,128 ; vpgatherdd %ymm3,(%r8,%ymm0,4),%ymm8
- DB 196,226,125,88,21,240,247,2,0 ; vpbroadcastd 0x2f7f0(%rip),%ymm2 # 34be4 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- DB 197,189,219,194 ; vpand %ymm2,%ymm8,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,29,227,247,2,0 ; vbroadcastss 0x2f7e3(%rip),%ymm3 # 34be8 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 196,193,117,114,208,10 ; vpsrld $0xa,%ymm8,%ymm1
- DB 197,245,219,202 ; vpand %ymm2,%ymm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
- DB 196,193,53,114,208,20 ; vpsrld $0x14,%ymm8,%ymm9
- DB 197,181,219,210 ; vpand %ymm2,%ymm9,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 197,236,89,211 ; vmulps %ymm3,%ymm2,%ymm2
- DB 196,193,101,114,208,30 ; vpsrld $0x1e,%ymm8,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,244,246,2,0 ; vbroadcastss 0x2f6f4(%rip),%ymm8 # 34b34 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_1010102_hsw
-_sk_store_1010102_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,200 ; vmaxps %ymm0,%ymm8,%ymm9
- DB 196,98,125,24,21,92,246,2,0 ; vbroadcastss 0x2f65c(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,52,93,202 ; vminps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,29,114,247,2,0 ; vbroadcastss 0x2f772(%rip),%ymm11 # 34bec <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- DB 196,65,52,89,203 ; vmulps %ymm11,%ymm9,%ymm9
- DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
- DB 197,60,95,225 ; vmaxps %ymm1,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,29,114,244,10 ; vpslld $0xa,%ymm12,%ymm12
- DB 196,65,29,235,201 ; vpor %ymm9,%ymm12,%ymm9
- DB 197,60,95,226 ; vmaxps %ymm2,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,219 ; vmulps %ymm11,%ymm12,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,193,37,114,243,20 ; vpslld $0x14,%ymm11,%ymm11
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,65,60,93,194 ; vminps %ymm10,%ymm8,%ymm8
- DB 196,98,125,24,21,35,247,2,0 ; vbroadcastss 0x2f723(%rip),%ymm10 # 34bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
- DB 196,65,60,89,194 ; vmulps %ymm10,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,193,61,114,240,30 ; vpslld $0x1e,%ymm8,%ymm8
- DB 196,65,37,235,192 ; vpor %ymm8,%ymm11,%ymm8
- DB 196,65,53,235,192 ; vpor %ymm8,%ymm9,%ymm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 54f6 <_sk_store_1010102_hsw+0xad>
- DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,242 ; ja 54f2 <_sk_store_1010102_hsw+0xa9>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,82,0,0,0 ; lea 0x52(%rip),%r9 # 555c <_sk_store_1010102_hsw+0x113>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,126,4,144 ; vmovd %xmm8,(%r8,%rdx,4)
- DB 235,215 ; jmp 54f2 <_sk_store_1010102_hsw+0xa9>
- DB 196,67,121,22,68,144,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 196,65,121,214,4,144 ; vmovq %xmm8,(%r8,%rdx,4)
- DB 235,199 ; jmp 54f2 <_sk_store_1010102_hsw+0xa9>
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,24,2 ; vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,20,1 ; vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,121,126,76,144,16 ; vmovd %xmm9,0x10(%r8,%rdx,4)
- DB 196,65,122,127,4,144 ; vmovdqu %xmm8,(%r8,%rdx,4)
- DB 235,150 ; jmp 54f2 <_sk_store_1010102_hsw+0xa9>
- DB 183,255 ; mov $0xff,%bh
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 191,255,255,255,248 ; mov $0xf8ffffff,%edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 235,255 ; jmp 556d <_sk_store_1010102_hsw+0x124>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 221,255 ; (bad)
- DB 255 ; (bad)
- DB 255,207 ; dec %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_f16_hsw
-_sk_load_f16_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,3 ; shl $0x3,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,101 ; jne 55f3 <_sk_load_f16_hsw+0x7b>
- DB 196,65,121,16,4,208 ; vmovupd (%r8,%rdx,8),%xmm8
- DB 196,193,121,16,84,208,16 ; vmovupd 0x10(%r8,%rdx,8),%xmm2
- DB 196,193,121,16,92,208,32 ; vmovupd 0x20(%r8,%rdx,8),%xmm3
- DB 196,65,122,111,76,208,48 ; vmovdqu 0x30(%r8,%rdx,8),%xmm9
- DB 197,185,97,194 ; vpunpcklwd %xmm2,%xmm8,%xmm0
- DB 197,185,105,210 ; vpunpckhwd %xmm2,%xmm8,%xmm2
- DB 196,193,97,97,201 ; vpunpcklwd %xmm9,%xmm3,%xmm1
- DB 196,193,97,105,217 ; vpunpckhwd %xmm9,%xmm3,%xmm3
- DB 197,121,97,194 ; vpunpcklwd %xmm2,%xmm0,%xmm8
- DB 197,121,105,202 ; vpunpckhwd %xmm2,%xmm0,%xmm9
- DB 197,241,97,211 ; vpunpcklwd %xmm3,%xmm1,%xmm2
- DB 197,241,105,219 ; vpunpckhwd %xmm3,%xmm1,%xmm3
- DB 197,185,108,194 ; vpunpcklqdq %xmm2,%xmm8,%xmm0
- DB 196,226,125,19,192 ; vcvtph2ps %xmm0,%ymm0
- DB 197,185,109,202 ; vpunpckhqdq %xmm2,%xmm8,%xmm1
- DB 196,226,125,19,201 ; vcvtph2ps %xmm1,%ymm1
- DB 197,177,108,211 ; vpunpcklqdq %xmm3,%xmm9,%xmm2
- DB 196,226,125,19,210 ; vcvtph2ps %xmm2,%ymm2
- DB 197,177,109,219 ; vpunpckhqdq %xmm3,%xmm9,%xmm3
- DB 196,226,125,19,219 ; vcvtph2ps %xmm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,123,16,4,208 ; vmovsd (%r8,%rdx,8),%xmm8
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,85 ; je 5659 <_sk_load_f16_hsw+0xe1>
- DB 196,65,57,22,68,208,8 ; vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,72 ; jb 5659 <_sk_load_f16_hsw+0xe1>
- DB 196,193,123,16,84,208,16 ; vmovsd 0x10(%r8,%rdx,8),%xmm2
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 116,72 ; je 5666 <_sk_load_f16_hsw+0xee>
- DB 196,193,105,22,84,208,24 ; vmovhpd 0x18(%r8,%rdx,8),%xmm2,%xmm2
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,59 ; jb 5666 <_sk_load_f16_hsw+0xee>
- DB 196,193,123,16,92,208,32 ; vmovsd 0x20(%r8,%rdx,8),%xmm3
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 15,132,109,255,255,255 ; je 55a9 <_sk_load_f16_hsw+0x31>
- DB 196,193,97,22,92,208,40 ; vmovhpd 0x28(%r8,%rdx,8),%xmm3,%xmm3
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 15,130,92,255,255,255 ; jb 55a9 <_sk_load_f16_hsw+0x31>
- DB 196,65,122,126,76,208,48 ; vmovq 0x30(%r8,%rdx,8),%xmm9
- DB 233,80,255,255,255 ; jmpq 55a9 <_sk_load_f16_hsw+0x31>
- DB 197,225,87,219 ; vxorpd %xmm3,%xmm3,%xmm3
- DB 197,233,87,210 ; vxorpd %xmm2,%xmm2,%xmm2
- DB 233,67,255,255,255 ; jmpq 55a9 <_sk_load_f16_hsw+0x31>
- DB 197,225,87,219 ; vxorpd %xmm3,%xmm3,%xmm3
- DB 233,58,255,255,255 ; jmpq 55a9 <_sk_load_f16_hsw+0x31>
-
-PUBLIC _sk_load_f16_dst_hsw
-_sk_load_f16_dst_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,3 ; shl $0x3,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,101 ; jne 56ea <_sk_load_f16_dst_hsw+0x7b>
- DB 196,65,121,16,4,208 ; vmovupd (%r8,%rdx,8),%xmm8
- DB 196,193,121,16,116,208,16 ; vmovupd 0x10(%r8,%rdx,8),%xmm6
- DB 196,193,121,16,124,208,32 ; vmovupd 0x20(%r8,%rdx,8),%xmm7
- DB 196,65,122,111,76,208,48 ; vmovdqu 0x30(%r8,%rdx,8),%xmm9
- DB 197,185,97,230 ; vpunpcklwd %xmm6,%xmm8,%xmm4
- DB 197,185,105,246 ; vpunpckhwd %xmm6,%xmm8,%xmm6
- DB 196,193,65,97,233 ; vpunpcklwd %xmm9,%xmm7,%xmm5
- DB 196,193,65,105,249 ; vpunpckhwd %xmm9,%xmm7,%xmm7
- DB 197,89,97,198 ; vpunpcklwd %xmm6,%xmm4,%xmm8
- DB 197,89,105,206 ; vpunpckhwd %xmm6,%xmm4,%xmm9
- DB 197,209,97,247 ; vpunpcklwd %xmm7,%xmm5,%xmm6
- DB 197,209,105,255 ; vpunpckhwd %xmm7,%xmm5,%xmm7
- DB 197,185,108,230 ; vpunpcklqdq %xmm6,%xmm8,%xmm4
- DB 196,226,125,19,228 ; vcvtph2ps %xmm4,%ymm4
- DB 197,185,109,238 ; vpunpckhqdq %xmm6,%xmm8,%xmm5
- DB 196,226,125,19,237 ; vcvtph2ps %xmm5,%ymm5
- DB 197,177,108,247 ; vpunpcklqdq %xmm7,%xmm9,%xmm6
- DB 196,226,125,19,246 ; vcvtph2ps %xmm6,%ymm6
- DB 197,177,109,255 ; vpunpckhqdq %xmm7,%xmm9,%xmm7
- DB 196,226,125,19,255 ; vcvtph2ps %xmm7,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,123,16,4,208 ; vmovsd (%r8,%rdx,8),%xmm8
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,85 ; je 5750 <_sk_load_f16_dst_hsw+0xe1>
- DB 196,65,57,22,68,208,8 ; vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,72 ; jb 5750 <_sk_load_f16_dst_hsw+0xe1>
- DB 196,193,123,16,116,208,16 ; vmovsd 0x10(%r8,%rdx,8),%xmm6
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 116,72 ; je 575d <_sk_load_f16_dst_hsw+0xee>
- DB 196,193,73,22,116,208,24 ; vmovhpd 0x18(%r8,%rdx,8),%xmm6,%xmm6
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,59 ; jb 575d <_sk_load_f16_dst_hsw+0xee>
- DB 196,193,123,16,124,208,32 ; vmovsd 0x20(%r8,%rdx,8),%xmm7
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 15,132,109,255,255,255 ; je 56a0 <_sk_load_f16_dst_hsw+0x31>
- DB 196,193,65,22,124,208,40 ; vmovhpd 0x28(%r8,%rdx,8),%xmm7,%xmm7
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 15,130,92,255,255,255 ; jb 56a0 <_sk_load_f16_dst_hsw+0x31>
- DB 196,65,122,126,76,208,48 ; vmovq 0x30(%r8,%rdx,8),%xmm9
- DB 233,80,255,255,255 ; jmpq 56a0 <_sk_load_f16_dst_hsw+0x31>
- DB 197,193,87,255 ; vxorpd %xmm7,%xmm7,%xmm7
- DB 197,201,87,246 ; vxorpd %xmm6,%xmm6,%xmm6
- DB 233,67,255,255,255 ; jmpq 56a0 <_sk_load_f16_dst_hsw+0x31>
- DB 197,193,87,255 ; vxorpd %xmm7,%xmm7,%xmm7
- DB 233,58,255,255,255 ; jmpq 56a0 <_sk_load_f16_dst_hsw+0x31>
-
-PUBLIC _sk_gather_f16_hsw
-_sk_gather_f16_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,88,80,12 ; vpbroadcastd 0xc(%rax),%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 197,252,93,194 ; vminps %ymm2,%ymm0,%ymm0
- DB 196,226,125,88,80,16 ; vpbroadcastd 0x10(%rax),%ymm2
- DB 197,237,254,211 ; vpaddd %ymm3,%ymm2,%ymm2
- DB 197,188,95,201 ; vmaxps %ymm1,%ymm8,%ymm1
- DB 197,244,93,202 ; vminps %ymm2,%ymm1,%ymm1
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,226,125,88,80,8 ; vpbroadcastd 0x8(%rax),%ymm2
- DB 196,226,109,64,201 ; vpmulld %ymm1,%ymm2,%ymm1
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,245,254,192 ; vpaddd %ymm0,%ymm1,%ymm0
- DB 197,245,118,201 ; vpcmpeqd %ymm1,%ymm1,%ymm1
- DB 197,237,239,210 ; vpxor %ymm2,%ymm2,%ymm2
- DB 196,194,245,144,20,192 ; vpgatherdq %ymm1,(%r8,%xmm0,8),%ymm2
- DB 196,227,125,57,192,1 ; vextracti128 $0x1,%ymm0,%xmm0
- DB 196,66,229,144,4,192 ; vpgatherdq %ymm3,(%r8,%xmm0,8),%ymm8
- DB 196,227,125,57,208,1 ; vextracti128 $0x1,%ymm2,%xmm0
- DB 196,99,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm1
- DB 197,233,97,216 ; vpunpcklwd %xmm0,%xmm2,%xmm3
- DB 197,233,105,192 ; vpunpckhwd %xmm0,%xmm2,%xmm0
- DB 197,185,97,209 ; vpunpcklwd %xmm1,%xmm8,%xmm2
- DB 197,185,105,201 ; vpunpckhwd %xmm1,%xmm8,%xmm1
- DB 197,97,97,192 ; vpunpcklwd %xmm0,%xmm3,%xmm8
- DB 197,97,105,200 ; vpunpckhwd %xmm0,%xmm3,%xmm9
- DB 197,233,97,217 ; vpunpcklwd %xmm1,%xmm2,%xmm3
- DB 197,105,105,209 ; vpunpckhwd %xmm1,%xmm2,%xmm10
- DB 197,185,108,195 ; vpunpcklqdq %xmm3,%xmm8,%xmm0
- DB 196,226,125,19,192 ; vcvtph2ps %xmm0,%ymm0
- DB 197,185,109,203 ; vpunpckhqdq %xmm3,%xmm8,%xmm1
- DB 196,226,125,19,201 ; vcvtph2ps %xmm1,%ymm1
- DB 196,193,49,108,210 ; vpunpcklqdq %xmm10,%xmm9,%xmm2
- DB 196,226,125,19,210 ; vcvtph2ps %xmm2,%ymm2
- DB 196,193,49,109,218 ; vpunpckhqdq %xmm10,%xmm9,%xmm3
- DB 196,226,125,19,219 ; vcvtph2ps %xmm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_f16_hsw
-_sk_store_f16_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,3 ; shl $0x3,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,195,125,29,192,4 ; vcvtps2ph $0x4,%ymm0,%xmm8
- DB 196,195,125,29,201,4 ; vcvtps2ph $0x4,%ymm1,%xmm9
- DB 196,195,125,29,210,4 ; vcvtps2ph $0x4,%ymm2,%xmm10
- DB 196,195,125,29,219,4 ; vcvtps2ph $0x4,%ymm3,%xmm11
- DB 196,65,57,97,225 ; vpunpcklwd %xmm9,%xmm8,%xmm12
- DB 196,65,57,105,193 ; vpunpckhwd %xmm9,%xmm8,%xmm8
- DB 196,65,41,97,203 ; vpunpcklwd %xmm11,%xmm10,%xmm9
- DB 196,65,41,105,235 ; vpunpckhwd %xmm11,%xmm10,%xmm13
- DB 196,65,25,98,217 ; vpunpckldq %xmm9,%xmm12,%xmm11
- DB 196,65,25,106,209 ; vpunpckhdq %xmm9,%xmm12,%xmm10
- DB 196,65,57,98,205 ; vpunpckldq %xmm13,%xmm8,%xmm9
- DB 196,65,57,106,197 ; vpunpckhdq %xmm13,%xmm8,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,31 ; jne 5894 <_sk_store_f16_hsw+0x75>
- DB 196,65,122,127,28,208 ; vmovdqu %xmm11,(%r8,%rdx,8)
- DB 196,65,122,127,84,208,16 ; vmovdqu %xmm10,0x10(%r8,%rdx,8)
- DB 196,65,122,127,76,208,32 ; vmovdqu %xmm9,0x20(%r8,%rdx,8)
- DB 196,65,122,127,68,208,48 ; vmovdqu %xmm8,0x30(%r8,%rdx,8)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,214,28,208 ; vmovq %xmm11,(%r8,%rdx,8)
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,240 ; je 5890 <_sk_store_f16_hsw+0x71>
- DB 196,65,121,23,92,208,8 ; vmovhpd %xmm11,0x8(%r8,%rdx,8)
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,227 ; jb 5890 <_sk_store_f16_hsw+0x71>
- DB 196,65,121,214,84,208,16 ; vmovq %xmm10,0x10(%r8,%rdx,8)
- DB 116,218 ; je 5890 <_sk_store_f16_hsw+0x71>
- DB 196,65,121,23,84,208,24 ; vmovhpd %xmm10,0x18(%r8,%rdx,8)
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,205 ; jb 5890 <_sk_store_f16_hsw+0x71>
- DB 196,65,121,214,76,208,32 ; vmovq %xmm9,0x20(%r8,%rdx,8)
- DB 116,196 ; je 5890 <_sk_store_f16_hsw+0x71>
- DB 196,65,121,23,76,208,40 ; vmovhpd %xmm9,0x28(%r8,%rdx,8)
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 114,183 ; jb 5890 <_sk_store_f16_hsw+0x71>
- DB 196,65,121,214,68,208,48 ; vmovq %xmm8,0x30(%r8,%rdx,8)
- DB 235,174 ; jmp 5890 <_sk_store_f16_hsw+0x71>
-
-PUBLIC _sk_load_u16_be_hsw
-_sk_load_u16_be_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 77,1,201 ; add %r9,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,204,0,0,0 ; jne 59cf <_sk_load_u16_be_hsw+0xed>
- DB 196,1,121,16,4,65 ; vmovupd (%r9,%r8,2),%xmm8
- DB 196,129,121,16,84,65,16 ; vmovupd 0x10(%r9,%r8,2),%xmm2
- DB 196,129,121,16,92,65,32 ; vmovupd 0x20(%r9,%r8,2),%xmm3
- DB 196,1,122,111,76,65,48 ; vmovdqu 0x30(%r9,%r8,2),%xmm9
- DB 197,185,97,194 ; vpunpcklwd %xmm2,%xmm8,%xmm0
- DB 197,185,105,210 ; vpunpckhwd %xmm2,%xmm8,%xmm2
- DB 196,193,97,97,201 ; vpunpcklwd %xmm9,%xmm3,%xmm1
- DB 196,193,97,105,217 ; vpunpckhwd %xmm9,%xmm3,%xmm3
- DB 197,121,97,194 ; vpunpcklwd %xmm2,%xmm0,%xmm8
- DB 197,121,105,202 ; vpunpckhwd %xmm2,%xmm0,%xmm9
- DB 197,241,97,211 ; vpunpcklwd %xmm3,%xmm1,%xmm2
- DB 197,113,105,219 ; vpunpckhwd %xmm3,%xmm1,%xmm11
- DB 197,185,108,194 ; vpunpcklqdq %xmm2,%xmm8,%xmm0
- DB 197,241,113,240,8 ; vpsllw $0x8,%xmm0,%xmm1
- DB 197,249,113,208,8 ; vpsrlw $0x8,%xmm0,%xmm0
- DB 197,241,235,192 ; vpor %xmm0,%xmm1,%xmm0
- DB 196,226,125,51,192 ; vpmovzxwd %xmm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,21,248,241,2,0 ; vbroadcastss 0x2f1f8(%rip),%ymm10 # 34b5c <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- DB 196,193,124,89,194 ; vmulps %ymm10,%ymm0,%ymm0
- DB 197,185,109,202 ; vpunpckhqdq %xmm2,%xmm8,%xmm1
- DB 197,233,113,241,8 ; vpsllw $0x8,%xmm1,%xmm2
- DB 197,241,113,209,8 ; vpsrlw $0x8,%xmm1,%xmm1
- DB 197,233,235,201 ; vpor %xmm1,%xmm2,%xmm1
- DB 196,226,125,51,201 ; vpmovzxwd %xmm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,193,116,89,202 ; vmulps %ymm10,%ymm1,%ymm1
- DB 196,193,49,108,211 ; vpunpcklqdq %xmm11,%xmm9,%xmm2
- DB 197,225,113,242,8 ; vpsllw $0x8,%xmm2,%xmm3
- DB 197,233,113,210,8 ; vpsrlw $0x8,%xmm2,%xmm2
- DB 197,225,235,210 ; vpor %xmm2,%xmm3,%xmm2
- DB 196,226,125,51,210 ; vpmovzxwd %xmm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,193,108,89,210 ; vmulps %ymm10,%ymm2,%ymm2
- DB 196,193,49,109,219 ; vpunpckhqdq %xmm11,%xmm9,%xmm3
- DB 197,185,113,243,8 ; vpsllw $0x8,%xmm3,%xmm8
- DB 197,225,113,211,8 ; vpsrlw $0x8,%xmm3,%xmm3
- DB 197,185,235,219 ; vpor %xmm3,%xmm8,%xmm3
- DB 196,226,125,51,219 ; vpmovzxwd %xmm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,193,100,89,218 ; vmulps %ymm10,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 196,1,123,16,4,65 ; vmovsd (%r9,%r8,2),%xmm8
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,85 ; je 5a35 <_sk_load_u16_be_hsw+0x153>
- DB 196,1,57,22,68,65,8 ; vmovhpd 0x8(%r9,%r8,2),%xmm8,%xmm8
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,72 ; jb 5a35 <_sk_load_u16_be_hsw+0x153>
- DB 196,129,123,16,84,65,16 ; vmovsd 0x10(%r9,%r8,2),%xmm2
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 116,72 ; je 5a42 <_sk_load_u16_be_hsw+0x160>
- DB 196,129,105,22,84,65,24 ; vmovhpd 0x18(%r9,%r8,2),%xmm2,%xmm2
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,59 ; jb 5a42 <_sk_load_u16_be_hsw+0x160>
- DB 196,129,123,16,92,65,32 ; vmovsd 0x20(%r9,%r8,2),%xmm3
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 15,132,6,255,255,255 ; je 591e <_sk_load_u16_be_hsw+0x3c>
- DB 196,129,97,22,92,65,40 ; vmovhpd 0x28(%r9,%r8,2),%xmm3,%xmm3
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 15,130,245,254,255,255 ; jb 591e <_sk_load_u16_be_hsw+0x3c>
- DB 196,1,122,126,76,65,48 ; vmovq 0x30(%r9,%r8,2),%xmm9
- DB 233,233,254,255,255 ; jmpq 591e <_sk_load_u16_be_hsw+0x3c>
- DB 197,225,87,219 ; vxorpd %xmm3,%xmm3,%xmm3
- DB 197,233,87,210 ; vxorpd %xmm2,%xmm2,%xmm2
- DB 233,220,254,255,255 ; jmpq 591e <_sk_load_u16_be_hsw+0x3c>
- DB 197,225,87,219 ; vxorpd %xmm3,%xmm3,%xmm3
- DB 233,211,254,255,255 ; jmpq 591e <_sk_load_u16_be_hsw+0x3c>
-
-PUBLIC _sk_load_rgb_u16_be_hsw
-_sk_load_rgb_u16_be_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,82 ; lea (%rdx,%rdx,2),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 77,1,201 ; add %r9,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,205,0,0,0 ; jne 5b35 <_sk_load_rgb_u16_be_hsw+0xea>
- DB 196,1,122,111,28,65 ; vmovdqu (%r9,%r8,2),%xmm11
- DB 196,129,122,111,92,65,12 ; vmovdqu 0xc(%r9,%r8,2),%xmm3
- DB 196,129,122,111,84,65,24 ; vmovdqu 0x18(%r9,%r8,2),%xmm2
- DB 196,129,122,111,68,65,32 ; vmovdqu 0x20(%r9,%r8,2),%xmm0
- DB 197,249,115,216,4 ; vpsrldq $0x4,%xmm0,%xmm0
- DB 196,193,57,115,219,6 ; vpsrldq $0x6,%xmm11,%xmm8
- DB 197,169,115,219,6 ; vpsrldq $0x6,%xmm3,%xmm10
- DB 197,241,115,218,6 ; vpsrldq $0x6,%xmm2,%xmm1
- DB 197,177,115,216,6 ; vpsrldq $0x6,%xmm0,%xmm9
- DB 196,193,113,97,201 ; vpunpcklwd %xmm9,%xmm1,%xmm1
- DB 197,233,97,192 ; vpunpcklwd %xmm0,%xmm2,%xmm0
- DB 196,193,57,97,210 ; vpunpcklwd %xmm10,%xmm8,%xmm2
- DB 197,161,97,219 ; vpunpcklwd %xmm3,%xmm11,%xmm3
- DB 197,97,97,194 ; vpunpcklwd %xmm2,%xmm3,%xmm8
- DB 197,225,105,210 ; vpunpckhwd %xmm2,%xmm3,%xmm2
- DB 197,249,97,217 ; vpunpcklwd %xmm1,%xmm0,%xmm3
- DB 197,249,105,193 ; vpunpckhwd %xmm1,%xmm0,%xmm0
- DB 197,233,108,208 ; vpunpcklqdq %xmm0,%xmm2,%xmm2
- DB 197,185,108,195 ; vpunpcklqdq %xmm3,%xmm8,%xmm0
- DB 197,241,113,240,8 ; vpsllw $0x8,%xmm0,%xmm1
- DB 197,249,113,208,8 ; vpsrlw $0x8,%xmm0,%xmm0
- DB 197,241,235,192 ; vpor %xmm0,%xmm1,%xmm0
- DB 196,226,125,51,192 ; vpmovzxwd %xmm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,13,117,240,2,0 ; vbroadcastss 0x2f075(%rip),%ymm9 # 34b5c <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
- DB 197,185,109,203 ; vpunpckhqdq %xmm3,%xmm8,%xmm1
- DB 197,225,113,241,8 ; vpsllw $0x8,%xmm1,%xmm3
- DB 197,241,113,209,8 ; vpsrlw $0x8,%xmm1,%xmm1
- DB 197,225,235,201 ; vpor %xmm1,%xmm3,%xmm1
- DB 196,226,125,51,201 ; vpmovzxwd %xmm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,193,116,89,201 ; vmulps %ymm9,%ymm1,%ymm1
- DB 197,225,113,242,8 ; vpsllw $0x8,%xmm2,%xmm3
- DB 197,233,113,210,8 ; vpsrlw $0x8,%xmm2,%xmm2
- DB 197,225,235,210 ; vpor %xmm2,%xmm3,%xmm2
- DB 196,226,125,51,210 ; vpmovzxwd %xmm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,193,108,89,209 ; vmulps %ymm9,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,149,239,2,0 ; vbroadcastss 0x2ef95(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 255,224 ; jmpq *%rax
- DB 196,129,121,110,4,65 ; vmovd (%r9,%r8,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,1,121,196,92,65,4,2 ; vpinsrw $0x2,0x4(%r9,%r8,2),%xmm0,%xmm11
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,31 ; jne 5b6d <_sk_load_rgb_u16_be_hsw+0x122>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,65,41,239,210 ; vpxor %xmm10,%xmm10,%xmm10
- DB 197,225,239,219 ; vpxor %xmm3,%xmm3,%xmm3
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 233,48,255,255,255 ; jmpq 5a9d <_sk_load_rgb_u16_be_hsw+0x52>
- DB 196,129,121,110,68,65,6 ; vmovd 0x6(%r9,%r8,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,1,121,196,68,65,10,2 ; vpinsrw $0x2,0xa(%r9,%r8,2),%xmm0,%xmm8
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,48 ; jb 5bb7 <_sk_load_rgb_u16_be_hsw+0x16c>
- DB 196,129,121,110,68,65,12 ; vmovd 0xc(%r9,%r8,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,92,65,16,2 ; vpinsrw $0x2,0x10(%r9,%r8,2),%xmm0,%xmm3
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 117,48 ; jne 5bd1 <_sk_load_rgb_u16_be_hsw+0x186>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,65,41,239,210 ; vpxor %xmm10,%xmm10,%xmm10
- DB 233,230,254,255,255 ; jmpq 5a9d <_sk_load_rgb_u16_be_hsw+0x52>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,65,41,239,210 ; vpxor %xmm10,%xmm10,%xmm10
- DB 197,225,239,219 ; vpxor %xmm3,%xmm3,%xmm3
- DB 233,204,254,255,255 ; jmpq 5a9d <_sk_load_rgb_u16_be_hsw+0x52>
- DB 196,129,121,110,68,65,18 ; vmovd 0x12(%r9,%r8,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,1,121,196,84,65,22,2 ; vpinsrw $0x2,0x16(%r9,%r8,2),%xmm0,%xmm10
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,39 ; jb 5c12 <_sk_load_rgb_u16_be_hsw+0x1c7>
- DB 196,129,121,110,68,65,24 ; vmovd 0x18(%r9,%r8,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,84,65,28,2 ; vpinsrw $0x2,0x1c(%r9,%r8,2),%xmm0,%xmm2
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 117,30 ; jne 5c23 <_sk_load_rgb_u16_be_hsw+0x1d8>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 233,139,254,255,255 ; jmpq 5a9d <_sk_load_rgb_u16_be_hsw+0x52>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 233,122,254,255,255 ; jmpq 5a9d <_sk_load_rgb_u16_be_hsw+0x52>
- DB 196,129,121,110,68,65,30 ; vmovd 0x1e(%r9,%r8,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,76,65,34,2 ; vpinsrw $0x2,0x22(%r9,%r8,2),%xmm0,%xmm1
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 114,25 ; jb 5c56 <_sk_load_rgb_u16_be_hsw+0x20b>
- DB 196,129,121,110,68,65,36 ; vmovd 0x24(%r9,%r8,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,68,65,40,2 ; vpinsrw $0x2,0x28(%r9,%r8,2),%xmm0,%xmm0
- DB 233,71,254,255,255 ; jmpq 5a9d <_sk_load_rgb_u16_be_hsw+0x52>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 233,62,254,255,255 ; jmpq 5a9d <_sk_load_rgb_u16_be_hsw+0x52>
-
-PUBLIC _sk_store_u16_be_hsw
-_sk_store_u16_be_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 77,1,201 ; add %r9,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,200 ; vmaxps %ymm0,%ymm8,%ymm9
- DB 196,98,125,24,21,63,238,2,0 ; vbroadcastss 0x2ee3f(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,52,93,202 ; vminps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,29,93,239,2,0 ; vbroadcastss 0x2ef5d(%rip),%ymm11 # 34bf4 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- DB 196,65,52,89,203 ; vmulps %ymm11,%ymm9,%ymm9
- DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
- DB 196,67,125,25,204,1 ; vextractf128 $0x1,%ymm9,%xmm12
- DB 196,66,49,43,204 ; vpackusdw %xmm12,%xmm9,%xmm9
- DB 196,193,25,113,241,8 ; vpsllw $0x8,%xmm9,%xmm12
- DB 196,193,49,113,209,8 ; vpsrlw $0x8,%xmm9,%xmm9
- DB 196,65,25,235,201 ; vpor %xmm9,%xmm12,%xmm9
- DB 197,60,95,225 ; vmaxps %ymm1,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,67,125,25,229,1 ; vextractf128 $0x1,%ymm12,%xmm13
- DB 196,66,25,43,229 ; vpackusdw %xmm13,%xmm12,%xmm12
- DB 196,193,17,113,244,8 ; vpsllw $0x8,%xmm12,%xmm13
- DB 196,193,25,113,212,8 ; vpsrlw $0x8,%xmm12,%xmm12
- DB 196,65,17,235,228 ; vpor %xmm12,%xmm13,%xmm12
- DB 197,60,95,234 ; vmaxps %ymm2,%ymm8,%ymm13
- DB 196,65,20,93,234 ; vminps %ymm10,%ymm13,%ymm13
- DB 196,65,20,89,235 ; vmulps %ymm11,%ymm13,%ymm13
- DB 196,65,125,91,237 ; vcvtps2dq %ymm13,%ymm13
- DB 196,67,125,25,238,1 ; vextractf128 $0x1,%ymm13,%xmm14
- DB 196,66,17,43,238 ; vpackusdw %xmm14,%xmm13,%xmm13
- DB 196,193,9,113,245,8 ; vpsllw $0x8,%xmm13,%xmm14
- DB 196,193,17,113,213,8 ; vpsrlw $0x8,%xmm13,%xmm13
- DB 196,65,9,235,237 ; vpor %xmm13,%xmm14,%xmm13
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,65,60,93,194 ; vminps %ymm10,%ymm8,%ymm8
- DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,67,125,25,194,1 ; vextractf128 $0x1,%ymm8,%xmm10
- DB 196,66,57,43,194 ; vpackusdw %xmm10,%xmm8,%xmm8
- DB 196,193,41,113,240,8 ; vpsllw $0x8,%xmm8,%xmm10
- DB 196,193,57,113,208,8 ; vpsrlw $0x8,%xmm8,%xmm8
- DB 196,65,41,235,192 ; vpor %xmm8,%xmm10,%xmm8
- DB 196,65,49,97,212 ; vpunpcklwd %xmm12,%xmm9,%xmm10
- DB 196,65,49,105,228 ; vpunpckhwd %xmm12,%xmm9,%xmm12
- DB 196,65,17,97,200 ; vpunpcklwd %xmm8,%xmm13,%xmm9
- DB 196,65,17,105,192 ; vpunpckhwd %xmm8,%xmm13,%xmm8
- DB 196,65,41,98,217 ; vpunpckldq %xmm9,%xmm10,%xmm11
- DB 196,65,41,106,209 ; vpunpckhdq %xmm9,%xmm10,%xmm10
- DB 196,65,25,98,200 ; vpunpckldq %xmm8,%xmm12,%xmm9
- DB 196,65,25,106,192 ; vpunpckhdq %xmm8,%xmm12,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,31 ; jne 5d96 <_sk_store_u16_be_hsw+0x137>
- DB 196,1,122,127,28,65 ; vmovdqu %xmm11,(%r9,%r8,2)
- DB 196,1,122,127,84,65,16 ; vmovdqu %xmm10,0x10(%r9,%r8,2)
- DB 196,1,122,127,76,65,32 ; vmovdqu %xmm9,0x20(%r9,%r8,2)
- DB 196,1,122,127,68,65,48 ; vmovdqu %xmm8,0x30(%r9,%r8,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 196,1,121,214,28,65 ; vmovq %xmm11,(%r9,%r8,2)
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,240 ; je 5d92 <_sk_store_u16_be_hsw+0x133>
- DB 196,1,121,23,92,65,8 ; vmovhpd %xmm11,0x8(%r9,%r8,2)
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,227 ; jb 5d92 <_sk_store_u16_be_hsw+0x133>
- DB 196,1,121,214,84,65,16 ; vmovq %xmm10,0x10(%r9,%r8,2)
- DB 116,218 ; je 5d92 <_sk_store_u16_be_hsw+0x133>
- DB 196,1,121,23,84,65,24 ; vmovhpd %xmm10,0x18(%r9,%r8,2)
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,205 ; jb 5d92 <_sk_store_u16_be_hsw+0x133>
- DB 196,1,121,214,76,65,32 ; vmovq %xmm9,0x20(%r9,%r8,2)
- DB 116,196 ; je 5d92 <_sk_store_u16_be_hsw+0x133>
- DB 196,1,121,23,76,65,40 ; vmovhpd %xmm9,0x28(%r9,%r8,2)
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 114,183 ; jb 5d92 <_sk_store_u16_be_hsw+0x133>
- DB 196,1,121,214,68,65,48 ; vmovq %xmm8,0x30(%r9,%r8,2)
- DB 235,174 ; jmp 5d92 <_sk_store_u16_be_hsw+0x133>
-
-PUBLIC _sk_load_f32_hsw
-_sk_load_f32_hsw LABEL PROC
- DB 72,129,236,152,0,0,0 ; sub $0x98,%rsp
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,253,87,192 ; vxorpd %ymm0,%ymm0,%ymm0
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 15,135,88,1,0,0 ; ja 5f53 <_sk_load_f32_hsw+0x16f>
- DB 197,253,17,36,36 ; vmovupd %ymm4,(%rsp)
- DB 197,253,17,108,36,32 ; vmovupd %ymm5,0x20(%rsp)
- DB 197,253,17,116,36,64 ; vmovupd %ymm6,0x40(%rsp)
- DB 197,253,17,124,36,96 ; vmovupd %ymm7,0x60(%rsp)
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 73,193,225,2 ; shl $0x2,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 76,141,21,52,1,0,0 ; lea 0x134(%rip),%r10 # 5f64 <_sk_load_f32_hsw+0x180>
- DB 73,99,4,186 ; movslq (%r10,%rdi,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 197,221,87,228 ; vxorpd %ymm4,%ymm4,%ymm4
- DB 196,65,53,87,201 ; vxorpd %ymm9,%ymm9,%ymm9
- DB 197,237,87,210 ; vxorpd %ymm2,%ymm2,%ymm2
- DB 196,65,37,87,219 ; vxorpd %ymm11,%ymm11,%ymm11
- DB 196,65,29,87,228 ; vxorpd %ymm12,%ymm12,%ymm12
- DB 196,65,61,87,192 ; vxorpd %ymm8,%ymm8,%ymm8
- DB 196,65,13,87,246 ; vxorpd %ymm14,%ymm14,%ymm14
- DB 197,205,87,246 ; vxorpd %ymm6,%ymm6,%ymm6
- DB 196,65,5,87,255 ; vxorpd %ymm15,%ymm15,%ymm15
- DB 197,245,87,201 ; vxorpd %ymm1,%ymm1,%ymm1
- DB 196,65,21,87,237 ; vxorpd %ymm13,%ymm13,%ymm13
- DB 197,213,87,237 ; vxorpd %ymm5,%ymm5,%ymm5
- DB 197,229,87,219 ; vxorpd %ymm3,%ymm3,%ymm3
- DB 196,65,45,87,210 ; vxorpd %ymm10,%ymm10,%ymm10
- DB 197,197,87,255 ; vxorpd %ymm7,%ymm7,%ymm7
- DB 255,224 ; jmpq *%rax
- DB 196,129,121,16,68,129,112 ; vmovupd 0x70(%r9,%r8,4),%xmm0
- DB 196,227,125,6,192,40 ; vperm2f128 $0x28,%ymm0,%ymm0,%ymm0
- DB 196,129,121,16,76,129,96 ; vmovupd 0x60(%r9,%r8,4),%xmm1
- DB 196,227,125,6,225,40 ; vperm2f128 $0x28,%ymm1,%ymm0,%ymm4
- DB 196,129,121,16,76,129,80 ; vmovupd 0x50(%r9,%r8,4),%xmm1
- DB 196,227,125,6,209,40 ; vperm2f128 $0x28,%ymm1,%ymm0,%ymm2
- DB 197,125,40,204 ; vmovapd %ymm4,%ymm9
- DB 196,129,121,16,76,129,64 ; vmovupd 0x40(%r9,%r8,4),%xmm1
- DB 196,99,125,6,193,40 ; vperm2f128 $0x28,%ymm1,%ymm0,%ymm8
- DB 196,65,125,40,217 ; vmovapd %ymm9,%ymm11
- DB 197,125,40,226 ; vmovapd %ymm2,%ymm12
- DB 196,129,121,16,76,129,48 ; vmovupd 0x30(%r9,%r8,4),%xmm1
- DB 196,227,117,13,192,12 ; vblendpd $0xc,%ymm0,%ymm1,%ymm0
- DB 196,65,125,40,243 ; vmovapd %ymm11,%ymm14
- DB 197,125,41,230 ; vmovapd %ymm12,%ymm6
- DB 196,65,125,40,248 ; vmovapd %ymm8,%ymm15
- DB 196,129,121,16,76,129,32 ; vmovupd 0x20(%r9,%r8,4),%xmm1
- DB 196,195,117,13,206,12 ; vblendpd $0xc,%ymm14,%ymm1,%ymm1
- DB 197,125,40,238 ; vmovapd %ymm6,%ymm13
- DB 197,125,41,253 ; vmovapd %ymm15,%ymm5
- DB 196,129,121,16,84,129,16 ; vmovupd 0x10(%r9,%r8,4),%xmm2
- DB 196,67,109,13,213,12 ; vblendpd $0xc,%ymm13,%ymm2,%ymm10
- DB 197,253,40,217 ; vmovapd %ymm1,%ymm3
- DB 197,253,40,253 ; vmovapd %ymm5,%ymm7
- DB 196,129,121,16,12,129 ; vmovupd (%r9,%r8,4),%xmm1
- DB 196,227,117,13,207,12 ; vblendpd $0xc,%ymm7,%ymm1,%ymm1
- DB 197,252,16,124,36,96 ; vmovups 0x60(%rsp),%ymm7
- DB 197,252,16,116,36,64 ; vmovups 0x40(%rsp),%ymm6
- DB 197,252,16,108,36,32 ; vmovups 0x20(%rsp),%ymm5
- DB 197,252,16,36,36 ; vmovups (%rsp),%ymm4
- DB 196,193,116,20,210 ; vunpcklps %ymm10,%ymm1,%ymm2
- DB 196,65,116,21,194 ; vunpckhps %ymm10,%ymm1,%ymm8
- DB 197,228,20,200 ; vunpcklps %ymm0,%ymm3,%ymm1
- DB 197,228,21,216 ; vunpckhps %ymm0,%ymm3,%ymm3
- DB 197,237,20,193 ; vunpcklpd %ymm1,%ymm2,%ymm0
- DB 197,237,21,201 ; vunpckhpd %ymm1,%ymm2,%ymm1
- DB 197,189,20,211 ; vunpcklpd %ymm3,%ymm8,%ymm2
- DB 197,189,21,219 ; vunpckhpd %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,129,196,152,0,0,0 ; add $0x98,%rsp
- DB 255,224 ; jmpq *%rax
- DB 197,229,87,219 ; vxorpd %ymm3,%ymm3,%ymm3
- DB 196,65,45,87,210 ; vxorpd %ymm10,%ymm10,%ymm10
- DB 197,245,87,201 ; vxorpd %ymm1,%ymm1,%ymm1
- DB 235,196 ; jmp 5f26 <_sk_load_f32_hsw+0x142>
- DB 102,144 ; xchg %ax,%ax
- DB 25,255 ; sbb %edi,%edi
- DB 255 ; (bad)
- DB 255,159,255,255,255,138 ; lcall *-0x75000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,117,255 ; pushq -0x1(%rbp)
- DB 255 ; (bad)
- DB 255,90,255 ; lcall *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,68,255,255 ; incl -0x1(%rdi,%rdi,8)
- DB 255,51 ; pushq (%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,38 ; jmpq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_f32_dst_hsw
-_sk_load_f32_dst_hsw LABEL PROC
- DB 72,129,236,152,0,0,0 ; sub $0x98,%rsp
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,221,87,228 ; vxorpd %ymm4,%ymm4,%ymm4
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 15,135,88,1,0,0 ; ja 60f3 <_sk_load_f32_dst_hsw+0x16f>
- DB 197,253,17,4,36 ; vmovupd %ymm0,(%rsp)
- DB 197,253,17,76,36,32 ; vmovupd %ymm1,0x20(%rsp)
- DB 197,253,17,84,36,64 ; vmovupd %ymm2,0x40(%rsp)
- DB 197,253,17,92,36,96 ; vmovupd %ymm3,0x60(%rsp)
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 73,193,225,2 ; shl $0x2,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 76,141,21,52,1,0,0 ; lea 0x134(%rip),%r10 # 6104 <_sk_load_f32_dst_hsw+0x180>
- DB 73,99,4,186 ; movslq (%r10,%rdi,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 197,253,87,192 ; vxorpd %ymm0,%ymm0,%ymm0
- DB 196,65,53,87,201 ; vxorpd %ymm9,%ymm9,%ymm9
- DB 197,205,87,246 ; vxorpd %ymm6,%ymm6,%ymm6
- DB 196,65,37,87,219 ; vxorpd %ymm11,%ymm11,%ymm11
- DB 196,65,29,87,228 ; vxorpd %ymm12,%ymm12,%ymm12
- DB 196,65,61,87,192 ; vxorpd %ymm8,%ymm8,%ymm8
- DB 196,65,13,87,246 ; vxorpd %ymm14,%ymm14,%ymm14
- DB 197,237,87,210 ; vxorpd %ymm2,%ymm2,%ymm2
- DB 196,65,5,87,255 ; vxorpd %ymm15,%ymm15,%ymm15
- DB 197,213,87,237 ; vxorpd %ymm5,%ymm5,%ymm5
- DB 196,65,21,87,237 ; vxorpd %ymm13,%ymm13,%ymm13
- DB 197,245,87,201 ; vxorpd %ymm1,%ymm1,%ymm1
- DB 197,197,87,255 ; vxorpd %ymm7,%ymm7,%ymm7
- DB 196,65,45,87,210 ; vxorpd %ymm10,%ymm10,%ymm10
- DB 197,229,87,219 ; vxorpd %ymm3,%ymm3,%ymm3
- DB 255,224 ; jmpq *%rax
- DB 196,129,121,16,68,129,112 ; vmovupd 0x70(%r9,%r8,4),%xmm0
- DB 196,227,125,6,224,40 ; vperm2f128 $0x28,%ymm0,%ymm0,%ymm4
- DB 196,129,121,16,68,129,96 ; vmovupd 0x60(%r9,%r8,4),%xmm0
- DB 196,227,125,6,192,40 ; vperm2f128 $0x28,%ymm0,%ymm0,%ymm0
- DB 196,129,121,16,76,129,80 ; vmovupd 0x50(%r9,%r8,4),%xmm1
- DB 196,227,125,6,241,40 ; vperm2f128 $0x28,%ymm1,%ymm0,%ymm6
- DB 197,125,40,200 ; vmovapd %ymm0,%ymm9
- DB 196,129,121,16,68,129,64 ; vmovupd 0x40(%r9,%r8,4),%xmm0
- DB 196,99,125,6,192,40 ; vperm2f128 $0x28,%ymm0,%ymm0,%ymm8
- DB 196,65,125,40,217 ; vmovapd %ymm9,%ymm11
- DB 197,125,40,230 ; vmovapd %ymm6,%ymm12
- DB 196,129,121,16,68,129,48 ; vmovupd 0x30(%r9,%r8,4),%xmm0
- DB 196,227,125,13,228,12 ; vblendpd $0xc,%ymm4,%ymm0,%ymm4
- DB 196,65,125,40,243 ; vmovapd %ymm11,%ymm14
- DB 197,125,41,226 ; vmovapd %ymm12,%ymm2
- DB 196,65,125,40,248 ; vmovapd %ymm8,%ymm15
- DB 196,129,121,16,68,129,32 ; vmovupd 0x20(%r9,%r8,4),%xmm0
- DB 196,195,125,13,238,12 ; vblendpd $0xc,%ymm14,%ymm0,%ymm5
- DB 197,125,40,234 ; vmovapd %ymm2,%ymm13
- DB 197,125,41,249 ; vmovapd %ymm15,%ymm1
- DB 196,129,121,16,68,129,16 ; vmovupd 0x10(%r9,%r8,4),%xmm0
- DB 196,67,125,13,213,12 ; vblendpd $0xc,%ymm13,%ymm0,%ymm10
- DB 197,253,40,253 ; vmovapd %ymm5,%ymm7
- DB 197,253,40,217 ; vmovapd %ymm1,%ymm3
- DB 196,129,121,16,4,129 ; vmovupd (%r9,%r8,4),%xmm0
- DB 196,227,125,13,235,12 ; vblendpd $0xc,%ymm3,%ymm0,%ymm5
- DB 197,252,16,92,36,96 ; vmovups 0x60(%rsp),%ymm3
- DB 197,252,16,84,36,64 ; vmovups 0x40(%rsp),%ymm2
- DB 197,252,16,76,36,32 ; vmovups 0x20(%rsp),%ymm1
- DB 197,252,16,4,36 ; vmovups (%rsp),%ymm0
- DB 196,193,84,20,242 ; vunpcklps %ymm10,%ymm5,%ymm6
- DB 196,65,84,21,194 ; vunpckhps %ymm10,%ymm5,%ymm8
- DB 197,196,20,236 ; vunpcklps %ymm4,%ymm7,%ymm5
- DB 197,196,21,252 ; vunpckhps %ymm4,%ymm7,%ymm7
- DB 197,205,20,229 ; vunpcklpd %ymm5,%ymm6,%ymm4
- DB 197,205,21,237 ; vunpckhpd %ymm5,%ymm6,%ymm5
- DB 197,189,20,247 ; vunpcklpd %ymm7,%ymm8,%ymm6
- DB 197,189,21,255 ; vunpckhpd %ymm7,%ymm8,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,129,196,152,0,0,0 ; add $0x98,%rsp
- DB 255,224 ; jmpq *%rax
- DB 197,197,87,255 ; vxorpd %ymm7,%ymm7,%ymm7
- DB 196,65,45,87,210 ; vxorpd %ymm10,%ymm10,%ymm10
- DB 197,213,87,237 ; vxorpd %ymm5,%ymm5,%ymm5
- DB 235,196 ; jmp 60c6 <_sk_load_f32_dst_hsw+0x142>
- DB 102,144 ; xchg %ax,%ax
- DB 25,255 ; sbb %edi,%edi
- DB 255 ; (bad)
- DB 255,159,255,255,255,138 ; lcall *-0x75000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,117,255 ; pushq -0x1(%rbp)
- DB 255 ; (bad)
- DB 255,90,255 ; lcall *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,68,255,255 ; incl -0x1(%rdi,%rdi,8)
- DB 255,51 ; pushq (%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,38 ; jmpq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_f32_hsw
-_sk_store_f32_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 73,193,225,2 ; shl $0x2,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 197,124,20,193 ; vunpcklps %ymm1,%ymm0,%ymm8
- DB 197,124,21,217 ; vunpckhps %ymm1,%ymm0,%ymm11
- DB 197,108,20,203 ; vunpcklps %ymm3,%ymm2,%ymm9
- DB 197,108,21,227 ; vunpckhps %ymm3,%ymm2,%ymm12
- DB 196,65,61,20,209 ; vunpcklpd %ymm9,%ymm8,%ymm10
- DB 196,65,61,21,201 ; vunpckhpd %ymm9,%ymm8,%ymm9
- DB 196,65,37,20,196 ; vunpcklpd %ymm12,%ymm11,%ymm8
- DB 196,65,37,21,220 ; vunpckhpd %ymm12,%ymm11,%ymm11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,55 ; jne 619d <_sk_store_f32_hsw+0x79>
- DB 196,67,45,24,225,1 ; vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
- DB 196,67,61,24,235,1 ; vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
- DB 196,67,45,6,201,49 ; vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
- DB 196,67,61,6,195,49 ; vperm2f128 $0x31,%ymm11,%ymm8,%ymm8
- DB 196,1,125,17,36,129 ; vmovupd %ymm12,(%r9,%r8,4)
- DB 196,1,125,17,108,129,32 ; vmovupd %ymm13,0x20(%r9,%r8,4)
- DB 196,1,125,17,76,129,64 ; vmovupd %ymm9,0x40(%r9,%r8,4)
- DB 196,1,125,17,68,129,96 ; vmovupd %ymm8,0x60(%r9,%r8,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 196,1,121,17,20,129 ; vmovupd %xmm10,(%r9,%r8,4)
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,240 ; je 6199 <_sk_store_f32_hsw+0x75>
- DB 196,1,121,17,76,129,16 ; vmovupd %xmm9,0x10(%r9,%r8,4)
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,227 ; jb 6199 <_sk_store_f32_hsw+0x75>
- DB 196,1,121,17,68,129,32 ; vmovupd %xmm8,0x20(%r9,%r8,4)
- DB 116,218 ; je 6199 <_sk_store_f32_hsw+0x75>
- DB 196,1,121,17,92,129,48 ; vmovupd %xmm11,0x30(%r9,%r8,4)
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,205 ; jb 6199 <_sk_store_f32_hsw+0x75>
- DB 196,3,125,25,84,129,64,1 ; vextractf128 $0x1,%ymm10,0x40(%r9,%r8,4)
- DB 116,195 ; je 6199 <_sk_store_f32_hsw+0x75>
- DB 196,3,125,25,76,129,80,1 ; vextractf128 $0x1,%ymm9,0x50(%r9,%r8,4)
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 114,181 ; jb 6199 <_sk_store_f32_hsw+0x75>
- DB 196,3,125,25,68,129,96,1 ; vextractf128 $0x1,%ymm8,0x60(%r9,%r8,4)
- DB 235,171 ; jmp 6199 <_sk_store_f32_hsw+0x75>
-
-PUBLIC _sk_repeat_x_hsw
-_sk_repeat_x_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,4 ; vbroadcastss 0x4(%rax),%ymm8
- DB 197,60,89,192 ; vmulps %ymm0,%ymm8,%ymm8
- DB 196,67,125,8,192,1 ; vroundps $0x1,%ymm8,%ymm8
- DB 196,98,125,24,8 ; vbroadcastss (%rax),%ymm9
- DB 196,194,61,188,193 ; vfnmadd231ps %ymm9,%ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_repeat_y_hsw
-_sk_repeat_y_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,4 ; vbroadcastss 0x4(%rax),%ymm8
- DB 197,60,89,193 ; vmulps %ymm1,%ymm8,%ymm8
- DB 196,67,125,8,192,1 ; vroundps $0x1,%ymm8,%ymm8
- DB 196,98,125,24,8 ; vbroadcastss (%rax),%ymm9
- DB 196,194,61,188,201 ; vfnmadd231ps %ymm9,%ymm8,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_x_hsw
-_sk_mirror_x_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,122,16,0 ; vmovss (%rax),%xmm8
- DB 197,122,16,72,4 ; vmovss 0x4(%rax),%xmm9
- DB 196,66,125,24,208 ; vbroadcastss %xmm8,%ymm10
- DB 196,65,124,92,218 ; vsubps %ymm10,%ymm0,%ymm11
- DB 196,193,58,88,192 ; vaddss %xmm8,%xmm8,%xmm0
- DB 196,98,125,24,192 ; vbroadcastss %xmm0,%ymm8
- DB 197,178,89,5,111,232,2,0 ; vmulss 0x2e86f(%rip),%xmm9,%xmm0 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,226,125,24,192 ; vbroadcastss %xmm0,%ymm0
- DB 197,164,89,192 ; vmulps %ymm0,%ymm11,%ymm0
- DB 196,227,125,8,192,1 ; vroundps $0x1,%ymm0,%ymm0
- DB 196,194,61,172,195 ; vfnmadd213ps %ymm11,%ymm8,%ymm0
- DB 196,193,124,92,194 ; vsubps %ymm10,%ymm0,%ymm0
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,92,192 ; vsubps %ymm0,%ymm8,%ymm8
- DB 197,188,84,192 ; vandps %ymm0,%ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_y_hsw
-_sk_mirror_y_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,122,16,0 ; vmovss (%rax),%xmm8
- DB 197,122,16,72,4 ; vmovss 0x4(%rax),%xmm9
- DB 196,66,125,24,208 ; vbroadcastss %xmm8,%ymm10
- DB 196,65,116,92,218 ; vsubps %ymm10,%ymm1,%ymm11
- DB 196,193,58,88,200 ; vaddss %xmm8,%xmm8,%xmm1
- DB 196,98,125,24,193 ; vbroadcastss %xmm1,%ymm8
- DB 197,178,89,13,30,232,2,0 ; vmulss 0x2e81e(%rip),%xmm9,%xmm1 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,226,125,24,201 ; vbroadcastss %xmm1,%ymm1
- DB 197,164,89,201 ; vmulps %ymm1,%ymm11,%ymm1
- DB 196,227,125,8,201,1 ; vroundps $0x1,%ymm1,%ymm1
- DB 196,194,61,172,203 ; vfnmadd213ps %ymm11,%ymm8,%ymm1
- DB 196,193,116,92,202 ; vsubps %ymm10,%ymm1,%ymm1
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,92,193 ; vsubps %ymm1,%ymm8,%ymm8
- DB 197,188,84,201 ; vandps %ymm1,%ymm8,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_x_1_hsw
-_sk_clamp_x_1_hsw LABEL PROC
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,5,230,231,2,0 ; vbroadcastss 0x2e7e6(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_repeat_x_1_hsw
-_sk_repeat_x_1_hsw LABEL PROC
- DB 196,99,125,8,192,1 ; vroundps $0x1,%ymm0,%ymm8
- DB 196,193,124,92,192 ; vsubps %ymm8,%ymm0,%ymm0
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,5,192,231,2,0 ; vbroadcastss 0x2e7c0(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_x_1_hsw
-_sk_mirror_x_1_hsw LABEL PROC
- DB 196,98,125,24,5,198,231,2,0 ; vbroadcastss 0x2e7c6(%rip),%ymm8 # 34ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
- DB 196,193,124,88,192 ; vaddps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,13,156,231,2,0 ; vbroadcastss 0x2e79c(%rip),%ymm9 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,124,89,201 ; vmulps %ymm9,%ymm0,%ymm9
- DB 196,67,125,8,201,1 ; vroundps $0x1,%ymm9,%ymm9
- DB 196,65,52,88,201 ; vaddps %ymm9,%ymm9,%ymm9
- DB 196,193,124,92,193 ; vsubps %ymm9,%ymm0,%ymm0
- DB 196,193,124,88,192 ; vaddps %ymm8,%ymm0,%ymm0
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,92,200 ; vsubps %ymm0,%ymm8,%ymm9
- DB 197,180,84,192 ; vandps %ymm0,%ymm9,%ymm0
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,5,108,231,2,0 ; vbroadcastss 0x2e76c(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_x_hsw
-_sk_decal_x_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,194,200,2 ; vcmpleps %ymm0,%ymm8,%ymm9
- DB 196,98,125,24,80,64 ; vbroadcastss 0x40(%rax),%ymm10
- DB 196,65,124,194,210,1 ; vcmpltps %ymm10,%ymm0,%ymm10
- DB 196,65,44,84,201 ; vandps %ymm9,%ymm10,%ymm9
- DB 196,65,45,118,210 ; vpcmpeqd %ymm10,%ymm10,%ymm10
- DB 196,67,61,74,194,144 ; vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- DB 197,124,17,0 ; vmovups %ymm8,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_y_hsw
-_sk_decal_y_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,194,201,2 ; vcmpleps %ymm1,%ymm8,%ymm9
- DB 196,98,125,24,80,68 ; vbroadcastss 0x44(%rax),%ymm10
- DB 196,65,116,194,210,1 ; vcmpltps %ymm10,%ymm1,%ymm10
- DB 196,65,44,84,201 ; vandps %ymm9,%ymm10,%ymm9
- DB 196,65,45,118,210 ; vpcmpeqd %ymm10,%ymm10,%ymm10
- DB 196,67,61,74,194,144 ; vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- DB 197,124,17,0 ; vmovups %ymm8,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_x_and_y_hsw
-_sk_decal_x_and_y_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,194,200,2 ; vcmpleps %ymm0,%ymm8,%ymm9
- DB 196,67,125,25,202,1 ; vextractf128 $0x1,%ymm9,%xmm10
- DB 196,65,49,99,202 ; vpacksswb %xmm10,%xmm9,%xmm9
- DB 196,98,125,24,80,64 ; vbroadcastss 0x40(%rax),%ymm10
- DB 196,65,124,194,210,1 ; vcmpltps %ymm10,%ymm0,%ymm10
- DB 196,67,125,25,211,1 ; vextractf128 $0x1,%ymm10,%xmm11
- DB 196,65,41,99,211 ; vpacksswb %xmm11,%xmm10,%xmm10
- DB 197,60,194,217,2 ; vcmpleps %ymm1,%ymm8,%ymm11
- DB 196,67,125,25,220,1 ; vextractf128 $0x1,%ymm11,%xmm12
- DB 196,65,33,99,220 ; vpacksswb %xmm12,%xmm11,%xmm11
- DB 196,65,33,219,201 ; vpand %xmm9,%xmm11,%xmm9
- DB 196,65,49,219,202 ; vpand %xmm10,%xmm9,%xmm9
- DB 196,98,125,24,80,68 ; vbroadcastss 0x44(%rax),%ymm10
- DB 196,65,116,194,210,1 ; vcmpltps %ymm10,%ymm1,%ymm10
- DB 196,67,125,25,211,1 ; vextractf128 $0x1,%ymm10,%xmm11
- DB 196,65,41,99,211 ; vpacksswb %xmm11,%xmm10,%xmm10
- DB 196,65,49,219,202 ; vpand %xmm10,%xmm9,%xmm9
- DB 196,66,125,51,201 ; vpmovzxwd %xmm9,%ymm9
- DB 196,193,53,114,241,31 ; vpslld $0x1f,%ymm9,%ymm9
- DB 196,193,53,114,225,31 ; vpsrad $0x1f,%ymm9,%ymm9
- DB 196,65,45,118,210 ; vpcmpeqd %ymm10,%ymm10,%ymm10
- DB 196,67,61,74,194,144 ; vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- DB 197,124,17,0 ; vmovups %ymm8,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_check_decal_mask_hsw
-_sk_check_decal_mask_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,16,0 ; vmovups (%rax),%ymm8
- DB 197,188,84,192 ; vandps %ymm0,%ymm8,%ymm0
- DB 197,188,84,201 ; vandps %ymm1,%ymm8,%ymm1
- DB 197,188,84,210 ; vandps %ymm2,%ymm8,%ymm2
- DB 197,188,84,219 ; vandps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_luminance_to_alpha_hsw
-_sk_luminance_to_alpha_hsw LABEL PROC
- DB 196,226,125,24,29,136,231,2,0 ; vbroadcastss 0x2e788(%rip),%ymm3 # 34bf8 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
- DB 196,98,125,24,5,131,231,2,0 ; vbroadcastss 0x2e783(%rip),%ymm8 # 34bfc <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
- DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 196,226,125,184,203 ; vfmadd231ps %ymm3,%ymm0,%ymm1
- DB 196,226,125,24,29,116,231,2,0 ; vbroadcastss 0x2e774(%rip),%ymm3 # 34c00 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
- DB 196,226,109,168,217 ; vfmadd213ps %ymm1,%ymm2,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_translate_hsw
-_sk_matrix_translate_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,64,4 ; vbroadcastss 0x4(%rax),%ymm8
- DB 197,188,88,201 ; vaddps %ymm1,%ymm8,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_scale_translate_hsw
-_sk_matrix_scale_translate_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 196,98,125,24,72,8 ; vbroadcastss 0x8(%rax),%ymm9
- DB 196,194,61,168,193 ; vfmadd213ps %ymm9,%ymm8,%ymm0
- DB 196,98,125,24,64,4 ; vbroadcastss 0x4(%rax),%ymm8
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 196,194,61,168,201 ; vfmadd213ps %ymm9,%ymm8,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_2x3_hsw
-_sk_matrix_2x3_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,8 ; vbroadcastss (%rax),%ymm9
- DB 196,98,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm10
- DB 196,98,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm8
- DB 196,66,117,184,194 ; vfmadd231ps %ymm10,%ymm1,%ymm8
- DB 196,66,125,184,193 ; vfmadd231ps %ymm9,%ymm0,%ymm8
- DB 196,98,125,24,80,4 ; vbroadcastss 0x4(%rax),%ymm10
- DB 196,98,125,24,88,12 ; vbroadcastss 0xc(%rax),%ymm11
- DB 196,98,125,24,72,20 ; vbroadcastss 0x14(%rax),%ymm9
- DB 196,66,117,184,203 ; vfmadd231ps %ymm11,%ymm1,%ymm9
- DB 196,66,125,184,202 ; vfmadd231ps %ymm10,%ymm0,%ymm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 197,124,41,201 ; vmovaps %ymm9,%ymm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_3x4_hsw
-_sk_matrix_3x4_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,8 ; vbroadcastss (%rax),%ymm9
- DB 196,98,125,24,80,12 ; vbroadcastss 0xc(%rax),%ymm10
- DB 196,98,125,24,88,24 ; vbroadcastss 0x18(%rax),%ymm11
- DB 196,98,125,24,64,36 ; vbroadcastss 0x24(%rax),%ymm8
- DB 196,66,109,184,195 ; vfmadd231ps %ymm11,%ymm2,%ymm8
- DB 196,66,117,184,194 ; vfmadd231ps %ymm10,%ymm1,%ymm8
- DB 196,66,125,184,193 ; vfmadd231ps %ymm9,%ymm0,%ymm8
- DB 196,98,125,24,80,4 ; vbroadcastss 0x4(%rax),%ymm10
- DB 196,98,125,24,88,16 ; vbroadcastss 0x10(%rax),%ymm11
- DB 196,98,125,24,96,28 ; vbroadcastss 0x1c(%rax),%ymm12
- DB 196,98,125,24,72,40 ; vbroadcastss 0x28(%rax),%ymm9
- DB 196,66,109,184,204 ; vfmadd231ps %ymm12,%ymm2,%ymm9
- DB 196,66,117,184,203 ; vfmadd231ps %ymm11,%ymm1,%ymm9
- DB 196,66,125,184,202 ; vfmadd231ps %ymm10,%ymm0,%ymm9
- DB 196,98,125,24,88,8 ; vbroadcastss 0x8(%rax),%ymm11
- DB 196,98,125,24,96,20 ; vbroadcastss 0x14(%rax),%ymm12
- DB 196,98,125,24,104,32 ; vbroadcastss 0x20(%rax),%ymm13
- DB 196,98,125,24,80,44 ; vbroadcastss 0x2c(%rax),%ymm10
- DB 196,66,109,184,213 ; vfmadd231ps %ymm13,%ymm2,%ymm10
- DB 196,66,117,184,212 ; vfmadd231ps %ymm12,%ymm1,%ymm10
- DB 196,66,125,184,211 ; vfmadd231ps %ymm11,%ymm0,%ymm10
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 197,124,41,201 ; vmovaps %ymm9,%ymm1
- DB 197,124,41,210 ; vmovaps %ymm10,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_4x5_hsw
-_sk_matrix_4x5_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,8 ; vbroadcastss (%rax),%ymm9
- DB 196,98,125,24,80,16 ; vbroadcastss 0x10(%rax),%ymm10
- DB 196,98,125,24,88,32 ; vbroadcastss 0x20(%rax),%ymm11
- DB 196,98,125,24,96,48 ; vbroadcastss 0x30(%rax),%ymm12
- DB 196,98,125,24,64,64 ; vbroadcastss 0x40(%rax),%ymm8
- DB 196,66,101,184,196 ; vfmadd231ps %ymm12,%ymm3,%ymm8
- DB 196,66,109,184,195 ; vfmadd231ps %ymm11,%ymm2,%ymm8
- DB 196,66,117,184,194 ; vfmadd231ps %ymm10,%ymm1,%ymm8
- DB 196,66,125,184,193 ; vfmadd231ps %ymm9,%ymm0,%ymm8
- DB 196,98,125,24,80,4 ; vbroadcastss 0x4(%rax),%ymm10
- DB 196,98,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm11
- DB 196,98,125,24,96,36 ; vbroadcastss 0x24(%rax),%ymm12
- DB 196,98,125,24,104,52 ; vbroadcastss 0x34(%rax),%ymm13
- DB 196,98,125,24,72,68 ; vbroadcastss 0x44(%rax),%ymm9
- DB 196,66,101,184,205 ; vfmadd231ps %ymm13,%ymm3,%ymm9
- DB 196,66,109,184,204 ; vfmadd231ps %ymm12,%ymm2,%ymm9
- DB 196,66,117,184,203 ; vfmadd231ps %ymm11,%ymm1,%ymm9
- DB 196,66,125,184,202 ; vfmadd231ps %ymm10,%ymm0,%ymm9
- DB 196,98,125,24,88,8 ; vbroadcastss 0x8(%rax),%ymm11
- DB 196,98,125,24,96,24 ; vbroadcastss 0x18(%rax),%ymm12
- DB 196,98,125,24,104,40 ; vbroadcastss 0x28(%rax),%ymm13
- DB 196,98,125,24,112,56 ; vbroadcastss 0x38(%rax),%ymm14
- DB 196,98,125,24,80,72 ; vbroadcastss 0x48(%rax),%ymm10
- DB 196,66,101,184,214 ; vfmadd231ps %ymm14,%ymm3,%ymm10
- DB 196,66,109,184,213 ; vfmadd231ps %ymm13,%ymm2,%ymm10
- DB 196,66,117,184,212 ; vfmadd231ps %ymm12,%ymm1,%ymm10
- DB 196,66,125,184,211 ; vfmadd231ps %ymm11,%ymm0,%ymm10
- DB 196,98,125,24,96,12 ; vbroadcastss 0xc(%rax),%ymm12
- DB 196,98,125,24,104,28 ; vbroadcastss 0x1c(%rax),%ymm13
- DB 196,98,125,24,112,44 ; vbroadcastss 0x2c(%rax),%ymm14
- DB 196,98,125,24,120,60 ; vbroadcastss 0x3c(%rax),%ymm15
- DB 196,98,125,24,88,76 ; vbroadcastss 0x4c(%rax),%ymm11
- DB 196,66,101,184,223 ; vfmadd231ps %ymm15,%ymm3,%ymm11
- DB 196,66,109,184,222 ; vfmadd231ps %ymm14,%ymm2,%ymm11
- DB 196,66,117,184,221 ; vfmadd231ps %ymm13,%ymm1,%ymm11
- DB 196,66,125,184,220 ; vfmadd231ps %ymm12,%ymm0,%ymm11
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 197,124,41,201 ; vmovaps %ymm9,%ymm1
- DB 197,124,41,210 ; vmovaps %ymm10,%ymm2
- DB 197,124,41,219 ; vmovaps %ymm11,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_4x3_hsw
-_sk_matrix_4x3_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,16 ; vbroadcastss (%rax),%ymm2
- DB 196,226,125,24,88,16 ; vbroadcastss 0x10(%rax),%ymm3
- DB 196,98,125,24,64,32 ; vbroadcastss 0x20(%rax),%ymm8
- DB 196,98,117,184,195 ; vfmadd231ps %ymm3,%ymm1,%ymm8
- DB 196,98,125,184,194 ; vfmadd231ps %ymm2,%ymm0,%ymm8
- DB 196,226,125,24,80,4 ; vbroadcastss 0x4(%rax),%ymm2
- DB 196,226,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm3
- DB 196,98,125,24,72,36 ; vbroadcastss 0x24(%rax),%ymm9
- DB 196,98,117,184,203 ; vfmadd231ps %ymm3,%ymm1,%ymm9
- DB 196,98,125,184,202 ; vfmadd231ps %ymm2,%ymm0,%ymm9
- DB 196,226,125,24,88,8 ; vbroadcastss 0x8(%rax),%ymm3
- DB 196,98,125,24,80,24 ; vbroadcastss 0x18(%rax),%ymm10
- DB 196,226,125,24,80,40 ; vbroadcastss 0x28(%rax),%ymm2
- DB 196,194,117,184,210 ; vfmadd231ps %ymm10,%ymm1,%ymm2
- DB 196,226,125,184,211 ; vfmadd231ps %ymm3,%ymm0,%ymm2
- DB 196,98,125,24,80,12 ; vbroadcastss 0xc(%rax),%ymm10
- DB 196,98,125,24,88,28 ; vbroadcastss 0x1c(%rax),%ymm11
- DB 196,226,125,24,88,44 ; vbroadcastss 0x2c(%rax),%ymm3
- DB 196,194,117,184,219 ; vfmadd231ps %ymm11,%ymm1,%ymm3
- DB 196,194,125,184,218 ; vfmadd231ps %ymm10,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 197,124,41,201 ; vmovaps %ymm9,%ymm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_perspective_hsw
-_sk_matrix_perspective_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 196,98,125,24,72,4 ; vbroadcastss 0x4(%rax),%ymm9
- DB 196,98,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm10
- DB 196,66,117,184,209 ; vfmadd231ps %ymm9,%ymm1,%ymm10
- DB 196,66,125,184,208 ; vfmadd231ps %ymm8,%ymm0,%ymm10
- DB 196,98,125,24,64,12 ; vbroadcastss 0xc(%rax),%ymm8
- DB 196,98,125,24,72,16 ; vbroadcastss 0x10(%rax),%ymm9
- DB 196,98,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm11
- DB 196,66,117,184,217 ; vfmadd231ps %ymm9,%ymm1,%ymm11
- DB 196,66,125,184,216 ; vfmadd231ps %ymm8,%ymm0,%ymm11
- DB 196,98,125,24,64,24 ; vbroadcastss 0x18(%rax),%ymm8
- DB 196,98,125,24,72,28 ; vbroadcastss 0x1c(%rax),%ymm9
- DB 196,98,125,24,96,32 ; vbroadcastss 0x20(%rax),%ymm12
- DB 196,66,117,184,225 ; vfmadd231ps %ymm9,%ymm1,%ymm12
- DB 196,66,125,184,224 ; vfmadd231ps %ymm8,%ymm0,%ymm12
- DB 196,193,124,83,204 ; vrcpps %ymm12,%ymm1
- DB 197,172,89,193 ; vmulps %ymm1,%ymm10,%ymm0
- DB 197,164,89,201 ; vmulps %ymm1,%ymm11,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_evenly_spaced_gradient_hsw
-_sk_evenly_spaced_gradient_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,8 ; mov (%rax),%r9
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 77,137,202 ; mov %r9,%r10
- DB 73,255,202 ; dec %r10
- DB 120,7 ; js 6784 <_sk_evenly_spaced_gradient_hsw+0x18>
- DB 196,193,242,42,202 ; vcvtsi2ss %r10,%xmm1,%xmm1
- DB 235,22 ; jmp 679a <_sk_evenly_spaced_gradient_hsw+0x2e>
- DB 77,137,211 ; mov %r10,%r11
- DB 73,209,235 ; shr %r11
- DB 65,131,226,1 ; and $0x1,%r10d
- DB 77,9,218 ; or %r11,%r10
- DB 196,193,242,42,202 ; vcvtsi2ss %r10,%xmm1,%xmm1
- DB 197,242,88,201 ; vaddss %xmm1,%xmm1,%xmm1
- DB 196,226,125,24,201 ; vbroadcastss %xmm1,%ymm1
- DB 197,244,89,200 ; vmulps %ymm0,%ymm1,%ymm1
- DB 197,126,91,225 ; vcvttps2dq %ymm1,%ymm12
- DB 73,131,249,8 ; cmp $0x8,%r9
- DB 119,73 ; ja 67f6 <_sk_evenly_spaced_gradient_hsw+0x8a>
- DB 196,66,29,22,0 ; vpermps (%r8),%ymm12,%ymm8
- DB 76,139,64,40 ; mov 0x28(%rax),%r8
- DB 196,66,29,22,8 ; vpermps (%r8),%ymm12,%ymm9
- DB 76,139,64,16 ; mov 0x10(%rax),%r8
- DB 76,139,72,24 ; mov 0x18(%rax),%r9
- DB 196,194,29,22,8 ; vpermps (%r8),%ymm12,%ymm1
- DB 76,139,64,48 ; mov 0x30(%rax),%r8
- DB 196,66,29,22,24 ; vpermps (%r8),%ymm12,%ymm11
- DB 196,194,29,22,17 ; vpermps (%r9),%ymm12,%ymm2
- DB 76,139,64,56 ; mov 0x38(%rax),%r8
- DB 196,66,29,22,40 ; vpermps (%r8),%ymm12,%ymm13
- DB 76,139,64,32 ; mov 0x20(%rax),%r8
- DB 196,194,29,22,24 ; vpermps (%r8),%ymm12,%ymm3
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 196,98,29,22,16 ; vpermps (%rax),%ymm12,%ymm10
- DB 233,147,0,0,0 ; jmpq 6889 <_sk_evenly_spaced_gradient_hsw+0x11d>
- DB 196,65,13,118,246 ; vpcmpeqd %ymm14,%ymm14,%ymm14
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 197,245,118,201 ; vpcmpeqd %ymm1,%ymm1,%ymm1
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,2,117,146,4,160 ; vgatherdps %ymm1,(%r8,%ymm12,4),%ymm8
- DB 76,139,64,40 ; mov 0x28(%rax),%r8
- DB 197,245,118,201 ; vpcmpeqd %ymm1,%ymm1,%ymm1
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 196,2,117,146,12,160 ; vgatherdps %ymm1,(%r8,%ymm12,4),%ymm9
- DB 76,139,64,16 ; mov 0x10(%rax),%r8
- DB 76,139,72,24 ; mov 0x18(%rax),%r9
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 196,130,109,146,12,160 ; vgatherdps %ymm2,(%r8,%ymm12,4),%ymm1
- DB 76,139,64,48 ; mov 0x30(%rax),%r8
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 196,65,36,87,219 ; vxorps %ymm11,%ymm11,%ymm11
- DB 196,2,109,146,28,160 ; vgatherdps %ymm2,(%r8,%ymm12,4),%ymm11
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 196,130,101,146,20,161 ; vgatherdps %ymm3,(%r9,%ymm12,4),%ymm2
- DB 76,139,64,56 ; mov 0x38(%rax),%r8
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 196,65,20,87,237 ; vxorps %ymm13,%ymm13,%ymm13
- DB 196,2,101,146,44,160 ; vgatherdps %ymm3,(%r8,%ymm12,4),%ymm13
- DB 76,139,64,32 ; mov 0x20(%rax),%r8
- DB 196,65,5,118,255 ; vpcmpeqd %ymm15,%ymm15,%ymm15
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,130,5,146,28,160 ; vgatherdps %ymm15,(%r8,%ymm12,4),%ymm3
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 196,34,13,146,20,160 ; vgatherdps %ymm14,(%rax,%ymm12,4),%ymm10
- DB 196,66,125,168,193 ; vfmadd213ps %ymm9,%ymm0,%ymm8
- DB 196,194,125,168,203 ; vfmadd213ps %ymm11,%ymm0,%ymm1
- DB 196,194,125,168,213 ; vfmadd213ps %ymm13,%ymm0,%ymm2
- DB 196,194,125,168,218 ; vfmadd213ps %ymm10,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gradient_hsw
-_sk_gradient_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 73,131,248,1 ; cmp $0x1,%r8
- DB 15,134,220,0,0,0 ; jbe 6990 <_sk_gradient_hsw+0xeb>
- DB 76,139,72,72 ; mov 0x48(%rax),%r9
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 65,186,1,0,0,0 ; mov $0x1,%r10d
- DB 196,226,125,24,21,1,226,2,0 ; vbroadcastss 0x2e201(%rip),%ymm2 # 34acc <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
- DB 196,65,53,239,201 ; vpxor %ymm9,%ymm9,%ymm9
- DB 196,130,125,24,28,145 ; vbroadcastss (%r9,%r10,4),%ymm3
- DB 197,228,194,216,2 ; vcmpleps %ymm0,%ymm3,%ymm3
- DB 196,227,117,74,218,48 ; vblendvps %ymm3,%ymm2,%ymm1,%ymm3
- DB 197,53,254,203 ; vpaddd %ymm3,%ymm9,%ymm9
- DB 73,255,194 ; inc %r10
- DB 77,57,208 ; cmp %r10,%r8
- DB 117,227 ; jne 68d0 <_sk_gradient_hsw+0x2b>
- DB 76,139,72,8 ; mov 0x8(%rax),%r9
- DB 73,131,248,8 ; cmp $0x8,%r8
- DB 15,134,158,0,0,0 ; jbe 6999 <_sk_gradient_hsw+0xf4>
- DB 196,65,13,118,246 ; vpcmpeqd %ymm14,%ymm14,%ymm14
- DB 196,65,36,87,219 ; vxorps %ymm11,%ymm11,%ymm11
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,245,118,201 ; vpcmpeqd %ymm1,%ymm1,%ymm1
- DB 196,2,117,146,4,137 ; vgatherdps %ymm1,(%r9,%ymm9,4),%ymm8
- DB 76,139,64,40 ; mov 0x28(%rax),%r8
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 197,245,118,201 ; vpcmpeqd %ymm1,%ymm1,%ymm1
- DB 196,2,117,146,20,136 ; vgatherdps %ymm1,(%r8,%ymm9,4),%ymm10
- DB 76,139,64,16 ; mov 0x10(%rax),%r8
- DB 76,139,72,24 ; mov 0x18(%rax),%r9
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 196,130,109,146,12,136 ; vgatherdps %ymm2,(%r8,%ymm9,4),%ymm1
- DB 76,139,64,48 ; mov 0x30(%rax),%r8
- DB 196,65,28,87,228 ; vxorps %ymm12,%ymm12,%ymm12
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 196,2,109,146,36,136 ; vgatherdps %ymm2,(%r8,%ymm9,4),%ymm12
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 196,130,101,146,20,137 ; vgatherdps %ymm3,(%r9,%ymm9,4),%ymm2
- DB 76,139,64,56 ; mov 0x38(%rax),%r8
- DB 196,65,20,87,237 ; vxorps %ymm13,%ymm13,%ymm13
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 196,2,101,146,44,136 ; vgatherdps %ymm3,(%r8,%ymm9,4),%ymm13
- DB 76,139,64,32 ; mov 0x20(%rax),%r8
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,65,5,118,255 ; vpcmpeqd %ymm15,%ymm15,%ymm15
- DB 196,130,5,146,28,136 ; vgatherdps %ymm15,(%r8,%ymm9,4),%ymm3
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 196,34,13,146,28,136 ; vgatherdps %ymm14,(%rax,%ymm9,4),%ymm11
- DB 235,77 ; jmp 69dd <_sk_gradient_hsw+0x138>
- DB 76,139,72,8 ; mov 0x8(%rax),%r9
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 196,66,53,22,1 ; vpermps (%r9),%ymm9,%ymm8
- DB 76,139,64,40 ; mov 0x28(%rax),%r8
- DB 196,66,53,22,16 ; vpermps (%r8),%ymm9,%ymm10
- DB 76,139,64,16 ; mov 0x10(%rax),%r8
- DB 76,139,72,24 ; mov 0x18(%rax),%r9
- DB 196,194,53,22,8 ; vpermps (%r8),%ymm9,%ymm1
- DB 76,139,64,48 ; mov 0x30(%rax),%r8
- DB 196,66,53,22,32 ; vpermps (%r8),%ymm9,%ymm12
- DB 196,194,53,22,17 ; vpermps (%r9),%ymm9,%ymm2
- DB 76,139,64,56 ; mov 0x38(%rax),%r8
- DB 196,66,53,22,40 ; vpermps (%r8),%ymm9,%ymm13
- DB 76,139,64,32 ; mov 0x20(%rax),%r8
- DB 196,194,53,22,24 ; vpermps (%r8),%ymm9,%ymm3
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 196,98,53,22,24 ; vpermps (%rax),%ymm9,%ymm11
- DB 196,66,125,168,194 ; vfmadd213ps %ymm10,%ymm0,%ymm8
- DB 196,194,125,168,204 ; vfmadd213ps %ymm12,%ymm0,%ymm1
- DB 196,194,125,168,213 ; vfmadd213ps %ymm13,%ymm0,%ymm2
- DB 196,194,125,168,219 ; vfmadd213ps %ymm11,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_evenly_spaced_2_stop_gradient_hsw
-_sk_evenly_spaced_2_stop_gradient_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,8 ; vbroadcastss (%rax),%ymm1
- DB 196,98,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm8
- DB 196,98,125,184,193 ; vfmadd231ps %ymm1,%ymm0,%ymm8
- DB 196,226,125,24,80,4 ; vbroadcastss 0x4(%rax),%ymm2
- DB 196,226,125,24,72,20 ; vbroadcastss 0x14(%rax),%ymm1
- DB 196,226,125,184,202 ; vfmadd231ps %ymm2,%ymm0,%ymm1
- DB 196,226,125,24,88,8 ; vbroadcastss 0x8(%rax),%ymm3
- DB 196,226,125,24,80,24 ; vbroadcastss 0x18(%rax),%ymm2
- DB 196,226,125,184,211 ; vfmadd231ps %ymm3,%ymm0,%ymm2
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 196,226,125,24,88,28 ; vbroadcastss 0x1c(%rax),%ymm3
- DB 196,194,125,184,217 ; vfmadd231ps %ymm9,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_unit_angle_hsw
-_sk_xy_to_unit_angle_hsw LABEL PROC
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,92,200 ; vsubps %ymm0,%ymm8,%ymm9
- DB 197,52,84,200 ; vandps %ymm0,%ymm9,%ymm9
- DB 197,60,92,209 ; vsubps %ymm1,%ymm8,%ymm10
- DB 197,44,84,209 ; vandps %ymm1,%ymm10,%ymm10
- DB 196,65,52,93,218 ; vminps %ymm10,%ymm9,%ymm11
- DB 196,65,52,95,226 ; vmaxps %ymm10,%ymm9,%ymm12
- DB 196,65,36,94,220 ; vdivps %ymm12,%ymm11,%ymm11
- DB 196,65,36,89,227 ; vmulps %ymm11,%ymm11,%ymm12
- DB 196,98,125,24,45,140,225,2,0 ; vbroadcastss 0x2e18c(%rip),%ymm13 # 34c04 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
- DB 196,98,125,24,53,135,225,2,0 ; vbroadcastss 0x2e187(%rip),%ymm14 # 34c08 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
- DB 196,66,29,184,245 ; vfmadd231ps %ymm13,%ymm12,%ymm14
- DB 196,98,125,24,45,125,225,2,0 ; vbroadcastss 0x2e17d(%rip),%ymm13 # 34c0c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
- DB 196,66,29,184,238 ; vfmadd231ps %ymm14,%ymm12,%ymm13
- DB 196,98,125,24,53,115,225,2,0 ; vbroadcastss 0x2e173(%rip),%ymm14 # 34c10 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
- DB 196,66,29,184,245 ; vfmadd231ps %ymm13,%ymm12,%ymm14
- DB 196,65,36,89,222 ; vmulps %ymm14,%ymm11,%ymm11
- DB 196,65,52,194,202,1 ; vcmpltps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,21,94,225,2,0 ; vbroadcastss 0x2e15e(%rip),%ymm10 # 34c14 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- DB 196,65,44,92,211 ; vsubps %ymm11,%ymm10,%ymm10
- DB 196,67,37,74,202,144 ; vblendvps %ymm9,%ymm10,%ymm11,%ymm9
- DB 196,193,124,194,192,1 ; vcmpltps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,21,244,223,2,0 ; vbroadcastss 0x2dff4(%rip),%ymm10 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,44,92,209 ; vsubps %ymm9,%ymm10,%ymm10
- DB 196,195,53,74,194,0 ; vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- DB 196,65,116,194,200,1 ; vcmpltps %ymm8,%ymm1,%ymm9
- DB 196,98,125,24,21,222,223,2,0 ; vbroadcastss 0x2dfde(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,44,92,208 ; vsubps %ymm0,%ymm10,%ymm10
- DB 196,195,125,74,194,144 ; vblendvps %ymm9,%ymm10,%ymm0,%ymm0
- DB 196,65,124,194,200,3 ; vcmpunordps %ymm8,%ymm0,%ymm9
- DB 196,195,125,74,192,144 ; vblendvps %ymm9,%ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_radius_hsw
-_sk_xy_to_radius_hsw LABEL PROC
- DB 197,116,89,193 ; vmulps %ymm1,%ymm1,%ymm8
- DB 196,98,125,184,192 ; vfmadd231ps %ymm0,%ymm0,%ymm8
- DB 196,193,124,81,192 ; vsqrtps %ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_negate_x_hsw
-_sk_negate_x_hsw LABEL PROC
- DB 196,98,125,24,5,249,224,2,0 ; vbroadcastss 0x2e0f9(%rip),%ymm8 # 34c18 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- DB 196,193,124,87,192 ; vxorps %ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_strip_hsw
-_sk_xy_to_2pt_conical_strip_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,64 ; vbroadcastss 0x40(%rax),%ymm8
- DB 196,98,117,188,193 ; vfnmadd231ps %ymm1,%ymm1,%ymm8
- DB 196,65,124,81,192 ; vsqrtps %ymm8,%ymm8
- DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_focal_on_circle_hsw
-_sk_xy_to_2pt_conical_focal_on_circle_hsw LABEL PROC
- DB 197,116,89,193 ; vmulps %ymm1,%ymm1,%ymm8
- DB 197,60,94,192 ; vdivps %ymm0,%ymm8,%ymm8
- DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_well_behaved_hsw
-_sk_xy_to_2pt_conical_well_behaved_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,116,89,193 ; vmulps %ymm1,%ymm1,%ymm8
- DB 196,98,125,184,192 ; vfmadd231ps %ymm0,%ymm0,%ymm8
- DB 196,65,124,81,192 ; vsqrtps %ymm8,%ymm8
- DB 196,98,125,24,72,64 ; vbroadcastss 0x40(%rax),%ymm9
- DB 196,194,53,172,192 ; vfnmadd213ps %ymm8,%ymm9,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_greater_hsw
-_sk_xy_to_2pt_conical_greater_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,116,89,193 ; vmulps %ymm1,%ymm1,%ymm8
- DB 196,98,125,186,192 ; vfmsub231ps %ymm0,%ymm0,%ymm8
- DB 196,65,124,81,192 ; vsqrtps %ymm8,%ymm8
- DB 196,98,125,24,72,64 ; vbroadcastss 0x40(%rax),%ymm9
- DB 196,194,53,172,192 ; vfnmadd213ps %ymm8,%ymm9,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_smaller_hsw
-_sk_xy_to_2pt_conical_smaller_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,116,89,193 ; vmulps %ymm1,%ymm1,%ymm8
- DB 196,98,125,186,192 ; vfmsub231ps %ymm0,%ymm0,%ymm8
- DB 196,65,124,81,192 ; vsqrtps %ymm8,%ymm8
- DB 196,98,125,24,72,64 ; vbroadcastss 0x40(%rax),%ymm9
- DB 196,194,53,174,192 ; vfnmsub213ps %ymm8,%ymm9,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_alter_2pt_conical_compensate_focal_hsw
-_sk_alter_2pt_conical_compensate_focal_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,68 ; vbroadcastss 0x44(%rax),%ymm8
- DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_alter_2pt_conical_unswap_hsw
-_sk_alter_2pt_conical_unswap_hsw LABEL PROC
- DB 196,98,125,24,5,0,223,2,0 ; vbroadcastss 0x2df00(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mask_2pt_conical_nan_hsw
-_sk_mask_2pt_conical_nan_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 196,65,124,194,193,3 ; vcmpunordps %ymm9,%ymm0,%ymm8
- DB 196,67,125,74,193,128 ; vblendvps %ymm8,%ymm9,%ymm0,%ymm8
- DB 196,193,124,194,193,7 ; vcmpordps %ymm9,%ymm0,%ymm0
- DB 196,65,45,118,210 ; vpcmpeqd %ymm10,%ymm10,%ymm10
- DB 196,195,53,74,194,0 ; vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- DB 197,252,17,0 ; vmovups %ymm0,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mask_2pt_conical_degenerates_hsw
-_sk_mask_2pt_conical_degenerates_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,52,194,192,5 ; vcmpnltps %ymm0,%ymm9,%ymm8
- DB 196,67,125,74,193,128 ; vblendvps %ymm8,%ymm9,%ymm0,%ymm8
- DB 197,180,194,192,1 ; vcmpltps %ymm0,%ymm9,%ymm0
- DB 196,65,45,118,210 ; vpcmpeqd %ymm10,%ymm10,%ymm10
- DB 196,195,53,74,194,0 ; vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- DB 197,252,17,0 ; vmovups %ymm0,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_apply_vector_mask_hsw
-_sk_apply_vector_mask_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,16,0 ; vmovups (%rax),%ymm8
- DB 197,188,84,192 ; vandps %ymm0,%ymm8,%ymm0
- DB 197,188,84,201 ; vandps %ymm1,%ymm8,%ymm1
- DB 197,188,84,210 ; vandps %ymm2,%ymm8,%ymm2
- DB 197,188,84,219 ; vandps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_save_xy_hsw
-_sk_save_xy_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,5,113,222,2,0 ; vbroadcastss 0x2de71(%rip),%ymm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,124,88,200 ; vaddps %ymm8,%ymm0,%ymm9
- DB 196,67,125,8,209,1 ; vroundps $0x1,%ymm9,%ymm10
- DB 196,65,52,92,202 ; vsubps %ymm10,%ymm9,%ymm9
- DB 196,65,116,88,192 ; vaddps %ymm8,%ymm1,%ymm8
- DB 196,67,125,8,208,1 ; vroundps $0x1,%ymm8,%ymm10
- DB 196,65,60,92,194 ; vsubps %ymm10,%ymm8,%ymm8
- DB 197,252,17,0 ; vmovups %ymm0,(%rax)
- DB 197,252,17,72,64 ; vmovups %ymm1,0x40(%rax)
- DB 197,124,17,136,128,0,0,0 ; vmovups %ymm9,0x80(%rax)
- DB 197,124,17,128,192,0,0,0 ; vmovups %ymm8,0xc0(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_accumulate_hsw
-_sk_accumulate_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,16,128,0,1,0,0 ; vmovups 0x100(%rax),%ymm8
- DB 197,60,89,128,64,1,0,0 ; vmulps 0x140(%rax),%ymm8,%ymm8
- DB 196,226,61,184,224 ; vfmadd231ps %ymm0,%ymm8,%ymm4
- DB 196,226,61,184,233 ; vfmadd231ps %ymm1,%ymm8,%ymm5
- DB 196,226,61,184,242 ; vfmadd231ps %ymm2,%ymm8,%ymm6
- DB 196,98,101,168,199 ; vfmadd213ps %ymm7,%ymm3,%ymm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,199 ; vmovaps %ymm8,%ymm7
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_nx_hsw
-_sk_bilinear_nx_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,83,223,2,0 ; vbroadcastss 0x2df53(%rip),%ymm0 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 196,98,125,24,5,242,221,2,0 ; vbroadcastss 0x2ddf2(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,128,128,0,0,0 ; vsubps 0x80(%rax),%ymm8,%ymm8
- DB 197,124,17,128,0,1,0,0 ; vmovups %ymm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_px_hsw
-_sk_bilinear_px_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,207,221,2,0 ; vbroadcastss 0x2ddcf(%rip),%ymm0 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 197,124,16,128,128,0,0,0 ; vmovups 0x80(%rax),%ymm8
- DB 197,124,17,128,0,1,0,0 ; vmovups %ymm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_ny_hsw
-_sk_bilinear_ny_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,4,223,2,0 ; vbroadcastss 0x2df04(%rip),%ymm1 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 197,244,88,72,64 ; vaddps 0x40(%rax),%ymm1,%ymm1
- DB 196,98,125,24,5,162,221,2,0 ; vbroadcastss 0x2dda2(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,128,192,0,0,0 ; vsubps 0xc0(%rax),%ymm8,%ymm8
- DB 197,124,17,128,64,1,0,0 ; vmovups %ymm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_py_hsw
-_sk_bilinear_py_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,127,221,2,0 ; vbroadcastss 0x2dd7f(%rip),%ymm1 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,244,88,72,64 ; vaddps 0x40(%rax),%ymm1,%ymm1
- DB 197,124,16,128,192,0,0,0 ; vmovups 0xc0(%rax),%ymm8
- DB 197,124,17,128,64,1,0,0 ; vmovups %ymm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n3x_hsw
-_sk_bicubic_n3x_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,183,222,2,0 ; vbroadcastss 0x2deb7(%rip),%ymm0 # 34c20 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 196,98,125,24,5,82,221,2,0 ; vbroadcastss 0x2dd52(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,128,128,0,0,0 ; vsubps 0x80(%rax),%ymm8,%ymm8
- DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,176,221,2,0 ; vbroadcastss 0x2ddb0(%rip),%ymm10 # 34b3c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- DB 196,98,125,24,29,143,222,2,0 ; vbroadcastss 0x2de8f(%rip),%ymm11 # 34c24 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- DB 196,66,61,168,218 ; vfmadd213ps %ymm10,%ymm8,%ymm11
- DB 196,65,36,89,193 ; vmulps %ymm9,%ymm11,%ymm8
- DB 197,124,17,128,0,1,0,0 ; vmovups %ymm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n1x_hsw
-_sk_bicubic_n1x_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,102,222,2,0 ; vbroadcastss 0x2de66(%rip),%ymm0 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 196,98,125,24,5,5,221,2,0 ; vbroadcastss 0x2dd05(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,128,128,0,0,0 ; vsubps 0x80(%rax),%ymm8,%ymm8
- DB 196,98,125,24,13,84,222,2,0 ; vbroadcastss 0x2de54(%rip),%ymm9 # 34c28 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- DB 196,98,125,24,21,79,222,2,0 ; vbroadcastss 0x2de4f(%rip),%ymm10 # 34c2c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- DB 196,66,61,168,209 ; vfmadd213ps %ymm9,%ymm8,%ymm10
- DB 196,98,125,24,13,217,220,2,0 ; vbroadcastss 0x2dcd9(%rip),%ymm9 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,66,61,184,202 ; vfmadd231ps %ymm10,%ymm8,%ymm9
- DB 196,98,125,24,21,55,222,2,0 ; vbroadcastss 0x2de37(%rip),%ymm10 # 34c30 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- DB 196,66,61,184,209 ; vfmadd231ps %ymm9,%ymm8,%ymm10
- DB 197,124,17,144,0,1,0,0 ; vmovups %ymm10,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p1x_hsw
-_sk_bicubic_p1x_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,5,175,220,2,0 ; vbroadcastss 0x2dcaf(%rip),%ymm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,188,88,0 ; vaddps (%rax),%ymm8,%ymm0
- DB 197,124,16,136,128,0,0,0 ; vmovups 0x80(%rax),%ymm9
- DB 196,98,125,24,21,254,221,2,0 ; vbroadcastss 0x2ddfe(%rip),%ymm10 # 34c28 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- DB 196,98,125,24,29,249,221,2,0 ; vbroadcastss 0x2ddf9(%rip),%ymm11 # 34c2c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- DB 196,66,53,168,218 ; vfmadd213ps %ymm10,%ymm9,%ymm11
- DB 196,66,53,168,216 ; vfmadd213ps %ymm8,%ymm9,%ymm11
- DB 196,98,125,24,5,234,221,2,0 ; vbroadcastss 0x2ddea(%rip),%ymm8 # 34c30 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- DB 196,66,53,184,195 ; vfmadd231ps %ymm11,%ymm9,%ymm8
- DB 197,124,17,128,0,1,0,0 ; vmovups %ymm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p3x_hsw
-_sk_bicubic_p3x_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,198,221,2,0 ; vbroadcastss 0x2ddc6(%rip),%ymm0 # 34c28 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 197,124,16,128,128,0,0,0 ; vmovups 0x80(%rax),%ymm8
- DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,192,220,2,0 ; vbroadcastss 0x2dcc0(%rip),%ymm10 # 34b3c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- DB 196,98,125,24,29,159,221,2,0 ; vbroadcastss 0x2dd9f(%rip),%ymm11 # 34c24 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- DB 196,66,61,168,218 ; vfmadd213ps %ymm10,%ymm8,%ymm11
- DB 196,65,52,89,195 ; vmulps %ymm11,%ymm9,%ymm8
- DB 197,124,17,128,0,1,0,0 ; vmovups %ymm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n3y_hsw
-_sk_bicubic_n3y_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,122,221,2,0 ; vbroadcastss 0x2dd7a(%rip),%ymm1 # 34c20 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- DB 197,244,88,72,64 ; vaddps 0x40(%rax),%ymm1,%ymm1
- DB 196,98,125,24,5,20,220,2,0 ; vbroadcastss 0x2dc14(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,128,192,0,0,0 ; vsubps 0xc0(%rax),%ymm8,%ymm8
- DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,114,220,2,0 ; vbroadcastss 0x2dc72(%rip),%ymm10 # 34b3c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- DB 196,98,125,24,29,81,221,2,0 ; vbroadcastss 0x2dd51(%rip),%ymm11 # 34c24 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- DB 196,66,61,168,218 ; vfmadd213ps %ymm10,%ymm8,%ymm11
- DB 196,65,36,89,193 ; vmulps %ymm9,%ymm11,%ymm8
- DB 197,124,17,128,64,1,0,0 ; vmovups %ymm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n1y_hsw
-_sk_bicubic_n1y_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,40,221,2,0 ; vbroadcastss 0x2dd28(%rip),%ymm1 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 197,244,88,72,64 ; vaddps 0x40(%rax),%ymm1,%ymm1
- DB 196,98,125,24,5,198,219,2,0 ; vbroadcastss 0x2dbc6(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,128,192,0,0,0 ; vsubps 0xc0(%rax),%ymm8,%ymm8
- DB 196,98,125,24,13,21,221,2,0 ; vbroadcastss 0x2dd15(%rip),%ymm9 # 34c28 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- DB 196,98,125,24,21,16,221,2,0 ; vbroadcastss 0x2dd10(%rip),%ymm10 # 34c2c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- DB 196,66,61,168,209 ; vfmadd213ps %ymm9,%ymm8,%ymm10
- DB 196,98,125,24,13,154,219,2,0 ; vbroadcastss 0x2db9a(%rip),%ymm9 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,66,61,184,202 ; vfmadd231ps %ymm10,%ymm8,%ymm9
- DB 196,98,125,24,21,248,220,2,0 ; vbroadcastss 0x2dcf8(%rip),%ymm10 # 34c30 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- DB 196,66,61,184,209 ; vfmadd231ps %ymm9,%ymm8,%ymm10
- DB 197,124,17,144,64,1,0,0 ; vmovups %ymm10,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p1y_hsw
-_sk_bicubic_p1y_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,5,112,219,2,0 ; vbroadcastss 0x2db70(%rip),%ymm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,188,88,72,64 ; vaddps 0x40(%rax),%ymm8,%ymm1
- DB 197,124,16,136,192,0,0,0 ; vmovups 0xc0(%rax),%ymm9
- DB 196,98,125,24,21,190,220,2,0 ; vbroadcastss 0x2dcbe(%rip),%ymm10 # 34c28 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- DB 196,98,125,24,29,185,220,2,0 ; vbroadcastss 0x2dcb9(%rip),%ymm11 # 34c2c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- DB 196,66,53,168,218 ; vfmadd213ps %ymm10,%ymm9,%ymm11
- DB 196,66,53,168,216 ; vfmadd213ps %ymm8,%ymm9,%ymm11
- DB 196,98,125,24,5,170,220,2,0 ; vbroadcastss 0x2dcaa(%rip),%ymm8 # 34c30 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- DB 196,66,53,184,195 ; vfmadd231ps %ymm11,%ymm9,%ymm8
- DB 197,124,17,128,64,1,0,0 ; vmovups %ymm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p3y_hsw
-_sk_bicubic_p3y_hsw LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,134,220,2,0 ; vbroadcastss 0x2dc86(%rip),%ymm1 # 34c28 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- DB 197,244,88,72,64 ; vaddps 0x40(%rax),%ymm1,%ymm1
- DB 197,124,16,128,192,0,0,0 ; vmovups 0xc0(%rax),%ymm8
- DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,127,219,2,0 ; vbroadcastss 0x2db7f(%rip),%ymm10 # 34b3c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- DB 196,98,125,24,29,94,220,2,0 ; vbroadcastss 0x2dc5e(%rip),%ymm11 # 34c24 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- DB 196,66,61,168,218 ; vfmadd213ps %ymm10,%ymm8,%ymm11
- DB 196,65,52,89,195 ; vmulps %ymm11,%ymm9,%ymm8
- DB 197,124,17,128,64,1,0,0 ; vmovups %ymm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_callback_hsw
-_sk_callback_hsw LABEL PROC
- DB 85 ; push %rbp
- DB 72,137,229 ; mov %rsp,%rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,131,228,224 ; and $0xffffffffffffffe0,%rsp
- DB 72,129,236,192,0,0,0 ; sub $0xc0,%rsp
- DB 197,252,41,188,36,128,0,0,0 ; vmovaps %ymm7,0x80(%rsp)
- DB 197,252,41,116,36,96 ; vmovaps %ymm6,0x60(%rsp)
- DB 197,252,41,108,36,64 ; vmovaps %ymm5,0x40(%rsp)
- DB 197,252,41,100,36,32 ; vmovaps %ymm4,0x20(%rsp)
- DB 73,137,206 ; mov %rcx,%r14
- DB 73,137,215 ; mov %rdx,%r15
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,137,195 ; mov %rax,%rbx
- DB 197,252,20,225 ; vunpcklps %ymm1,%ymm0,%ymm4
- DB 197,252,21,193 ; vunpckhps %ymm1,%ymm0,%ymm0
- DB 197,236,20,203 ; vunpcklps %ymm3,%ymm2,%ymm1
- DB 197,236,21,211 ; vunpckhps %ymm3,%ymm2,%ymm2
- DB 197,221,20,217 ; vunpcklpd %ymm1,%ymm4,%ymm3
- DB 197,221,21,201 ; vunpckhpd %ymm1,%ymm4,%ymm1
- DB 197,253,20,226 ; vunpcklpd %ymm2,%ymm0,%ymm4
- DB 197,253,21,194 ; vunpckhpd %ymm2,%ymm0,%ymm0
- DB 196,227,101,24,209,1 ; vinsertf128 $0x1,%xmm1,%ymm3,%ymm2
- DB 196,227,93,24,232,1 ; vinsertf128 $0x1,%xmm0,%ymm4,%ymm5
- DB 196,227,101,6,201,49 ; vperm2f128 $0x31,%ymm1,%ymm3,%ymm1
- DB 196,227,93,6,192,49 ; vperm2f128 $0x31,%ymm0,%ymm4,%ymm0
- DB 197,253,17,83,8 ; vmovupd %ymm2,0x8(%rbx)
- DB 197,253,17,107,40 ; vmovupd %ymm5,0x28(%rbx)
- DB 197,253,17,75,72 ; vmovupd %ymm1,0x48(%rbx)
- DB 197,253,17,67,104 ; vmovupd %ymm0,0x68(%rbx)
- DB 72,133,255 ; test %rdi,%rdi
- DB 186,8,0,0,0 ; mov $0x8,%edx
- DB 15,69,215 ; cmovne %edi,%edx
- DB 72,137,217 ; mov %rbx,%rcx
- DB 197,248,119 ; vzeroupper
- DB 255,19 ; callq *(%rbx)
- DB 72,139,131,8,1,0,0 ; mov 0x108(%rbx),%rax
- DB 197,248,16,0 ; vmovups (%rax),%xmm0
- DB 197,248,16,72,16 ; vmovups 0x10(%rax),%xmm1
- DB 197,248,16,80,32 ; vmovups 0x20(%rax),%xmm2
- DB 197,248,16,88,48 ; vmovups 0x30(%rax),%xmm3
- DB 196,227,101,24,88,112,1 ; vinsertf128 $0x1,0x70(%rax),%ymm3,%ymm3
- DB 196,227,109,24,80,96,1 ; vinsertf128 $0x1,0x60(%rax),%ymm2,%ymm2
- DB 196,227,117,24,72,80,1 ; vinsertf128 $0x1,0x50(%rax),%ymm1,%ymm1
- DB 196,227,125,24,64,64,1 ; vinsertf128 $0x1,0x40(%rax),%ymm0,%ymm0
- DB 197,252,20,225 ; vunpcklps %ymm1,%ymm0,%ymm4
- DB 197,252,21,233 ; vunpckhps %ymm1,%ymm0,%ymm5
- DB 197,236,20,203 ; vunpcklps %ymm3,%ymm2,%ymm1
- DB 197,236,21,219 ; vunpckhps %ymm3,%ymm2,%ymm3
- DB 197,221,20,193 ; vunpcklpd %ymm1,%ymm4,%ymm0
- DB 197,221,21,201 ; vunpckhpd %ymm1,%ymm4,%ymm1
- DB 197,213,20,211 ; vunpcklpd %ymm3,%ymm5,%ymm2
- DB 197,213,21,219 ; vunpckhpd %ymm3,%ymm5,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,137,250 ; mov %r15,%rdx
- DB 76,137,241 ; mov %r14,%rcx
- DB 197,252,40,100,36,32 ; vmovaps 0x20(%rsp),%ymm4
- DB 197,252,40,108,36,64 ; vmovaps 0x40(%rsp),%ymm5
- DB 197,252,40,116,36,96 ; vmovaps 0x60(%rsp),%ymm6
- DB 197,252,40,188,36,128,0,0,0 ; vmovaps 0x80(%rsp),%ymm7
- DB 72,141,101,232 ; lea -0x18(%rbp),%rsp
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clut_3D_hsw
-_sk_clut_3D_hsw LABEL PROC
- DB 72,129,236,184,3,0,0 ; sub $0x3b8,%rsp
- DB 197,252,17,188,36,128,3,0,0 ; vmovups %ymm7,0x380(%rsp)
- DB 197,252,17,180,36,96,3,0,0 ; vmovups %ymm6,0x360(%rsp)
- DB 197,252,17,172,36,64,3,0,0 ; vmovups %ymm5,0x340(%rsp)
- DB 197,252,17,164,36,32,3,0,0 ; vmovups %ymm4,0x320(%rsp)
- DB 197,252,17,156,36,0,3,0,0 ; vmovups %ymm3,0x300(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,139,64,16 ; mov 0x10(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 196,193,121,110,217 ; vmovd %r9d,%xmm3
- DB 196,226,125,88,219 ; vpbroadcastd %xmm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 197,228,89,210 ; vmulps %ymm2,%ymm3,%ymm2
- DB 197,254,91,234 ; vcvttps2dq %ymm2,%ymm5
- DB 197,252,40,242 ; vmovaps %ymm2,%ymm6
- DB 197,252,17,180,36,64,1,0,0 ; vmovups %ymm6,0x140(%rsp)
- DB 196,193,121,110,208 ; vmovd %r8d,%xmm2
- DB 196,193,121,110,216 ; vmovd %r8d,%xmm3
- DB 196,226,125,88,219 ; vpbroadcastd %xmm3,%ymm3
- DB 68,139,64,12 ; mov 0xc(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 196,193,121,110,225 ; vmovd %r9d,%xmm4
- DB 196,226,125,88,228 ; vpbroadcastd %xmm4,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 197,220,89,201 ; vmulps %ymm1,%ymm4,%ymm1
- DB 197,254,91,225 ; vcvttps2dq %ymm1,%ymm4
- DB 197,254,127,164,36,224,2,0,0 ; vmovdqu %ymm4,0x2e0(%rsp)
- DB 197,124,40,201 ; vmovaps %ymm1,%ymm9
- DB 197,124,17,140,36,96,2,0,0 ; vmovups %ymm9,0x260(%rsp)
- DB 196,98,101,64,228 ; vpmulld %ymm4,%ymm3,%ymm12
- DB 197,157,254,205 ; vpaddd %ymm5,%ymm12,%ymm1
- DB 197,125,111,197 ; vmovdqa %ymm5,%ymm8
- DB 197,126,127,132,36,0,2,0,0 ; vmovdqu %ymm8,0x200(%rsp)
- DB 196,193,121,110,224 ; vmovd %r8d,%xmm4
- DB 196,226,93,64,210 ; vpmulld %ymm2,%ymm4,%ymm2
- DB 196,226,125,88,226 ; vpbroadcastd %xmm2,%ymm4
- DB 68,139,64,8 ; mov 0x8(%rax),%r8d
- DB 65,255,200 ; dec %r8d
- DB 196,193,121,110,208 ; vmovd %r8d,%xmm2
- DB 196,226,125,88,210 ; vpbroadcastd %xmm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 197,236,89,192 ; vmulps %ymm0,%ymm2,%ymm0
- DB 197,254,91,208 ; vcvttps2dq %ymm0,%ymm2
- DB 197,254,127,148,36,192,2,0,0 ; vmovdqu %ymm2,0x2c0(%rsp)
- DB 197,124,40,208 ; vmovaps %ymm0,%ymm10
- DB 197,124,17,148,36,64,2,0,0 ; vmovups %ymm10,0x240(%rsp)
- DB 196,98,93,64,218 ; vpmulld %ymm2,%ymm4,%ymm11
- DB 72,139,0 ; mov (%rax),%rax
- DB 197,165,254,193 ; vpaddd %ymm1,%ymm11,%ymm0
- DB 196,98,125,88,61,45,218,2,0 ; vpbroadcastd 0x2da2d(%rip),%ymm15 # 34c38 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- DB 196,194,125,64,199 ; vpmulld %ymm15,%ymm0,%ymm0
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 196,226,109,146,44,128 ; vgatherdps %ymm2,(%rax,%ymm0,4),%ymm5
- DB 197,252,17,172,36,160,2,0,0 ; vmovups %ymm5,0x2a0(%rsp)
- DB 196,65,21,118,237 ; vpcmpeqd %ymm13,%ymm13,%ymm13
- DB 196,193,125,250,213 ; vpsubd %ymm13,%ymm0,%ymm2
- DB 197,196,87,255 ; vxorps %ymm7,%ymm7,%ymm7
- DB 197,213,118,237 ; vpcmpeqd %ymm5,%ymm5,%ymm5
- DB 196,226,85,146,60,144 ; vgatherdps %ymm5,(%rax,%ymm2,4),%ymm7
- DB 197,252,17,188,36,128,2,0,0 ; vmovups %ymm7,0x280(%rsp)
- DB 196,226,125,88,61,131,216,2,0 ; vpbroadcastd 0x2d883(%rip),%ymm7 # 34ad4 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- DB 197,253,254,199 ; vpaddd %ymm7,%ymm0,%ymm0
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,213,118,237 ; vpcmpeqd %ymm5,%ymm5,%ymm5
- DB 196,226,85,146,20,128 ; vgatherdps %ymm5,(%rax,%ymm0,4),%ymm2
- DB 197,252,17,148,36,160,1,0,0 ; vmovups %ymm2,0x1a0(%rsp)
- DB 196,226,125,24,5,191,217,2,0 ; vbroadcastss 0x2d9bf(%rip),%ymm0 # 34c34 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- DB 197,172,88,232 ; vaddps %ymm0,%ymm10,%ymm5
- DB 197,254,91,237 ; vcvttps2dq %ymm5,%ymm5
- DB 196,226,93,64,213 ; vpmulld %ymm5,%ymm4,%ymm2
- DB 197,237,254,201 ; vpaddd %ymm1,%ymm2,%ymm1
- DB 196,194,117,64,207 ; vpmulld %ymm15,%ymm1,%ymm1
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,226,93,146,44,136 ; vgatherdps %ymm4,(%rax,%ymm1,4),%ymm5
- DB 197,252,17,172,36,32,2,0,0 ; vmovups %ymm5,0x220(%rsp)
- DB 196,193,117,250,229 ; vpsubd %ymm13,%ymm1,%ymm4
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 197,213,118,237 ; vpcmpeqd %ymm5,%ymm5,%ymm5
- DB 196,98,85,146,20,160 ; vgatherdps %ymm5,(%rax,%ymm4,4),%ymm10
- DB 197,124,17,148,36,224,1,0,0 ; vmovups %ymm10,0x1e0(%rsp)
- DB 197,245,254,207 ; vpaddd %ymm7,%ymm1,%ymm1
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,226,93,146,44,136 ; vgatherdps %ymm4,(%rax,%ymm1,4),%ymm5
- DB 197,252,17,172,36,192,1,0,0 ; vmovups %ymm5,0x1c0(%rsp)
- DB 197,180,88,200 ; vaddps %ymm0,%ymm9,%ymm1
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,98,101,64,201 ; vpmulld %ymm1,%ymm3,%ymm9
- DB 196,193,53,254,200 ; vpaddd %ymm8,%ymm9,%ymm1
- DB 196,193,117,254,219 ; vpaddd %ymm11,%ymm1,%ymm3
- DB 196,194,101,64,223 ; vpmulld %ymm15,%ymm3,%ymm3
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,226,93,146,44,152 ; vgatherdps %ymm4,(%rax,%ymm3,4),%ymm5
- DB 197,252,17,172,36,128,1,0,0 ; vmovups %ymm5,0x180(%rsp)
- DB 196,193,101,250,229 ; vpsubd %ymm13,%ymm3,%ymm4
- DB 196,65,61,239,192 ; vpxor %ymm8,%ymm8,%ymm8
- DB 197,213,118,237 ; vpcmpeqd %ymm5,%ymm5,%ymm5
- DB 196,98,85,146,4,160 ; vgatherdps %ymm5,(%rax,%ymm4,4),%ymm8
- DB 197,124,17,132,36,96,1,0,0 ; vmovups %ymm8,0x160(%rsp)
- DB 197,229,254,223 ; vpaddd %ymm7,%ymm3,%ymm3
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,226,93,146,44,152 ; vgatherdps %ymm4,(%rax,%ymm3,4),%ymm5
- DB 197,252,17,172,36,32,1,0,0 ; vmovups %ymm5,0x120(%rsp)
- DB 197,237,254,201 ; vpaddd %ymm1,%ymm2,%ymm1
- DB 196,194,117,64,207 ; vpmulld %ymm15,%ymm1,%ymm1
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 196,226,101,146,36,136 ; vgatherdps %ymm3,(%rax,%ymm1,4),%ymm4
- DB 197,252,17,164,36,0,1,0,0 ; vmovups %ymm4,0x100(%rsp)
- DB 196,193,117,250,221 ; vpsubd %ymm13,%ymm1,%ymm3
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,226,93,146,44,152 ; vgatherdps %ymm4,(%rax,%ymm3,4),%ymm5
- DB 197,252,17,172,36,224,0,0,0 ; vmovups %ymm5,0xe0(%rsp)
- DB 197,245,254,207 ; vpaddd %ymm7,%ymm1,%ymm1
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 196,226,101,146,36,136 ; vgatherdps %ymm3,(%rax,%ymm1,4),%ymm4
- DB 197,252,17,164,36,192,0,0,0 ; vmovups %ymm4,0xc0(%rsp)
- DB 197,204,88,192 ; vaddps %ymm0,%ymm6,%ymm0
- DB 197,126,91,208 ; vcvttps2dq %ymm0,%ymm10
- DB 196,193,29,254,218 ; vpaddd %ymm10,%ymm12,%ymm3
- DB 197,165,254,195 ; vpaddd %ymm3,%ymm11,%ymm0
- DB 196,194,125,64,199 ; vpmulld %ymm15,%ymm0,%ymm0
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,245,118,201 ; vpcmpeqd %ymm1,%ymm1,%ymm1
- DB 196,226,117,146,36,128 ; vgatherdps %ymm1,(%rax,%ymm0,4),%ymm4
- DB 197,252,17,164,36,160,0,0,0 ; vmovups %ymm4,0xa0(%rsp)
- DB 196,193,125,250,237 ; vpsubd %ymm13,%ymm0,%ymm5
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,205,118,246 ; vpcmpeqd %ymm6,%ymm6,%ymm6
- DB 196,226,77,146,12,168 ; vgatherdps %ymm6,(%rax,%ymm5,4),%ymm1
- DB 197,252,17,140,36,128,0,0,0 ; vmovups %ymm1,0x80(%rsp)
- DB 197,253,254,239 ; vpaddd %ymm7,%ymm0,%ymm5
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,205,118,246 ; vpcmpeqd %ymm6,%ymm6,%ymm6
- DB 196,226,77,146,4,168 ; vgatherdps %ymm6,(%rax,%ymm5,4),%ymm0
- DB 197,252,17,68,36,96 ; vmovups %ymm0,0x60(%rsp)
- DB 197,237,254,219 ; vpaddd %ymm3,%ymm2,%ymm3
- DB 196,194,101,64,223 ; vpmulld %ymm15,%ymm3,%ymm3
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,213,118,237 ; vpcmpeqd %ymm5,%ymm5,%ymm5
- DB 196,226,85,146,4,152 ; vgatherdps %ymm5,(%rax,%ymm3,4),%ymm0
- DB 197,252,17,68,36,64 ; vmovups %ymm0,0x40(%rsp)
- DB 196,193,101,250,197 ; vpsubd %ymm13,%ymm3,%ymm0
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,65,13,118,246 ; vpcmpeqd %ymm14,%ymm14,%ymm14
- DB 196,226,13,146,36,128 ; vgatherdps %ymm14,(%rax,%ymm0,4),%ymm4
- DB 197,229,254,199 ; vpaddd %ymm7,%ymm3,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 196,65,13,118,246 ; vpcmpeqd %ymm14,%ymm14,%ymm14
- DB 196,226,13,146,12,128 ; vgatherdps %ymm14,(%rax,%ymm0,4),%ymm1
- DB 197,252,17,76,36,32 ; vmovups %ymm1,0x20(%rsp)
- DB 196,193,53,254,202 ; vpaddd %ymm10,%ymm9,%ymm1
- DB 196,65,117,254,211 ; vpaddd %ymm11,%ymm1,%ymm10
- DB 196,66,45,64,247 ; vpmulld %ymm15,%ymm10,%ymm14
- DB 196,65,45,239,210 ; vpxor %ymm10,%ymm10,%ymm10
- DB 196,65,29,118,228 ; vpcmpeqd %ymm12,%ymm12,%ymm12
- DB 196,34,29,146,20,176 ; vgatherdps %ymm12,(%rax,%ymm14,4),%ymm10
- DB 196,65,13,250,229 ; vpsubd %ymm13,%ymm14,%ymm12
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 196,65,37,118,219 ; vpcmpeqd %ymm11,%ymm11,%ymm11
- DB 196,162,37,146,4,160 ; vgatherdps %ymm11,(%rax,%ymm12,4),%ymm0
- DB 197,252,17,4,36 ; vmovups %ymm0,(%rsp)
- DB 197,13,254,223 ; vpaddd %ymm7,%ymm14,%ymm11
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,65,13,118,246 ; vpcmpeqd %ymm14,%ymm14,%ymm14
- DB 196,34,13,146,4,152 ; vgatherdps %ymm14,(%rax,%ymm11,4),%ymm8
- DB 197,237,254,201 ; vpaddd %ymm1,%ymm2,%ymm1
- DB 196,194,117,64,207 ; vpmulld %ymm15,%ymm1,%ymm1
- DB 196,65,36,87,219 ; vxorps %ymm11,%ymm11,%ymm11
- DB 196,65,13,118,246 ; vpcmpeqd %ymm14,%ymm14,%ymm14
- DB 196,98,13,146,28,136 ; vgatherdps %ymm14,(%rax,%ymm1,4),%ymm11
- DB 196,65,117,250,245 ; vpsubd %ymm13,%ymm1,%ymm14
- DB 196,65,5,239,255 ; vpxor %ymm15,%ymm15,%ymm15
- DB 196,65,53,118,201 ; vpcmpeqd %ymm9,%ymm9,%ymm9
- DB 196,34,53,146,60,176 ; vgatherdps %ymm9,(%rax,%ymm14,4),%ymm15
- DB 197,245,254,207 ; vpaddd %ymm7,%ymm1,%ymm1
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 196,226,21,146,60,136 ; vgatherdps %ymm13,(%rax,%ymm1,4),%ymm7
- DB 197,252,91,140,36,192,2,0,0 ; vcvtdq2ps 0x2c0(%rsp),%ymm1
- DB 197,252,16,132,36,64,2,0,0 ; vmovups 0x240(%rsp),%ymm0
- DB 197,252,92,201 ; vsubps %ymm1,%ymm0,%ymm1
- DB 197,252,16,132,36,160,2,0,0 ; vmovups 0x2a0(%rsp),%ymm0
- DB 197,252,16,156,36,32,2,0,0 ; vmovups 0x220(%rsp),%ymm3
- DB 197,100,92,200 ; vsubps %ymm0,%ymm3,%ymm9
- DB 196,98,117,168,200 ; vfmadd213ps %ymm0,%ymm1,%ymm9
- DB 197,252,16,132,36,128,2,0,0 ; vmovups 0x280(%rsp),%ymm0
- DB 197,252,16,156,36,224,1,0,0 ; vmovups 0x1e0(%rsp),%ymm3
- DB 197,100,92,232 ; vsubps %ymm0,%ymm3,%ymm13
- DB 196,98,117,168,232 ; vfmadd213ps %ymm0,%ymm1,%ymm13
- DB 197,252,16,148,36,160,1,0,0 ; vmovups 0x1a0(%rsp),%ymm2
- DB 197,252,16,132,36,192,1,0,0 ; vmovups 0x1c0(%rsp),%ymm0
- DB 197,124,92,242 ; vsubps %ymm2,%ymm0,%ymm14
- DB 196,98,117,168,242 ; vfmadd213ps %ymm2,%ymm1,%ymm14
- DB 197,252,16,132,36,128,1,0,0 ; vmovups 0x180(%rsp),%ymm0
- DB 197,252,16,148,36,0,1,0,0 ; vmovups 0x100(%rsp),%ymm2
- DB 197,108,92,224 ; vsubps %ymm0,%ymm2,%ymm12
- DB 196,98,117,168,224 ; vfmadd213ps %ymm0,%ymm1,%ymm12
- DB 197,252,16,132,36,96,1,0,0 ; vmovups 0x160(%rsp),%ymm0
- DB 197,252,16,148,36,224,0,0,0 ; vmovups 0xe0(%rsp),%ymm2
- DB 197,236,92,232 ; vsubps %ymm0,%ymm2,%ymm5
- DB 196,226,117,168,232 ; vfmadd213ps %ymm0,%ymm1,%ymm5
- DB 197,252,16,132,36,32,1,0,0 ; vmovups 0x120(%rsp),%ymm0
- DB 197,252,16,148,36,192,0,0,0 ; vmovups 0xc0(%rsp),%ymm2
- DB 197,236,92,240 ; vsubps %ymm0,%ymm2,%ymm6
- DB 196,226,117,168,240 ; vfmadd213ps %ymm0,%ymm1,%ymm6
- DB 197,252,16,148,36,160,0,0,0 ; vmovups 0xa0(%rsp),%ymm2
- DB 197,252,16,68,36,64 ; vmovups 0x40(%rsp),%ymm0
- DB 197,252,92,194 ; vsubps %ymm2,%ymm0,%ymm0
- DB 196,226,117,168,194 ; vfmadd213ps %ymm2,%ymm1,%ymm0
- DB 197,252,16,156,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm3
- DB 197,220,92,211 ; vsubps %ymm3,%ymm4,%ymm2
- DB 196,226,117,168,211 ; vfmadd213ps %ymm3,%ymm1,%ymm2
- DB 197,252,16,100,36,96 ; vmovups 0x60(%rsp),%ymm4
- DB 197,252,16,92,36,32 ; vmovups 0x20(%rsp),%ymm3
- DB 197,228,92,220 ; vsubps %ymm4,%ymm3,%ymm3
- DB 196,226,117,168,220 ; vfmadd213ps %ymm4,%ymm1,%ymm3
- DB 196,65,36,92,218 ; vsubps %ymm10,%ymm11,%ymm11
- DB 196,66,117,168,218 ; vfmadd213ps %ymm10,%ymm1,%ymm11
- DB 197,252,16,36,36 ; vmovups (%rsp),%ymm4
- DB 197,4,92,212 ; vsubps %ymm4,%ymm15,%ymm10
- DB 196,98,117,168,212 ; vfmadd213ps %ymm4,%ymm1,%ymm10
- DB 196,193,68,92,248 ; vsubps %ymm8,%ymm7,%ymm7
- DB 196,194,117,168,248 ; vfmadd213ps %ymm8,%ymm1,%ymm7
- DB 197,252,91,140,36,224,2,0,0 ; vcvtdq2ps 0x2e0(%rsp),%ymm1
- DB 197,124,16,132,36,96,2,0,0 ; vmovups 0x260(%rsp),%ymm8
- DB 197,188,92,201 ; vsubps %ymm1,%ymm8,%ymm1
- DB 196,193,28,92,225 ; vsubps %ymm9,%ymm12,%ymm4
- DB 196,194,117,168,225 ; vfmadd213ps %ymm9,%ymm1,%ymm4
- DB 196,193,84,92,237 ; vsubps %ymm13,%ymm5,%ymm5
- DB 196,194,117,168,237 ; vfmadd213ps %ymm13,%ymm1,%ymm5
- DB 196,193,76,92,246 ; vsubps %ymm14,%ymm6,%ymm6
- DB 196,194,117,168,246 ; vfmadd213ps %ymm14,%ymm1,%ymm6
- DB 197,36,92,192 ; vsubps %ymm0,%ymm11,%ymm8
- DB 196,98,117,168,192 ; vfmadd213ps %ymm0,%ymm1,%ymm8
- DB 197,44,92,202 ; vsubps %ymm2,%ymm10,%ymm9
- DB 196,98,117,168,202 ; vfmadd213ps %ymm2,%ymm1,%ymm9
- DB 197,196,92,211 ; vsubps %ymm3,%ymm7,%ymm2
- DB 196,226,117,168,211 ; vfmadd213ps %ymm3,%ymm1,%ymm2
- DB 197,252,91,132,36,0,2,0,0 ; vcvtdq2ps 0x200(%rsp),%ymm0
- DB 197,252,16,140,36,64,1,0,0 ; vmovups 0x140(%rsp),%ymm1
- DB 197,244,92,216 ; vsubps %ymm0,%ymm1,%ymm3
- DB 197,188,92,196 ; vsubps %ymm4,%ymm8,%ymm0
- DB 196,226,101,168,196 ; vfmadd213ps %ymm4,%ymm3,%ymm0
- DB 197,180,92,205 ; vsubps %ymm5,%ymm9,%ymm1
- DB 196,226,101,168,205 ; vfmadd213ps %ymm5,%ymm3,%ymm1
- DB 197,236,92,214 ; vsubps %ymm6,%ymm2,%ymm2
- DB 196,226,101,168,214 ; vfmadd213ps %ymm6,%ymm3,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,156,36,0,3,0,0 ; vmovups 0x300(%rsp),%ymm3
- DB 197,252,16,164,36,32,3,0,0 ; vmovups 0x320(%rsp),%ymm4
- DB 197,252,16,172,36,64,3,0,0 ; vmovups 0x340(%rsp),%ymm5
- DB 197,252,16,180,36,96,3,0,0 ; vmovups 0x360(%rsp),%ymm6
- DB 197,252,16,188,36,128,3,0,0 ; vmovups 0x380(%rsp),%ymm7
- DB 72,129,196,184,3,0,0 ; add $0x3b8,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clut_4D_hsw
-_sk_clut_4D_hsw LABEL PROC
- DB 72,129,236,120,7,0,0 ; sub $0x778,%rsp
- DB 197,252,17,188,36,64,7,0,0 ; vmovups %ymm7,0x740(%rsp)
- DB 197,252,17,180,36,32,7,0,0 ; vmovups %ymm6,0x720(%rsp)
- DB 197,252,17,172,36,0,7,0,0 ; vmovups %ymm5,0x700(%rsp)
- DB 197,252,17,164,36,224,6,0,0 ; vmovups %ymm4,0x6e0(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,139,64,20 ; mov 0x14(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 196,193,121,110,225 ; vmovd %r9d,%xmm4
- DB 196,226,125,88,228 ; vpbroadcastd %xmm4,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 197,220,89,219 ; vmulps %ymm3,%ymm4,%ymm3
- DB 197,252,17,156,36,160,1,0,0 ; vmovups %ymm3,0x1a0(%rsp)
- DB 197,254,91,243 ; vcvttps2dq %ymm3,%ymm6
- DB 196,193,121,110,216 ; vmovd %r8d,%xmm3
- DB 196,193,121,110,224 ; vmovd %r8d,%xmm4
- DB 196,98,125,88,252 ; vpbroadcastd %xmm4,%ymm15
- DB 68,139,64,16 ; mov 0x10(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 196,193,121,110,233 ; vmovd %r9d,%xmm5
- DB 196,226,125,88,237 ; vpbroadcastd %xmm5,%ymm5
- DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 197,212,89,210 ; vmulps %ymm2,%ymm5,%ymm2
- DB 197,254,91,234 ; vcvttps2dq %ymm2,%ymm5
- DB 197,254,127,172,36,192,6,0,0 ; vmovdqu %ymm5,0x6c0(%rsp)
- DB 197,124,40,242 ; vmovaps %ymm2,%ymm14
- DB 197,124,17,180,36,96,6,0,0 ; vmovups %ymm14,0x660(%rsp)
- DB 196,226,5,64,213 ; vpmulld %ymm5,%ymm15,%ymm2
- DB 197,254,127,84,36,32 ; vmovdqu %ymm2,0x20(%rsp)
- DB 197,237,254,230 ; vpaddd %ymm6,%ymm2,%ymm4
- DB 197,125,111,230 ; vmovdqa %ymm6,%ymm12
- DB 197,126,127,164,36,64,6,0,0 ; vmovdqu %ymm12,0x640(%rsp)
- DB 196,193,121,110,232 ; vmovd %r8d,%xmm5
- DB 196,226,85,64,235 ; vpmulld %ymm3,%ymm5,%ymm5
- DB 196,226,125,88,221 ; vpbroadcastd %xmm5,%ymm3
- DB 68,139,64,12 ; mov 0xc(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 196,193,121,110,241 ; vmovd %r9d,%xmm6
- DB 196,226,125,88,246 ; vpbroadcastd %xmm6,%ymm6
- DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 197,204,89,241 ; vmulps %ymm1,%ymm6,%ymm6
- DB 196,193,121,110,200 ; vmovd %r8d,%xmm1
- DB 196,226,117,64,205 ; vpmulld %ymm5,%ymm1,%ymm1
- DB 68,139,64,8 ; mov 0x8(%rax),%r8d
- DB 65,255,200 ; dec %r8d
- DB 196,193,121,110,232 ; vmovd %r8d,%xmm5
- DB 196,226,125,88,237 ; vpbroadcastd %xmm5,%ymm5
- DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 197,212,89,232 ; vmulps %ymm0,%ymm5,%ymm5
- DB 197,254,91,198 ; vcvttps2dq %ymm6,%ymm0
- DB 197,254,127,132,36,160,6,0,0 ; vmovdqu %ymm0,0x6a0(%rsp)
- DB 197,252,17,180,36,128,6,0,0 ; vmovups %ymm6,0x680(%rsp)
- DB 196,226,125,88,209 ; vpbroadcastd %xmm1,%ymm2
- DB 72,139,0 ; mov (%rax),%rax
- DB 196,226,101,64,192 ; vpmulld %ymm0,%ymm3,%ymm0
- DB 197,254,127,4,36 ; vmovdqu %ymm0,(%rsp)
- DB 197,253,254,252 ; vpaddd %ymm4,%ymm0,%ymm7
- DB 197,254,91,197 ; vcvttps2dq %ymm5,%ymm0
- DB 197,252,40,205 ; vmovaps %ymm5,%ymm1
- DB 197,252,17,140,36,32,1,0,0 ; vmovups %ymm1,0x120(%rsp)
- DB 197,254,127,132,36,128,1,0,0 ; vmovdqu %ymm0,0x180(%rsp)
- DB 196,98,109,64,200 ; vpmulld %ymm0,%ymm2,%ymm9
- DB 197,181,254,199 ; vpaddd %ymm7,%ymm9,%ymm0
- DB 196,98,125,88,21,65,212,2,0 ; vpbroadcastd 0x2d441(%rip),%ymm10 # 34c38 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- DB 196,194,125,64,194 ; vpmulld %ymm10,%ymm0,%ymm0
- DB 197,213,118,237 ; vpcmpeqd %ymm5,%ymm5,%ymm5
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,98,85,146,4,128 ; vgatherdps %ymm5,(%rax,%ymm0,4),%ymm8
- DB 197,124,17,132,36,96,1,0,0 ; vmovups %ymm8,0x160(%rsp)
- DB 196,65,21,118,237 ; vpcmpeqd %ymm13,%ymm13,%ymm13
- DB 196,193,125,250,237 ; vpsubd %ymm13,%ymm0,%ymm5
- DB 196,65,61,118,192 ; vpcmpeqd %ymm8,%ymm8,%ymm8
- DB 196,65,36,87,219 ; vxorps %ymm11,%ymm11,%ymm11
- DB 196,98,61,146,28,168 ; vgatherdps %ymm8,(%rax,%ymm5,4),%ymm11
- DB 197,124,17,156,36,64,1,0,0 ; vmovups %ymm11,0x140(%rsp)
- DB 196,98,125,88,29,148,210,2,0 ; vpbroadcastd 0x2d294(%rip),%ymm11 # 34ad4 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- DB 196,193,125,254,195 ; vpaddd %ymm11,%ymm0,%ymm0
- DB 196,65,61,118,192 ; vpcmpeqd %ymm8,%ymm8,%ymm8
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 196,226,61,146,44,128 ; vgatherdps %ymm8,(%rax,%ymm0,4),%ymm5
- DB 197,252,17,172,36,160,0,0,0 ; vmovups %ymm5,0xa0(%rsp)
- DB 196,226,125,24,5,206,211,2,0 ; vbroadcastss 0x2d3ce(%rip),%ymm0 # 34c34 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- DB 197,116,88,192 ; vaddps %ymm0,%ymm1,%ymm8
- DB 196,65,126,91,192 ; vcvttps2dq %ymm8,%ymm8
- DB 196,194,109,64,232 ; vpmulld %ymm8,%ymm2,%ymm5
- DB 197,213,254,207 ; vpaddd %ymm7,%ymm5,%ymm1
- DB 196,194,117,64,202 ; vpmulld %ymm10,%ymm1,%ymm1
- DB 197,197,118,255 ; vpcmpeqd %ymm7,%ymm7,%ymm7
- DB 197,237,239,210 ; vpxor %ymm2,%ymm2,%ymm2
- DB 196,226,69,146,20,136 ; vgatherdps %ymm7,(%rax,%ymm1,4),%ymm2
- DB 197,252,17,148,36,0,1,0,0 ; vmovups %ymm2,0x100(%rsp)
- DB 196,193,117,250,253 ; vpsubd %ymm13,%ymm1,%ymm7
- DB 196,65,61,118,192 ; vpcmpeqd %ymm8,%ymm8,%ymm8
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 196,226,61,146,20,184 ; vgatherdps %ymm8,(%rax,%ymm7,4),%ymm2
- DB 197,252,17,148,36,224,0,0,0 ; vmovups %ymm2,0xe0(%rsp)
- DB 196,193,117,254,203 ; vpaddd %ymm11,%ymm1,%ymm1
- DB 197,197,118,255 ; vpcmpeqd %ymm7,%ymm7,%ymm7
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 196,226,69,146,20,136 ; vgatherdps %ymm7,(%rax,%ymm1,4),%ymm2
- DB 197,252,17,148,36,192,0,0,0 ; vmovups %ymm2,0xc0(%rsp)
- DB 197,204,88,200 ; vaddps %ymm0,%ymm6,%ymm1
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,226,101,64,241 ; vpmulld %ymm1,%ymm3,%ymm6
- DB 197,205,254,204 ; vpaddd %ymm4,%ymm6,%ymm1
- DB 196,193,117,254,209 ; vpaddd %ymm9,%ymm1,%ymm2
- DB 196,194,109,64,210 ; vpmulld %ymm10,%ymm2,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 196,226,101,146,36,144 ; vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- DB 197,252,17,164,36,224,5,0,0 ; vmovups %ymm4,0x5e0(%rsp)
- DB 196,193,109,250,221 ; vpsubd %ymm13,%ymm2,%ymm3
- DB 197,197,118,255 ; vpcmpeqd %ymm7,%ymm7,%ymm7
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,226,69,146,36,152 ; vgatherdps %ymm7,(%rax,%ymm3,4),%ymm4
- DB 197,252,17,164,36,128,0,0,0 ; vmovups %ymm4,0x80(%rsp)
- DB 196,193,109,254,211 ; vpaddd %ymm11,%ymm2,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,226,101,146,36,144 ; vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- DB 197,252,17,100,36,96 ; vmovups %ymm4,0x60(%rsp)
- DB 197,213,254,201 ; vpaddd %ymm1,%ymm5,%ymm1
- DB 196,194,117,64,202 ; vpmulld %ymm10,%ymm1,%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,226,109,146,28,136 ; vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- DB 197,252,17,92,36,64 ; vmovups %ymm3,0x40(%rsp)
- DB 196,193,117,250,213 ; vpsubd %ymm13,%ymm1,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,226,101,146,36,144 ; vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- DB 197,252,17,164,36,32,6,0,0 ; vmovups %ymm4,0x620(%rsp)
- DB 196,193,117,254,203 ; vpaddd %ymm11,%ymm1,%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,226,109,146,28,136 ; vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- DB 197,252,17,156,36,0,6,0,0 ; vmovups %ymm3,0x600(%rsp)
- DB 197,140,88,200 ; vaddps %ymm0,%ymm14,%ymm1
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,98,5,64,249 ; vpmulld %ymm1,%ymm15,%ymm15
- DB 196,193,5,254,204 ; vpaddd %ymm12,%ymm15,%ymm1
- DB 197,126,111,4,36 ; vmovdqu (%rsp),%ymm8
- DB 196,193,117,254,208 ; vpaddd %ymm8,%ymm1,%ymm2
- DB 196,193,109,254,217 ; vpaddd %ymm9,%ymm2,%ymm3
- DB 196,194,101,64,218 ; vpmulld %ymm10,%ymm3,%ymm3
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 197,196,87,255 ; vxorps %ymm7,%ymm7,%ymm7
- DB 196,226,93,146,60,152 ; vgatherdps %ymm4,(%rax,%ymm3,4),%ymm7
- DB 197,252,17,188,36,224,3,0,0 ; vmovups %ymm7,0x3e0(%rsp)
- DB 196,193,101,250,229 ; vpsubd %ymm13,%ymm3,%ymm4
- DB 197,197,118,255 ; vpcmpeqd %ymm7,%ymm7,%ymm7
- DB 196,65,12,87,246 ; vxorps %ymm14,%ymm14,%ymm14
- DB 196,98,69,146,52,160 ; vgatherdps %ymm7,(%rax,%ymm4,4),%ymm14
- DB 197,124,17,180,36,192,5,0,0 ; vmovups %ymm14,0x5c0(%rsp)
- DB 196,193,101,254,219 ; vpaddd %ymm11,%ymm3,%ymm3
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 197,196,87,255 ; vxorps %ymm7,%ymm7,%ymm7
- DB 196,226,93,146,60,152 ; vgatherdps %ymm4,(%rax,%ymm3,4),%ymm7
- DB 197,252,17,188,36,64,5,0,0 ; vmovups %ymm7,0x540(%rsp)
- DB 197,213,254,210 ; vpaddd %ymm2,%ymm5,%ymm2
- DB 196,194,109,64,210 ; vpmulld %ymm10,%ymm2,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,226,101,146,36,144 ; vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- DB 197,252,17,164,36,160,5,0,0 ; vmovups %ymm4,0x5a0(%rsp)
- DB 196,193,109,250,221 ; vpsubd %ymm13,%ymm2,%ymm3
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,65,12,87,246 ; vxorps %ymm14,%ymm14,%ymm14
- DB 196,98,93,146,52,152 ; vgatherdps %ymm4,(%rax,%ymm3,4),%ymm14
- DB 197,124,17,180,36,128,5,0,0 ; vmovups %ymm14,0x580(%rsp)
- DB 196,193,109,254,211 ; vpaddd %ymm11,%ymm2,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,226,101,146,36,144 ; vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- DB 197,252,17,164,36,96,5,0,0 ; vmovups %ymm4,0x560(%rsp)
- DB 197,205,254,201 ; vpaddd %ymm1,%ymm6,%ymm1
- DB 196,193,117,254,209 ; vpaddd %ymm9,%ymm1,%ymm2
- DB 196,194,109,64,210 ; vpmulld %ymm10,%ymm2,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,226,101,146,36,144 ; vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- DB 197,252,17,164,36,32,5,0,0 ; vmovups %ymm4,0x520(%rsp)
- DB 196,193,109,250,221 ; vpsubd %ymm13,%ymm2,%ymm3
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 197,196,87,255 ; vxorps %ymm7,%ymm7,%ymm7
- DB 196,226,93,146,60,152 ; vgatherdps %ymm4,(%rax,%ymm3,4),%ymm7
- DB 197,252,17,188,36,0,5,0,0 ; vmovups %ymm7,0x500(%rsp)
- DB 196,193,109,254,211 ; vpaddd %ymm11,%ymm2,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,226,101,146,36,144 ; vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- DB 197,252,17,164,36,128,3,0,0 ; vmovups %ymm4,0x380(%rsp)
- DB 197,213,254,201 ; vpaddd %ymm1,%ymm5,%ymm1
- DB 196,194,117,64,202 ; vpmulld %ymm10,%ymm1,%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,226,109,146,28,136 ; vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- DB 197,252,17,156,36,224,4,0,0 ; vmovups %ymm3,0x4e0(%rsp)
- DB 196,193,117,250,213 ; vpsubd %ymm13,%ymm1,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,226,101,146,36,144 ; vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- DB 197,252,17,164,36,192,4,0,0 ; vmovups %ymm4,0x4c0(%rsp)
- DB 196,193,117,254,203 ; vpaddd %ymm11,%ymm1,%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,226,109,146,28,136 ; vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- DB 197,252,17,156,36,160,4,0,0 ; vmovups %ymm3,0x4a0(%rsp)
- DB 197,252,88,132,36,160,1,0,0 ; vaddps 0x1a0(%rsp),%ymm0,%ymm0
- DB 197,254,91,248 ; vcvttps2dq %ymm0,%ymm7
- DB 197,197,254,68,36,32 ; vpaddd 0x20(%rsp),%ymm7,%ymm0
- DB 197,189,254,200 ; vpaddd %ymm0,%ymm8,%ymm1
- DB 197,181,254,209 ; vpaddd %ymm1,%ymm9,%ymm2
- DB 196,194,109,64,210 ; vpmulld %ymm10,%ymm2,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,226,101,146,36,144 ; vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- DB 197,252,17,100,36,32 ; vmovups %ymm4,0x20(%rsp)
- DB 196,193,109,250,221 ; vpsubd %ymm13,%ymm2,%ymm3
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,65,12,87,246 ; vxorps %ymm14,%ymm14,%ymm14
- DB 196,98,93,146,52,152 ; vgatherdps %ymm4,(%rax,%ymm3,4),%ymm14
- DB 197,124,17,180,36,128,4,0,0 ; vmovups %ymm14,0x480(%rsp)
- DB 196,193,109,254,211 ; vpaddd %ymm11,%ymm2,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,226,101,146,36,144 ; vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- DB 197,252,17,164,36,96,4,0,0 ; vmovups %ymm4,0x460(%rsp)
- DB 197,213,254,201 ; vpaddd %ymm1,%ymm5,%ymm1
- DB 196,194,117,64,202 ; vpmulld %ymm10,%ymm1,%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,226,109,146,28,136 ; vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- DB 197,252,17,156,36,64,4,0,0 ; vmovups %ymm3,0x440(%rsp)
- DB 196,193,117,250,213 ; vpsubd %ymm13,%ymm1,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,226,101,146,36,144 ; vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- DB 197,252,17,164,36,32,4,0,0 ; vmovups %ymm4,0x420(%rsp)
- DB 196,193,117,254,203 ; vpaddd %ymm11,%ymm1,%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,226,109,146,28,136 ; vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- DB 197,252,17,156,36,0,4,0,0 ; vmovups %ymm3,0x400(%rsp)
- DB 197,205,254,192 ; vpaddd %ymm0,%ymm6,%ymm0
- DB 196,193,125,254,201 ; vpaddd %ymm9,%ymm0,%ymm1
- DB 196,194,117,64,202 ; vpmulld %ymm10,%ymm1,%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,226,109,146,28,136 ; vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- DB 197,252,17,156,36,160,3,0,0 ; vmovups %ymm3,0x3a0(%rsp)
- DB 196,193,117,250,213 ; vpsubd %ymm13,%ymm1,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,226,101,146,36,144 ; vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- DB 197,252,17,164,36,192,3,0,0 ; vmovups %ymm4,0x3c0(%rsp)
- DB 196,193,117,254,203 ; vpaddd %ymm11,%ymm1,%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,226,109,146,28,136 ; vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- DB 197,252,17,156,36,0,3,0,0 ; vmovups %ymm3,0x300(%rsp)
- DB 197,213,254,192 ; vpaddd %ymm0,%ymm5,%ymm0
- DB 196,194,125,64,194 ; vpmulld %ymm10,%ymm0,%ymm0
- DB 197,245,118,201 ; vpcmpeqd %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 196,226,117,146,20,128 ; vgatherdps %ymm1,(%rax,%ymm0,4),%ymm2
- DB 197,252,17,148,36,96,3,0,0 ; vmovups %ymm2,0x360(%rsp)
- DB 196,193,125,250,205 ; vpsubd %ymm13,%ymm0,%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,226,109,146,28,136 ; vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- DB 197,252,17,156,36,64,3,0,0 ; vmovups %ymm3,0x340(%rsp)
- DB 196,193,125,254,195 ; vpaddd %ymm11,%ymm0,%ymm0
- DB 197,245,118,201 ; vpcmpeqd %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 196,226,117,146,20,128 ; vgatherdps %ymm1,(%rax,%ymm0,4),%ymm2
- DB 197,252,17,148,36,32,3,0,0 ; vmovups %ymm2,0x320(%rsp)
- DB 197,133,254,199 ; vpaddd %ymm7,%ymm15,%ymm0
- DB 196,193,125,254,200 ; vpaddd %ymm8,%ymm0,%ymm1
- DB 196,193,117,254,209 ; vpaddd %ymm9,%ymm1,%ymm2
- DB 196,194,109,64,210 ; vpmulld %ymm10,%ymm2,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,226,101,146,36,144 ; vgatherdps %ymm3,(%rax,%ymm2,4),%ymm4
- DB 197,252,17,36,36 ; vmovups %ymm4,(%rsp)
- DB 196,193,109,250,221 ; vpsubd %ymm13,%ymm2,%ymm3
- DB 196,65,61,118,192 ; vpcmpeqd %ymm8,%ymm8,%ymm8
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,226,61,146,36,152 ; vgatherdps %ymm8,(%rax,%ymm3,4),%ymm4
- DB 197,252,17,164,36,224,2,0,0 ; vmovups %ymm4,0x2e0(%rsp)
- DB 196,193,109,254,211 ; vpaddd %ymm11,%ymm2,%ymm2
- DB 196,65,61,118,192 ; vpcmpeqd %ymm8,%ymm8,%ymm8
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,226,61,146,28,144 ; vgatherdps %ymm8,(%rax,%ymm2,4),%ymm3
- DB 197,252,17,156,36,96,2,0,0 ; vmovups %ymm3,0x260(%rsp)
- DB 197,213,254,201 ; vpaddd %ymm1,%ymm5,%ymm1
- DB 196,194,117,64,202 ; vpmulld %ymm10,%ymm1,%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,226,109,146,28,136 ; vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- DB 197,252,17,156,36,192,2,0,0 ; vmovups %ymm3,0x2c0(%rsp)
- DB 196,193,117,250,213 ; vpsubd %ymm13,%ymm1,%ymm2
- DB 196,65,61,118,192 ; vpcmpeqd %ymm8,%ymm8,%ymm8
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,226,61,146,28,144 ; vgatherdps %ymm8,(%rax,%ymm2,4),%ymm3
- DB 197,252,17,156,36,160,2,0,0 ; vmovups %ymm3,0x2a0(%rsp)
- DB 196,193,117,254,203 ; vpaddd %ymm11,%ymm1,%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,226,109,146,28,136 ; vgatherdps %ymm2,(%rax,%ymm1,4),%ymm3
- DB 197,252,17,156,36,128,2,0,0 ; vmovups %ymm3,0x280(%rsp)
- DB 197,205,254,216 ; vpaddd %ymm0,%ymm6,%ymm3
- DB 196,193,101,254,193 ; vpaddd %ymm9,%ymm3,%ymm0
- DB 196,194,125,64,194 ; vpmulld %ymm10,%ymm0,%ymm0
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 196,226,109,146,12,128 ; vgatherdps %ymm2,(%rax,%ymm0,4),%ymm1
- DB 197,252,17,140,36,64,2,0,0 ; vmovups %ymm1,0x240(%rsp)
- DB 196,193,125,250,229 ; vpsubd %ymm13,%ymm0,%ymm4
- DB 197,245,118,201 ; vpcmpeqd %ymm1,%ymm1,%ymm1
- DB 196,65,29,239,228 ; vpxor %ymm12,%ymm12,%ymm12
- DB 196,98,117,146,36,160 ; vgatherdps %ymm1,(%rax,%ymm4,4),%ymm12
- DB 196,193,125,254,203 ; vpaddd %ymm11,%ymm0,%ymm1
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 196,226,93,146,4,136 ; vgatherdps %ymm4,(%rax,%ymm1,4),%ymm0
- DB 197,252,17,132,36,32,2,0,0 ; vmovups %ymm0,0x220(%rsp)
- DB 197,213,254,203 ; vpaddd %ymm3,%ymm5,%ymm1
- DB 196,194,117,64,202 ; vpmulld %ymm10,%ymm1,%ymm1
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 196,226,101,146,4,136 ; vgatherdps %ymm3,(%rax,%ymm1,4),%ymm0
- DB 197,252,17,132,36,0,2,0,0 ; vmovups %ymm0,0x200(%rsp)
- DB 196,193,117,250,221 ; vpsubd %ymm13,%ymm1,%ymm3
- DB 196,65,45,118,210 ; vpcmpeqd %ymm10,%ymm10,%ymm10
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 196,226,45,146,4,152 ; vgatherdps %ymm10,(%rax,%ymm3,4),%ymm0
- DB 197,252,17,132,36,224,1,0,0 ; vmovups %ymm0,0x1e0(%rsp)
- DB 196,193,117,254,203 ; vpaddd %ymm11,%ymm1,%ymm1
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 196,226,21,146,4,136 ; vgatherdps %ymm13,(%rax,%ymm1,4),%ymm0
- DB 197,252,17,132,36,192,1,0,0 ; vmovups %ymm0,0x1c0(%rsp)
- DB 197,252,91,140,36,128,1,0,0 ; vcvtdq2ps 0x180(%rsp),%ymm1
- DB 197,252,16,132,36,32,1,0,0 ; vmovups 0x120(%rsp),%ymm0
- DB 197,252,92,201 ; vsubps %ymm1,%ymm0,%ymm1
- DB 197,252,16,132,36,96,1,0,0 ; vmovups 0x160(%rsp),%ymm0
- DB 197,252,16,148,36,0,1,0,0 ; vmovups 0x100(%rsp),%ymm2
- DB 197,108,92,248 ; vsubps %ymm0,%ymm2,%ymm15
- DB 196,98,117,168,248 ; vfmadd213ps %ymm0,%ymm1,%ymm15
- DB 197,252,16,132,36,64,1,0,0 ; vmovups 0x140(%rsp),%ymm0
- DB 197,252,16,148,36,224,0,0,0 ; vmovups 0xe0(%rsp),%ymm2
- DB 197,108,92,240 ; vsubps %ymm0,%ymm2,%ymm14
- DB 196,98,117,168,240 ; vfmadd213ps %ymm0,%ymm1,%ymm14
- DB 197,252,16,172,36,160,0,0,0 ; vmovups 0xa0(%rsp),%ymm5
- DB 197,252,16,132,36,192,0,0,0 ; vmovups 0xc0(%rsp),%ymm0
- DB 197,252,92,197 ; vsubps %ymm5,%ymm0,%ymm0
- DB 196,226,117,168,197 ; vfmadd213ps %ymm5,%ymm1,%ymm0
- DB 197,252,17,132,36,128,1,0,0 ; vmovups %ymm0,0x180(%rsp)
- DB 197,252,16,68,36,64 ; vmovups 0x40(%rsp),%ymm0
- DB 197,252,16,148,36,224,5,0,0 ; vmovups 0x5e0(%rsp),%ymm2
- DB 197,252,92,194 ; vsubps %ymm2,%ymm0,%ymm0
- DB 196,226,117,168,194 ; vfmadd213ps %ymm2,%ymm1,%ymm0
- DB 197,252,17,132,36,96,1,0,0 ; vmovups %ymm0,0x160(%rsp)
- DB 197,252,16,132,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm0
- DB 197,252,16,148,36,32,6,0,0 ; vmovups 0x620(%rsp),%ymm2
- DB 197,236,92,208 ; vsubps %ymm0,%ymm2,%ymm2
- DB 196,226,117,168,208 ; vfmadd213ps %ymm0,%ymm1,%ymm2
- DB 197,252,17,148,36,64,1,0,0 ; vmovups %ymm2,0x140(%rsp)
- DB 197,252,16,68,36,96 ; vmovups 0x60(%rsp),%ymm0
- DB 197,252,16,148,36,0,6,0,0 ; vmovups 0x600(%rsp),%ymm2
- DB 197,236,92,208 ; vsubps %ymm0,%ymm2,%ymm2
- DB 196,226,117,168,208 ; vfmadd213ps %ymm0,%ymm1,%ymm2
- DB 197,252,17,148,36,32,1,0,0 ; vmovups %ymm2,0x120(%rsp)
- DB 197,252,16,132,36,160,5,0,0 ; vmovups 0x5a0(%rsp),%ymm0
- DB 197,252,16,148,36,224,3,0,0 ; vmovups 0x3e0(%rsp),%ymm2
- DB 197,124,92,210 ; vsubps %ymm2,%ymm0,%ymm10
- DB 196,98,117,168,210 ; vfmadd213ps %ymm2,%ymm1,%ymm10
- DB 197,252,16,132,36,192,5,0,0 ; vmovups 0x5c0(%rsp),%ymm0
- DB 197,252,16,148,36,128,5,0,0 ; vmovups 0x580(%rsp),%ymm2
- DB 197,108,92,216 ; vsubps %ymm0,%ymm2,%ymm11
- DB 196,98,117,168,216 ; vfmadd213ps %ymm0,%ymm1,%ymm11
- DB 197,252,16,132,36,96,5,0,0 ; vmovups 0x560(%rsp),%ymm0
- DB 197,252,16,148,36,64,5,0,0 ; vmovups 0x540(%rsp),%ymm2
- DB 197,124,92,202 ; vsubps %ymm2,%ymm0,%ymm9
- DB 196,98,117,168,202 ; vfmadd213ps %ymm2,%ymm1,%ymm9
- DB 197,252,16,132,36,32,5,0,0 ; vmovups 0x520(%rsp),%ymm0
- DB 197,252,16,148,36,224,4,0,0 ; vmovups 0x4e0(%rsp),%ymm2
- DB 197,236,92,208 ; vsubps %ymm0,%ymm2,%ymm2
- DB 196,226,117,168,208 ; vfmadd213ps %ymm0,%ymm1,%ymm2
- DB 197,252,17,148,36,0,1,0,0 ; vmovups %ymm2,0x100(%rsp)
- DB 197,252,16,132,36,0,5,0,0 ; vmovups 0x500(%rsp),%ymm0
- DB 197,252,16,148,36,192,4,0,0 ; vmovups 0x4c0(%rsp),%ymm2
- DB 197,236,92,208 ; vsubps %ymm0,%ymm2,%ymm2
- DB 196,226,117,168,208 ; vfmadd213ps %ymm0,%ymm1,%ymm2
- DB 197,252,17,148,36,224,0,0,0 ; vmovups %ymm2,0xe0(%rsp)
- DB 197,252,16,132,36,160,4,0,0 ; vmovups 0x4a0(%rsp),%ymm0
- DB 197,252,16,148,36,128,3,0,0 ; vmovups 0x380(%rsp),%ymm2
- DB 197,252,92,194 ; vsubps %ymm2,%ymm0,%ymm0
- DB 196,226,117,168,194 ; vfmadd213ps %ymm2,%ymm1,%ymm0
- DB 197,252,17,132,36,192,0,0,0 ; vmovups %ymm0,0xc0(%rsp)
- DB 197,252,16,68,36,32 ; vmovups 0x20(%rsp),%ymm0
- DB 197,252,16,148,36,64,4,0,0 ; vmovups 0x440(%rsp),%ymm2
- DB 197,236,92,248 ; vsubps %ymm0,%ymm2,%ymm7
- DB 196,226,117,168,248 ; vfmadd213ps %ymm0,%ymm1,%ymm7
- DB 197,252,16,132,36,128,4,0,0 ; vmovups 0x480(%rsp),%ymm0
- DB 197,252,16,148,36,32,4,0,0 ; vmovups 0x420(%rsp),%ymm2
- DB 197,108,92,192 ; vsubps %ymm0,%ymm2,%ymm8
- DB 196,98,117,168,192 ; vfmadd213ps %ymm0,%ymm1,%ymm8
- DB 197,252,16,132,36,96,4,0,0 ; vmovups 0x460(%rsp),%ymm0
- DB 197,252,16,148,36,0,4,0,0 ; vmovups 0x400(%rsp),%ymm2
- DB 197,236,92,240 ; vsubps %ymm0,%ymm2,%ymm6
- DB 196,226,117,168,240 ; vfmadd213ps %ymm0,%ymm1,%ymm6
- DB 197,252,16,132,36,160,3,0,0 ; vmovups 0x3a0(%rsp),%ymm0
- DB 197,252,16,148,36,96,3,0,0 ; vmovups 0x360(%rsp),%ymm2
- DB 197,236,92,208 ; vsubps %ymm0,%ymm2,%ymm2
- DB 196,226,117,168,208 ; vfmadd213ps %ymm0,%ymm1,%ymm2
- DB 197,252,17,148,36,160,0,0,0 ; vmovups %ymm2,0xa0(%rsp)
- DB 197,252,16,132,36,192,3,0,0 ; vmovups 0x3c0(%rsp),%ymm0
- DB 197,252,16,148,36,64,3,0,0 ; vmovups 0x340(%rsp),%ymm2
- DB 197,236,92,208 ; vsubps %ymm0,%ymm2,%ymm2
- DB 196,226,117,168,208 ; vfmadd213ps %ymm0,%ymm1,%ymm2
- DB 197,252,17,148,36,128,0,0,0 ; vmovups %ymm2,0x80(%rsp)
- DB 197,252,16,132,36,32,3,0,0 ; vmovups 0x320(%rsp),%ymm0
- DB 197,252,16,148,36,0,3,0,0 ; vmovups 0x300(%rsp),%ymm2
- DB 197,252,92,194 ; vsubps %ymm2,%ymm0,%ymm0
- DB 196,226,117,168,194 ; vfmadd213ps %ymm2,%ymm1,%ymm0
- DB 197,252,17,68,36,96 ; vmovups %ymm0,0x60(%rsp)
- DB 197,252,16,4,36 ; vmovups (%rsp),%ymm0
- DB 197,252,16,148,36,192,2,0,0 ; vmovups 0x2c0(%rsp),%ymm2
- DB 197,236,92,208 ; vsubps %ymm0,%ymm2,%ymm2
- DB 196,226,117,168,208 ; vfmadd213ps %ymm0,%ymm1,%ymm2
- DB 197,252,16,132,36,224,2,0,0 ; vmovups 0x2e0(%rsp),%ymm0
- DB 197,252,16,156,36,160,2,0,0 ; vmovups 0x2a0(%rsp),%ymm3
- DB 197,228,92,216 ; vsubps %ymm0,%ymm3,%ymm3
- DB 196,226,117,168,216 ; vfmadd213ps %ymm0,%ymm1,%ymm3
- DB 197,252,16,132,36,128,2,0,0 ; vmovups 0x280(%rsp),%ymm0
- DB 197,252,16,172,36,96,2,0,0 ; vmovups 0x260(%rsp),%ymm5
- DB 197,252,92,229 ; vsubps %ymm5,%ymm0,%ymm4
- DB 196,226,117,168,229 ; vfmadd213ps %ymm5,%ymm1,%ymm4
- DB 197,252,16,132,36,64,2,0,0 ; vmovups 0x240(%rsp),%ymm0
- DB 197,252,16,172,36,0,2,0,0 ; vmovups 0x200(%rsp),%ymm5
- DB 197,84,92,232 ; vsubps %ymm0,%ymm5,%ymm13
- DB 196,98,117,168,232 ; vfmadd213ps %ymm0,%ymm1,%ymm13
- DB 197,252,16,132,36,224,1,0,0 ; vmovups 0x1e0(%rsp),%ymm0
- DB 196,193,124,92,196 ; vsubps %ymm12,%ymm0,%ymm0
- DB 196,194,117,168,196 ; vfmadd213ps %ymm12,%ymm1,%ymm0
- DB 197,252,17,68,36,64 ; vmovups %ymm0,0x40(%rsp)
- DB 197,252,16,132,36,32,2,0,0 ; vmovups 0x220(%rsp),%ymm0
- DB 197,252,16,172,36,192,1,0,0 ; vmovups 0x1c0(%rsp),%ymm5
- DB 197,84,92,224 ; vsubps %ymm0,%ymm5,%ymm12
- DB 196,98,117,168,224 ; vfmadd213ps %ymm0,%ymm1,%ymm12
- DB 197,252,91,140,36,160,6,0,0 ; vcvtdq2ps 0x6a0(%rsp),%ymm1
- DB 197,252,16,132,36,128,6,0,0 ; vmovups 0x680(%rsp),%ymm0
- DB 197,252,92,201 ; vsubps %ymm1,%ymm0,%ymm1
- DB 197,252,16,132,36,96,1,0,0 ; vmovups 0x160(%rsp),%ymm0
- DB 196,193,124,92,199 ; vsubps %ymm15,%ymm0,%ymm0
- DB 196,194,117,168,199 ; vfmadd213ps %ymm15,%ymm1,%ymm0
- DB 197,252,16,172,36,64,1,0,0 ; vmovups 0x140(%rsp),%ymm5
- DB 196,65,84,92,254 ; vsubps %ymm14,%ymm5,%ymm15
- DB 196,66,117,168,254 ; vfmadd213ps %ymm14,%ymm1,%ymm15
- DB 197,252,16,172,36,128,1,0,0 ; vmovups 0x180(%rsp),%ymm5
- DB 197,124,16,180,36,32,1,0,0 ; vmovups 0x120(%rsp),%ymm14
- DB 197,12,92,245 ; vsubps %ymm5,%ymm14,%ymm14
- DB 196,98,117,168,245 ; vfmadd213ps %ymm5,%ymm1,%ymm14
- DB 197,252,16,172,36,0,1,0,0 ; vmovups 0x100(%rsp),%ymm5
- DB 196,193,84,92,234 ; vsubps %ymm10,%ymm5,%ymm5
- DB 196,194,117,168,234 ; vfmadd213ps %ymm10,%ymm1,%ymm5
- DB 197,124,16,148,36,224,0,0,0 ; vmovups 0xe0(%rsp),%ymm10
- DB 196,65,44,92,211 ; vsubps %ymm11,%ymm10,%ymm10
- DB 196,66,117,168,211 ; vfmadd213ps %ymm11,%ymm1,%ymm10
- DB 197,124,16,156,36,192,0,0,0 ; vmovups 0xc0(%rsp),%ymm11
- DB 196,65,36,92,217 ; vsubps %ymm9,%ymm11,%ymm11
- DB 196,66,117,168,217 ; vfmadd213ps %ymm9,%ymm1,%ymm11
- DB 197,124,16,140,36,160,0,0,0 ; vmovups 0xa0(%rsp),%ymm9
- DB 197,52,92,207 ; vsubps %ymm7,%ymm9,%ymm9
- DB 196,98,117,168,207 ; vfmadd213ps %ymm7,%ymm1,%ymm9
- DB 197,252,16,188,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm7
- DB 196,193,68,92,248 ; vsubps %ymm8,%ymm7,%ymm7
- DB 196,194,117,168,248 ; vfmadd213ps %ymm8,%ymm1,%ymm7
- DB 197,124,16,68,36,96 ; vmovups 0x60(%rsp),%ymm8
- DB 197,60,92,198 ; vsubps %ymm6,%ymm8,%ymm8
- DB 196,98,117,168,198 ; vfmadd213ps %ymm6,%ymm1,%ymm8
- DB 197,148,92,242 ; vsubps %ymm2,%ymm13,%ymm6
- DB 196,226,117,168,242 ; vfmadd213ps %ymm2,%ymm1,%ymm6
- DB 197,252,16,84,36,64 ; vmovups 0x40(%rsp),%ymm2
- DB 197,236,92,211 ; vsubps %ymm3,%ymm2,%ymm2
- DB 196,226,117,168,211 ; vfmadd213ps %ymm3,%ymm1,%ymm2
- DB 197,156,92,220 ; vsubps %ymm4,%ymm12,%ymm3
- DB 196,226,117,168,220 ; vfmadd213ps %ymm4,%ymm1,%ymm3
- DB 197,252,91,140,36,192,6,0,0 ; vcvtdq2ps 0x6c0(%rsp),%ymm1
- DB 197,252,16,164,36,96,6,0,0 ; vmovups 0x660(%rsp),%ymm4
- DB 197,220,92,201 ; vsubps %ymm1,%ymm4,%ymm1
- DB 197,212,92,224 ; vsubps %ymm0,%ymm5,%ymm4
- DB 196,226,117,168,224 ; vfmadd213ps %ymm0,%ymm1,%ymm4
- DB 196,193,44,92,239 ; vsubps %ymm15,%ymm10,%ymm5
- DB 196,194,117,168,239 ; vfmadd213ps %ymm15,%ymm1,%ymm5
- DB 196,65,36,92,214 ; vsubps %ymm14,%ymm11,%ymm10
- DB 196,66,117,168,214 ; vfmadd213ps %ymm14,%ymm1,%ymm10
- DB 196,193,76,92,193 ; vsubps %ymm9,%ymm6,%ymm0
- DB 196,194,117,168,193 ; vfmadd213ps %ymm9,%ymm1,%ymm0
- DB 197,236,92,215 ; vsubps %ymm7,%ymm2,%ymm2
- DB 196,226,117,168,215 ; vfmadd213ps %ymm7,%ymm1,%ymm2
- DB 196,193,100,92,216 ; vsubps %ymm8,%ymm3,%ymm3
- DB 196,194,117,168,216 ; vfmadd213ps %ymm8,%ymm1,%ymm3
- DB 197,252,91,140,36,64,6,0,0 ; vcvtdq2ps 0x640(%rsp),%ymm1
- DB 197,252,16,180,36,160,1,0,0 ; vmovups 0x1a0(%rsp),%ymm6
- DB 197,204,92,241 ; vsubps %ymm1,%ymm6,%ymm6
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 196,226,77,168,196 ; vfmadd213ps %ymm4,%ymm6,%ymm0
- DB 197,236,92,205 ; vsubps %ymm5,%ymm2,%ymm1
- DB 196,226,77,168,205 ; vfmadd213ps %ymm5,%ymm6,%ymm1
- DB 196,193,100,92,210 ; vsubps %ymm10,%ymm3,%ymm2
- DB 196,194,77,168,210 ; vfmadd213ps %ymm10,%ymm6,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,134,200,2,0 ; vbroadcastss 0x2c886(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,16,164,36,224,6,0,0 ; vmovups 0x6e0(%rsp),%ymm4
- DB 197,252,16,172,36,0,7,0,0 ; vmovups 0x700(%rsp),%ymm5
- DB 197,252,16,180,36,32,7,0,0 ; vmovups 0x720(%rsp),%ymm6
- DB 197,252,16,188,36,64,7,0,0 ; vmovups 0x740(%rsp),%ymm7
- DB 72,129,196,120,7,0,0 ; add $0x778,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gauss_a_to_rgba_hsw
-_sk_gauss_a_to_rgba_hsw LABEL PROC
- DB 196,226,125,24,5,196,201,2,0 ; vbroadcastss 0x2c9c4(%rip),%ymm0 # 34c3c <_sk_srcover_bgra_8888_sse2_lowp+0x424>
- DB 196,226,125,24,13,191,201,2,0 ; vbroadcastss 0x2c9bf(%rip),%ymm1 # 34c40 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
- DB 196,226,101,168,200 ; vfmadd213ps %ymm0,%ymm3,%ymm1
- DB 196,226,125,24,5,181,201,2,0 ; vbroadcastss 0x2c9b5(%rip),%ymm0 # 34c44 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
- DB 196,226,101,184,193 ; vfmadd231ps %ymm1,%ymm3,%ymm0
- DB 196,226,125,24,13,171,201,2,0 ; vbroadcastss 0x2c9ab(%rip),%ymm1 # 34c48 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
- DB 196,226,101,184,200 ; vfmadd231ps %ymm0,%ymm3,%ymm1
- DB 196,226,125,24,5,161,201,2,0 ; vbroadcastss 0x2c9a1(%rip),%ymm0 # 34c4c <_sk_srcover_bgra_8888_sse2_lowp+0x434>
- DB 196,226,101,184,193 ; vfmadd231ps %ymm1,%ymm3,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 197,252,40,216 ; vmovaps %ymm0,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilerp_clamp_8888_hsw
-_sk_bilerp_clamp_8888_hsw LABEL PROC
- DB 72,129,236,120,1,0,0 ; sub $0x178,%rsp
- DB 197,252,17,188,36,128,0,0,0 ; vmovups %ymm7,0x80(%rsp)
- DB 197,252,17,116,36,96 ; vmovups %ymm6,0x60(%rsp)
- DB 197,252,17,108,36,64 ; vmovups %ymm5,0x40(%rsp)
- DB 197,252,17,100,36,32 ; vmovups %ymm4,0x20(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,37,215,199,2,0 ; vbroadcastss 0x2c7d7(%rip),%ymm4 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,252,88,212 ; vaddps %ymm4,%ymm0,%ymm2
- DB 196,227,125,8,218,1 ; vroundps $0x1,%ymm2,%ymm3
- DB 197,108,92,235 ; vsubps %ymm3,%ymm2,%ymm13
- DB 197,252,17,140,36,32,1,0,0 ; vmovups %ymm1,0x120(%rsp)
- DB 197,244,88,204 ; vaddps %ymm4,%ymm1,%ymm1
- DB 196,227,125,8,209,1 ; vroundps $0x1,%ymm1,%ymm2
- DB 197,244,92,210 ; vsubps %ymm2,%ymm1,%ymm2
- DB 196,226,125,24,13,173,199,2,0 ; vbroadcastss 0x2c7ad(%rip),%ymm1 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,116,92,221 ; vsubps %ymm13,%ymm1,%ymm3
- DB 197,252,17,156,36,64,1,0,0 ; vmovups %ymm3,0x140(%rsp)
- DB 197,252,17,148,36,0,1,0,0 ; vmovups %ymm2,0x100(%rsp)
- DB 197,244,92,202 ; vsubps %ymm2,%ymm1,%ymm1
- DB 197,252,17,140,36,160,0,0,0 ; vmovups %ymm1,0xa0(%rsp)
- DB 196,226,125,88,72,12 ; vpbroadcastd 0xc(%rax),%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,117,254,242 ; vpaddd %ymm2,%ymm1,%ymm14
- DB 196,226,125,88,72,16 ; vpbroadcastd 0x10(%rax),%ymm1
- DB 197,245,254,202 ; vpaddd %ymm2,%ymm1,%ymm1
- DB 197,254,127,140,36,224,0,0,0 ; vmovdqu %ymm1,0xe0(%rsp)
- DB 76,139,0 ; mov (%rax),%r8
- DB 196,226,125,24,72,8 ; vbroadcastss 0x8(%rax),%ymm1
- DB 197,252,17,140,36,192,0,0,0 ; vmovups %ymm1,0xc0(%rsp)
- DB 197,250,16,13,162,200,2,0 ; vmovss 0x2c8a2(%rip),%xmm1 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 196,226,125,24,61,189,199,2,0 ; vbroadcastss 0x2c7bd(%rip),%ymm7 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 197,237,239,210 ; vpxor %ymm2,%ymm2,%ymm2
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,248,40,233 ; vmovaps %xmm1,%xmm5
- DB 196,226,125,24,205 ; vbroadcastss %xmm5,%ymm1
- DB 197,244,88,140,36,32,1,0,0 ; vaddps 0x120(%rsp),%ymm1,%ymm1
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,220,95,201 ; vmaxps %ymm1,%ymm4,%ymm1
- DB 197,248,41,108,36,16 ; vmovaps %xmm5,0x10(%rsp)
- DB 197,248,46,45,147,200,2,0 ; vucomiss 0x2c893(%rip),%xmm5 # 34c50 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- DB 197,124,16,164,36,0,1,0,0 ; vmovups 0x100(%rsp),%ymm12
- DB 119,9 ; ja 83d1 <_sk_bilerp_clamp_8888_hsw+0x111>
- DB 197,124,16,164,36,160,0,0,0 ; vmovups 0xa0(%rsp),%ymm12
- DB 197,244,93,140,36,224,0,0,0 ; vminps 0xe0(%rsp),%ymm1,%ymm1
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,226,117,64,164,36,192,0,0,0 ; vpmulld 0xc0(%rsp),%ymm1,%ymm4
- DB 197,250,16,53,44,200,2,0 ; vmovss 0x2c82c(%rip),%xmm6 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 196,226,125,24,206 ; vbroadcastss %xmm6,%ymm1
- DB 197,244,88,200 ; vaddps %ymm0,%ymm1,%ymm1
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,212,95,201 ; vmaxps %ymm1,%ymm5,%ymm1
- DB 196,193,116,93,206 ; vminps %ymm14,%ymm1,%ymm1
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 197,221,254,201 ; vpaddd %ymm1,%ymm4,%ymm1
- DB 197,213,118,237 ; vpcmpeqd %ymm5,%ymm5,%ymm5
- DB 196,65,45,239,210 ; vpxor %ymm10,%ymm10,%ymm10
- DB 196,66,85,144,20,136 ; vpgatherdd %ymm5,(%r8,%ymm1,4),%ymm10
- DB 197,173,219,13,219,203,2,0 ; vpand 0x2cbdb(%rip),%ymm10,%ymm1 # 35000 <_sk_srcover_bgra_8888_sse2_lowp+0x7e8>
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 197,116,89,223 ; vmulps %ymm7,%ymm1,%ymm11
- DB 196,226,45,0,13,234,203,2,0 ; vpshufb 0x2cbea(%rip),%ymm10,%ymm1 # 35020 <_sk_srcover_bgra_8888_sse2_lowp+0x808>
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 197,244,89,239 ; vmulps %ymm7,%ymm1,%ymm5
- DB 196,226,45,0,13,249,203,2,0 ; vpshufb 0x2cbf9(%rip),%ymm10,%ymm1 # 35040 <_sk_srcover_bgra_8888_sse2_lowp+0x828>
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 197,244,89,207 ; vmulps %ymm7,%ymm1,%ymm1
- DB 196,193,45,114,210,24 ; vpsrld $0x18,%ymm10,%ymm10
- DB 196,65,124,91,210 ; vcvtdq2ps %ymm10,%ymm10
- DB 197,44,89,255 ; vmulps %ymm7,%ymm10,%ymm15
- DB 197,248,46,53,234,199,2,0 ; vucomiss 0x2c7ea(%rip),%xmm6 # 34c50 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- DB 196,65,124,40,213 ; vmovaps %ymm13,%ymm10
- DB 119,9 ; ja 8476 <_sk_bilerp_clamp_8888_hsw+0x1b6>
- DB 197,124,16,148,36,64,1,0,0 ; vmovups 0x140(%rsp),%ymm10
- DB 196,65,28,89,210 ; vmulps %ymm10,%ymm12,%ymm10
- DB 196,66,45,184,203 ; vfmadd231ps %ymm11,%ymm10,%ymm9
- DB 196,98,45,184,197 ; vfmadd231ps %ymm5,%ymm10,%ymm8
- DB 196,226,45,184,209 ; vfmadd231ps %ymm1,%ymm10,%ymm2
- DB 196,194,45,184,223 ; vfmadd231ps %ymm15,%ymm10,%ymm3
- DB 197,202,88,53,49,198,2,0 ; vaddss 0x2c631(%rip),%xmm6,%xmm6 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,250,16,13,37,198,2,0 ; vmovss 0x2c625(%rip),%xmm1 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,248,46,206 ; vucomiss %xmm6,%xmm1
- DB 15,131,71,255,255,255 ; jae 83f0 <_sk_bilerp_clamp_8888_hsw+0x130>
- DB 197,248,40,108,36,16 ; vmovaps 0x10(%rsp),%xmm5
- DB 197,210,88,45,17,198,2,0 ; vaddss 0x2c611(%rip),%xmm5,%xmm5 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,250,16,13,5,198,2,0 ; vmovss 0x2c605(%rip),%xmm1 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,248,46,205 ; vucomiss %xmm5,%xmm1
- DB 15,131,208,254,255,255 ; jae 8399 <_sk_bilerp_clamp_8888_hsw+0xd9>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,200 ; vmovaps %ymm9,%ymm0
- DB 197,124,41,193 ; vmovaps %ymm8,%ymm1
- DB 197,252,16,100,36,32 ; vmovups 0x20(%rsp),%ymm4
- DB 197,252,16,108,36,64 ; vmovups 0x40(%rsp),%ymm5
- DB 197,252,16,116,36,96 ; vmovups 0x60(%rsp),%ymm6
- DB 197,252,16,188,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm7
- DB 72,129,196,120,1,0,0 ; add $0x178,%rsp
- DB 255,224 ; jmpq *%rax
- DB 144 ; nop
-
-PUBLIC _sk_start_pipeline_avx
-_sk_start_pipeline_avx LABEL PROC
- DB 85 ; push %rbp
- DB 72,137,229 ; mov %rsp,%rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 86 ; push %rsi
- DB 87 ; push %rdi
- DB 83 ; push %rbx
- DB 72,129,236,200,0,0,0 ; sub $0xc8,%rsp
- DB 197,120,41,125,176 ; vmovaps %xmm15,-0x50(%rbp)
- DB 197,120,41,117,160 ; vmovaps %xmm14,-0x60(%rbp)
- DB 197,120,41,109,144 ; vmovaps %xmm13,-0x70(%rbp)
- DB 197,120,41,101,128 ; vmovaps %xmm12,-0x80(%rbp)
- DB 197,120,41,157,112,255,255,255 ; vmovaps %xmm11,-0x90(%rbp)
- DB 197,120,41,149,96,255,255,255 ; vmovaps %xmm10,-0xa0(%rbp)
- DB 197,120,41,141,80,255,255,255 ; vmovaps %xmm9,-0xb0(%rbp)
- DB 197,120,41,133,64,255,255,255 ; vmovaps %xmm8,-0xc0(%rbp)
- DB 197,248,41,189,48,255,255,255 ; vmovaps %xmm7,-0xd0(%rbp)
- DB 197,248,41,181,32,255,255,255 ; vmovaps %xmm6,-0xe0(%rbp)
- DB 77,137,199 ; mov %r8,%r15
- DB 72,137,211 ; mov %rdx,%rbx
- DB 72,137,141,24,255,255,255 ; mov %rcx,-0xe8(%rbp)
- DB 72,139,117,48 ; mov 0x30(%rbp),%rsi
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 73,137,197 ; mov %rax,%r13
- DB 73,137,246 ; mov %rsi,%r14
- DB 76,137,141,8,255,255,255 ; mov %r9,-0xf8(%rbp)
- DB 76,57,203 ; cmp %r9,%rbx
- DB 15,131,169,0,0,0 ; jae 8624 <_sk_start_pipeline_avx+0x12c>
- DB 72,139,133,24,255,255,255 ; mov -0xe8(%rbp),%rax
- DB 72,141,64,8 ; lea 0x8(%rax),%rax
- DB 72,137,133,16,255,255,255 ; mov %rax,-0xf0(%rbp)
- DB 72,139,149,24,255,255,255 ; mov -0xe8(%rbp),%rdx
- DB 76,57,189,16,255,255,255 ; cmp %r15,-0xf0(%rbp)
- DB 119,70 ; ja 85e3 <_sk_start_pipeline_avx+0xeb>
- DB 76,139,165,24,255,255,255 ; mov -0xe8(%rbp),%r12
- DB 49,255 ; xor %edi,%edi
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 197,196,87,255 ; vxorps %ymm7,%ymm7,%ymm7
- DB 76,137,246 ; mov %r14,%rsi
- DB 76,137,226 ; mov %r12,%rdx
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 73,141,84,36,8 ; lea 0x8(%r12),%rdx
- DB 73,131,196,16 ; add $0x10,%r12
- DB 77,57,252 ; cmp %r15,%r12
- DB 73,137,212 ; mov %rdx,%r12
- DB 118,193 ; jbe 85a4 <_sk_start_pipeline_avx+0xac>
- DB 76,137,255 ; mov %r15,%rdi
- DB 72,41,215 ; sub %rdx,%rdi
- DB 116,41 ; je 8614 <_sk_start_pipeline_avx+0x11c>
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 197,196,87,255 ; vxorps %ymm7,%ymm7,%ymm7
- DB 76,137,246 ; mov %r14,%rsi
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 72,255,195 ; inc %rbx
- DB 72,59,157,8,255,255,255 ; cmp -0xf8(%rbp),%rbx
- DB 15,133,105,255,255,255 ; jne 858d <_sk_start_pipeline_avx+0x95>
- DB 197,248,40,181,32,255,255,255 ; vmovaps -0xe0(%rbp),%xmm6
- DB 197,248,40,189,48,255,255,255 ; vmovaps -0xd0(%rbp),%xmm7
- DB 197,120,40,133,64,255,255,255 ; vmovaps -0xc0(%rbp),%xmm8
- DB 197,120,40,141,80,255,255,255 ; vmovaps -0xb0(%rbp),%xmm9
- DB 197,120,40,149,96,255,255,255 ; vmovaps -0xa0(%rbp),%xmm10
- DB 197,120,40,157,112,255,255,255 ; vmovaps -0x90(%rbp),%xmm11
- DB 197,120,40,101,128 ; vmovaps -0x80(%rbp),%xmm12
- DB 197,120,40,109,144 ; vmovaps -0x70(%rbp),%xmm13
- DB 197,120,40,117,160 ; vmovaps -0x60(%rbp),%xmm14
- DB 197,120,40,125,176 ; vmovaps -0x50(%rbp),%xmm15
- DB 72,129,196,200,0,0,0 ; add $0xc8,%rsp
- DB 91 ; pop %rbx
- DB 95 ; pop %rdi
- DB 94 ; pop %rsi
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 197,248,119 ; vzeroupper
- DB 195 ; retq
-
-PUBLIC _sk_just_return_avx
-_sk_just_return_avx LABEL PROC
- DB 195 ; retq
-
-PUBLIC _sk_seed_shader_avx
-_sk_seed_shader_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,249,110,194 ; vmovd %edx,%xmm0
- DB 197,249,112,192,0 ; vpshufd $0x0,%xmm0,%xmm0
- DB 196,227,125,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 197,249,110,201 ; vmovd %ecx,%xmm1
- DB 197,249,112,201,0 ; vpshufd $0x0,%xmm1,%xmm1
- DB 196,227,117,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,21,15,196,2,0 ; vbroadcastss 0x2c40f(%rip),%ymm2 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,244,88,202 ; vaddps %ymm2,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,21,4,196,2,0 ; vbroadcastss 0x2c404(%rip),%ymm2 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 197,196,87,255 ; vxorps %ymm7,%ymm7,%ymm7
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dither_avx
-_sk_dither_avx LABEL PROC
- DB 197,121,110,194 ; vmovd %edx,%xmm8
- DB 196,65,121,112,192,0 ; vpshufd $0x0,%xmm8,%xmm8
- DB 197,57,254,13,148,205,2,0 ; vpaddd 0x2cd94(%rip),%xmm8,%xmm9 # 35480 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
- DB 197,57,254,5,156,205,2,0 ; vpaddd 0x2cd9c(%rip),%xmm8,%xmm8 # 35490 <_sk_srcover_bgra_8888_sse2_lowp+0xc78>
- DB 196,67,53,24,208,1 ; vinsertf128 $0x1,%xmm8,%ymm9,%ymm10
- DB 197,121,110,217 ; vmovd %ecx,%xmm11
- DB 196,65,121,112,219,0 ; vpshufd $0x0,%xmm11,%xmm11
- DB 196,67,37,24,219,1 ; vinsertf128 $0x1,%xmm11,%ymm11,%ymm11
- DB 196,65,36,87,218 ; vxorps %ymm10,%ymm11,%ymm11
- DB 196,98,125,24,21,180,195,2,0 ; vbroadcastss 0x2c3b4(%rip),%ymm10 # 34acc <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
- DB 196,65,36,84,210 ; vandps %ymm10,%ymm11,%ymm10
- DB 196,193,25,114,242,5 ; vpslld $0x5,%xmm10,%xmm12
- DB 196,67,125,25,210,1 ; vextractf128 $0x1,%ymm10,%xmm10
- DB 196,193,41,114,242,5 ; vpslld $0x5,%xmm10,%xmm10
- DB 196,67,29,24,210,1 ; vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- DB 197,123,18,37,179,213,2,0 ; vmovddup 0x2d5b3(%rip),%xmm12 # 35cf0 <_sk_srcover_bgra_8888_sse2_lowp+0x14d8>
- DB 196,65,49,219,236 ; vpand %xmm12,%xmm9,%xmm13
- DB 196,193,17,114,245,4 ; vpslld $0x4,%xmm13,%xmm13
- DB 196,65,57,219,228 ; vpand %xmm12,%xmm8,%xmm12
- DB 196,193,25,114,244,4 ; vpslld $0x4,%xmm12,%xmm12
- DB 196,67,21,24,228,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- DB 196,98,125,24,45,114,195,2,0 ; vbroadcastss 0x2c372(%rip),%ymm13 # 34ad4 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- DB 196,65,36,84,237 ; vandps %ymm13,%ymm11,%ymm13
- DB 196,193,9,114,245,2 ; vpslld $0x2,%xmm13,%xmm14
- DB 196,67,125,25,237,1 ; vextractf128 $0x1,%ymm13,%xmm13
- DB 196,193,17,114,245,2 ; vpslld $0x2,%xmm13,%xmm13
- DB 196,67,13,24,237,1 ; vinsertf128 $0x1,%xmm13,%ymm14,%ymm13
- DB 197,123,18,53,113,213,2,0 ; vmovddup 0x2d571(%rip),%xmm14 # 35cf8 <_sk_srcover_bgra_8888_sse2_lowp+0x14e0>
- DB 196,65,49,219,254 ; vpand %xmm14,%xmm9,%xmm15
- DB 196,65,1,254,255 ; vpaddd %xmm15,%xmm15,%xmm15
- DB 196,65,57,219,246 ; vpand %xmm14,%xmm8,%xmm14
- DB 196,65,9,254,246 ; vpaddd %xmm14,%xmm14,%xmm14
- DB 196,67,5,24,246,1 ; vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
- DB 196,65,12,86,228 ; vorps %ymm12,%ymm14,%ymm12
- DB 196,98,125,24,53,33,195,2,0 ; vbroadcastss 0x2c321(%rip),%ymm14 # 34ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x2b8>
- DB 196,65,36,84,222 ; vandps %ymm14,%ymm11,%ymm11
- DB 196,193,9,114,211,1 ; vpsrld $0x1,%xmm11,%xmm14
- DB 196,67,125,25,219,1 ; vextractf128 $0x1,%ymm11,%xmm11
- DB 196,193,33,114,211,1 ; vpsrld $0x1,%xmm11,%xmm11
- DB 196,67,13,24,219,1 ; vinsertf128 $0x1,%xmm11,%ymm14,%ymm11
- DB 196,65,20,86,219 ; vorps %ymm11,%ymm13,%ymm11
- DB 197,123,18,45,39,213,2,0 ; vmovddup 0x2d527(%rip),%xmm13 # 35d00 <_sk_srcover_bgra_8888_sse2_lowp+0x14e8>
- DB 196,65,49,219,205 ; vpand %xmm13,%xmm9,%xmm9
- DB 196,65,57,219,197 ; vpand %xmm13,%xmm8,%xmm8
- DB 196,193,49,114,209,2 ; vpsrld $0x2,%xmm9,%xmm9
- DB 196,193,57,114,208,2 ; vpsrld $0x2,%xmm8,%xmm8
- DB 196,67,53,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- DB 196,65,28,86,192 ; vorps %ymm8,%ymm12,%ymm8
- DB 196,65,60,86,194 ; vorps %ymm10,%ymm8,%ymm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,60,86,195 ; vorps %ymm11,%ymm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,13,196,194,2,0 ; vbroadcastss 0x2c2c4(%rip),%ymm9 # 34ad8 <_sk_srcover_bgra_8888_sse2_lowp+0x2c0>
- DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 196,98,125,24,13,186,194,2,0 ; vbroadcastss 0x2c2ba(%rip),%ymm9 # 34adc <_sk_srcover_bgra_8888_sse2_lowp+0x2c4>
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 196,98,125,24,8 ; vbroadcastss (%rax),%ymm9
- DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
- DB 197,188,88,201 ; vaddps %ymm1,%ymm8,%ymm1
- DB 197,188,88,210 ; vaddps %ymm2,%ymm8,%ymm2
- DB 197,252,93,195 ; vminps %ymm3,%ymm0,%ymm0
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 197,244,93,203 ; vminps %ymm3,%ymm1,%ymm1
- DB 197,188,95,201 ; vmaxps %ymm1,%ymm8,%ymm1
- DB 197,236,93,211 ; vminps %ymm3,%ymm2,%ymm2
- DB 197,188,95,210 ; vmaxps %ymm2,%ymm8,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_uniform_color_avx
-_sk_uniform_color_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,0 ; vbroadcastss (%rax),%ymm0
- DB 196,226,125,24,72,4 ; vbroadcastss 0x4(%rax),%ymm1
- DB 196,226,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm2
- DB 196,226,125,24,88,12 ; vbroadcastss 0xc(%rax),%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_black_color_avx
-_sk_black_color_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,66,194,2,0 ; vbroadcastss 0x2c242(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_white_color_avx
-_sk_white_color_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,41,194,2,0 ; vbroadcastss 0x2c229(%rip),%ymm0 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 197,252,40,216 ; vmovaps %ymm0,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_rgba_avx
-_sk_load_rgba_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,0 ; vmovups (%rax),%ymm0
- DB 197,252,16,72,32 ; vmovups 0x20(%rax),%ymm1
- DB 197,252,16,80,64 ; vmovups 0x40(%rax),%ymm2
- DB 197,252,16,88,96 ; vmovups 0x60(%rax),%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_rgba_avx
-_sk_store_rgba_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,17,0 ; vmovups %ymm0,(%rax)
- DB 197,252,17,72,32 ; vmovups %ymm1,0x20(%rax)
- DB 197,252,17,80,64 ; vmovups %ymm2,0x40(%rax)
- DB 197,252,17,88,96 ; vmovups %ymm3,0x60(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clear_avx
-_sk_clear_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcatop_avx
-_sk_srcatop_avx LABEL PROC
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 196,98,125,24,5,200,193,2,0 ; vbroadcastss 0x2c1c8(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,60,89,204 ; vmulps %ymm4,%ymm8,%ymm9
- DB 197,180,88,192 ; vaddps %ymm0,%ymm9,%ymm0
- DB 197,244,89,207 ; vmulps %ymm7,%ymm1,%ymm1
- DB 197,60,89,205 ; vmulps %ymm5,%ymm8,%ymm9
- DB 197,180,88,201 ; vaddps %ymm1,%ymm9,%ymm1
- DB 197,236,89,215 ; vmulps %ymm7,%ymm2,%ymm2
- DB 197,60,89,206 ; vmulps %ymm6,%ymm8,%ymm9
- DB 197,180,88,210 ; vaddps %ymm2,%ymm9,%ymm2
- DB 197,228,89,223 ; vmulps %ymm7,%ymm3,%ymm3
- DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
- DB 196,193,100,88,216 ; vaddps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstatop_avx
-_sk_dstatop_avx LABEL PROC
- DB 197,100,89,196 ; vmulps %ymm4,%ymm3,%ymm8
- DB 196,98,125,24,13,134,193,2,0 ; vbroadcastss 0x2c186(%rip),%ymm9 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,52,92,207 ; vsubps %ymm7,%ymm9,%ymm9
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
- DB 197,100,89,197 ; vmulps %ymm5,%ymm3,%ymm8
- DB 197,180,89,201 ; vmulps %ymm1,%ymm9,%ymm1
- DB 197,188,88,201 ; vaddps %ymm1,%ymm8,%ymm1
- DB 197,100,89,198 ; vmulps %ymm6,%ymm3,%ymm8
- DB 197,180,89,210 ; vmulps %ymm2,%ymm9,%ymm2
- DB 197,188,88,210 ; vaddps %ymm2,%ymm8,%ymm2
- DB 197,100,89,199 ; vmulps %ymm7,%ymm3,%ymm8
- DB 197,180,89,219 ; vmulps %ymm3,%ymm9,%ymm3
- DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcin_avx
-_sk_srcin_avx LABEL PROC
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 197,244,89,207 ; vmulps %ymm7,%ymm1,%ymm1
- DB 197,236,89,215 ; vmulps %ymm7,%ymm2,%ymm2
- DB 197,228,89,223 ; vmulps %ymm7,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstin_avx
-_sk_dstin_avx LABEL PROC
- DB 197,228,89,196 ; vmulps %ymm4,%ymm3,%ymm0
- DB 197,228,89,205 ; vmulps %ymm5,%ymm3,%ymm1
- DB 197,228,89,214 ; vmulps %ymm6,%ymm3,%ymm2
- DB 197,228,89,223 ; vmulps %ymm7,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcout_avx
-_sk_srcout_avx LABEL PROC
- DB 196,98,125,24,5,33,193,2,0 ; vbroadcastss 0x2c121(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,199 ; vsubps %ymm7,%ymm8,%ymm8
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
- DB 197,188,89,210 ; vmulps %ymm2,%ymm8,%ymm2
- DB 197,188,89,219 ; vmulps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstout_avx
-_sk_dstout_avx LABEL PROC
- DB 196,226,125,24,5,0,193,2,0 ; vbroadcastss 0x2c100(%rip),%ymm0 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,92,219 ; vsubps %ymm3,%ymm0,%ymm3
- DB 197,228,89,196 ; vmulps %ymm4,%ymm3,%ymm0
- DB 197,228,89,205 ; vmulps %ymm5,%ymm3,%ymm1
- DB 197,228,89,214 ; vmulps %ymm6,%ymm3,%ymm2
- DB 197,228,89,223 ; vmulps %ymm7,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_avx
-_sk_srcover_avx LABEL PROC
- DB 196,98,125,24,5,223,192,2,0 ; vbroadcastss 0x2c0df(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,60,89,204 ; vmulps %ymm4,%ymm8,%ymm9
- DB 197,180,88,192 ; vaddps %ymm0,%ymm9,%ymm0
- DB 197,60,89,205 ; vmulps %ymm5,%ymm8,%ymm9
- DB 197,180,88,201 ; vaddps %ymm1,%ymm9,%ymm1
- DB 197,60,89,206 ; vmulps %ymm6,%ymm8,%ymm9
- DB 197,180,88,210 ; vaddps %ymm2,%ymm9,%ymm2
- DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
- DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstover_avx
-_sk_dstover_avx LABEL PROC
- DB 196,98,125,24,5,174,192,2,0 ; vbroadcastss 0x2c0ae(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,199 ; vsubps %ymm7,%ymm8,%ymm8
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 197,252,88,196 ; vaddps %ymm4,%ymm0,%ymm0
- DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
- DB 197,244,88,205 ; vaddps %ymm5,%ymm1,%ymm1
- DB 197,188,89,210 ; vmulps %ymm2,%ymm8,%ymm2
- DB 197,236,88,214 ; vaddps %ymm6,%ymm2,%ymm2
- DB 197,188,89,219 ; vmulps %ymm3,%ymm8,%ymm3
- DB 197,228,88,223 ; vaddps %ymm7,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_modulate_avx
-_sk_modulate_avx LABEL PROC
- DB 197,252,89,196 ; vmulps %ymm4,%ymm0,%ymm0
- DB 197,244,89,205 ; vmulps %ymm5,%ymm1,%ymm1
- DB 197,236,89,214 ; vmulps %ymm6,%ymm2,%ymm2
- DB 197,228,89,223 ; vmulps %ymm7,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_multiply_avx
-_sk_multiply_avx LABEL PROC
- DB 196,98,125,24,5,105,192,2,0 ; vbroadcastss 0x2c069(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
- DB 197,52,89,208 ; vmulps %ymm0,%ymm9,%ymm10
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,60,89,220 ; vmulps %ymm4,%ymm8,%ymm11
- DB 196,65,36,88,210 ; vaddps %ymm10,%ymm11,%ymm10
- DB 197,252,89,196 ; vmulps %ymm4,%ymm0,%ymm0
- DB 196,193,124,88,194 ; vaddps %ymm10,%ymm0,%ymm0
- DB 197,52,89,209 ; vmulps %ymm1,%ymm9,%ymm10
- DB 197,60,89,221 ; vmulps %ymm5,%ymm8,%ymm11
- DB 196,65,36,88,210 ; vaddps %ymm10,%ymm11,%ymm10
- DB 197,244,89,205 ; vmulps %ymm5,%ymm1,%ymm1
- DB 196,193,116,88,202 ; vaddps %ymm10,%ymm1,%ymm1
- DB 197,52,89,210 ; vmulps %ymm2,%ymm9,%ymm10
- DB 197,60,89,222 ; vmulps %ymm6,%ymm8,%ymm11
- DB 196,65,36,88,210 ; vaddps %ymm10,%ymm11,%ymm10
- DB 197,236,89,214 ; vmulps %ymm6,%ymm2,%ymm2
- DB 196,193,108,88,210 ; vaddps %ymm10,%ymm2,%ymm2
- DB 197,52,89,203 ; vmulps %ymm3,%ymm9,%ymm9
- DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 197,228,89,223 ; vmulps %ymm7,%ymm3,%ymm3
- DB 196,193,100,88,216 ; vaddps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_plus__avx
-_sk_plus__avx LABEL PROC
- DB 197,252,88,196 ; vaddps %ymm4,%ymm0,%ymm0
- DB 196,98,125,24,5,248,191,2,0 ; vbroadcastss 0x2bff8(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 197,244,88,205 ; vaddps %ymm5,%ymm1,%ymm1
- DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
- DB 197,236,88,214 ; vaddps %ymm6,%ymm2,%ymm2
- DB 196,193,108,93,208 ; vminps %ymm8,%ymm2,%ymm2
- DB 197,228,88,223 ; vaddps %ymm7,%ymm3,%ymm3
- DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_screen_avx
-_sk_screen_avx LABEL PROC
- DB 197,124,88,196 ; vaddps %ymm4,%ymm0,%ymm8
- DB 197,252,89,196 ; vmulps %ymm4,%ymm0,%ymm0
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 197,116,88,197 ; vaddps %ymm5,%ymm1,%ymm8
- DB 197,244,89,205 ; vmulps %ymm5,%ymm1,%ymm1
- DB 197,188,92,201 ; vsubps %ymm1,%ymm8,%ymm1
- DB 197,108,88,198 ; vaddps %ymm6,%ymm2,%ymm8
- DB 197,236,89,214 ; vmulps %ymm6,%ymm2,%ymm2
- DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 197,100,88,199 ; vaddps %ymm7,%ymm3,%ymm8
- DB 197,228,89,223 ; vmulps %ymm7,%ymm3,%ymm3
- DB 197,188,92,219 ; vsubps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xor__avx
-_sk_xor__avx LABEL PROC
- DB 196,98,125,24,5,151,191,2,0 ; vbroadcastss 0x2bf97(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,60,89,212 ; vmulps %ymm4,%ymm8,%ymm10
- DB 197,172,88,192 ; vaddps %ymm0,%ymm10,%ymm0
- DB 197,180,89,201 ; vmulps %ymm1,%ymm9,%ymm1
- DB 197,60,89,213 ; vmulps %ymm5,%ymm8,%ymm10
- DB 197,172,88,201 ; vaddps %ymm1,%ymm10,%ymm1
- DB 197,180,89,210 ; vmulps %ymm2,%ymm9,%ymm2
- DB 197,60,89,214 ; vmulps %ymm6,%ymm8,%ymm10
- DB 197,172,88,210 ; vaddps %ymm2,%ymm10,%ymm2
- DB 197,180,89,219 ; vmulps %ymm3,%ymm9,%ymm3
- DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
- DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_darken_avx
-_sk_darken_avx LABEL PROC
- DB 197,124,88,196 ; vaddps %ymm4,%ymm0,%ymm8
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 197,100,89,204 ; vmulps %ymm4,%ymm3,%ymm9
- DB 196,193,124,95,193 ; vmaxps %ymm9,%ymm0,%ymm0
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 197,116,88,197 ; vaddps %ymm5,%ymm1,%ymm8
- DB 197,244,89,207 ; vmulps %ymm7,%ymm1,%ymm1
- DB 197,100,89,205 ; vmulps %ymm5,%ymm3,%ymm9
- DB 196,193,116,95,201 ; vmaxps %ymm9,%ymm1,%ymm1
- DB 197,188,92,201 ; vsubps %ymm1,%ymm8,%ymm1
- DB 197,108,88,198 ; vaddps %ymm6,%ymm2,%ymm8
- DB 197,236,89,215 ; vmulps %ymm7,%ymm2,%ymm2
- DB 197,100,89,206 ; vmulps %ymm6,%ymm3,%ymm9
- DB 196,193,108,95,209 ; vmaxps %ymm9,%ymm2,%ymm2
- DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,19,191,2,0 ; vbroadcastss 0x2bf13(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
- DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lighten_avx
-_sk_lighten_avx LABEL PROC
- DB 197,124,88,196 ; vaddps %ymm4,%ymm0,%ymm8
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 197,100,89,204 ; vmulps %ymm4,%ymm3,%ymm9
- DB 196,193,124,93,193 ; vminps %ymm9,%ymm0,%ymm0
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 197,116,88,197 ; vaddps %ymm5,%ymm1,%ymm8
- DB 197,244,89,207 ; vmulps %ymm7,%ymm1,%ymm1
- DB 197,100,89,205 ; vmulps %ymm5,%ymm3,%ymm9
- DB 196,193,116,93,201 ; vminps %ymm9,%ymm1,%ymm1
- DB 197,188,92,201 ; vsubps %ymm1,%ymm8,%ymm1
- DB 197,108,88,198 ; vaddps %ymm6,%ymm2,%ymm8
- DB 197,236,89,215 ; vmulps %ymm7,%ymm2,%ymm2
- DB 197,100,89,206 ; vmulps %ymm6,%ymm3,%ymm9
- DB 196,193,108,93,209 ; vminps %ymm9,%ymm2,%ymm2
- DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,187,190,2,0 ; vbroadcastss 0x2bebb(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
- DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_difference_avx
-_sk_difference_avx LABEL PROC
- DB 197,124,88,196 ; vaddps %ymm4,%ymm0,%ymm8
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 197,100,89,204 ; vmulps %ymm4,%ymm3,%ymm9
- DB 196,193,124,93,193 ; vminps %ymm9,%ymm0,%ymm0
- DB 197,252,88,192 ; vaddps %ymm0,%ymm0,%ymm0
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 197,116,88,197 ; vaddps %ymm5,%ymm1,%ymm8
- DB 197,244,89,207 ; vmulps %ymm7,%ymm1,%ymm1
- DB 197,100,89,205 ; vmulps %ymm5,%ymm3,%ymm9
- DB 196,193,116,93,201 ; vminps %ymm9,%ymm1,%ymm1
- DB 197,244,88,201 ; vaddps %ymm1,%ymm1,%ymm1
- DB 197,188,92,201 ; vsubps %ymm1,%ymm8,%ymm1
- DB 197,108,88,198 ; vaddps %ymm6,%ymm2,%ymm8
- DB 197,236,89,215 ; vmulps %ymm7,%ymm2,%ymm2
- DB 197,100,89,206 ; vmulps %ymm6,%ymm3,%ymm9
- DB 196,193,108,93,209 ; vminps %ymm9,%ymm2,%ymm2
- DB 197,236,88,210 ; vaddps %ymm2,%ymm2,%ymm2
- DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,87,190,2,0 ; vbroadcastss 0x2be57(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
- DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_exclusion_avx
-_sk_exclusion_avx LABEL PROC
- DB 197,124,88,196 ; vaddps %ymm4,%ymm0,%ymm8
- DB 197,252,89,196 ; vmulps %ymm4,%ymm0,%ymm0
- DB 197,252,88,192 ; vaddps %ymm0,%ymm0,%ymm0
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 197,116,88,197 ; vaddps %ymm5,%ymm1,%ymm8
- DB 197,244,89,205 ; vmulps %ymm5,%ymm1,%ymm1
- DB 197,244,88,201 ; vaddps %ymm1,%ymm1,%ymm1
- DB 197,188,92,201 ; vsubps %ymm1,%ymm8,%ymm1
- DB 197,108,88,198 ; vaddps %ymm6,%ymm2,%ymm8
- DB 197,236,89,214 ; vmulps %ymm6,%ymm2,%ymm2
- DB 197,236,88,210 ; vaddps %ymm2,%ymm2,%ymm2
- DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,14,190,2,0 ; vbroadcastss 0x2be0e(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
- DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_colorburn_avx
-_sk_colorburn_avx LABEL PROC
- DB 196,98,125,24,5,245,189,2,0 ; vbroadcastss 0x2bdf5(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
- DB 197,52,89,216 ; vmulps %ymm0,%ymm9,%ymm11
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 196,65,124,194,226,0 ; vcmpeqps %ymm10,%ymm0,%ymm12
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,68,92,236 ; vsubps %ymm4,%ymm7,%ymm13
- DB 197,20,89,235 ; vmulps %ymm3,%ymm13,%ymm13
- DB 197,252,83,192 ; vrcpps %ymm0,%ymm0
- DB 197,148,89,192 ; vmulps %ymm0,%ymm13,%ymm0
- DB 197,60,89,236 ; vmulps %ymm4,%ymm8,%ymm13
- DB 197,196,93,192 ; vminps %ymm0,%ymm7,%ymm0
- DB 197,196,92,192 ; vsubps %ymm0,%ymm7,%ymm0
- DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 197,164,88,192 ; vaddps %ymm0,%ymm11,%ymm0
- DB 197,148,88,192 ; vaddps %ymm0,%ymm13,%ymm0
- DB 196,195,125,74,197,192 ; vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- DB 197,92,194,231,0 ; vcmpeqps %ymm7,%ymm4,%ymm12
- DB 197,36,88,220 ; vaddps %ymm4,%ymm11,%ymm11
- DB 196,195,125,74,195,192 ; vblendvps %ymm12,%ymm11,%ymm0,%ymm0
- DB 197,52,89,217 ; vmulps %ymm1,%ymm9,%ymm11
- DB 196,65,116,194,226,0 ; vcmpeqps %ymm10,%ymm1,%ymm12
- DB 197,68,92,237 ; vsubps %ymm5,%ymm7,%ymm13
- DB 197,20,89,235 ; vmulps %ymm3,%ymm13,%ymm13
- DB 197,252,83,201 ; vrcpps %ymm1,%ymm1
- DB 197,148,89,201 ; vmulps %ymm1,%ymm13,%ymm1
- DB 197,60,89,237 ; vmulps %ymm5,%ymm8,%ymm13
- DB 197,196,93,201 ; vminps %ymm1,%ymm7,%ymm1
- DB 197,196,92,201 ; vsubps %ymm1,%ymm7,%ymm1
- DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
- DB 197,164,88,201 ; vaddps %ymm1,%ymm11,%ymm1
- DB 197,148,88,201 ; vaddps %ymm1,%ymm13,%ymm1
- DB 196,195,117,74,205,192 ; vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- DB 197,84,194,231,0 ; vcmpeqps %ymm7,%ymm5,%ymm12
- DB 197,36,88,221 ; vaddps %ymm5,%ymm11,%ymm11
- DB 196,195,117,74,203,192 ; vblendvps %ymm12,%ymm11,%ymm1,%ymm1
- DB 197,52,89,202 ; vmulps %ymm2,%ymm9,%ymm9
- DB 196,65,108,194,210,0 ; vcmpeqps %ymm10,%ymm2,%ymm10
- DB 197,68,92,222 ; vsubps %ymm6,%ymm7,%ymm11
- DB 197,36,89,219 ; vmulps %ymm3,%ymm11,%ymm11
- DB 197,252,83,210 ; vrcpps %ymm2,%ymm2
- DB 197,164,89,210 ; vmulps %ymm2,%ymm11,%ymm2
- DB 197,60,89,222 ; vmulps %ymm6,%ymm8,%ymm11
- DB 197,196,93,210 ; vminps %ymm2,%ymm7,%ymm2
- DB 197,196,92,210 ; vsubps %ymm2,%ymm7,%ymm2
- DB 197,236,89,211 ; vmulps %ymm3,%ymm2,%ymm2
- DB 197,180,88,210 ; vaddps %ymm2,%ymm9,%ymm2
- DB 197,164,88,210 ; vaddps %ymm2,%ymm11,%ymm2
- DB 196,195,109,74,211,160 ; vblendvps %ymm10,%ymm11,%ymm2,%ymm2
- DB 197,76,194,215,0 ; vcmpeqps %ymm7,%ymm6,%ymm10
- DB 197,52,88,206 ; vaddps %ymm6,%ymm9,%ymm9
- DB 196,195,109,74,209,160 ; vblendvps %ymm10,%ymm9,%ymm2,%ymm2
- DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
- DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_colordodge_avx
-_sk_colordodge_avx LABEL PROC
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,98,125,24,13,249,188,2,0 ; vbroadcastss 0x2bcf9(%rip),%ymm9 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,52,92,215 ; vsubps %ymm7,%ymm9,%ymm10
- DB 197,44,89,216 ; vmulps %ymm0,%ymm10,%ymm11
- DB 197,52,92,203 ; vsubps %ymm3,%ymm9,%ymm9
- DB 197,100,89,228 ; vmulps %ymm4,%ymm3,%ymm12
- DB 197,100,92,232 ; vsubps %ymm0,%ymm3,%ymm13
- DB 196,65,124,83,237 ; vrcpps %ymm13,%ymm13
- DB 196,65,28,89,229 ; vmulps %ymm13,%ymm12,%ymm12
- DB 197,52,89,236 ; vmulps %ymm4,%ymm9,%ymm13
- DB 196,65,68,93,228 ; vminps %ymm12,%ymm7,%ymm12
- DB 197,28,89,227 ; vmulps %ymm3,%ymm12,%ymm12
- DB 196,65,36,88,228 ; vaddps %ymm12,%ymm11,%ymm12
- DB 196,65,20,88,228 ; vaddps %ymm12,%ymm13,%ymm12
- DB 197,20,88,232 ; vaddps %ymm0,%ymm13,%ymm13
- DB 197,252,194,195,0 ; vcmpeqps %ymm3,%ymm0,%ymm0
- DB 196,195,29,74,197,0 ; vblendvps %ymm0,%ymm13,%ymm12,%ymm0
- DB 196,65,92,194,224,0 ; vcmpeqps %ymm8,%ymm4,%ymm12
- DB 196,195,125,74,195,192 ; vblendvps %ymm12,%ymm11,%ymm0,%ymm0
- DB 197,44,89,217 ; vmulps %ymm1,%ymm10,%ymm11
- DB 197,100,89,229 ; vmulps %ymm5,%ymm3,%ymm12
- DB 197,100,92,233 ; vsubps %ymm1,%ymm3,%ymm13
- DB 196,65,124,83,237 ; vrcpps %ymm13,%ymm13
- DB 196,65,28,89,229 ; vmulps %ymm13,%ymm12,%ymm12
- DB 197,52,89,237 ; vmulps %ymm5,%ymm9,%ymm13
- DB 196,65,68,93,228 ; vminps %ymm12,%ymm7,%ymm12
- DB 197,28,89,227 ; vmulps %ymm3,%ymm12,%ymm12
- DB 196,65,36,88,228 ; vaddps %ymm12,%ymm11,%ymm12
- DB 196,65,20,88,228 ; vaddps %ymm12,%ymm13,%ymm12
- DB 197,20,88,233 ; vaddps %ymm1,%ymm13,%ymm13
- DB 197,244,194,203,0 ; vcmpeqps %ymm3,%ymm1,%ymm1
- DB 196,195,29,74,205,16 ; vblendvps %ymm1,%ymm13,%ymm12,%ymm1
- DB 196,65,84,194,224,0 ; vcmpeqps %ymm8,%ymm5,%ymm12
- DB 196,195,117,74,203,192 ; vblendvps %ymm12,%ymm11,%ymm1,%ymm1
- DB 197,44,89,210 ; vmulps %ymm2,%ymm10,%ymm10
- DB 197,100,89,222 ; vmulps %ymm6,%ymm3,%ymm11
- DB 197,100,92,226 ; vsubps %ymm2,%ymm3,%ymm12
- DB 196,65,124,83,228 ; vrcpps %ymm12,%ymm12
- DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 197,52,89,230 ; vmulps %ymm6,%ymm9,%ymm12
- DB 196,65,68,93,219 ; vminps %ymm11,%ymm7,%ymm11
- DB 197,36,89,219 ; vmulps %ymm3,%ymm11,%ymm11
- DB 196,65,44,88,219 ; vaddps %ymm11,%ymm10,%ymm11
- DB 196,65,28,88,219 ; vaddps %ymm11,%ymm12,%ymm11
- DB 197,28,88,226 ; vaddps %ymm2,%ymm12,%ymm12
- DB 197,236,194,211,0 ; vcmpeqps %ymm3,%ymm2,%ymm2
- DB 196,195,37,74,212,32 ; vblendvps %ymm2,%ymm12,%ymm11,%ymm2
- DB 196,65,76,194,192,0 ; vcmpeqps %ymm8,%ymm6,%ymm8
- DB 196,195,109,74,210,128 ; vblendvps %ymm8,%ymm10,%ymm2,%ymm2
- DB 197,52,89,199 ; vmulps %ymm7,%ymm9,%ymm8
- DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hardlight_avx
-_sk_hardlight_avx LABEL PROC
- DB 196,98,125,24,5,4,188,2,0 ; vbroadcastss 0x2bc04(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,215 ; vsubps %ymm7,%ymm8,%ymm10
- DB 197,44,89,200 ; vmulps %ymm0,%ymm10,%ymm9
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,60,89,220 ; vmulps %ymm4,%ymm8,%ymm11
- DB 196,65,36,88,217 ; vaddps %ymm9,%ymm11,%ymm11
- DB 197,124,88,200 ; vaddps %ymm0,%ymm0,%ymm9
- DB 197,52,194,227,2 ; vcmpleps %ymm3,%ymm9,%ymm12
- DB 197,124,89,204 ; vmulps %ymm4,%ymm0,%ymm9
- DB 196,65,52,88,233 ; vaddps %ymm9,%ymm9,%ymm13
- DB 197,100,89,207 ; vmulps %ymm7,%ymm3,%ymm9
- DB 197,68,92,244 ; vsubps %ymm4,%ymm7,%ymm14
- DB 197,228,92,192 ; vsubps %ymm0,%ymm3,%ymm0
- DB 196,193,124,89,198 ; vmulps %ymm14,%ymm0,%ymm0
- DB 197,252,88,192 ; vaddps %ymm0,%ymm0,%ymm0
- DB 197,180,92,192 ; vsubps %ymm0,%ymm9,%ymm0
- DB 196,195,125,74,197,192 ; vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- DB 197,164,88,192 ; vaddps %ymm0,%ymm11,%ymm0
- DB 197,44,89,217 ; vmulps %ymm1,%ymm10,%ymm11
- DB 197,60,89,229 ; vmulps %ymm5,%ymm8,%ymm12
- DB 196,65,28,88,219 ; vaddps %ymm11,%ymm12,%ymm11
- DB 197,116,88,225 ; vaddps %ymm1,%ymm1,%ymm12
- DB 197,28,194,227,2 ; vcmpleps %ymm3,%ymm12,%ymm12
- DB 197,116,89,237 ; vmulps %ymm5,%ymm1,%ymm13
- DB 196,65,20,88,237 ; vaddps %ymm13,%ymm13,%ymm13
- DB 197,68,92,245 ; vsubps %ymm5,%ymm7,%ymm14
- DB 197,228,92,201 ; vsubps %ymm1,%ymm3,%ymm1
- DB 196,193,116,89,206 ; vmulps %ymm14,%ymm1,%ymm1
- DB 197,244,88,201 ; vaddps %ymm1,%ymm1,%ymm1
- DB 197,180,92,201 ; vsubps %ymm1,%ymm9,%ymm1
- DB 196,195,117,74,205,192 ; vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- DB 197,164,88,201 ; vaddps %ymm1,%ymm11,%ymm1
- DB 197,44,89,210 ; vmulps %ymm2,%ymm10,%ymm10
- DB 197,60,89,222 ; vmulps %ymm6,%ymm8,%ymm11
- DB 196,65,36,88,210 ; vaddps %ymm10,%ymm11,%ymm10
- DB 197,108,88,218 ; vaddps %ymm2,%ymm2,%ymm11
- DB 197,36,194,219,2 ; vcmpleps %ymm3,%ymm11,%ymm11
- DB 197,108,89,230 ; vmulps %ymm6,%ymm2,%ymm12
- DB 196,65,28,88,228 ; vaddps %ymm12,%ymm12,%ymm12
- DB 197,68,92,238 ; vsubps %ymm6,%ymm7,%ymm13
- DB 197,228,92,210 ; vsubps %ymm2,%ymm3,%ymm2
- DB 196,193,108,89,213 ; vmulps %ymm13,%ymm2,%ymm2
- DB 197,236,88,210 ; vaddps %ymm2,%ymm2,%ymm2
- DB 197,180,92,210 ; vsubps %ymm2,%ymm9,%ymm2
- DB 196,195,109,74,212,176 ; vblendvps %ymm11,%ymm12,%ymm2,%ymm2
- DB 197,172,88,210 ; vaddps %ymm2,%ymm10,%ymm2
- DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
- DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_overlay_avx
-_sk_overlay_avx LABEL PROC
- DB 196,98,125,24,5,41,187,2,0 ; vbroadcastss 0x2bb29(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,215 ; vsubps %ymm7,%ymm8,%ymm10
- DB 197,44,89,200 ; vmulps %ymm0,%ymm10,%ymm9
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,60,89,220 ; vmulps %ymm4,%ymm8,%ymm11
- DB 196,65,36,88,217 ; vaddps %ymm9,%ymm11,%ymm11
- DB 197,92,88,204 ; vaddps %ymm4,%ymm4,%ymm9
- DB 197,52,194,231,2 ; vcmpleps %ymm7,%ymm9,%ymm12
- DB 197,124,89,204 ; vmulps %ymm4,%ymm0,%ymm9
- DB 196,65,52,88,233 ; vaddps %ymm9,%ymm9,%ymm13
- DB 197,100,89,207 ; vmulps %ymm7,%ymm3,%ymm9
- DB 197,68,92,244 ; vsubps %ymm4,%ymm7,%ymm14
- DB 197,228,92,192 ; vsubps %ymm0,%ymm3,%ymm0
- DB 196,193,124,89,198 ; vmulps %ymm14,%ymm0,%ymm0
- DB 197,252,88,192 ; vaddps %ymm0,%ymm0,%ymm0
- DB 197,180,92,192 ; vsubps %ymm0,%ymm9,%ymm0
- DB 196,195,125,74,197,192 ; vblendvps %ymm12,%ymm13,%ymm0,%ymm0
- DB 197,164,88,192 ; vaddps %ymm0,%ymm11,%ymm0
- DB 197,44,89,217 ; vmulps %ymm1,%ymm10,%ymm11
- DB 197,60,89,229 ; vmulps %ymm5,%ymm8,%ymm12
- DB 196,65,28,88,219 ; vaddps %ymm11,%ymm12,%ymm11
- DB 197,84,88,229 ; vaddps %ymm5,%ymm5,%ymm12
- DB 197,28,194,231,2 ; vcmpleps %ymm7,%ymm12,%ymm12
- DB 197,116,89,237 ; vmulps %ymm5,%ymm1,%ymm13
- DB 196,65,20,88,237 ; vaddps %ymm13,%ymm13,%ymm13
- DB 197,68,92,245 ; vsubps %ymm5,%ymm7,%ymm14
- DB 197,228,92,201 ; vsubps %ymm1,%ymm3,%ymm1
- DB 196,193,116,89,206 ; vmulps %ymm14,%ymm1,%ymm1
- DB 197,244,88,201 ; vaddps %ymm1,%ymm1,%ymm1
- DB 197,180,92,201 ; vsubps %ymm1,%ymm9,%ymm1
- DB 196,195,117,74,205,192 ; vblendvps %ymm12,%ymm13,%ymm1,%ymm1
- DB 197,164,88,201 ; vaddps %ymm1,%ymm11,%ymm1
- DB 197,44,89,210 ; vmulps %ymm2,%ymm10,%ymm10
- DB 197,60,89,222 ; vmulps %ymm6,%ymm8,%ymm11
- DB 196,65,36,88,210 ; vaddps %ymm10,%ymm11,%ymm10
- DB 197,76,88,222 ; vaddps %ymm6,%ymm6,%ymm11
- DB 197,36,194,223,2 ; vcmpleps %ymm7,%ymm11,%ymm11
- DB 197,108,89,230 ; vmulps %ymm6,%ymm2,%ymm12
- DB 196,65,28,88,228 ; vaddps %ymm12,%ymm12,%ymm12
- DB 197,68,92,238 ; vsubps %ymm6,%ymm7,%ymm13
- DB 197,228,92,210 ; vsubps %ymm2,%ymm3,%ymm2
- DB 196,193,108,89,213 ; vmulps %ymm13,%ymm2,%ymm2
- DB 197,236,88,210 ; vaddps %ymm2,%ymm2,%ymm2
- DB 197,180,92,210 ; vsubps %ymm2,%ymm9,%ymm2
- DB 196,195,109,74,212,176 ; vblendvps %ymm11,%ymm12,%ymm2,%ymm2
- DB 197,172,88,210 ; vaddps %ymm2,%ymm10,%ymm2
- DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
- DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_softlight_avx
-_sk_softlight_avx LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 197,252,17,84,36,32 ; vmovups %ymm2,0x20(%rsp)
- DB 197,252,40,209 ; vmovaps %ymm1,%ymm2
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,52,194,215,1 ; vcmpltps %ymm7,%ymm9,%ymm10
- DB 197,92,94,199 ; vdivps %ymm7,%ymm4,%ymm8
- DB 196,67,53,74,224,160 ; vblendvps %ymm10,%ymm8,%ymm9,%ymm12
- DB 196,65,28,88,196 ; vaddps %ymm12,%ymm12,%ymm8
- DB 196,65,60,88,192 ; vaddps %ymm8,%ymm8,%ymm8
- DB 196,65,60,89,216 ; vmulps %ymm8,%ymm8,%ymm11
- DB 196,65,60,88,195 ; vaddps %ymm11,%ymm8,%ymm8
- DB 196,98,125,24,29,44,186,2,0 ; vbroadcastss 0x2ba2c(%rip),%ymm11 # 34ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
- DB 196,65,28,88,235 ; vaddps %ymm11,%ymm12,%ymm13
- DB 196,65,20,89,192 ; vmulps %ymm8,%ymm13,%ymm8
- DB 196,98,125,24,45,29,186,2,0 ; vbroadcastss 0x2ba1d(%rip),%ymm13 # 34ae4 <_sk_srcover_bgra_8888_sse2_lowp+0x2cc>
- DB 196,65,28,89,245 ; vmulps %ymm13,%ymm12,%ymm14
- DB 196,65,12,88,192 ; vaddps %ymm8,%ymm14,%ymm8
- DB 196,65,124,82,244 ; vrsqrtps %ymm12,%ymm14
- DB 196,65,124,83,246 ; vrcpps %ymm14,%ymm14
- DB 196,65,12,92,244 ; vsubps %ymm12,%ymm14,%ymm14
- DB 197,92,88,252 ; vaddps %ymm4,%ymm4,%ymm15
- DB 196,65,4,88,255 ; vaddps %ymm15,%ymm15,%ymm15
- DB 197,4,194,255,2 ; vcmpleps %ymm7,%ymm15,%ymm15
- DB 196,67,13,74,240,240 ; vblendvps %ymm15,%ymm8,%ymm14,%ymm14
- DB 197,116,88,249 ; vaddps %ymm1,%ymm1,%ymm15
- DB 196,98,125,24,5,199,185,2,0 ; vbroadcastss 0x2b9c7(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,60,92,228 ; vsubps %ymm12,%ymm8,%ymm12
- DB 197,132,92,195 ; vsubps %ymm3,%ymm15,%ymm0
- DB 196,65,124,89,228 ; vmulps %ymm12,%ymm0,%ymm12
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 196,193,124,89,198 ; vmulps %ymm14,%ymm0,%ymm0
- DB 197,100,89,244 ; vmulps %ymm4,%ymm3,%ymm14
- DB 197,140,88,192 ; vaddps %ymm0,%ymm14,%ymm0
- DB 197,28,88,227 ; vaddps %ymm3,%ymm12,%ymm12
- DB 197,28,89,228 ; vmulps %ymm4,%ymm12,%ymm12
- DB 197,4,194,243,2 ; vcmpleps %ymm3,%ymm15,%ymm14
- DB 196,195,125,74,196,224 ; vblendvps %ymm14,%ymm12,%ymm0,%ymm0
- DB 197,252,17,4,36 ; vmovups %ymm0,(%rsp)
- DB 197,212,94,199 ; vdivps %ymm7,%ymm5,%ymm0
- DB 196,227,53,74,192,160 ; vblendvps %ymm10,%ymm0,%ymm9,%ymm0
- DB 197,124,88,240 ; vaddps %ymm0,%ymm0,%ymm14
- DB 196,65,12,88,246 ; vaddps %ymm14,%ymm14,%ymm14
- DB 196,65,12,89,254 ; vmulps %ymm14,%ymm14,%ymm15
- DB 196,65,12,88,247 ; vaddps %ymm15,%ymm14,%ymm14
- DB 196,65,124,88,251 ; vaddps %ymm11,%ymm0,%ymm15
- DB 196,65,4,89,246 ; vmulps %ymm14,%ymm15,%ymm14
- DB 196,65,124,89,253 ; vmulps %ymm13,%ymm0,%ymm15
- DB 196,65,4,88,246 ; vaddps %ymm14,%ymm15,%ymm14
- DB 197,124,82,248 ; vrsqrtps %ymm0,%ymm15
- DB 196,65,124,83,255 ; vrcpps %ymm15,%ymm15
- DB 197,4,92,248 ; vsubps %ymm0,%ymm15,%ymm15
- DB 197,84,88,229 ; vaddps %ymm5,%ymm5,%ymm12
- DB 196,65,28,88,228 ; vaddps %ymm12,%ymm12,%ymm12
- DB 197,28,194,231,2 ; vcmpleps %ymm7,%ymm12,%ymm12
- DB 196,67,5,74,230,192 ; vblendvps %ymm12,%ymm14,%ymm15,%ymm12
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 197,108,88,242 ; vaddps %ymm2,%ymm2,%ymm14
- DB 197,12,92,251 ; vsubps %ymm3,%ymm14,%ymm15
- DB 197,132,89,192 ; vmulps %ymm0,%ymm15,%ymm0
- DB 197,4,89,255 ; vmulps %ymm7,%ymm15,%ymm15
- DB 196,65,4,89,228 ; vmulps %ymm12,%ymm15,%ymm12
- DB 197,100,89,253 ; vmulps %ymm5,%ymm3,%ymm15
- DB 196,65,4,88,228 ; vaddps %ymm12,%ymm15,%ymm12
- DB 197,252,88,195 ; vaddps %ymm3,%ymm0,%ymm0
- DB 197,252,89,197 ; vmulps %ymm5,%ymm0,%ymm0
- DB 197,12,194,243,2 ; vcmpleps %ymm3,%ymm14,%ymm14
- DB 196,99,29,74,240,224 ; vblendvps %ymm14,%ymm0,%ymm12,%ymm14
- DB 197,204,94,199 ; vdivps %ymm7,%ymm6,%ymm0
- DB 196,227,53,74,192,160 ; vblendvps %ymm10,%ymm0,%ymm9,%ymm0
- DB 197,124,88,200 ; vaddps %ymm0,%ymm0,%ymm9
- DB 196,65,52,88,201 ; vaddps %ymm9,%ymm9,%ymm9
- DB 196,65,52,89,209 ; vmulps %ymm9,%ymm9,%ymm10
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 196,65,124,88,211 ; vaddps %ymm11,%ymm0,%ymm10
- DB 196,65,44,89,201 ; vmulps %ymm9,%ymm10,%ymm9
- DB 196,65,124,89,213 ; vmulps %ymm13,%ymm0,%ymm10
- DB 196,65,44,88,201 ; vaddps %ymm9,%ymm10,%ymm9
- DB 197,124,82,208 ; vrsqrtps %ymm0,%ymm10
- DB 196,65,124,83,210 ; vrcpps %ymm10,%ymm10
- DB 197,44,92,208 ; vsubps %ymm0,%ymm10,%ymm10
- DB 197,76,88,222 ; vaddps %ymm6,%ymm6,%ymm11
- DB 196,65,36,88,219 ; vaddps %ymm11,%ymm11,%ymm11
- DB 197,36,194,223,2 ; vcmpleps %ymm7,%ymm11,%ymm11
- DB 196,67,45,74,201,176 ; vblendvps %ymm11,%ymm9,%ymm10,%ymm9
- DB 197,124,16,100,36,32 ; vmovups 0x20(%rsp),%ymm12
- DB 196,65,28,88,212 ; vaddps %ymm12,%ymm12,%ymm10
- DB 197,44,92,219 ; vsubps %ymm3,%ymm10,%ymm11
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 197,164,89,192 ; vmulps %ymm0,%ymm11,%ymm0
- DB 197,36,89,223 ; vmulps %ymm7,%ymm11,%ymm11
- DB 196,65,36,89,201 ; vmulps %ymm9,%ymm11,%ymm9
- DB 197,100,89,222 ; vmulps %ymm6,%ymm3,%ymm11
- DB 196,65,36,88,201 ; vaddps %ymm9,%ymm11,%ymm9
- DB 197,252,88,195 ; vaddps %ymm3,%ymm0,%ymm0
- DB 197,252,89,198 ; vmulps %ymm6,%ymm0,%ymm0
- DB 197,44,194,211,2 ; vcmpleps %ymm3,%ymm10,%ymm10
- DB 196,99,53,74,200,160 ; vblendvps %ymm10,%ymm0,%ymm9,%ymm9
- DB 197,60,92,215 ; vsubps %ymm7,%ymm8,%ymm10
- DB 197,172,89,193 ; vmulps %ymm1,%ymm10,%ymm0
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,188,89,204 ; vmulps %ymm4,%ymm8,%ymm1
- DB 197,244,88,192 ; vaddps %ymm0,%ymm1,%ymm0
- DB 197,252,88,4,36 ; vaddps (%rsp),%ymm0,%ymm0
- DB 197,172,89,202 ; vmulps %ymm2,%ymm10,%ymm1
- DB 197,188,89,213 ; vmulps %ymm5,%ymm8,%ymm2
- DB 197,236,88,201 ; vaddps %ymm1,%ymm2,%ymm1
- DB 196,193,116,88,206 ; vaddps %ymm14,%ymm1,%ymm1
- DB 196,193,44,89,212 ; vmulps %ymm12,%ymm10,%ymm2
- DB 197,60,89,214 ; vmulps %ymm6,%ymm8,%ymm10
- DB 197,172,88,210 ; vaddps %ymm2,%ymm10,%ymm2
- DB 196,193,108,88,209 ; vaddps %ymm9,%ymm2,%ymm2
- DB 197,60,89,199 ; vmulps %ymm7,%ymm8,%ymm8
- DB 197,188,88,219 ; vaddps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hue_avx
-_sk_hue_avx LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 197,252,17,84,36,32 ; vmovups %ymm2,0x20(%rsp)
- DB 197,124,40,193 ; vmovaps %ymm1,%ymm8
- DB 197,124,17,4,36 ; vmovups %ymm8,(%rsp)
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 197,116,89,203 ; vmulps %ymm3,%ymm1,%ymm9
- DB 197,60,89,211 ; vmulps %ymm3,%ymm8,%ymm10
- DB 197,108,89,219 ; vmulps %ymm3,%ymm2,%ymm11
- DB 197,84,95,198 ; vmaxps %ymm6,%ymm5,%ymm8
- DB 196,65,92,95,192 ; vmaxps %ymm8,%ymm4,%ymm8
- DB 197,84,93,230 ; vminps %ymm6,%ymm5,%ymm12
- DB 196,65,92,93,228 ; vminps %ymm12,%ymm4,%ymm12
- DB 196,65,60,92,196 ; vsubps %ymm12,%ymm8,%ymm8
- DB 197,60,89,227 ; vmulps %ymm3,%ymm8,%ymm12
- DB 196,65,44,93,195 ; vminps %ymm11,%ymm10,%ymm8
- DB 196,65,52,93,232 ; vminps %ymm8,%ymm9,%ymm13
- DB 196,65,44,95,195 ; vmaxps %ymm11,%ymm10,%ymm8
- DB 196,65,52,95,192 ; vmaxps %ymm8,%ymm9,%ymm8
- DB 196,65,60,92,245 ; vsubps %ymm13,%ymm8,%ymm14
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,65,12,194,248,0 ; vcmpeqps %ymm8,%ymm14,%ymm15
- DB 196,65,52,92,205 ; vsubps %ymm13,%ymm9,%ymm9
- DB 196,65,28,89,201 ; vmulps %ymm9,%ymm12,%ymm9
- DB 196,65,52,94,206 ; vdivps %ymm14,%ymm9,%ymm9
- DB 196,67,53,74,200,240 ; vblendvps %ymm15,%ymm8,%ymm9,%ymm9
- DB 196,65,44,92,213 ; vsubps %ymm13,%ymm10,%ymm10
- DB 196,65,28,89,210 ; vmulps %ymm10,%ymm12,%ymm10
- DB 196,65,44,94,214 ; vdivps %ymm14,%ymm10,%ymm10
- DB 196,67,45,74,208,240 ; vblendvps %ymm15,%ymm8,%ymm10,%ymm10
- DB 196,65,36,92,221 ; vsubps %ymm13,%ymm11,%ymm11
- DB 196,65,28,89,219 ; vmulps %ymm11,%ymm12,%ymm11
- DB 196,65,36,94,222 ; vdivps %ymm14,%ymm11,%ymm11
- DB 196,67,37,74,224,240 ; vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- DB 196,98,125,24,53,165,183,2,0 ; vbroadcastss 0x2b7a5(%rip),%ymm14 # 34ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- DB 196,65,92,89,222 ; vmulps %ymm14,%ymm4,%ymm11
- DB 196,98,125,24,61,155,183,2,0 ; vbroadcastss 0x2b79b(%rip),%ymm15 # 34aec <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- DB 196,65,84,89,239 ; vmulps %ymm15,%ymm5,%ymm13
- DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
- DB 196,226,125,24,5,140,183,2,0 ; vbroadcastss 0x2b78c(%rip),%ymm0 # 34af0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- DB 197,76,89,232 ; vmulps %ymm0,%ymm6,%ymm13
- DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
- DB 196,65,52,89,238 ; vmulps %ymm14,%ymm9,%ymm13
- DB 196,193,44,89,215 ; vmulps %ymm15,%ymm10,%ymm2
- DB 197,148,88,210 ; vaddps %ymm2,%ymm13,%ymm2
- DB 197,28,89,232 ; vmulps %ymm0,%ymm12,%ymm13
- DB 196,193,108,88,213 ; vaddps %ymm13,%ymm2,%ymm2
- DB 197,36,89,219 ; vmulps %ymm3,%ymm11,%ymm11
- DB 197,164,92,210 ; vsubps %ymm2,%ymm11,%ymm2
- DB 197,52,88,202 ; vaddps %ymm2,%ymm9,%ymm9
- DB 197,44,88,218 ; vaddps %ymm2,%ymm10,%ymm11
- DB 197,28,88,226 ; vaddps %ymm2,%ymm12,%ymm12
- DB 196,193,36,93,212 ; vminps %ymm12,%ymm11,%ymm2
- DB 197,52,93,234 ; vminps %ymm2,%ymm9,%ymm13
- DB 196,193,52,89,214 ; vmulps %ymm14,%ymm9,%ymm2
- DB 196,65,36,89,215 ; vmulps %ymm15,%ymm11,%ymm10
- DB 196,193,108,88,210 ; vaddps %ymm10,%ymm2,%ymm2
- DB 197,156,89,192 ; vmulps %ymm0,%ymm12,%ymm0
- DB 197,124,88,210 ; vaddps %ymm2,%ymm0,%ymm10
- DB 196,193,52,92,194 ; vsubps %ymm10,%ymm9,%ymm0
- DB 197,172,89,192 ; vmulps %ymm0,%ymm10,%ymm0
- DB 196,193,44,92,213 ; vsubps %ymm13,%ymm10,%ymm2
- DB 197,252,94,194 ; vdivps %ymm2,%ymm0,%ymm0
- DB 196,65,36,92,242 ; vsubps %ymm10,%ymm11,%ymm14
- DB 196,65,44,89,246 ; vmulps %ymm14,%ymm10,%ymm14
- DB 197,12,94,242 ; vdivps %ymm2,%ymm14,%ymm14
- DB 196,65,28,92,250 ; vsubps %ymm10,%ymm12,%ymm15
- DB 196,65,44,89,255 ; vmulps %ymm15,%ymm10,%ymm15
- DB 197,132,94,210 ; vdivps %ymm2,%ymm15,%ymm2
- DB 196,65,60,194,237,2 ; vcmpleps %ymm13,%ymm8,%ymm13
- DB 196,65,44,88,246 ; vaddps %ymm14,%ymm10,%ymm14
- DB 196,67,13,74,243,208 ; vblendvps %ymm13,%ymm11,%ymm14,%ymm14
- DB 196,65,36,95,220 ; vmaxps %ymm12,%ymm11,%ymm11
- DB 197,172,88,210 ; vaddps %ymm2,%ymm10,%ymm2
- DB 196,195,109,74,212,208 ; vblendvps %ymm13,%ymm12,%ymm2,%ymm2
- DB 197,172,88,192 ; vaddps %ymm0,%ymm10,%ymm0
- DB 196,195,125,74,193,208 ; vblendvps %ymm13,%ymm9,%ymm0,%ymm0
- DB 197,100,89,231 ; vmulps %ymm7,%ymm3,%ymm12
- DB 196,65,52,95,203 ; vmaxps %ymm11,%ymm9,%ymm9
- DB 196,65,124,92,218 ; vsubps %ymm10,%ymm0,%ymm11
- DB 196,65,28,92,234 ; vsubps %ymm10,%ymm12,%ymm13
- DB 196,65,20,89,219 ; vmulps %ymm11,%ymm13,%ymm11
- DB 196,65,28,194,249,1 ; vcmpltps %ymm9,%ymm12,%ymm15
- DB 196,65,52,92,202 ; vsubps %ymm10,%ymm9,%ymm9
- DB 196,65,36,94,217 ; vdivps %ymm9,%ymm11,%ymm11
- DB 196,65,44,88,219 ; vaddps %ymm11,%ymm10,%ymm11
- DB 196,195,125,74,195,240 ; vblendvps %ymm15,%ymm11,%ymm0,%ymm0
- DB 196,65,12,92,218 ; vsubps %ymm10,%ymm14,%ymm11
- DB 196,65,20,89,219 ; vmulps %ymm11,%ymm13,%ymm11
- DB 196,65,36,94,217 ; vdivps %ymm9,%ymm11,%ymm11
- DB 196,65,44,88,219 ; vaddps %ymm11,%ymm10,%ymm11
- DB 196,67,13,74,219,240 ; vblendvps %ymm15,%ymm11,%ymm14,%ymm11
- DB 196,65,108,92,242 ; vsubps %ymm10,%ymm2,%ymm14
- DB 196,65,20,89,238 ; vmulps %ymm14,%ymm13,%ymm13
- DB 196,65,20,94,201 ; vdivps %ymm9,%ymm13,%ymm9
- DB 196,65,44,88,201 ; vaddps %ymm9,%ymm10,%ymm9
- DB 196,193,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm0
- DB 196,65,36,95,208 ; vmaxps %ymm8,%ymm11,%ymm10
- DB 196,195,109,74,209,240 ; vblendvps %ymm15,%ymm9,%ymm2,%ymm2
- DB 196,193,108,95,208 ; vmaxps %ymm8,%ymm2,%ymm2
- DB 196,98,125,24,5,57,182,2,0 ; vbroadcastss 0x2b639(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
- DB 197,180,89,201 ; vmulps %ymm1,%ymm9,%ymm1
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,60,89,220 ; vmulps %ymm4,%ymm8,%ymm11
- DB 197,164,88,201 ; vaddps %ymm1,%ymm11,%ymm1
- DB 197,244,88,192 ; vaddps %ymm0,%ymm1,%ymm0
- DB 197,180,89,12,36 ; vmulps (%rsp),%ymm9,%ymm1
- DB 197,60,89,221 ; vmulps %ymm5,%ymm8,%ymm11
- DB 197,164,88,201 ; vaddps %ymm1,%ymm11,%ymm1
- DB 196,193,116,88,202 ; vaddps %ymm10,%ymm1,%ymm1
- DB 197,52,89,76,36,32 ; vmulps 0x20(%rsp),%ymm9,%ymm9
- DB 197,60,89,198 ; vmulps %ymm6,%ymm8,%ymm8
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 197,188,88,210 ; vaddps %ymm2,%ymm8,%ymm2
- DB 197,228,88,223 ; vaddps %ymm7,%ymm3,%ymm3
- DB 196,193,100,92,220 ; vsubps %ymm12,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_saturation_avx
-_sk_saturation_avx LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 197,124,40,193 ; vmovaps %ymm1,%ymm8
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 197,100,89,204 ; vmulps %ymm4,%ymm3,%ymm9
- DB 197,100,89,213 ; vmulps %ymm5,%ymm3,%ymm10
- DB 197,100,89,222 ; vmulps %ymm6,%ymm3,%ymm11
- DB 197,252,17,84,36,32 ; vmovups %ymm2,0x20(%rsp)
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 197,252,17,4,36 ; vmovups %ymm0,(%rsp)
- DB 197,124,95,194 ; vmaxps %ymm2,%ymm0,%ymm8
- DB 196,65,116,95,192 ; vmaxps %ymm8,%ymm1,%ymm8
- DB 197,124,93,226 ; vminps %ymm2,%ymm0,%ymm12
- DB 196,65,116,93,228 ; vminps %ymm12,%ymm1,%ymm12
- DB 196,65,60,92,196 ; vsubps %ymm12,%ymm8,%ymm8
- DB 197,60,89,231 ; vmulps %ymm7,%ymm8,%ymm12
- DB 196,65,44,93,195 ; vminps %ymm11,%ymm10,%ymm8
- DB 196,65,52,93,232 ; vminps %ymm8,%ymm9,%ymm13
- DB 196,65,44,95,195 ; vmaxps %ymm11,%ymm10,%ymm8
- DB 196,65,52,95,192 ; vmaxps %ymm8,%ymm9,%ymm8
- DB 196,65,60,92,245 ; vsubps %ymm13,%ymm8,%ymm14
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,65,12,194,248,0 ; vcmpeqps %ymm8,%ymm14,%ymm15
- DB 196,65,52,92,205 ; vsubps %ymm13,%ymm9,%ymm9
- DB 196,65,28,89,201 ; vmulps %ymm9,%ymm12,%ymm9
- DB 196,65,52,94,206 ; vdivps %ymm14,%ymm9,%ymm9
- DB 196,67,53,74,200,240 ; vblendvps %ymm15,%ymm8,%ymm9,%ymm9
- DB 196,65,44,92,213 ; vsubps %ymm13,%ymm10,%ymm10
- DB 196,65,28,89,210 ; vmulps %ymm10,%ymm12,%ymm10
- DB 196,65,44,94,214 ; vdivps %ymm14,%ymm10,%ymm10
- DB 196,67,45,74,208,240 ; vblendvps %ymm15,%ymm8,%ymm10,%ymm10
- DB 196,65,36,92,221 ; vsubps %ymm13,%ymm11,%ymm11
- DB 196,65,28,89,219 ; vmulps %ymm11,%ymm12,%ymm11
- DB 196,65,36,94,222 ; vdivps %ymm14,%ymm11,%ymm11
- DB 196,67,37,74,224,240 ; vblendvps %ymm15,%ymm8,%ymm11,%ymm12
- DB 196,98,125,24,53,93,181,2,0 ; vbroadcastss 0x2b55d(%rip),%ymm14 # 34ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- DB 196,65,92,89,222 ; vmulps %ymm14,%ymm4,%ymm11
- DB 196,98,125,24,61,83,181,2,0 ; vbroadcastss 0x2b553(%rip),%ymm15 # 34aec <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- DB 196,65,84,89,239 ; vmulps %ymm15,%ymm5,%ymm13
- DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
- DB 196,226,125,24,5,68,181,2,0 ; vbroadcastss 0x2b544(%rip),%ymm0 # 34af0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- DB 197,76,89,232 ; vmulps %ymm0,%ymm6,%ymm13
- DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
- DB 196,65,52,89,238 ; vmulps %ymm14,%ymm9,%ymm13
- DB 196,193,44,89,215 ; vmulps %ymm15,%ymm10,%ymm2
- DB 197,148,88,210 ; vaddps %ymm2,%ymm13,%ymm2
- DB 197,28,89,232 ; vmulps %ymm0,%ymm12,%ymm13
- DB 196,193,108,88,213 ; vaddps %ymm13,%ymm2,%ymm2
- DB 197,36,89,219 ; vmulps %ymm3,%ymm11,%ymm11
- DB 197,164,92,210 ; vsubps %ymm2,%ymm11,%ymm2
- DB 197,52,88,202 ; vaddps %ymm2,%ymm9,%ymm9
- DB 197,44,88,218 ; vaddps %ymm2,%ymm10,%ymm11
- DB 197,28,88,226 ; vaddps %ymm2,%ymm12,%ymm12
- DB 196,193,36,93,212 ; vminps %ymm12,%ymm11,%ymm2
- DB 197,52,93,234 ; vminps %ymm2,%ymm9,%ymm13
- DB 196,193,52,89,214 ; vmulps %ymm14,%ymm9,%ymm2
- DB 196,65,36,89,215 ; vmulps %ymm15,%ymm11,%ymm10
- DB 196,193,108,88,210 ; vaddps %ymm10,%ymm2,%ymm2
- DB 197,156,89,192 ; vmulps %ymm0,%ymm12,%ymm0
- DB 197,124,88,210 ; vaddps %ymm2,%ymm0,%ymm10
- DB 196,193,52,92,194 ; vsubps %ymm10,%ymm9,%ymm0
- DB 197,172,89,192 ; vmulps %ymm0,%ymm10,%ymm0
- DB 196,193,44,92,213 ; vsubps %ymm13,%ymm10,%ymm2
- DB 197,252,94,194 ; vdivps %ymm2,%ymm0,%ymm0
- DB 196,65,36,92,242 ; vsubps %ymm10,%ymm11,%ymm14
- DB 196,65,44,89,246 ; vmulps %ymm14,%ymm10,%ymm14
- DB 197,12,94,242 ; vdivps %ymm2,%ymm14,%ymm14
- DB 196,65,28,92,250 ; vsubps %ymm10,%ymm12,%ymm15
- DB 196,65,44,89,255 ; vmulps %ymm15,%ymm10,%ymm15
- DB 197,132,94,210 ; vdivps %ymm2,%ymm15,%ymm2
- DB 196,65,60,194,237,2 ; vcmpleps %ymm13,%ymm8,%ymm13
- DB 196,65,44,88,246 ; vaddps %ymm14,%ymm10,%ymm14
- DB 196,67,13,74,243,208 ; vblendvps %ymm13,%ymm11,%ymm14,%ymm14
- DB 196,65,36,95,220 ; vmaxps %ymm12,%ymm11,%ymm11
- DB 197,172,88,210 ; vaddps %ymm2,%ymm10,%ymm2
- DB 196,195,109,74,212,208 ; vblendvps %ymm13,%ymm12,%ymm2,%ymm2
- DB 197,172,88,192 ; vaddps %ymm0,%ymm10,%ymm0
- DB 196,195,125,74,193,208 ; vblendvps %ymm13,%ymm9,%ymm0,%ymm0
- DB 197,100,89,231 ; vmulps %ymm7,%ymm3,%ymm12
- DB 196,65,52,95,203 ; vmaxps %ymm11,%ymm9,%ymm9
- DB 196,65,124,92,218 ; vsubps %ymm10,%ymm0,%ymm11
- DB 196,65,28,92,234 ; vsubps %ymm10,%ymm12,%ymm13
- DB 196,65,20,89,219 ; vmulps %ymm11,%ymm13,%ymm11
- DB 196,65,28,194,249,1 ; vcmpltps %ymm9,%ymm12,%ymm15
- DB 196,65,52,92,202 ; vsubps %ymm10,%ymm9,%ymm9
- DB 196,65,36,94,217 ; vdivps %ymm9,%ymm11,%ymm11
- DB 196,65,44,88,219 ; vaddps %ymm11,%ymm10,%ymm11
- DB 196,195,125,74,195,240 ; vblendvps %ymm15,%ymm11,%ymm0,%ymm0
- DB 196,65,12,92,218 ; vsubps %ymm10,%ymm14,%ymm11
- DB 196,65,20,89,219 ; vmulps %ymm11,%ymm13,%ymm11
- DB 196,65,36,94,217 ; vdivps %ymm9,%ymm11,%ymm11
- DB 196,65,44,88,219 ; vaddps %ymm11,%ymm10,%ymm11
- DB 196,67,13,74,219,240 ; vblendvps %ymm15,%ymm11,%ymm14,%ymm11
- DB 196,65,108,92,242 ; vsubps %ymm10,%ymm2,%ymm14
- DB 196,65,20,89,238 ; vmulps %ymm14,%ymm13,%ymm13
- DB 196,65,20,94,201 ; vdivps %ymm9,%ymm13,%ymm9
- DB 196,65,44,88,201 ; vaddps %ymm9,%ymm10,%ymm9
- DB 196,193,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm0
- DB 196,65,36,95,208 ; vmaxps %ymm8,%ymm11,%ymm10
- DB 196,195,109,74,209,240 ; vblendvps %ymm15,%ymm9,%ymm2,%ymm2
- DB 196,193,108,95,208 ; vmaxps %ymm8,%ymm2,%ymm2
- DB 196,98,125,24,5,241,179,2,0 ; vbroadcastss 0x2b3f1(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,207 ; vsubps %ymm7,%ymm8,%ymm9
- DB 197,180,89,201 ; vmulps %ymm1,%ymm9,%ymm1
- DB 197,60,92,195 ; vsubps %ymm3,%ymm8,%ymm8
- DB 197,60,89,220 ; vmulps %ymm4,%ymm8,%ymm11
- DB 197,164,88,201 ; vaddps %ymm1,%ymm11,%ymm1
- DB 197,244,88,192 ; vaddps %ymm0,%ymm1,%ymm0
- DB 197,180,89,12,36 ; vmulps (%rsp),%ymm9,%ymm1
- DB 197,60,89,221 ; vmulps %ymm5,%ymm8,%ymm11
- DB 197,164,88,201 ; vaddps %ymm1,%ymm11,%ymm1
- DB 196,193,116,88,202 ; vaddps %ymm10,%ymm1,%ymm1
- DB 197,52,89,76,36,32 ; vmulps 0x20(%rsp),%ymm9,%ymm9
- DB 197,60,89,198 ; vmulps %ymm6,%ymm8,%ymm8
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 197,188,88,210 ; vaddps %ymm2,%ymm8,%ymm2
- DB 197,228,88,223 ; vaddps %ymm7,%ymm3,%ymm3
- DB 196,193,100,92,220 ; vsubps %ymm12,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_color_avx
-_sk_color_avx LABEL PROC
- DB 72,131,236,120 ; sub $0x78,%rsp
- DB 197,252,17,20,36 ; vmovups %ymm2,(%rsp)
- DB 197,252,17,76,36,64 ; vmovups %ymm1,0x40(%rsp)
- DB 197,252,17,68,36,32 ; vmovups %ymm0,0x20(%rsp)
- DB 197,124,89,199 ; vmulps %ymm7,%ymm0,%ymm8
- DB 197,116,89,207 ; vmulps %ymm7,%ymm1,%ymm9
- DB 196,98,125,24,45,157,179,2,0 ; vbroadcastss 0x2b39d(%rip),%ymm13 # 34ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- DB 196,65,92,89,213 ; vmulps %ymm13,%ymm4,%ymm10
- DB 196,98,125,24,53,147,179,2,0 ; vbroadcastss 0x2b393(%rip),%ymm14 # 34aec <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- DB 196,65,84,89,222 ; vmulps %ymm14,%ymm5,%ymm11
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,98,125,24,61,132,179,2,0 ; vbroadcastss 0x2b384(%rip),%ymm15 # 34af0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- DB 196,65,76,89,223 ; vmulps %ymm15,%ymm6,%ymm11
- DB 196,193,44,88,195 ; vaddps %ymm11,%ymm10,%ymm0
- DB 196,65,60,89,221 ; vmulps %ymm13,%ymm8,%ymm11
- DB 196,65,52,89,230 ; vmulps %ymm14,%ymm9,%ymm12
- DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 197,108,89,231 ; vmulps %ymm7,%ymm2,%ymm12
- DB 196,65,28,89,215 ; vmulps %ymm15,%ymm12,%ymm10
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 196,193,124,92,194 ; vsubps %ymm10,%ymm0,%ymm0
- DB 197,60,88,192 ; vaddps %ymm0,%ymm8,%ymm8
- DB 197,52,88,208 ; vaddps %ymm0,%ymm9,%ymm10
- DB 197,28,88,216 ; vaddps %ymm0,%ymm12,%ymm11
- DB 196,193,44,93,195 ; vminps %ymm11,%ymm10,%ymm0
- DB 197,60,93,224 ; vminps %ymm0,%ymm8,%ymm12
- DB 196,193,60,89,197 ; vmulps %ymm13,%ymm8,%ymm0
- DB 196,65,44,89,206 ; vmulps %ymm14,%ymm10,%ymm9
- DB 196,193,124,88,193 ; vaddps %ymm9,%ymm0,%ymm0
- DB 196,65,36,89,207 ; vmulps %ymm15,%ymm11,%ymm9
- DB 197,52,88,200 ; vaddps %ymm0,%ymm9,%ymm9
- DB 196,193,60,92,193 ; vsubps %ymm9,%ymm8,%ymm0
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 196,65,52,92,236 ; vsubps %ymm12,%ymm9,%ymm13
- DB 196,193,124,94,197 ; vdivps %ymm13,%ymm0,%ymm0
- DB 196,65,44,92,241 ; vsubps %ymm9,%ymm10,%ymm14
- DB 196,65,52,89,246 ; vmulps %ymm14,%ymm9,%ymm14
- DB 196,65,12,94,245 ; vdivps %ymm13,%ymm14,%ymm14
- DB 196,65,36,92,249 ; vsubps %ymm9,%ymm11,%ymm15
- DB 196,65,52,89,255 ; vmulps %ymm15,%ymm9,%ymm15
- DB 196,65,4,94,237 ; vdivps %ymm13,%ymm15,%ymm13
- DB 196,65,4,87,255 ; vxorps %ymm15,%ymm15,%ymm15
- DB 196,65,4,194,228,2 ; vcmpleps %ymm12,%ymm15,%ymm12
- DB 196,65,52,88,246 ; vaddps %ymm14,%ymm9,%ymm14
- DB 196,67,13,74,242,192 ; vblendvps %ymm12,%ymm10,%ymm14,%ymm14
- DB 196,65,44,95,211 ; vmaxps %ymm11,%ymm10,%ymm10
- DB 196,65,52,88,237 ; vaddps %ymm13,%ymm9,%ymm13
- DB 196,67,21,74,219,192 ; vblendvps %ymm12,%ymm11,%ymm13,%ymm11
- DB 197,180,88,192 ; vaddps %ymm0,%ymm9,%ymm0
- DB 196,195,125,74,200,192 ; vblendvps %ymm12,%ymm8,%ymm0,%ymm1
- DB 197,100,89,231 ; vmulps %ymm7,%ymm3,%ymm12
- DB 196,65,60,95,194 ; vmaxps %ymm10,%ymm8,%ymm8
- DB 196,65,116,92,209 ; vsubps %ymm9,%ymm1,%ymm10
- DB 196,65,28,92,233 ; vsubps %ymm9,%ymm12,%ymm13
- DB 196,65,20,89,210 ; vmulps %ymm10,%ymm13,%ymm10
- DB 196,193,28,194,192,1 ; vcmpltps %ymm8,%ymm12,%ymm0
- DB 196,65,60,92,193 ; vsubps %ymm9,%ymm8,%ymm8
- DB 196,65,44,94,208 ; vdivps %ymm8,%ymm10,%ymm10
- DB 196,65,52,88,210 ; vaddps %ymm10,%ymm9,%ymm10
- DB 196,195,117,74,202,0 ; vblendvps %ymm0,%ymm10,%ymm1,%ymm1
- DB 196,65,12,92,209 ; vsubps %ymm9,%ymm14,%ymm10
- DB 196,65,20,89,210 ; vmulps %ymm10,%ymm13,%ymm10
- DB 196,65,44,94,208 ; vdivps %ymm8,%ymm10,%ymm10
- DB 196,65,52,88,210 ; vaddps %ymm10,%ymm9,%ymm10
- DB 196,67,13,74,210,0 ; vblendvps %ymm0,%ymm10,%ymm14,%ymm10
- DB 196,65,36,92,241 ; vsubps %ymm9,%ymm11,%ymm14
- DB 196,65,20,89,238 ; vmulps %ymm14,%ymm13,%ymm13
- DB 196,65,20,94,192 ; vdivps %ymm8,%ymm13,%ymm8
- DB 196,65,52,88,192 ; vaddps %ymm8,%ymm9,%ymm8
- DB 196,193,116,95,207 ; vmaxps %ymm15,%ymm1,%ymm1
- DB 196,65,44,95,207 ; vmaxps %ymm15,%ymm10,%ymm9
- DB 196,195,37,74,192,0 ; vblendvps %ymm0,%ymm8,%ymm11,%ymm0
- DB 196,65,124,95,199 ; vmaxps %ymm15,%ymm0,%ymm8
- DB 196,226,125,24,5,31,178,2,0 ; vbroadcastss 0x2b21f(%rip),%ymm0 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,124,92,215 ; vsubps %ymm7,%ymm0,%ymm10
- DB 197,172,89,84,36,32 ; vmulps 0x20(%rsp),%ymm10,%ymm2
- DB 197,124,92,219 ; vsubps %ymm3,%ymm0,%ymm11
- DB 197,164,89,196 ; vmulps %ymm4,%ymm11,%ymm0
- DB 197,252,88,194 ; vaddps %ymm2,%ymm0,%ymm0
- DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
- DB 197,172,89,76,36,64 ; vmulps 0x40(%rsp),%ymm10,%ymm1
- DB 197,164,89,213 ; vmulps %ymm5,%ymm11,%ymm2
- DB 197,236,88,201 ; vaddps %ymm1,%ymm2,%ymm1
- DB 196,193,116,88,201 ; vaddps %ymm9,%ymm1,%ymm1
- DB 197,172,89,20,36 ; vmulps (%rsp),%ymm10,%ymm2
- DB 197,36,89,206 ; vmulps %ymm6,%ymm11,%ymm9
- DB 197,180,88,210 ; vaddps %ymm2,%ymm9,%ymm2
- DB 196,193,108,88,208 ; vaddps %ymm8,%ymm2,%ymm2
- DB 197,228,88,223 ; vaddps %ymm7,%ymm3,%ymm3
- DB 196,193,100,92,220 ; vsubps %ymm12,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,131,196,120 ; add $0x78,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_luminosity_avx
-_sk_luminosity_avx LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 197,124,40,226 ; vmovaps %ymm2,%ymm12
- DB 197,124,17,36,36 ; vmovups %ymm12,(%rsp)
- DB 197,252,17,76,36,32 ; vmovups %ymm1,0x20(%rsp)
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 197,100,89,196 ; vmulps %ymm4,%ymm3,%ymm8
- DB 197,100,89,205 ; vmulps %ymm5,%ymm3,%ymm9
- DB 196,98,125,24,45,199,177,2,0 ; vbroadcastss 0x2b1c7(%rip),%ymm13 # 34ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- DB 196,65,108,89,213 ; vmulps %ymm13,%ymm2,%ymm10
- DB 196,98,125,24,53,189,177,2,0 ; vbroadcastss 0x2b1bd(%rip),%ymm14 # 34aec <_sk_srcover_bgra_8888_sse2_lowp+0x2d4>
- DB 196,65,116,89,222 ; vmulps %ymm14,%ymm1,%ymm11
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,98,125,24,61,174,177,2,0 ; vbroadcastss 0x2b1ae(%rip),%ymm15 # 34af0 <_sk_srcover_bgra_8888_sse2_lowp+0x2d8>
- DB 196,65,28,89,223 ; vmulps %ymm15,%ymm12,%ymm11
- DB 196,193,44,88,195 ; vaddps %ymm11,%ymm10,%ymm0
- DB 196,65,60,89,221 ; vmulps %ymm13,%ymm8,%ymm11
- DB 196,65,52,89,230 ; vmulps %ymm14,%ymm9,%ymm12
- DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 197,100,89,230 ; vmulps %ymm6,%ymm3,%ymm12
- DB 196,65,28,89,215 ; vmulps %ymm15,%ymm12,%ymm10
- DB 196,65,36,88,210 ; vaddps %ymm10,%ymm11,%ymm10
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 196,193,124,92,194 ; vsubps %ymm10,%ymm0,%ymm0
- DB 197,60,88,192 ; vaddps %ymm0,%ymm8,%ymm8
- DB 197,52,88,208 ; vaddps %ymm0,%ymm9,%ymm10
- DB 197,28,88,216 ; vaddps %ymm0,%ymm12,%ymm11
- DB 196,193,44,93,195 ; vminps %ymm11,%ymm10,%ymm0
- DB 197,60,93,224 ; vminps %ymm0,%ymm8,%ymm12
- DB 196,193,60,89,197 ; vmulps %ymm13,%ymm8,%ymm0
- DB 196,65,44,89,206 ; vmulps %ymm14,%ymm10,%ymm9
- DB 196,193,124,88,193 ; vaddps %ymm9,%ymm0,%ymm0
- DB 196,65,36,89,207 ; vmulps %ymm15,%ymm11,%ymm9
- DB 197,52,88,200 ; vaddps %ymm0,%ymm9,%ymm9
- DB 196,193,60,92,193 ; vsubps %ymm9,%ymm8,%ymm0
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 196,65,52,92,236 ; vsubps %ymm12,%ymm9,%ymm13
- DB 196,193,124,94,197 ; vdivps %ymm13,%ymm0,%ymm0
- DB 196,65,44,92,241 ; vsubps %ymm9,%ymm10,%ymm14
- DB 196,65,52,89,246 ; vmulps %ymm14,%ymm9,%ymm14
- DB 196,65,12,94,245 ; vdivps %ymm13,%ymm14,%ymm14
- DB 196,65,36,92,249 ; vsubps %ymm9,%ymm11,%ymm15
- DB 196,65,52,89,255 ; vmulps %ymm15,%ymm9,%ymm15
- DB 196,65,4,94,237 ; vdivps %ymm13,%ymm15,%ymm13
- DB 196,65,4,87,255 ; vxorps %ymm15,%ymm15,%ymm15
- DB 196,65,4,194,228,2 ; vcmpleps %ymm12,%ymm15,%ymm12
- DB 196,65,52,88,246 ; vaddps %ymm14,%ymm9,%ymm14
- DB 196,67,13,74,242,192 ; vblendvps %ymm12,%ymm10,%ymm14,%ymm14
- DB 196,65,44,95,211 ; vmaxps %ymm11,%ymm10,%ymm10
- DB 196,65,52,88,237 ; vaddps %ymm13,%ymm9,%ymm13
- DB 196,67,21,74,219,192 ; vblendvps %ymm12,%ymm11,%ymm13,%ymm11
- DB 197,180,88,192 ; vaddps %ymm0,%ymm9,%ymm0
- DB 196,195,125,74,200,192 ; vblendvps %ymm12,%ymm8,%ymm0,%ymm1
- DB 197,100,89,231 ; vmulps %ymm7,%ymm3,%ymm12
- DB 196,65,60,95,194 ; vmaxps %ymm10,%ymm8,%ymm8
- DB 196,65,116,92,209 ; vsubps %ymm9,%ymm1,%ymm10
- DB 196,65,28,92,233 ; vsubps %ymm9,%ymm12,%ymm13
- DB 196,65,20,89,210 ; vmulps %ymm10,%ymm13,%ymm10
- DB 196,193,28,194,192,1 ; vcmpltps %ymm8,%ymm12,%ymm0
- DB 196,65,60,92,193 ; vsubps %ymm9,%ymm8,%ymm8
- DB 196,65,44,94,208 ; vdivps %ymm8,%ymm10,%ymm10
- DB 196,65,52,88,210 ; vaddps %ymm10,%ymm9,%ymm10
- DB 196,195,117,74,202,0 ; vblendvps %ymm0,%ymm10,%ymm1,%ymm1
- DB 196,65,12,92,209 ; vsubps %ymm9,%ymm14,%ymm10
- DB 196,65,20,89,210 ; vmulps %ymm10,%ymm13,%ymm10
- DB 196,65,44,94,208 ; vdivps %ymm8,%ymm10,%ymm10
- DB 196,65,52,88,210 ; vaddps %ymm10,%ymm9,%ymm10
- DB 196,67,13,74,210,0 ; vblendvps %ymm0,%ymm10,%ymm14,%ymm10
- DB 196,65,36,92,241 ; vsubps %ymm9,%ymm11,%ymm14
- DB 196,65,20,89,238 ; vmulps %ymm14,%ymm13,%ymm13
- DB 196,65,20,94,192 ; vdivps %ymm8,%ymm13,%ymm8
- DB 196,65,52,88,192 ; vaddps %ymm8,%ymm9,%ymm8
- DB 196,193,116,95,207 ; vmaxps %ymm15,%ymm1,%ymm1
- DB 196,65,44,95,207 ; vmaxps %ymm15,%ymm10,%ymm9
- DB 196,195,37,74,192,0 ; vblendvps %ymm0,%ymm8,%ymm11,%ymm0
- DB 196,65,124,95,199 ; vmaxps %ymm15,%ymm0,%ymm8
- DB 196,226,125,24,5,73,176,2,0 ; vbroadcastss 0x2b049(%rip),%ymm0 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,124,92,215 ; vsubps %ymm7,%ymm0,%ymm10
- DB 197,172,89,210 ; vmulps %ymm2,%ymm10,%ymm2
- DB 197,124,92,219 ; vsubps %ymm3,%ymm0,%ymm11
- DB 197,164,89,196 ; vmulps %ymm4,%ymm11,%ymm0
- DB 197,252,88,194 ; vaddps %ymm2,%ymm0,%ymm0
- DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
- DB 197,172,89,76,36,32 ; vmulps 0x20(%rsp),%ymm10,%ymm1
- DB 197,164,89,213 ; vmulps %ymm5,%ymm11,%ymm2
- DB 197,236,88,201 ; vaddps %ymm1,%ymm2,%ymm1
- DB 196,193,116,88,201 ; vaddps %ymm9,%ymm1,%ymm1
- DB 197,172,89,20,36 ; vmulps (%rsp),%ymm10,%ymm2
- DB 197,36,89,206 ; vmulps %ymm6,%ymm11,%ymm9
- DB 197,180,88,210 ; vaddps %ymm2,%ymm9,%ymm2
- DB 196,193,108,88,208 ; vaddps %ymm8,%ymm2,%ymm2
- DB 197,228,88,223 ; vaddps %ymm7,%ymm3,%ymm3
- DB 196,193,100,92,220 ; vsubps %ymm12,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_rgba_8888_avx
-_sk_srcover_rgba_8888_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,87,1,0,0 ; jne 9c3e <_sk_srcover_rgba_8888_avx+0x171>
- DB 196,65,125,16,12,144 ; vmovupd (%r8,%rdx,4),%ymm9
- DB 197,125,40,5,139,181,2,0 ; vmovapd 0x2b58b(%rip),%ymm8 # 35080 <_sk_srcover_bgra_8888_sse2_lowp+0x868>
- DB 196,193,53,84,224 ; vandpd %ymm8,%ymm9,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,193,81,114,209,8 ; vpsrld $0x8,%xmm9,%xmm5
- DB 196,99,125,25,207,1 ; vextractf128 $0x1,%ymm9,%xmm7
- DB 197,201,114,215,8 ; vpsrld $0x8,%xmm7,%xmm6
- DB 196,227,85,24,238,1 ; vinsertf128 $0x1,%xmm6,%ymm5,%ymm5
- DB 196,193,85,84,232 ; vandpd %ymm8,%ymm5,%ymm5
- DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,193,41,114,209,16 ; vpsrld $0x10,%xmm9,%xmm10
- DB 197,201,114,215,16 ; vpsrld $0x10,%xmm7,%xmm6
- DB 196,227,45,24,246,1 ; vinsertf128 $0x1,%xmm6,%ymm10,%ymm6
- DB 196,193,77,84,240 ; vandpd %ymm8,%ymm6,%ymm6
- DB 196,65,61,87,192 ; vxorpd %ymm8,%ymm8,%ymm8
- DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 196,193,49,114,209,24 ; vpsrld $0x18,%xmm9,%xmm9
- DB 197,193,114,215,24 ; vpsrld $0x18,%xmm7,%xmm7
- DB 196,227,53,24,255,1 ; vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
- DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,98,125,24,13,109,175,2,0 ; vbroadcastss 0x2af6d(%rip),%ymm9 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,52,92,211 ; vsubps %ymm3,%ymm9,%ymm10
- DB 196,98,125,24,13,140,175,2,0 ; vbroadcastss 0x2af8c(%rip),%ymm9 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
- DB 197,44,89,220 ; vmulps %ymm4,%ymm10,%ymm11
- DB 196,193,124,88,195 ; vaddps %ymm11,%ymm0,%ymm0
- DB 196,193,116,89,201 ; vmulps %ymm9,%ymm1,%ymm1
- DB 197,44,89,221 ; vmulps %ymm5,%ymm10,%ymm11
- DB 196,193,116,88,203 ; vaddps %ymm11,%ymm1,%ymm1
- DB 196,193,108,89,209 ; vmulps %ymm9,%ymm2,%ymm2
- DB 197,44,89,222 ; vmulps %ymm6,%ymm10,%ymm11
- DB 196,193,108,88,211 ; vaddps %ymm11,%ymm2,%ymm2
- DB 196,193,100,89,217 ; vmulps %ymm9,%ymm3,%ymm3
- DB 197,44,89,215 ; vmulps %ymm7,%ymm10,%ymm10
- DB 196,193,100,88,218 ; vaddps %ymm10,%ymm3,%ymm3
- DB 197,60,95,208 ; vmaxps %ymm0,%ymm8,%ymm10
- DB 196,65,44,93,209 ; vminps %ymm9,%ymm10,%ymm10
- DB 196,65,125,91,210 ; vcvtps2dq %ymm10,%ymm10
- DB 197,60,95,217 ; vmaxps %ymm1,%ymm8,%ymm11
- DB 196,65,36,93,217 ; vminps %ymm9,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,193,25,114,243,8 ; vpslld $0x8,%xmm11,%xmm12
- DB 196,67,125,25,219,1 ; vextractf128 $0x1,%ymm11,%xmm11
- DB 196,193,33,114,243,8 ; vpslld $0x8,%xmm11,%xmm11
- DB 196,67,29,24,219,1 ; vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
- DB 196,65,37,86,210 ; vorpd %ymm10,%ymm11,%ymm10
- DB 197,60,95,218 ; vmaxps %ymm2,%ymm8,%ymm11
- DB 196,65,36,93,217 ; vminps %ymm9,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,193,25,114,243,16 ; vpslld $0x10,%xmm11,%xmm12
- DB 196,67,125,25,219,1 ; vextractf128 $0x1,%ymm11,%xmm11
- DB 196,193,33,114,243,16 ; vpslld $0x10,%xmm11,%xmm11
- DB 196,67,29,24,219,1 ; vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,65,60,93,193 ; vminps %ymm9,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,193,49,114,240,24 ; vpslld $0x18,%xmm8,%xmm9
- DB 196,67,125,25,192,1 ; vextractf128 $0x1,%ymm8,%xmm8
- DB 196,193,57,114,240,24 ; vpslld $0x18,%xmm8,%xmm8
- DB 196,67,53,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- DB 196,65,37,86,192 ; vorpd %ymm8,%ymm11,%ymm8
- DB 196,65,45,86,192 ; vorpd %ymm8,%ymm10,%ymm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,59 ; jne 9c6f <_sk_srcover_rgba_8888_avx+0x1a2>
- DB 196,65,124,17,4,144 ; vmovups %ymm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,156,254,255,255 ; ja 9aed <_sk_srcover_rgba_8888_avx+0x20>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,253,0,0,0 ; lea 0xfd(%rip),%r9 # 9d58 <_sk_srcover_rgba_8888_avx+0x28b>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,122,16,12,144 ; vmovss (%r8,%rdx,4),%xmm9
- DB 233,126,254,255,255 ; jmpq 9aed <_sk_srcover_rgba_8888_avx+0x20>
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,193 ; ja 9c3a <_sk_srcover_rgba_8888_avx+0x16d>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,241,0,0,0 ; lea 0xf1(%rip),%r9 # 9d74 <_sk_srcover_rgba_8888_avx+0x2a7>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,126,4,144 ; vmovd %xmm8,(%r8,%rdx,4)
- DB 235,166 ; jmp 9c3a <_sk_srcover_rgba_8888_avx+0x16d>
- DB 196,193,121,110,100,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm4
- DB 197,249,112,228,68 ; vpshufd $0x44,%xmm4,%xmm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 196,99,85,12,204,4 ; vblendps $0x4,%ymm4,%ymm5,%ymm9
- DB 196,193,123,16,36,144 ; vmovsd (%r8,%rdx,4),%xmm4
- DB 196,99,53,13,204,1 ; vblendpd $0x1,%ymm4,%ymm9,%ymm9
- DB 233,50,254,255,255 ; jmpq 9aed <_sk_srcover_rgba_8888_avx+0x20>
- DB 196,193,121,110,100,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm4
- DB 197,249,112,228,68 ; vpshufd $0x44,%xmm4,%xmm4
- DB 196,227,125,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 196,99,85,12,204,64 ; vblendps $0x40,%ymm4,%ymm5,%ymm9
- DB 196,99,125,25,204,1 ; vextractf128 $0x1,%ymm9,%xmm4
- DB 196,195,89,34,100,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,99,53,24,204,1 ; vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- DB 196,99,125,25,204,1 ; vextractf128 $0x1,%ymm9,%xmm4
- DB 196,195,89,34,100,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,99,53,24,204,1 ; vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- DB 196,193,121,16,36,144 ; vmovupd (%r8,%rdx,4),%xmm4
- DB 196,67,93,13,201,12 ; vblendpd $0xc,%ymm9,%ymm4,%ymm9
- DB 233,221,253,255,255 ; jmpq 9aed <_sk_srcover_rgba_8888_avx+0x20>
- DB 196,67,121,22,68,144,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 196,65,121,214,4,144 ; vmovq %xmm8,(%r8,%rdx,4)
- DB 233,23,255,255,255 ; jmpq 9c3a <_sk_srcover_rgba_8888_avx+0x16d>
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,24,2 ; vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,20,1 ; vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,65,121,126,76,144,16 ; vmovd %xmm9,0x10(%r8,%rdx,4)
- DB 196,65,121,17,4,144 ; vmovupd %xmm8,(%r8,%rdx,4)
- DB 233,227,254,255,255 ; jmpq 9c3a <_sk_srcover_rgba_8888_avx+0x16d>
- DB 144 ; nop
- DB 12,255 ; or $0xff,%al
- DB 255 ; (bad)
- DB 255,82,255 ; callq *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 60,255 ; cmp $0xff,%al
- DB 255 ; (bad)
- DB 255,167,255,255,255,147 ; jmpq *-0x6c000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,255 ; jg 9d6d <_sk_srcover_rgba_8888_avx+0x2a0>
- DB 255 ; (bad)
- DB 255,99,255 ; jmpq *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,24 ; lcall *(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,164,255,255,255,156,255 ; jmpq *-0x630001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 216,255 ; fdivr %st(7),%st
- DB 255 ; (bad)
- DB 255,203 ; dec %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 189,255,255,255,175 ; mov $0xafffffff,%ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_srcover_bgra_8888_avx
-_sk_srcover_bgra_8888_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,87,1,0,0 ; jne 9f01 <_sk_srcover_bgra_8888_avx+0x171>
- DB 196,65,125,16,12,144 ; vmovupd (%r8,%rdx,4),%ymm9
- DB 197,125,40,5,232,178,2,0 ; vmovapd 0x2b2e8(%rip),%ymm8 # 350a0 <_sk_srcover_bgra_8888_sse2_lowp+0x888>
- DB 196,193,53,84,232 ; vandpd %ymm8,%ymm9,%ymm5
- DB 197,252,91,245 ; vcvtdq2ps %ymm5,%ymm6
- DB 196,193,81,114,209,8 ; vpsrld $0x8,%xmm9,%xmm5
- DB 196,99,125,25,207,1 ; vextractf128 $0x1,%ymm9,%xmm7
- DB 197,217,114,215,8 ; vpsrld $0x8,%xmm7,%xmm4
- DB 196,227,85,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
- DB 196,193,93,84,224 ; vandpd %ymm8,%ymm4,%ymm4
- DB 197,252,91,236 ; vcvtdq2ps %ymm4,%ymm5
- DB 196,193,41,114,209,16 ; vpsrld $0x10,%xmm9,%xmm10
- DB 197,217,114,215,16 ; vpsrld $0x10,%xmm7,%xmm4
- DB 196,227,45,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm10,%ymm4
- DB 196,193,93,84,224 ; vandpd %ymm8,%ymm4,%ymm4
- DB 196,65,61,87,192 ; vxorpd %ymm8,%ymm8,%ymm8
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,193,49,114,209,24 ; vpsrld $0x18,%xmm9,%xmm9
- DB 197,193,114,215,24 ; vpsrld $0x18,%xmm7,%xmm7
- DB 196,227,53,24,255,1 ; vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
- DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,98,125,24,13,170,172,2,0 ; vbroadcastss 0x2acaa(%rip),%ymm9 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,52,92,211 ; vsubps %ymm3,%ymm9,%ymm10
- DB 196,98,125,24,13,201,172,2,0 ; vbroadcastss 0x2acc9(%rip),%ymm9 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
- DB 197,44,89,220 ; vmulps %ymm4,%ymm10,%ymm11
- DB 196,193,124,88,195 ; vaddps %ymm11,%ymm0,%ymm0
- DB 196,193,116,89,201 ; vmulps %ymm9,%ymm1,%ymm1
- DB 197,44,89,221 ; vmulps %ymm5,%ymm10,%ymm11
- DB 196,193,116,88,203 ; vaddps %ymm11,%ymm1,%ymm1
- DB 196,193,108,89,209 ; vmulps %ymm9,%ymm2,%ymm2
- DB 197,44,89,222 ; vmulps %ymm6,%ymm10,%ymm11
- DB 196,193,108,88,211 ; vaddps %ymm11,%ymm2,%ymm2
- DB 196,193,100,89,217 ; vmulps %ymm9,%ymm3,%ymm3
- DB 197,44,89,215 ; vmulps %ymm7,%ymm10,%ymm10
- DB 196,193,100,88,218 ; vaddps %ymm10,%ymm3,%ymm3
- DB 197,60,95,210 ; vmaxps %ymm2,%ymm8,%ymm10
- DB 196,65,44,93,209 ; vminps %ymm9,%ymm10,%ymm10
- DB 196,65,125,91,210 ; vcvtps2dq %ymm10,%ymm10
- DB 197,60,95,217 ; vmaxps %ymm1,%ymm8,%ymm11
- DB 196,65,36,93,217 ; vminps %ymm9,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,193,25,114,243,8 ; vpslld $0x8,%xmm11,%xmm12
- DB 196,67,125,25,219,1 ; vextractf128 $0x1,%ymm11,%xmm11
- DB 196,193,33,114,243,8 ; vpslld $0x8,%xmm11,%xmm11
- DB 196,67,29,24,219,1 ; vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
- DB 196,65,37,86,210 ; vorpd %ymm10,%ymm11,%ymm10
- DB 197,60,95,216 ; vmaxps %ymm0,%ymm8,%ymm11
- DB 196,65,36,93,217 ; vminps %ymm9,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,193,25,114,243,16 ; vpslld $0x10,%xmm11,%xmm12
- DB 196,67,125,25,219,1 ; vextractf128 $0x1,%ymm11,%xmm11
- DB 196,193,33,114,243,16 ; vpslld $0x10,%xmm11,%xmm11
- DB 196,67,29,24,219,1 ; vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,65,60,93,193 ; vminps %ymm9,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,193,49,114,240,24 ; vpslld $0x18,%xmm8,%xmm9
- DB 196,67,125,25,192,1 ; vextractf128 $0x1,%ymm8,%xmm8
- DB 196,193,57,114,240,24 ; vpslld $0x18,%xmm8,%xmm8
- DB 196,67,53,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- DB 196,65,37,86,192 ; vorpd %ymm8,%ymm11,%ymm8
- DB 196,65,45,86,192 ; vorpd %ymm8,%ymm10,%ymm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,59 ; jne 9f32 <_sk_srcover_bgra_8888_avx+0x1a2>
- DB 196,65,124,17,4,144 ; vmovups %ymm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,156,254,255,255 ; ja 9db0 <_sk_srcover_bgra_8888_avx+0x20>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,254,0,0,0 ; lea 0xfe(%rip),%r9 # a01c <_sk_srcover_bgra_8888_avx+0x28c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,122,16,12,144 ; vmovss (%r8,%rdx,4),%xmm9
- DB 233,126,254,255,255 ; jmpq 9db0 <_sk_srcover_bgra_8888_avx+0x20>
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,193 ; ja 9efd <_sk_srcover_bgra_8888_avx+0x16d>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,242,0,0,0 ; lea 0xf2(%rip),%r9 # a038 <_sk_srcover_bgra_8888_avx+0x2a8>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,126,4,144 ; vmovd %xmm8,(%r8,%rdx,4)
- DB 235,166 ; jmp 9efd <_sk_srcover_bgra_8888_avx+0x16d>
- DB 196,193,121,110,100,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm4
- DB 197,249,112,228,68 ; vpshufd $0x44,%xmm4,%xmm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 196,99,85,12,204,4 ; vblendps $0x4,%ymm4,%ymm5,%ymm9
- DB 196,193,123,16,36,144 ; vmovsd (%r8,%rdx,4),%xmm4
- DB 196,99,53,13,204,1 ; vblendpd $0x1,%ymm4,%ymm9,%ymm9
- DB 233,50,254,255,255 ; jmpq 9db0 <_sk_srcover_bgra_8888_avx+0x20>
- DB 196,193,121,110,100,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm4
- DB 197,249,112,228,68 ; vpshufd $0x44,%xmm4,%xmm4
- DB 196,227,125,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 196,99,85,12,204,64 ; vblendps $0x40,%ymm4,%ymm5,%ymm9
- DB 196,99,125,25,204,1 ; vextractf128 $0x1,%ymm9,%xmm4
- DB 196,195,89,34,100,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,99,53,24,204,1 ; vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- DB 196,99,125,25,204,1 ; vextractf128 $0x1,%ymm9,%xmm4
- DB 196,195,89,34,100,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,99,53,24,204,1 ; vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- DB 196,193,121,16,36,144 ; vmovupd (%r8,%rdx,4),%xmm4
- DB 196,67,93,13,201,12 ; vblendpd $0xc,%ymm9,%ymm4,%ymm9
- DB 233,221,253,255,255 ; jmpq 9db0 <_sk_srcover_bgra_8888_avx+0x20>
- DB 196,67,121,22,68,144,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 196,65,121,214,4,144 ; vmovq %xmm8,(%r8,%rdx,4)
- DB 233,23,255,255,255 ; jmpq 9efd <_sk_srcover_bgra_8888_avx+0x16d>
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,24,2 ; vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,20,1 ; vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,65,121,126,76,144,16 ; vmovd %xmm9,0x10(%r8,%rdx,4)
- DB 196,65,121,17,4,144 ; vmovupd %xmm8,(%r8,%rdx,4)
- DB 233,227,254,255,255 ; jmpq 9efd <_sk_srcover_bgra_8888_avx+0x16d>
- DB 102,144 ; xchg %ax,%ax
- DB 11,255 ; or %edi,%edi
- DB 255 ; (bad)
- DB 255,81,255 ; callq *-0x1(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 59,255 ; cmp %edi,%edi
- DB 255 ; (bad)
- DB 255,166,255,255,255,146 ; jmpq *-0x6d000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 126,255 ; jle a031 <_sk_srcover_bgra_8888_avx+0x2a1>
- DB 255 ; (bad)
- DB 255,98,255 ; jmpq *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,23 ; callq *(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,163,255,255,255,155 ; jmpq *-0x64000001(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,215 ; callq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,202 ; dec %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 188,255,255,255,174 ; mov $0xaeffffff,%esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_clamp_0_avx
-_sk_clamp_0_avx LABEL PROC
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,193,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm0
- DB 196,193,116,95,200 ; vmaxps %ymm8,%ymm1,%ymm1
- DB 196,193,108,95,208 ; vmaxps %ymm8,%ymm2,%ymm2
- DB 196,193,100,95,216 ; vmaxps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_1_avx
-_sk_clamp_1_avx LABEL PROC
- DB 196,98,125,24,5,78,170,2,0 ; vbroadcastss 0x2aa4e(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
- DB 196,193,108,93,208 ; vminps %ymm8,%ymm2,%ymm2
- DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_a_avx
-_sk_clamp_a_avx LABEL PROC
- DB 196,98,125,24,5,45,170,2,0 ; vbroadcastss 0x2aa2d(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
- DB 197,252,93,195 ; vminps %ymm3,%ymm0,%ymm0
- DB 197,244,93,203 ; vminps %ymm3,%ymm1,%ymm1
- DB 197,236,93,211 ; vminps %ymm3,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_a_dst_avx
-_sk_clamp_a_dst_avx LABEL PROC
- DB 196,98,125,24,5,15,170,2,0 ; vbroadcastss 0x2aa0f(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,68,93,248 ; vminps %ymm8,%ymm7,%ymm7
- DB 197,220,93,231 ; vminps %ymm7,%ymm4,%ymm4
- DB 197,212,93,239 ; vminps %ymm7,%ymm5,%ymm5
- DB 197,204,93,247 ; vminps %ymm7,%ymm6,%ymm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_set_rgb_avx
-_sk_set_rgb_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,0 ; vbroadcastss (%rax),%ymm0
- DB 196,226,125,24,72,4 ; vbroadcastss 0x4(%rax),%ymm1
- DB 196,226,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_swap_rb_avx
-_sk_swap_rb_avx LABEL PROC
- DB 197,124,40,192 ; vmovaps %ymm0,%ymm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,194 ; vmovaps %ymm2,%ymm0
- DB 197,124,41,194 ; vmovaps %ymm8,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_invert_avx
-_sk_invert_avx LABEL PROC
- DB 196,98,125,24,5,202,169,2,0 ; vbroadcastss 0x2a9ca(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 197,188,92,201 ; vsubps %ymm1,%ymm8,%ymm1
- DB 197,188,92,210 ; vsubps %ymm2,%ymm8,%ymm2
- DB 197,188,92,219 ; vsubps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_src_dst_avx
-_sk_move_src_dst_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,224 ; vmovaps %ymm0,%ymm4
- DB 197,252,40,233 ; vmovaps %ymm1,%ymm5
- DB 197,252,40,242 ; vmovaps %ymm2,%ymm6
- DB 197,252,40,251 ; vmovaps %ymm3,%ymm7
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_dst_src_avx
-_sk_move_dst_src_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,196 ; vmovaps %ymm4,%ymm0
- DB 197,252,40,205 ; vmovaps %ymm5,%ymm1
- DB 197,252,40,214 ; vmovaps %ymm6,%ymm2
- DB 197,252,40,223 ; vmovaps %ymm7,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_avx
-_sk_premul_avx LABEL PROC
- DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
- DB 197,236,89,211 ; vmulps %ymm3,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_dst_avx
-_sk_premul_dst_avx LABEL PROC
- DB 197,220,89,231 ; vmulps %ymm7,%ymm4,%ymm4
- DB 197,212,89,239 ; vmulps %ymm7,%ymm5,%ymm5
- DB 197,204,89,247 ; vmulps %ymm7,%ymm6,%ymm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_unpremul_avx
-_sk_unpremul_avx LABEL PROC
- DB 196,98,125,24,5,101,169,2,0 ; vbroadcastss 0x2a965(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,94,195 ; vdivps %ymm3,%ymm8,%ymm8
- DB 196,98,125,24,13,136,169,2,0 ; vbroadcastss 0x2a988(%rip),%ymm9 # 34af8 <_sk_srcover_bgra_8888_sse2_lowp+0x2e0>
- DB 196,65,60,194,201,1 ; vcmpltps %ymm9,%ymm8,%ymm9
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 196,67,45,74,192,144 ; vblendvps %ymm9,%ymm8,%ymm10,%ymm8
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
- DB 197,188,89,210 ; vmulps %ymm2,%ymm8,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_force_opaque_avx
-_sk_force_opaque_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,44,169,2,0 ; vbroadcastss 0x2a92c(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_force_opaque_dst_avx
-_sk_force_opaque_dst_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,61,31,169,2,0 ; vbroadcastss 0x2a91f(%rip),%ymm7 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_from_srgb_avx
-_sk_from_srgb_avx LABEL PROC
- DB 196,98,125,24,5,72,169,2,0 ; vbroadcastss 0x2a948(%rip),%ymm8 # 34afc <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
- DB 196,65,124,89,200 ; vmulps %ymm8,%ymm0,%ymm9
- DB 197,124,89,208 ; vmulps %ymm0,%ymm0,%ymm10
- DB 196,98,125,24,29,34,169,2,0 ; vbroadcastss 0x2a922(%rip),%ymm11 # 34ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- DB 196,65,124,89,227 ; vmulps %ymm11,%ymm0,%ymm12
- DB 196,98,125,24,45,44,169,2,0 ; vbroadcastss 0x2a92c(%rip),%ymm13 # 34b00 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- DB 196,65,28,88,229 ; vaddps %ymm13,%ymm12,%ymm12
- DB 196,65,44,89,212 ; vmulps %ymm12,%ymm10,%ymm10
- DB 196,98,125,24,37,29,169,2,0 ; vbroadcastss 0x2a91d(%rip),%ymm12 # 34b04 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
- DB 196,65,44,88,212 ; vaddps %ymm12,%ymm10,%ymm10
- DB 196,98,125,24,53,19,169,2,0 ; vbroadcastss 0x2a913(%rip),%ymm14 # 34b08 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
- DB 196,193,124,194,198,1 ; vcmpltps %ymm14,%ymm0,%ymm0
- DB 196,195,45,74,193,0 ; vblendvps %ymm0,%ymm9,%ymm10,%ymm0
- DB 196,65,116,89,200 ; vmulps %ymm8,%ymm1,%ymm9
- DB 197,116,89,209 ; vmulps %ymm1,%ymm1,%ymm10
- DB 196,65,116,89,251 ; vmulps %ymm11,%ymm1,%ymm15
- DB 196,65,4,88,253 ; vaddps %ymm13,%ymm15,%ymm15
- DB 196,65,44,89,215 ; vmulps %ymm15,%ymm10,%ymm10
- DB 196,65,44,88,212 ; vaddps %ymm12,%ymm10,%ymm10
- DB 196,193,116,194,206,1 ; vcmpltps %ymm14,%ymm1,%ymm1
- DB 196,195,45,74,201,16 ; vblendvps %ymm1,%ymm9,%ymm10,%ymm1
- DB 196,65,108,89,192 ; vmulps %ymm8,%ymm2,%ymm8
- DB 197,108,89,202 ; vmulps %ymm2,%ymm2,%ymm9
- DB 196,65,108,89,211 ; vmulps %ymm11,%ymm2,%ymm10
- DB 196,65,44,88,213 ; vaddps %ymm13,%ymm10,%ymm10
- DB 196,65,52,89,202 ; vmulps %ymm10,%ymm9,%ymm9
- DB 196,65,52,88,204 ; vaddps %ymm12,%ymm9,%ymm9
- DB 196,193,108,194,214,1 ; vcmpltps %ymm14,%ymm2,%ymm2
- DB 196,195,53,74,208,32 ; vblendvps %ymm2,%ymm8,%ymm9,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_from_srgb_dst_avx
-_sk_from_srgb_dst_avx LABEL PROC
- DB 196,98,125,24,5,156,168,2,0 ; vbroadcastss 0x2a89c(%rip),%ymm8 # 34afc <_sk_srcover_bgra_8888_sse2_lowp+0x2e4>
- DB 196,65,92,89,200 ; vmulps %ymm8,%ymm4,%ymm9
- DB 197,92,89,212 ; vmulps %ymm4,%ymm4,%ymm10
- DB 196,98,125,24,29,118,168,2,0 ; vbroadcastss 0x2a876(%rip),%ymm11 # 34ae8 <_sk_srcover_bgra_8888_sse2_lowp+0x2d0>
- DB 196,65,92,89,227 ; vmulps %ymm11,%ymm4,%ymm12
- DB 196,98,125,24,45,128,168,2,0 ; vbroadcastss 0x2a880(%rip),%ymm13 # 34b00 <_sk_srcover_bgra_8888_sse2_lowp+0x2e8>
- DB 196,65,28,88,229 ; vaddps %ymm13,%ymm12,%ymm12
- DB 196,65,44,89,212 ; vmulps %ymm12,%ymm10,%ymm10
- DB 196,98,125,24,37,113,168,2,0 ; vbroadcastss 0x2a871(%rip),%ymm12 # 34b04 <_sk_srcover_bgra_8888_sse2_lowp+0x2ec>
- DB 196,65,44,88,212 ; vaddps %ymm12,%ymm10,%ymm10
- DB 196,98,125,24,53,103,168,2,0 ; vbroadcastss 0x2a867(%rip),%ymm14 # 34b08 <_sk_srcover_bgra_8888_sse2_lowp+0x2f0>
- DB 196,193,92,194,230,1 ; vcmpltps %ymm14,%ymm4,%ymm4
- DB 196,195,45,74,225,64 ; vblendvps %ymm4,%ymm9,%ymm10,%ymm4
- DB 196,65,84,89,200 ; vmulps %ymm8,%ymm5,%ymm9
- DB 197,84,89,213 ; vmulps %ymm5,%ymm5,%ymm10
- DB 196,65,84,89,251 ; vmulps %ymm11,%ymm5,%ymm15
- DB 196,65,4,88,253 ; vaddps %ymm13,%ymm15,%ymm15
- DB 196,65,44,89,215 ; vmulps %ymm15,%ymm10,%ymm10
- DB 196,65,44,88,212 ; vaddps %ymm12,%ymm10,%ymm10
- DB 196,193,84,194,238,1 ; vcmpltps %ymm14,%ymm5,%ymm5
- DB 196,195,45,74,233,80 ; vblendvps %ymm5,%ymm9,%ymm10,%ymm5
- DB 196,65,76,89,192 ; vmulps %ymm8,%ymm6,%ymm8
- DB 197,76,89,206 ; vmulps %ymm6,%ymm6,%ymm9
- DB 196,65,76,89,211 ; vmulps %ymm11,%ymm6,%ymm10
- DB 196,65,44,88,213 ; vaddps %ymm13,%ymm10,%ymm10
- DB 196,65,52,89,202 ; vmulps %ymm10,%ymm9,%ymm9
- DB 196,65,52,88,204 ; vaddps %ymm12,%ymm9,%ymm9
- DB 196,193,76,194,246,1 ; vcmpltps %ymm14,%ymm6,%ymm6
- DB 196,195,53,74,240,96 ; vblendvps %ymm6,%ymm8,%ymm9,%ymm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_to_srgb_avx
-_sk_to_srgb_avx LABEL PROC
- DB 197,124,82,200 ; vrsqrtps %ymm0,%ymm9
- DB 196,98,125,24,5,252,167,2,0 ; vbroadcastss 0x2a7fc(%rip),%ymm8 # 34b0c <_sk_srcover_bgra_8888_sse2_lowp+0x2f4>
- DB 196,65,124,89,208 ; vmulps %ymm8,%ymm0,%ymm10
- DB 196,98,125,24,29,246,167,2,0 ; vbroadcastss 0x2a7f6(%rip),%ymm11 # 34b14 <_sk_srcover_bgra_8888_sse2_lowp+0x2fc>
- DB 196,65,52,89,227 ; vmulps %ymm11,%ymm9,%ymm12
- DB 196,98,125,24,45,228,167,2,0 ; vbroadcastss 0x2a7e4(%rip),%ymm13 # 34b10 <_sk_srcover_bgra_8888_sse2_lowp+0x2f8>
- DB 196,65,28,88,229 ; vaddps %ymm13,%ymm12,%ymm12
- DB 196,65,52,89,228 ; vmulps %ymm12,%ymm9,%ymm12
- DB 196,98,125,24,53,217,167,2,0 ; vbroadcastss 0x2a7d9(%rip),%ymm14 # 34b18 <_sk_srcover_bgra_8888_sse2_lowp+0x300>
- DB 196,65,28,88,230 ; vaddps %ymm14,%ymm12,%ymm12
- DB 196,98,125,24,61,207,167,2,0 ; vbroadcastss 0x2a7cf(%rip),%ymm15 # 34b1c <_sk_srcover_bgra_8888_sse2_lowp+0x304>
- DB 196,65,52,88,207 ; vaddps %ymm15,%ymm9,%ymm9
- DB 196,65,124,83,201 ; vrcpps %ymm9,%ymm9
- DB 196,65,52,89,204 ; vmulps %ymm12,%ymm9,%ymm9
- DB 196,98,125,24,37,187,167,2,0 ; vbroadcastss 0x2a7bb(%rip),%ymm12 # 34b20 <_sk_srcover_bgra_8888_sse2_lowp+0x308>
- DB 196,193,124,194,196,1 ; vcmpltps %ymm12,%ymm0,%ymm0
- DB 196,195,53,74,194,0 ; vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- DB 197,124,82,201 ; vrsqrtps %ymm1,%ymm9
- DB 196,65,52,89,211 ; vmulps %ymm11,%ymm9,%ymm10
- DB 196,65,44,88,213 ; vaddps %ymm13,%ymm10,%ymm10
- DB 196,65,52,89,210 ; vmulps %ymm10,%ymm9,%ymm10
- DB 196,65,44,88,214 ; vaddps %ymm14,%ymm10,%ymm10
- DB 196,65,52,88,207 ; vaddps %ymm15,%ymm9,%ymm9
- DB 196,65,124,83,201 ; vrcpps %ymm9,%ymm9
- DB 196,65,52,89,202 ; vmulps %ymm10,%ymm9,%ymm9
- DB 196,65,116,89,208 ; vmulps %ymm8,%ymm1,%ymm10
- DB 196,193,116,194,204,1 ; vcmpltps %ymm12,%ymm1,%ymm1
- DB 196,195,53,74,202,16 ; vblendvps %ymm1,%ymm10,%ymm9,%ymm1
- DB 197,124,82,202 ; vrsqrtps %ymm2,%ymm9
- DB 196,65,52,89,211 ; vmulps %ymm11,%ymm9,%ymm10
- DB 196,65,44,88,213 ; vaddps %ymm13,%ymm10,%ymm10
- DB 196,65,52,89,210 ; vmulps %ymm10,%ymm9,%ymm10
- DB 196,65,44,88,214 ; vaddps %ymm14,%ymm10,%ymm10
- DB 196,65,52,88,207 ; vaddps %ymm15,%ymm9,%ymm9
- DB 196,65,124,83,201 ; vrcpps %ymm9,%ymm9
- DB 196,65,52,89,202 ; vmulps %ymm10,%ymm9,%ymm9
- DB 196,65,108,89,192 ; vmulps %ymm8,%ymm2,%ymm8
- DB 196,193,108,194,212,1 ; vcmpltps %ymm12,%ymm2,%ymm2
- DB 196,195,53,74,208,32 ; vblendvps %ymm2,%ymm8,%ymm9,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_rgb_to_hsl_avx
-_sk_rgb_to_hsl_avx LABEL PROC
- DB 197,116,95,194 ; vmaxps %ymm2,%ymm1,%ymm8
- DB 196,65,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm8
- DB 197,116,93,202 ; vminps %ymm2,%ymm1,%ymm9
- DB 196,65,124,93,201 ; vminps %ymm9,%ymm0,%ymm9
- DB 196,65,60,92,209 ; vsubps %ymm9,%ymm8,%ymm10
- DB 196,98,125,24,29,195,166,2,0 ; vbroadcastss 0x2a6c3(%rip),%ymm11 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,36,94,218 ; vdivps %ymm10,%ymm11,%ymm11
- DB 197,116,92,226 ; vsubps %ymm2,%ymm1,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 197,116,194,234,1 ; vcmpltps %ymm2,%ymm1,%ymm13
- DB 197,60,194,241,0 ; vcmpeqps %ymm1,%ymm8,%ymm14
- DB 197,236,92,208 ; vsubps %ymm0,%ymm2,%ymm2
- DB 196,193,108,89,211 ; vmulps %ymm11,%ymm2,%ymm2
- DB 197,252,92,201 ; vsubps %ymm1,%ymm0,%ymm1
- DB 196,193,116,89,203 ; vmulps %ymm11,%ymm1,%ymm1
- DB 196,98,125,24,29,244,166,2,0 ; vbroadcastss 0x2a6f4(%rip),%ymm11 # 34b2c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
- DB 196,193,116,88,203 ; vaddps %ymm11,%ymm1,%ymm1
- DB 196,98,125,24,29,226,166,2,0 ; vbroadcastss 0x2a6e2(%rip),%ymm11 # 34b28 <_sk_srcover_bgra_8888_sse2_lowp+0x310>
- DB 196,193,108,88,211 ; vaddps %ymm11,%ymm2,%ymm2
- DB 196,227,117,74,202,224 ; vblendvps %ymm14,%ymm2,%ymm1,%ymm1
- DB 196,226,125,24,21,202,166,2,0 ; vbroadcastss 0x2a6ca(%rip),%ymm2 # 34b24 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
- DB 196,65,12,87,246 ; vxorps %ymm14,%ymm14,%ymm14
- DB 196,227,13,74,210,208 ; vblendvps %ymm13,%ymm2,%ymm14,%ymm2
- DB 197,188,194,192,0 ; vcmpeqps %ymm0,%ymm8,%ymm0
- DB 196,193,108,88,212 ; vaddps %ymm12,%ymm2,%ymm2
- DB 196,227,117,74,194,0 ; vblendvps %ymm0,%ymm2,%ymm1,%ymm0
- DB 196,193,60,88,201 ; vaddps %ymm9,%ymm8,%ymm1
- DB 196,98,125,24,37,65,166,2,0 ; vbroadcastss 0x2a641(%rip),%ymm12 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,193,116,89,212 ; vmulps %ymm12,%ymm1,%ymm2
- DB 197,28,194,226,1 ; vcmpltps %ymm2,%ymm12,%ymm12
- DB 196,65,36,92,216 ; vsubps %ymm8,%ymm11,%ymm11
- DB 196,65,36,92,217 ; vsubps %ymm9,%ymm11,%ymm11
- DB 196,195,117,74,203,192 ; vblendvps %ymm12,%ymm11,%ymm1,%ymm1
- DB 196,65,60,194,193,0 ; vcmpeqps %ymm9,%ymm8,%ymm8
- DB 197,172,94,201 ; vdivps %ymm1,%ymm10,%ymm1
- DB 196,195,125,74,198,128 ; vblendvps %ymm8,%ymm14,%ymm0,%ymm0
- DB 196,195,117,74,206,128 ; vblendvps %ymm8,%ymm14,%ymm1,%ymm1
- DB 196,98,125,24,5,116,166,2,0 ; vbroadcastss 0x2a674(%rip),%ymm8 # 34b30 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hsl_to_rgb_avx
-_sk_hsl_to_rgb_avx LABEL PROC
- DB 72,129,236,184,0,0,0 ; sub $0xb8,%rsp
- DB 197,252,17,188,36,128,0,0,0 ; vmovups %ymm7,0x80(%rsp)
- DB 197,252,17,116,36,96 ; vmovups %ymm6,0x60(%rsp)
- DB 197,252,17,108,36,64 ; vmovups %ymm5,0x40(%rsp)
- DB 197,252,17,100,36,32 ; vmovups %ymm4,0x20(%rsp)
- DB 197,252,17,28,36 ; vmovups %ymm3,(%rsp)
- DB 197,252,40,225 ; vmovaps %ymm1,%ymm4
- DB 197,252,40,216 ; vmovaps %ymm0,%ymm3
- DB 196,98,125,24,5,199,165,2,0 ; vbroadcastss 0x2a5c7(%rip),%ymm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,60,194,202,2 ; vcmpleps %ymm2,%ymm8,%ymm9
- DB 197,92,89,210 ; vmulps %ymm2,%ymm4,%ymm10
- DB 196,65,92,92,218 ; vsubps %ymm10,%ymm4,%ymm11
- DB 196,67,45,74,203,144 ; vblendvps %ymm9,%ymm11,%ymm10,%ymm9
- DB 197,52,88,210 ; vaddps %ymm2,%ymm9,%ymm10
- DB 197,108,88,202 ; vaddps %ymm2,%ymm2,%ymm9
- DB 196,65,52,92,202 ; vsubps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,29,13,166,2,0 ; vbroadcastss 0x2a60d(%rip),%ymm11 # 34b34 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- DB 196,65,100,88,219 ; vaddps %ymm11,%ymm3,%ymm11
- DB 196,67,125,8,227,1 ; vroundps $0x1,%ymm11,%ymm12
- DB 196,65,36,92,252 ; vsubps %ymm12,%ymm11,%ymm15
- DB 196,65,44,92,217 ; vsubps %ymm9,%ymm10,%ymm11
- DB 196,98,125,24,37,223,165,2,0 ; vbroadcastss 0x2a5df(%rip),%ymm12 # 34b24 <_sk_srcover_bgra_8888_sse2_lowp+0x30c>
- DB 196,193,4,89,196 ; vmulps %ymm12,%ymm15,%ymm0
- DB 196,98,125,24,45,217,165,2,0 ; vbroadcastss 0x2a5d9(%rip),%ymm13 # 34b2c <_sk_srcover_bgra_8888_sse2_lowp+0x314>
- DB 197,20,92,240 ; vsubps %ymm0,%ymm13,%ymm14
- DB 196,65,36,89,246 ; vmulps %ymm14,%ymm11,%ymm14
- DB 196,65,52,88,246 ; vaddps %ymm14,%ymm9,%ymm14
- DB 196,226,125,24,13,206,165,2,0 ; vbroadcastss 0x2a5ce(%rip),%ymm1 # 34b38 <_sk_srcover_bgra_8888_sse2_lowp+0x320>
- DB 196,193,116,194,255,2 ; vcmpleps %ymm15,%ymm1,%ymm7
- DB 196,195,13,74,249,112 ; vblendvps %ymm7,%ymm9,%ymm14,%ymm7
- DB 196,65,60,194,247,2 ; vcmpleps %ymm15,%ymm8,%ymm14
- DB 196,227,45,74,255,224 ; vblendvps %ymm14,%ymm7,%ymm10,%ymm7
- DB 196,98,125,24,53,165,165,2,0 ; vbroadcastss 0x2a5a5(%rip),%ymm14 # 34b30 <_sk_srcover_bgra_8888_sse2_lowp+0x318>
- DB 196,65,12,194,255,2 ; vcmpleps %ymm15,%ymm14,%ymm15
- DB 196,193,124,89,195 ; vmulps %ymm11,%ymm0,%ymm0
- DB 197,180,88,192 ; vaddps %ymm0,%ymm9,%ymm0
- DB 196,99,125,74,255,240 ; vblendvps %ymm15,%ymm7,%ymm0,%ymm15
- DB 196,227,125,8,195,1 ; vroundps $0x1,%ymm3,%ymm0
- DB 197,228,92,192 ; vsubps %ymm0,%ymm3,%ymm0
- DB 196,193,124,89,252 ; vmulps %ymm12,%ymm0,%ymm7
- DB 197,148,92,247 ; vsubps %ymm7,%ymm13,%ymm6
- DB 197,164,89,246 ; vmulps %ymm6,%ymm11,%ymm6
- DB 197,180,88,246 ; vaddps %ymm6,%ymm9,%ymm6
- DB 197,244,194,232,2 ; vcmpleps %ymm0,%ymm1,%ymm5
- DB 196,195,77,74,233,80 ; vblendvps %ymm5,%ymm9,%ymm6,%ymm5
- DB 197,188,194,240,2 ; vcmpleps %ymm0,%ymm8,%ymm6
- DB 196,227,45,74,237,96 ; vblendvps %ymm6,%ymm5,%ymm10,%ymm5
- DB 197,140,194,192,2 ; vcmpleps %ymm0,%ymm14,%ymm0
- DB 197,164,89,247 ; vmulps %ymm7,%ymm11,%ymm6
- DB 197,180,88,246 ; vaddps %ymm6,%ymm9,%ymm6
- DB 196,227,77,74,237,0 ; vblendvps %ymm0,%ymm5,%ymm6,%ymm5
- DB 196,226,125,24,5,79,165,2,0 ; vbroadcastss 0x2a54f(%rip),%ymm0 # 34b3c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- DB 197,228,88,192 ; vaddps %ymm0,%ymm3,%ymm0
- DB 196,227,125,8,216,1 ; vroundps $0x1,%ymm0,%ymm3
- DB 197,252,92,195 ; vsubps %ymm3,%ymm0,%ymm0
- DB 197,244,194,200,2 ; vcmpleps %ymm0,%ymm1,%ymm1
- DB 196,193,124,89,220 ; vmulps %ymm12,%ymm0,%ymm3
- DB 197,148,92,243 ; vsubps %ymm3,%ymm13,%ymm6
- DB 197,164,89,246 ; vmulps %ymm6,%ymm11,%ymm6
- DB 197,180,88,246 ; vaddps %ymm6,%ymm9,%ymm6
- DB 196,195,77,74,201,16 ; vblendvps %ymm1,%ymm9,%ymm6,%ymm1
- DB 197,188,194,240,2 ; vcmpleps %ymm0,%ymm8,%ymm6
- DB 196,227,45,74,201,96 ; vblendvps %ymm6,%ymm1,%ymm10,%ymm1
- DB 197,140,194,192,2 ; vcmpleps %ymm0,%ymm14,%ymm0
- DB 197,164,89,219 ; vmulps %ymm3,%ymm11,%ymm3
- DB 197,180,88,219 ; vaddps %ymm3,%ymm9,%ymm3
- DB 196,227,101,74,217,0 ; vblendvps %ymm0,%ymm1,%ymm3,%ymm3
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,220,194,224,0 ; vcmpeqps %ymm0,%ymm4,%ymm4
- DB 196,227,5,74,194,64 ; vblendvps %ymm4,%ymm2,%ymm15,%ymm0
- DB 196,227,85,74,202,64 ; vblendvps %ymm4,%ymm2,%ymm5,%ymm1
- DB 196,227,101,74,210,64 ; vblendvps %ymm4,%ymm2,%ymm3,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,28,36 ; vmovups (%rsp),%ymm3
- DB 197,252,16,100,36,32 ; vmovups 0x20(%rsp),%ymm4
- DB 197,252,16,108,36,64 ; vmovups 0x40(%rsp),%ymm5
- DB 197,252,16,116,36,96 ; vmovups 0x60(%rsp),%ymm6
- DB 197,252,16,188,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm7
- DB 72,129,196,184,0,0,0 ; add $0xb8,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_1_float_avx
-_sk_scale_1_float_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
- DB 197,188,89,210 ; vmulps %ymm2,%ymm8,%ymm2
- DB 197,188,89,219 ; vmulps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_u8_avx
-_sk_scale_u8_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,75 ; jne a6f3 <_sk_scale_u8_avx+0x5d>
- DB 196,66,121,48,4,16 ; vpmovzxbw (%r8,%rdx,1),%xmm8
- DB 197,57,219,5,154,173,2,0 ; vpand 0x2ad9a(%rip),%xmm8,%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,66,121,51,200 ; vpmovzxwd %xmm8,%xmm9
- DB 196,65,121,112,192,78 ; vpshufd $0x4e,%xmm8,%xmm8
- DB 196,66,121,51,192 ; vpmovzxwd %xmm8,%xmm8
- DB 196,67,53,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,13,102,164,2,0 ; vbroadcastss 0x2a466(%rip),%ymm9 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
- DB 197,188,89,210 ; vmulps %ymm2,%ymm8,%ymm2
- DB 197,188,89,219 ; vmulps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,172 ; ja a6ae <_sk_scale_u8_avx+0x18>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,124,0,0,0 ; lea 0x7c(%rip),%r9 # a788 <_sk_scale_u8_avx+0xf2>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 235,142 ; jmp a6ae <_sk_scale_u8_avx+0x18>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 197,57,196,192,2 ; vpinsrw $0x2,%eax,%xmm8,%xmm8
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,121,110,200 ; vmovd %eax,%xmm9
- DB 196,66,121,48,201 ; vpmovzxbw %xmm9,%xmm9
- DB 196,67,57,14,193,3 ; vpblendw $0x3,%xmm9,%xmm8,%xmm8
- DB 233,101,255,255,255 ; jmpq a6ae <_sk_scale_u8_avx+0x18>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 197,57,196,192,6 ; vpinsrw $0x6,%eax,%xmm8,%xmm8
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 197,57,196,192,5 ; vpinsrw $0x5,%eax,%xmm8,%xmm8
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 197,57,196,192,4 ; vpinsrw $0x4,%eax,%xmm8,%xmm8
- DB 196,65,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm9
- DB 196,66,121,48,201 ; vpmovzxbw %xmm9,%xmm9
- DB 196,67,49,14,192,240 ; vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- DB 233,41,255,255,255 ; jmpq a6ae <_sk_scale_u8_avx+0x18>
- DB 15,31,0 ; nopl (%rax)
- DB 141 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,168,255,255,255,152 ; ljmp *-0x67000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,193 ; inc %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_scale_565_avx
-_sk_scale_565_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,178,0,0,0 ; jne a86f <_sk_scale_565_avx+0xcb>
- DB 196,65,122,111,4,80 ; vmovdqu (%r8,%rdx,2),%xmm8
- DB 196,66,121,51,200 ; vpmovzxwd %xmm8,%xmm9
- DB 196,65,121,112,192,78 ; vpshufd $0x4e,%xmm8,%xmm8
- DB 196,66,121,51,192 ; vpmovzxwd %xmm8,%xmm8
- DB 196,67,53,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- DB 196,98,125,24,13,98,163,2,0 ; vbroadcastss 0x2a362(%rip),%ymm9 # 34b44 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- DB 196,65,60,84,201 ; vandps %ymm9,%ymm8,%ymm9
- DB 196,65,124,91,201 ; vcvtdq2ps %ymm9,%ymm9
- DB 196,98,125,24,21,83,163,2,0 ; vbroadcastss 0x2a353(%rip),%ymm10 # 34b48 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- DB 196,65,52,89,202 ; vmulps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,21,73,163,2,0 ; vbroadcastss 0x2a349(%rip),%ymm10 # 34b4c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- DB 196,65,60,84,210 ; vandps %ymm10,%ymm8,%ymm10
- DB 196,65,124,91,210 ; vcvtdq2ps %ymm10,%ymm10
- DB 196,98,125,24,29,58,163,2,0 ; vbroadcastss 0x2a33a(%rip),%ymm11 # 34b50 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- DB 196,65,44,89,211 ; vmulps %ymm11,%ymm10,%ymm10
- DB 196,98,125,24,29,48,163,2,0 ; vbroadcastss 0x2a330(%rip),%ymm11 # 34b54 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- DB 196,65,60,84,195 ; vandps %ymm11,%ymm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,29,33,163,2,0 ; vbroadcastss 0x2a321(%rip),%ymm11 # 34b58 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
- DB 197,100,194,223,1 ; vcmpltps %ymm7,%ymm3,%ymm11
- DB 196,65,44,93,224 ; vminps %ymm8,%ymm10,%ymm12
- DB 196,65,52,93,228 ; vminps %ymm12,%ymm9,%ymm12
- DB 196,65,44,95,232 ; vmaxps %ymm8,%ymm10,%ymm13
- DB 196,65,52,95,237 ; vmaxps %ymm13,%ymm9,%ymm13
- DB 196,67,21,74,220,176 ; vblendvps %ymm11,%ymm12,%ymm13,%ymm11
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 197,172,89,201 ; vmulps %ymm1,%ymm10,%ymm1
- DB 197,188,89,210 ; vmulps %ymm2,%ymm8,%ymm2
- DB 197,164,89,219 ; vmulps %ymm3,%ymm11,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,65,255,255,255 ; ja a7c3 <_sk_scale_565_avx+0x1f>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,100,0,0,0 ; lea 0x64(%rip),%r9 # a8f0 <_sk_scale_565_avx+0x14c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 233,32,255,255,255 ; jmpq a7c3 <_sk_scale_565_avx+0x1f>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,68,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,121,110,12,80 ; vmovd (%r8,%rdx,2),%xmm9
- DB 196,67,57,14,193,3 ; vpblendw $0x3,%xmm9,%xmm8,%xmm8
- DB 233,2,255,255,255 ; jmpq a7c3 <_sk_scale_565_avx+0x1f>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,68,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,57,196,68,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,57,196,68,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,122,126,12,80 ; vmovq (%r8,%rdx,2),%xmm9
- DB 196,67,49,14,192,240 ; vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- DB 233,212,254,255,255 ; jmpq a7c3 <_sk_scale_565_avx+0x1f>
- DB 144 ; nop
- DB 165 ; movsl %ds:(%rsi),%es:(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,192 ; inc %eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,179,255,255,255,238 ; pushq -0x11000001(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,230 ; jmpq *%rsi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 222,255 ; fdivrp %st,%st(7)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_lerp_1_float_avx
-_sk_lerp_1_float_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 197,252,88,196 ; vaddps %ymm4,%ymm0,%ymm0
- DB 197,244,92,205 ; vsubps %ymm5,%ymm1,%ymm1
- DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 197,244,88,205 ; vaddps %ymm5,%ymm1,%ymm1
- DB 197,236,92,214 ; vsubps %ymm6,%ymm2,%ymm2
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 197,236,88,214 ; vaddps %ymm6,%ymm2,%ymm2
- DB 197,228,92,223 ; vsubps %ymm7,%ymm3,%ymm3
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 197,228,88,223 ; vaddps %ymm7,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lerp_u8_avx
-_sk_lerp_u8_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,111 ; jne a9cc <_sk_lerp_u8_avx+0x81>
- DB 196,66,121,48,4,16 ; vpmovzxbw (%r8,%rdx,1),%xmm8
- DB 197,57,219,5,229,170,2,0 ; vpand 0x2aae5(%rip),%xmm8,%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,66,121,51,200 ; vpmovzxwd %xmm8,%xmm9
- DB 196,65,121,112,192,78 ; vpshufd $0x4e,%xmm8,%xmm8
- DB 196,66,121,51,192 ; vpmovzxwd %xmm8,%xmm8
- DB 196,67,53,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,13,177,161,2,0 ; vbroadcastss 0x2a1b1(%rip),%ymm9 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 197,252,88,196 ; vaddps %ymm4,%ymm0,%ymm0
- DB 197,244,92,205 ; vsubps %ymm5,%ymm1,%ymm1
- DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 197,244,88,205 ; vaddps %ymm5,%ymm1,%ymm1
- DB 197,236,92,214 ; vsubps %ymm6,%ymm2,%ymm2
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 197,236,88,214 ; vaddps %ymm6,%ymm2,%ymm2
- DB 197,228,92,223 ; vsubps %ymm7,%ymm3,%ymm3
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 197,228,88,223 ; vaddps %ymm7,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,136 ; ja a963 <_sk_lerp_u8_avx+0x18>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,127,0,0,0 ; lea 0x7f(%rip),%r9 # aa64 <_sk_lerp_u8_avx+0x119>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 233,103,255,255,255 ; jmpq a963 <_sk_lerp_u8_avx+0x18>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 197,57,196,192,2 ; vpinsrw $0x2,%eax,%xmm8,%xmm8
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,121,110,200 ; vmovd %eax,%xmm9
- DB 196,66,121,48,201 ; vpmovzxbw %xmm9,%xmm9
- DB 196,67,57,14,193,3 ; vpblendw $0x3,%xmm9,%xmm8,%xmm8
- DB 233,62,255,255,255 ; jmpq a963 <_sk_lerp_u8_avx+0x18>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 197,57,196,192,6 ; vpinsrw $0x6,%eax,%xmm8,%xmm8
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 197,57,196,192,5 ; vpinsrw $0x5,%eax,%xmm8,%xmm8
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 197,57,196,192,4 ; vpinsrw $0x4,%eax,%xmm8,%xmm8
- DB 196,65,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm9
- DB 196,66,121,48,201 ; vpmovzxbw %xmm9,%xmm9
- DB 196,67,49,14,192,240 ; vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- DB 233,2,255,255,255 ; jmpq a963 <_sk_lerp_u8_avx+0x18>
- DB 15,31,0 ; nopl (%rax)
- DB 138,255 ; mov %bh,%bh
- DB 255 ; (bad)
- DB 255,168,255,255,255,152 ; ljmp *-0x67000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,193 ; inc %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_lerp_565_avx
-_sk_lerp_565_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,214,0,0,0 ; jne ab6f <_sk_lerp_565_avx+0xef>
- DB 196,65,122,111,4,80 ; vmovdqu (%r8,%rdx,2),%xmm8
- DB 196,66,121,51,200 ; vpmovzxwd %xmm8,%xmm9
- DB 196,65,121,112,192,78 ; vpshufd $0x4e,%xmm8,%xmm8
- DB 196,66,121,51,192 ; vpmovzxwd %xmm8,%xmm8
- DB 196,67,53,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm9,%ymm8
- DB 196,98,125,24,13,134,160,2,0 ; vbroadcastss 0x2a086(%rip),%ymm9 # 34b44 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- DB 196,65,60,84,201 ; vandps %ymm9,%ymm8,%ymm9
- DB 196,65,124,91,201 ; vcvtdq2ps %ymm9,%ymm9
- DB 196,98,125,24,21,119,160,2,0 ; vbroadcastss 0x2a077(%rip),%ymm10 # 34b48 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- DB 196,65,52,89,202 ; vmulps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,21,109,160,2,0 ; vbroadcastss 0x2a06d(%rip),%ymm10 # 34b4c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- DB 196,65,60,84,210 ; vandps %ymm10,%ymm8,%ymm10
- DB 196,65,124,91,210 ; vcvtdq2ps %ymm10,%ymm10
- DB 196,98,125,24,29,94,160,2,0 ; vbroadcastss 0x2a05e(%rip),%ymm11 # 34b50 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- DB 196,65,44,89,211 ; vmulps %ymm11,%ymm10,%ymm10
- DB 196,98,125,24,29,84,160,2,0 ; vbroadcastss 0x2a054(%rip),%ymm11 # 34b54 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- DB 196,65,60,84,195 ; vandps %ymm11,%ymm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,98,125,24,29,69,160,2,0 ; vbroadcastss 0x2a045(%rip),%ymm11 # 34b58 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
- DB 197,100,194,223,1 ; vcmpltps %ymm7,%ymm3,%ymm11
- DB 196,65,44,93,224 ; vminps %ymm8,%ymm10,%ymm12
- DB 196,65,52,93,228 ; vminps %ymm12,%ymm9,%ymm12
- DB 196,65,44,95,232 ; vmaxps %ymm8,%ymm10,%ymm13
- DB 196,65,52,95,237 ; vmaxps %ymm13,%ymm9,%ymm13
- DB 196,67,21,74,220,176 ; vblendvps %ymm11,%ymm12,%ymm13,%ymm11
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
- DB 197,252,88,196 ; vaddps %ymm4,%ymm0,%ymm0
- DB 197,244,92,205 ; vsubps %ymm5,%ymm1,%ymm1
- DB 196,193,116,89,202 ; vmulps %ymm10,%ymm1,%ymm1
- DB 197,244,88,205 ; vaddps %ymm5,%ymm1,%ymm1
- DB 197,236,92,214 ; vsubps %ymm6,%ymm2,%ymm2
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 197,236,88,214 ; vaddps %ymm6,%ymm2,%ymm2
- DB 197,228,92,223 ; vsubps %ymm7,%ymm3,%ymm3
- DB 196,193,100,89,219 ; vmulps %ymm11,%ymm3,%ymm3
- DB 197,228,88,223 ; vaddps %ymm7,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,29,255,255,255 ; ja aa9f <_sk_lerp_565_avx+0x1f>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,100,0,0,0 ; lea 0x64(%rip),%r9 # abf0 <_sk_lerp_565_avx+0x170>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 233,252,254,255,255 ; jmpq aa9f <_sk_lerp_565_avx+0x1f>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,68,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,121,110,12,80 ; vmovd (%r8,%rdx,2),%xmm9
- DB 196,67,57,14,193,3 ; vpblendw $0x3,%xmm9,%xmm8,%xmm8
- DB 233,222,254,255,255 ; jmpq aa9f <_sk_lerp_565_avx+0x1f>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,68,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,57,196,68,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,57,196,68,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm8
- DB 196,65,122,126,12,80 ; vmovq (%r8,%rdx,2),%xmm9
- DB 196,67,49,14,192,240 ; vpblendw $0xf0,%xmm8,%xmm9,%xmm8
- DB 233,176,254,255,255 ; jmpq aa9f <_sk_lerp_565_avx+0x1f>
- DB 144 ; nop
- DB 165 ; movsl %ds:(%rsi),%es:(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,192 ; inc %eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,179,255,255,255,238 ; pushq -0x11000001(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,230 ; jmpq *%rsi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 222,255 ; fdivrp %st,%st(7)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_tables_avx
-_sk_load_tables_avx LABEL PROC
- DB 72,131,236,56 ; sub $0x38,%rsp
- DB 197,252,17,60,36 ; vmovups %ymm7,(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,7,2,0,0 ; jne ae2a <_sk_load_tables_avx+0x21e>
- DB 196,65,125,16,20,144 ; vmovupd (%r8,%rdx,4),%ymm10
- DB 197,125,40,13,143,164,2,0 ; vmovapd 0x2a48f(%rip),%ymm9 # 350c0 <_sk_srcover_bgra_8888_sse2_lowp+0x8a8>
- DB 196,193,45,84,201 ; vandpd %ymm9,%ymm10,%ymm1
- DB 196,227,125,25,200,1 ; vextractf128 $0x1,%ymm1,%xmm0
- DB 196,193,249,126,192 ; vmovq %xmm0,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 76,139,80,8 ; mov 0x8(%rax),%r10
- DB 196,129,122,16,20,138 ; vmovss (%r10,%r9,4),%xmm2
- DB 196,195,249,22,193,1 ; vpextrq $0x1,%xmm0,%r9
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,131,105,33,4,130,16 ; vinsertps $0x10,(%r10,%r8,4),%xmm2,%xmm0
- DB 69,137,200 ; mov %r9d,%r8d
- DB 196,131,121,33,4,130,32 ; vinsertps $0x20,(%r10,%r8,4),%xmm0,%xmm0
- DB 196,193,249,126,200 ; vmovq %xmm1,%r8
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 196,3,121,33,4,138,48 ; vinsertps $0x30,(%r10,%r9,4),%xmm0,%xmm8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 196,129,122,16,20,138 ; vmovss (%r10,%r9,4),%xmm2
- DB 196,195,249,22,201,1 ; vpextrq $0x1,%xmm1,%r9
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,131,105,33,12,130,16 ; vinsertps $0x10,(%r10,%r8,4),%xmm2,%xmm1
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 196,131,113,33,12,130,32 ; vinsertps $0x20,(%r10,%r8,4),%xmm1,%xmm1
- DB 76,139,64,16 ; mov 0x10(%rax),%r8
- DB 196,3,113,33,36,138,48 ; vinsertps $0x30,(%r10,%r9,4),%xmm1,%xmm12
- DB 196,193,105,114,210,8 ; vpsrld $0x8,%xmm10,%xmm2
- DB 196,67,125,25,213,1 ; vextractf128 $0x1,%ymm10,%xmm13
- DB 196,193,121,114,213,8 ; vpsrld $0x8,%xmm13,%xmm0
- DB 196,227,109,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm2,%ymm0
- DB 196,193,125,84,209 ; vandpd %ymm9,%ymm0,%ymm2
- DB 196,227,125,25,208,1 ; vextractf128 $0x1,%ymm2,%xmm0
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 69,137,202 ; mov %r9d,%r10d
- DB 196,129,122,16,12,144 ; vmovss (%r8,%r10,4),%xmm1
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 196,3,113,33,52,136,16 ; vinsertps $0x10,(%r8,%r9,4),%xmm1,%xmm14
- DB 69,137,209 ; mov %r10d,%r9d
- DB 196,129,122,16,28,136 ; vmovss (%r8,%r9,4),%xmm3
- DB 196,193,249,126,209 ; vmovq %xmm2,%r9
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,129,122,16,12,144 ; vmovss (%r8,%r10,4),%xmm1
- DB 69,137,202 ; mov %r9d,%r10d
- DB 196,129,122,16,4,144 ; vmovss (%r8,%r10,4),%xmm0
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 196,3,121,33,28,136,16 ; vinsertps $0x10,(%r8,%r9,4),%xmm0,%xmm11
- DB 69,137,209 ; mov %r10d,%r9d
- DB 196,1,122,16,60,136 ; vmovss (%r8,%r9,4),%xmm15
- DB 196,195,29,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm12,%ymm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,9,33,219,32 ; vinsertps $0x20,%xmm3,%xmm14,%xmm3
- DB 196,227,97,33,249,48 ; vinsertps $0x30,%xmm1,%xmm3,%xmm7
- DB 196,1,122,16,52,144 ; vmovss (%r8,%r10,4),%xmm14
- DB 76,139,72,24 ; mov 0x18(%rax),%r9
- DB 196,193,97,114,210,16 ; vpsrld $0x10,%xmm10,%xmm3
- DB 196,193,105,114,213,16 ; vpsrld $0x10,%xmm13,%xmm2
- DB 196,227,101,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm3,%ymm2
- DB 196,65,109,84,201 ; vandpd %ymm9,%ymm2,%ymm9
- DB 196,99,125,25,202,1 ; vextractf128 $0x1,%ymm9,%xmm2
- DB 196,193,249,126,208 ; vmovq %xmm2,%r8
- DB 68,137,192 ; mov %r8d,%eax
- DB 196,193,122,16,28,129 ; vmovss (%r9,%rax,4),%xmm3
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,3,97,33,36,129,16 ; vinsertps $0x10,(%r9,%r8,4),%xmm3,%xmm12
- DB 68,137,208 ; mov %r10d,%eax
- DB 196,193,122,16,28,129 ; vmovss (%r9,%rax,4),%xmm3
- DB 196,65,249,126,200 ; vmovq %xmm9,%r8
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,129,122,16,20,145 ; vmovss (%r9,%r10,4),%xmm2
- DB 68,137,192 ; mov %r8d,%eax
- DB 196,193,122,16,12,129 ; vmovss (%r9,%rax,4),%xmm1
- DB 196,67,249,22,202,1 ; vpextrq $0x1,%xmm9,%r10
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,3,113,33,12,129,16 ; vinsertps $0x10,(%r9,%r8,4),%xmm1,%xmm9
- DB 68,137,208 ; mov %r10d,%eax
- DB 196,65,122,16,4,129 ; vmovss (%r9,%rax,4),%xmm8
- DB 196,195,33,33,207,32 ; vinsertps $0x20,%xmm15,%xmm11,%xmm1
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,1,122,16,28,145 ; vmovss (%r9,%r10,4),%xmm11
- DB 196,195,113,33,206,48 ; vinsertps $0x30,%xmm14,%xmm1,%xmm1
- DB 196,227,117,24,207,1 ; vinsertf128 $0x1,%xmm7,%ymm1,%ymm1
- DB 196,227,25,33,219,32 ; vinsertps $0x20,%xmm3,%xmm12,%xmm3
- DB 196,227,97,33,210,48 ; vinsertps $0x30,%xmm2,%xmm3,%xmm2
- DB 196,195,49,33,216,32 ; vinsertps $0x20,%xmm8,%xmm9,%xmm3
- DB 196,195,97,33,219,48 ; vinsertps $0x30,%xmm11,%xmm3,%xmm3
- DB 196,227,101,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm3,%ymm2
- DB 196,193,97,114,210,24 ; vpsrld $0x18,%xmm10,%xmm3
- DB 196,193,65,114,213,24 ; vpsrld $0x18,%xmm13,%xmm7
- DB 196,227,101,24,223,1 ; vinsertf128 $0x1,%xmm7,%ymm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,226,125,24,61,39,157,2,0 ; vbroadcastss 0x29d27(%rip),%ymm7 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,228,89,223 ; vmulps %ymm7,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,60,36 ; vmovups (%rsp),%ymm7
- DB 72,131,196,56 ; add $0x38,%rsp
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,7 ; and $0x7,%r9b
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 65,254,201 ; dec %r9b
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 15,135,230,253,255,255 ; ja ac29 <_sk_load_tables_avx+0x1d>
- DB 69,15,182,201 ; movzbl %r9b,%r9d
- DB 76,141,21,146,0,0,0 ; lea 0x92(%rip),%r10 # aee0 <_sk_load_tables_avx+0x2d4>
- DB 79,99,12,138 ; movslq (%r10,%r9,4),%r9
- DB 77,1,209 ; add %r10,%r9
- DB 65,255,225 ; jmpq *%r9
- DB 196,65,122,16,20,144 ; vmovss (%r8,%rdx,4),%xmm10
- DB 233,198,253,255,255 ; jmpq ac29 <_sk_load_tables_avx+0x1d>
- DB 196,193,121,110,68,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm0
- DB 197,249,112,192,68 ; vpshufd $0x44,%xmm0,%xmm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 196,99,117,12,208,4 ; vblendps $0x4,%ymm0,%ymm1,%ymm10
- DB 196,193,123,16,4,144 ; vmovsd (%r8,%rdx,4),%xmm0
- DB 196,99,45,13,208,1 ; vblendpd $0x1,%ymm0,%ymm10,%ymm10
- DB 233,159,253,255,255 ; jmpq ac29 <_sk_load_tables_avx+0x1d>
- DB 196,193,121,110,68,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm0
- DB 197,249,112,192,68 ; vpshufd $0x44,%xmm0,%xmm0
- DB 196,227,125,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 196,99,117,12,208,64 ; vblendps $0x40,%ymm0,%ymm1,%ymm10
- DB 196,99,125,25,208,1 ; vextractf128 $0x1,%ymm10,%xmm0
- DB 196,195,121,34,68,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,99,45,24,208,1 ; vinsertf128 $0x1,%xmm0,%ymm10,%ymm10
- DB 196,99,125,25,208,1 ; vextractf128 $0x1,%ymm10,%xmm0
- DB 196,195,121,34,68,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,99,45,24,208,1 ; vinsertf128 $0x1,%xmm0,%ymm10,%ymm10
- DB 196,193,121,16,4,144 ; vmovupd (%r8,%rdx,4),%xmm0
- DB 196,67,125,13,210,12 ; vblendpd $0xc,%ymm10,%ymm0,%ymm10
- DB 233,74,253,255,255 ; jmpq ac29 <_sk_load_tables_avx+0x1d>
- DB 144 ; nop
- DB 120,255 ; js aee1 <_sk_load_tables_avx+0x2d5>
- DB 255 ; (bad)
- DB 255,153,255,255,255,131 ; lcall *-0x7c000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 238 ; out %al,(%dx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 218,255 ; (bad)
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 170 ; stos %al,%es:(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_tables_u16_be_avx
-_sk_load_tables_u16_be_avx LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 76,141,12,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 197,252,17,124,36,32 ; vmovups %ymm7,0x20(%rsp)
- DB 197,252,17,52,36 ; vmovups %ymm6,(%rsp)
- DB 15,133,78,2,0,0 ; jne b16f <_sk_load_tables_u16_be_avx+0x273>
- DB 196,1,121,16,4,72 ; vmovupd (%r8,%r9,2),%xmm8
- DB 196,129,121,16,84,72,16 ; vmovupd 0x10(%r8,%r9,2),%xmm2
- DB 196,129,121,16,92,72,32 ; vmovupd 0x20(%r8,%r9,2),%xmm3
- DB 196,1,122,111,76,72,48 ; vmovdqu 0x30(%r8,%r9,2),%xmm9
- DB 197,185,97,194 ; vpunpcklwd %xmm2,%xmm8,%xmm0
- DB 197,185,105,210 ; vpunpckhwd %xmm2,%xmm8,%xmm2
- DB 196,193,97,97,201 ; vpunpcklwd %xmm9,%xmm3,%xmm1
- DB 196,193,97,105,217 ; vpunpckhwd %xmm9,%xmm3,%xmm3
- DB 197,121,97,202 ; vpunpcklwd %xmm2,%xmm0,%xmm9
- DB 197,121,105,194 ; vpunpckhwd %xmm2,%xmm0,%xmm8
- DB 197,241,97,195 ; vpunpcklwd %xmm3,%xmm1,%xmm0
- DB 197,113,105,227 ; vpunpckhwd %xmm3,%xmm1,%xmm12
- DB 197,177,108,208 ; vpunpcklqdq %xmm0,%xmm9,%xmm2
- DB 197,49,109,232 ; vpunpckhqdq %xmm0,%xmm9,%xmm13
- DB 196,65,57,108,212 ; vpunpcklqdq %xmm12,%xmm8,%xmm10
- DB 197,121,111,29,221,164,2,0 ; vmovdqa 0x2a4dd(%rip),%xmm11 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,193,105,219,195 ; vpand %xmm11,%xmm2,%xmm0
- DB 197,249,112,208,78 ; vpshufd $0x4e,%xmm0,%xmm2
- DB 196,226,121,51,210 ; vpmovzxwd %xmm2,%xmm2
- DB 196,193,249,126,208 ; vmovq %xmm2,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 76,139,80,8 ; mov 0x8(%rax),%r10
- DB 196,129,122,16,28,138 ; vmovss (%r10,%r9,4),%xmm3
- DB 196,195,249,22,209,1 ; vpextrq $0x1,%xmm2,%r9
- DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 196,3,97,33,12,2,16 ; vinsertps $0x10,(%r10,%r8,1),%xmm3,%xmm9
- DB 69,137,200 ; mov %r9d,%r8d
- DB 196,129,122,16,28,130 ; vmovss (%r10,%r8,4),%xmm3
- DB 196,193,249,126,192 ; vmovq %xmm0,%r8
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 196,129,122,16,12,10 ; vmovss (%r10,%r9,1),%xmm1
- DB 69,137,193 ; mov %r8d,%r9d
- DB 196,129,122,16,20,138 ; vmovss (%r10,%r9,4),%xmm2
- DB 196,195,249,22,193,1 ; vpextrq $0x1,%xmm0,%r9
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 196,131,105,33,4,2,16 ; vinsertps $0x10,(%r10,%r8,1),%xmm2,%xmm0
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 196,131,121,33,20,130,32 ; vinsertps $0x20,(%r10,%r8,4),%xmm0,%xmm2
- DB 76,139,64,16 ; mov 0x10(%rax),%r8
- DB 196,227,49,33,195,32 ; vinsertps $0x20,%xmm3,%xmm9,%xmm0
- DB 196,99,121,33,241,48 ; vinsertps $0x30,%xmm1,%xmm0,%xmm14
- DB 196,3,105,33,12,10,48 ; vinsertps $0x30,(%r10,%r9,1),%xmm2,%xmm9
- DB 196,193,17,219,203 ; vpand %xmm11,%xmm13,%xmm1
- DB 197,249,112,209,78 ; vpshufd $0x4e,%xmm1,%xmm2
- DB 196,226,121,51,210 ; vpmovzxwd %xmm2,%xmm2
- DB 196,193,249,126,209 ; vmovq %xmm2,%r9
- DB 69,137,202 ; mov %r9d,%r10d
- DB 196,129,122,16,28,144 ; vmovss (%r8,%r10,4),%xmm3
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 196,226,121,51,193 ; vpmovzxwd %xmm1,%xmm0
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 196,3,97,33,60,8,16 ; vinsertps $0x10,(%r8,%r9,1),%xmm3,%xmm15
- DB 69,137,209 ; mov %r10d,%r9d
- DB 196,129,122,16,20,136 ; vmovss (%r8,%r9,4),%xmm2
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 73,193,234,30 ; shr $0x1e,%r10
- DB 196,129,122,16,28,16 ; vmovss (%r8,%r10,1),%xmm3
- DB 69,137,202 ; mov %r9d,%r10d
- DB 196,129,122,16,12,144 ; vmovss (%r8,%r10,4),%xmm1
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 196,131,113,33,4,8,16 ; vinsertps $0x10,(%r8,%r9,1),%xmm1,%xmm0
- DB 69,137,209 ; mov %r10d,%r9d
- DB 73,193,234,30 ; shr $0x1e,%r10
- DB 196,131,121,33,4,136,32 ; vinsertps $0x20,(%r8,%r9,4),%xmm0,%xmm0
- DB 196,3,121,33,44,16,48 ; vinsertps $0x30,(%r8,%r10,1),%xmm0,%xmm13
- DB 76,139,80,24 ; mov 0x18(%rax),%r10
- DB 196,193,41,219,195 ; vpand %xmm11,%xmm10,%xmm0
- DB 197,249,112,200,78 ; vpshufd $0x4e,%xmm0,%xmm1
- DB 196,226,121,51,201 ; vpmovzxwd %xmm1,%xmm1
- DB 196,195,249,22,200,1 ; vpextrq $0x1,%xmm1,%r8
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 68,137,200 ; mov %r9d,%eax
- DB 196,193,122,16,12,130 ; vmovss (%r10,%rax,4),%xmm1
- DB 196,195,249,22,195,1 ; vpextrq $0x1,%xmm0,%r11
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 196,3,113,33,20,10,16 ; vinsertps $0x10,(%r10,%r9,1),%xmm1,%xmm10
- DB 68,137,192 ; mov %r8d,%eax
- DB 196,65,122,16,28,130 ; vmovss (%r10,%rax,4),%xmm11
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 196,129,122,16,60,2 ; vmovss (%r10,%r8,1),%xmm7
- DB 68,137,200 ; mov %r9d,%eax
- DB 196,193,122,16,4,130 ; vmovss (%r10,%rax,4),%xmm0
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 196,131,121,33,4,10,16 ; vinsertps $0x10,(%r10,%r9,1),%xmm0,%xmm0
- DB 68,137,216 ; mov %r11d,%eax
- DB 196,195,121,33,4,130,32 ; vinsertps $0x20,(%r10,%rax,4),%xmm0,%xmm0
- DB 73,193,235,30 ; shr $0x1e,%r11
- DB 196,131,121,33,52,26,48 ; vinsertps $0x30,(%r10,%r11,1),%xmm0,%xmm6
- DB 196,195,53,24,198,1 ; vinsertf128 $0x1,%xmm14,%ymm9,%ymm0
- DB 196,227,1,33,202,32 ; vinsertps $0x20,%xmm2,%xmm15,%xmm1
- DB 196,227,113,33,203,48 ; vinsertps $0x30,%xmm3,%xmm1,%xmm1
- DB 196,227,21,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm13,%ymm1
- DB 196,195,41,33,211,32 ; vinsertps $0x20,%xmm11,%xmm10,%xmm2
- DB 196,227,105,33,215,48 ; vinsertps $0x30,%xmm7,%xmm2,%xmm2
- DB 196,227,77,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- DB 196,193,57,109,220 ; vpunpckhqdq %xmm12,%xmm8,%xmm3
- DB 197,201,113,243,8 ; vpsllw $0x8,%xmm3,%xmm6
- DB 197,225,113,211,8 ; vpsrlw $0x8,%xmm3,%xmm3
- DB 197,201,235,219 ; vpor %xmm3,%xmm6,%xmm3
- DB 196,226,121,51,243 ; vpmovzxwd %xmm3,%xmm6
- DB 197,249,112,219,78 ; vpshufd $0x4e,%xmm3,%xmm3
- DB 196,226,121,51,219 ; vpmovzxwd %xmm3,%xmm3
- DB 196,227,77,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,226,125,24,53,4,154,2,0 ; vbroadcastss 0x29a04(%rip),%ymm6 # 34b5c <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- DB 197,228,89,222 ; vmulps %ymm6,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,52,36 ; vmovups (%rsp),%ymm6
- DB 197,252,16,124,36,32 ; vmovups 0x20(%rsp),%ymm7
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
- DB 196,1,123,16,4,72 ; vmovsd (%r8,%r9,2),%xmm8
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,85 ; je b1d5 <_sk_load_tables_u16_be_avx+0x2d9>
- DB 196,1,57,22,68,72,8 ; vmovhpd 0x8(%r8,%r9,2),%xmm8,%xmm8
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,72 ; jb b1d5 <_sk_load_tables_u16_be_avx+0x2d9>
- DB 196,129,123,16,84,72,16 ; vmovsd 0x10(%r8,%r9,2),%xmm2
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 116,72 ; je b1e2 <_sk_load_tables_u16_be_avx+0x2e6>
- DB 196,129,105,22,84,72,24 ; vmovhpd 0x18(%r8,%r9,2),%xmm2,%xmm2
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,59 ; jb b1e2 <_sk_load_tables_u16_be_avx+0x2e6>
- DB 196,129,123,16,92,72,32 ; vmovsd 0x20(%r8,%r9,2),%xmm3
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 15,132,132,253,255,255 ; je af3c <_sk_load_tables_u16_be_avx+0x40>
- DB 196,129,97,22,92,72,40 ; vmovhpd 0x28(%r8,%r9,2),%xmm3,%xmm3
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 15,130,115,253,255,255 ; jb af3c <_sk_load_tables_u16_be_avx+0x40>
- DB 196,1,122,126,76,72,48 ; vmovq 0x30(%r8,%r9,2),%xmm9
- DB 233,103,253,255,255 ; jmpq af3c <_sk_load_tables_u16_be_avx+0x40>
- DB 197,225,87,219 ; vxorpd %xmm3,%xmm3,%xmm3
- DB 197,233,87,210 ; vxorpd %xmm2,%xmm2,%xmm2
- DB 233,90,253,255,255 ; jmpq af3c <_sk_load_tables_u16_be_avx+0x40>
- DB 197,225,87,219 ; vxorpd %xmm3,%xmm3,%xmm3
- DB 233,81,253,255,255 ; jmpq af3c <_sk_load_tables_u16_be_avx+0x40>
-
-PUBLIC _sk_load_tables_rgb_u16_be_avx
-_sk_load_tables_rgb_u16_be_avx LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 76,141,12,82 ; lea (%rdx,%rdx,2),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 197,252,17,124,36,32 ; vmovups %ymm7,0x20(%rsp)
- DB 197,252,17,52,36 ; vmovups %ymm6,(%rsp)
- DB 15,133,57,2,0,0 ; jne b445 <_sk_load_tables_rgb_u16_be_avx+0x25a>
- DB 196,1,122,111,28,72 ; vmovdqu (%r8,%r9,2),%xmm11
- DB 196,129,122,111,92,72,12 ; vmovdqu 0xc(%r8,%r9,2),%xmm3
- DB 196,129,122,111,84,72,24 ; vmovdqu 0x18(%r8,%r9,2),%xmm2
- DB 196,129,122,111,68,72,32 ; vmovdqu 0x20(%r8,%r9,2),%xmm0
- DB 197,249,115,216,4 ; vpsrldq $0x4,%xmm0,%xmm0
- DB 196,193,57,115,219,6 ; vpsrldq $0x6,%xmm11,%xmm8
- DB 197,169,115,219,6 ; vpsrldq $0x6,%xmm3,%xmm10
- DB 197,241,115,218,6 ; vpsrldq $0x6,%xmm2,%xmm1
- DB 197,177,115,216,6 ; vpsrldq $0x6,%xmm0,%xmm9
- DB 196,65,113,97,201 ; vpunpcklwd %xmm9,%xmm1,%xmm9
- DB 197,233,97,192 ; vpunpcklwd %xmm0,%xmm2,%xmm0
- DB 196,193,57,97,210 ; vpunpcklwd %xmm10,%xmm8,%xmm2
- DB 197,161,97,219 ; vpunpcklwd %xmm3,%xmm11,%xmm3
- DB 197,225,97,202 ; vpunpcklwd %xmm2,%xmm3,%xmm1
- DB 197,225,105,210 ; vpunpckhwd %xmm2,%xmm3,%xmm2
- DB 196,193,121,97,217 ; vpunpcklwd %xmm9,%xmm0,%xmm3
- DB 196,193,121,105,193 ; vpunpckhwd %xmm9,%xmm0,%xmm0
- DB 197,105,108,216 ; vpunpcklqdq %xmm0,%xmm2,%xmm11
- DB 197,241,108,211 ; vpunpcklqdq %xmm3,%xmm1,%xmm2
- DB 197,241,109,203 ; vpunpckhqdq %xmm3,%xmm1,%xmm1
- DB 197,121,111,53,215,161,2,0 ; vmovdqa 0x2a1d7(%rip),%xmm14 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,193,105,219,214 ; vpand %xmm14,%xmm2,%xmm2
- DB 197,249,112,218,78 ; vpshufd $0x4e,%xmm2,%xmm3
- DB 196,226,121,51,219 ; vpmovzxwd %xmm3,%xmm3
- DB 196,193,249,126,216 ; vmovq %xmm3,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 76,139,80,8 ; mov 0x8(%rax),%r10
- DB 196,129,122,16,4,138 ; vmovss (%r10,%r9,4),%xmm0
- DB 196,195,249,22,217,1 ; vpextrq $0x1,%xmm3,%r9
- DB 196,226,121,51,210 ; vpmovzxwd %xmm2,%xmm2
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 196,3,121,33,4,2,16 ; vinsertps $0x10,(%r10,%r8,1),%xmm0,%xmm8
- DB 69,137,200 ; mov %r9d,%r8d
- DB 196,1,122,16,20,130 ; vmovss (%r10,%r8,4),%xmm10
- DB 196,193,249,126,208 ; vmovq %xmm2,%r8
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 196,1,122,16,36,10 ; vmovss (%r10,%r9,1),%xmm12
- DB 69,137,193 ; mov %r8d,%r9d
- DB 196,129,122,16,4,138 ; vmovss (%r10,%r9,4),%xmm0
- DB 196,195,249,22,209,1 ; vpextrq $0x1,%xmm2,%r9
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 196,131,121,33,4,2,16 ; vinsertps $0x10,(%r10,%r8,1),%xmm0,%xmm0
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 196,131,121,33,4,130,32 ; vinsertps $0x20,(%r10,%r8,4),%xmm0,%xmm0
- DB 76,139,64,16 ; mov 0x10(%rax),%r8
- DB 196,3,121,33,12,10,48 ; vinsertps $0x30,(%r10,%r9,1),%xmm0,%xmm9
- DB 196,193,113,219,198 ; vpand %xmm14,%xmm1,%xmm0
- DB 197,249,112,200,78 ; vpshufd $0x4e,%xmm0,%xmm1
- DB 196,226,121,51,201 ; vpmovzxwd %xmm1,%xmm1
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 69,137,202 ; mov %r9d,%r10d
- DB 196,129,122,16,20,144 ; vmovss (%r8,%r10,4),%xmm2
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 196,3,105,33,60,8,16 ; vinsertps $0x10,(%r8,%r9,1),%xmm2,%xmm15
- DB 69,137,209 ; mov %r10d,%r9d
- DB 196,129,122,16,20,136 ; vmovss (%r8,%r9,4),%xmm2
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 73,193,234,30 ; shr $0x1e,%r10
- DB 196,129,122,16,28,16 ; vmovss (%r8,%r10,1),%xmm3
- DB 69,137,202 ; mov %r9d,%r10d
- DB 196,129,122,16,12,144 ; vmovss (%r8,%r10,4),%xmm1
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 196,131,113,33,4,8,16 ; vinsertps $0x10,(%r8,%r9,1),%xmm1,%xmm0
- DB 69,137,209 ; mov %r10d,%r9d
- DB 73,193,234,30 ; shr $0x1e,%r10
- DB 196,131,121,33,4,136,32 ; vinsertps $0x20,(%r8,%r9,4),%xmm0,%xmm0
- DB 196,3,121,33,44,16,48 ; vinsertps $0x30,(%r8,%r10,1),%xmm0,%xmm13
- DB 76,139,80,24 ; mov 0x18(%rax),%r10
- DB 196,193,33,219,198 ; vpand %xmm14,%xmm11,%xmm0
- DB 197,249,112,200,78 ; vpshufd $0x4e,%xmm0,%xmm1
- DB 196,226,121,51,201 ; vpmovzxwd %xmm1,%xmm1
- DB 196,195,249,22,200,1 ; vpextrq $0x1,%xmm1,%r8
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 68,137,200 ; mov %r9d,%eax
- DB 196,193,122,16,12,130 ; vmovss (%r10,%rax,4),%xmm1
- DB 196,195,249,22,195,1 ; vpextrq $0x1,%xmm0,%r11
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 196,3,113,33,28,10,16 ; vinsertps $0x10,(%r10,%r9,1),%xmm1,%xmm11
- DB 68,137,192 ; mov %r8d,%eax
- DB 196,65,122,16,52,130 ; vmovss (%r10,%rax,4),%xmm14
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 196,129,122,16,60,2 ; vmovss (%r10,%r8,1),%xmm7
- DB 68,137,200 ; mov %r9d,%eax
- DB 196,193,122,16,4,130 ; vmovss (%r10,%rax,4),%xmm0
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 196,131,121,33,4,10,16 ; vinsertps $0x10,(%r10,%r9,1),%xmm0,%xmm0
- DB 68,137,216 ; mov %r11d,%eax
- DB 196,195,121,33,4,130,32 ; vinsertps $0x20,(%r10,%rax,4),%xmm0,%xmm0
- DB 73,193,235,30 ; shr $0x1e,%r11
- DB 196,131,121,33,52,26,48 ; vinsertps $0x30,(%r10,%r11,1),%xmm0,%xmm6
- DB 196,195,57,33,194,32 ; vinsertps $0x20,%xmm10,%xmm8,%xmm0
- DB 196,195,121,33,196,48 ; vinsertps $0x30,%xmm12,%xmm0,%xmm0
- DB 196,227,53,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm9,%ymm0
- DB 196,227,1,33,202,32 ; vinsertps $0x20,%xmm2,%xmm15,%xmm1
- DB 196,227,113,33,203,48 ; vinsertps $0x30,%xmm3,%xmm1,%xmm1
- DB 196,227,21,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm13,%ymm1
- DB 196,195,33,33,214,32 ; vinsertps $0x20,%xmm14,%xmm11,%xmm2
- DB 196,227,105,33,215,48 ; vinsertps $0x30,%xmm7,%xmm2,%xmm2
- DB 196,227,77,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,148,150,2,0 ; vbroadcastss 0x29694(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,16,52,36 ; vmovups (%rsp),%ymm6
- DB 197,252,16,124,36,32 ; vmovups 0x20(%rsp),%ymm7
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
- DB 196,129,121,110,4,72 ; vmovd (%r8,%r9,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,1,121,196,92,72,4,2 ; vpinsrw $0x2,0x4(%r8,%r9,2),%xmm0,%xmm11
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,31 ; jne b47d <_sk_load_tables_rgb_u16_be_avx+0x292>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,65,41,239,210 ; vpxor %xmm10,%xmm10,%xmm10
- DB 197,225,239,219 ; vpxor %xmm3,%xmm3,%xmm3
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 233,196,253,255,255 ; jmpq b241 <_sk_load_tables_rgb_u16_be_avx+0x56>
- DB 196,129,121,110,68,72,6 ; vmovd 0x6(%r8,%r9,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,1,121,196,68,72,10,2 ; vpinsrw $0x2,0xa(%r8,%r9,2),%xmm0,%xmm8
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,48 ; jb b4c7 <_sk_load_tables_rgb_u16_be_avx+0x2dc>
- DB 196,129,121,110,68,72,12 ; vmovd 0xc(%r8,%r9,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,92,72,16,2 ; vpinsrw $0x2,0x10(%r8,%r9,2),%xmm0,%xmm3
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 117,48 ; jne b4e1 <_sk_load_tables_rgb_u16_be_avx+0x2f6>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,65,41,239,210 ; vpxor %xmm10,%xmm10,%xmm10
- DB 233,122,253,255,255 ; jmpq b241 <_sk_load_tables_rgb_u16_be_avx+0x56>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,65,41,239,210 ; vpxor %xmm10,%xmm10,%xmm10
- DB 197,225,239,219 ; vpxor %xmm3,%xmm3,%xmm3
- DB 233,96,253,255,255 ; jmpq b241 <_sk_load_tables_rgb_u16_be_avx+0x56>
- DB 196,129,121,110,68,72,18 ; vmovd 0x12(%r8,%r9,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,1,121,196,84,72,22,2 ; vpinsrw $0x2,0x16(%r8,%r9,2),%xmm0,%xmm10
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,39 ; jb b522 <_sk_load_tables_rgb_u16_be_avx+0x337>
- DB 196,129,121,110,68,72,24 ; vmovd 0x18(%r8,%r9,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,84,72,28,2 ; vpinsrw $0x2,0x1c(%r8,%r9,2),%xmm0,%xmm2
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 117,30 ; jne b533 <_sk_load_tables_rgb_u16_be_avx+0x348>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 233,31,253,255,255 ; jmpq b241 <_sk_load_tables_rgb_u16_be_avx+0x56>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 233,14,253,255,255 ; jmpq b241 <_sk_load_tables_rgb_u16_be_avx+0x56>
- DB 196,129,121,110,68,72,30 ; vmovd 0x1e(%r8,%r9,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,76,72,34,2 ; vpinsrw $0x2,0x22(%r8,%r9,2),%xmm0,%xmm1
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 114,25 ; jb b566 <_sk_load_tables_rgb_u16_be_avx+0x37b>
- DB 196,129,121,110,68,72,36 ; vmovd 0x24(%r8,%r9,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,68,72,40,2 ; vpinsrw $0x2,0x28(%r8,%r9,2),%xmm0,%xmm0
- DB 233,219,252,255,255 ; jmpq b241 <_sk_load_tables_rgb_u16_be_avx+0x56>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 233,210,252,255,255 ; jmpq b241 <_sk_load_tables_rgb_u16_be_avx+0x56>
-
-PUBLIC _sk_byte_tables_avx
-_sk_byte_tables_avx LABEL PROC
- DB 72,131,236,56 ; sub $0x38,%rsp
- DB 197,252,17,60,36 ; vmovups %ymm7,(%rsp)
- DB 197,252,40,254 ; vmovaps %ymm6,%ymm7
- DB 197,252,40,245 ; vmovaps %ymm5,%ymm6
- DB 197,252,40,236 ; vmovaps %ymm4,%ymm5
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,180,95,192 ; vmaxps %ymm0,%ymm9,%ymm0
- DB 196,98,125,24,5,48,149,2,0 ; vbroadcastss 0x29530(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,21,78,149,2,0 ; vbroadcastss 0x2954e(%rip),%ymm10 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,193,124,89,194 ; vmulps %ymm10,%ymm0,%ymm0
- DB 197,125,91,216 ; vcvtps2dq %ymm0,%ymm11
- DB 196,65,249,126,216 ; vmovq %xmm11,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 76,139,16 ; mov (%rax),%r10
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,193,121,110,193 ; vmovd %r9d,%xmm0
- DB 196,67,249,22,217,1 ; vpextrq $0x1,%xmm11,%r9
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,67,121,32,224,1 ; vpinsrb $0x1,%r8d,%xmm0,%xmm12
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 196,99,125,25,216,1 ; vextractf128 $0x1,%ymm11,%xmm0
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,67,25,32,216,2 ; vpinsrb $0x2,%r8d,%xmm12,%xmm11
- DB 196,193,249,126,192 ; vmovq %xmm0,%r8
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,67,33,32,217,3 ; vpinsrb $0x3,%r9d,%xmm11,%xmm11
- DB 69,137,193 ; mov %r8d,%r9d
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,65,121,110,225 ; vmovd %r9d,%xmm12
- DB 196,195,249,22,193,1 ; vpextrq $0x1,%xmm0,%r9
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,195,25,32,192,1 ; vpinsrb $0x1,%r8d,%xmm12,%xmm0
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,195,121,32,192,2 ; vpinsrb $0x2,%r8d,%xmm0,%xmm0
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,67,121,32,233,3 ; vpinsrb $0x3,%r9d,%xmm0,%xmm13
- DB 197,180,95,201 ; vmaxps %ymm1,%ymm9,%ymm1
- DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
- DB 196,193,116,89,202 ; vmulps %ymm10,%ymm1,%ymm1
- DB 197,253,91,201 ; vcvtps2dq %ymm1,%ymm1
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 69,137,202 ; mov %r9d,%r10d
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,193,121,110,194 ; vmovd %r10d,%xmm0
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,1 ; vpinsrb $0x1,%r9d,%xmm0,%xmm0
- DB 69,137,209 ; mov %r10d,%r9d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,25,201,1 ; vextractf128 $0x1,%ymm1,%xmm1
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,2 ; vpinsrb $0x2,%r9d,%xmm0,%xmm0
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,67,121,32,226,3 ; vpinsrb $0x3,%r10d,%xmm0,%xmm12
- DB 69,137,202 ; mov %r9d,%r10d
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,193,121,110,194 ; vmovd %r10d,%xmm0
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,1 ; vpinsrb $0x1,%r9d,%xmm0,%xmm0
- DB 69,137,209 ; mov %r10d,%r9d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,2 ; vpinsrb $0x2,%r9d,%xmm0,%xmm0
- DB 71,15,182,4,16 ; movzbl (%r8,%r10,1),%r8d
- DB 196,67,121,32,240,3 ; vpinsrb $0x3,%r8d,%xmm0,%xmm14
- DB 76,139,64,16 ; mov 0x10(%rax),%r8
- DB 197,180,95,194 ; vmaxps %ymm2,%ymm9,%ymm0
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 196,193,124,89,194 ; vmulps %ymm10,%ymm0,%ymm0
- DB 197,253,91,208 ; vcvtps2dq %ymm0,%ymm2
- DB 196,193,249,126,209 ; vmovq %xmm2,%r9
- DB 69,137,202 ; mov %r9d,%r10d
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,193,121,110,194 ; vmovd %r10d,%xmm0
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,1 ; vpinsrb $0x1,%r9d,%xmm0,%xmm0
- DB 69,137,209 ; mov %r10d,%r9d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,25,209,1 ; vextractf128 $0x1,%ymm2,%xmm1
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,2 ; vpinsrb $0x2,%r9d,%xmm0,%xmm0
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,67,121,32,250,3 ; vpinsrb $0x3,%r10d,%xmm0,%xmm15
- DB 69,137,202 ; mov %r9d,%r10d
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,193,121,110,194 ; vmovd %r10d,%xmm0
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,1 ; vpinsrb $0x1,%r9d,%xmm0,%xmm0
- DB 69,137,209 ; mov %r10d,%r9d
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,2 ; vpinsrb $0x2,%r9d,%xmm0,%xmm0
- DB 197,180,95,203 ; vmaxps %ymm3,%ymm9,%ymm1
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 71,15,182,4,16 ; movzbl (%r8,%r10,1),%r8d
- DB 196,195,121,32,224,3 ; vpinsrb $0x3,%r8d,%xmm0,%xmm4
- DB 76,139,72,24 ; mov 0x18(%rax),%r9
- DB 196,193,116,93,192 ; vminps %ymm8,%ymm1,%ymm0
- DB 196,193,124,89,194 ; vmulps %ymm10,%ymm0,%ymm0
- DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
- DB 196,193,249,126,192 ; vmovq %xmm0,%r8
- DB 68,137,192 ; mov %r8d,%eax
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 197,249,110,200 ; vmovd %eax,%xmm1
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 67,15,182,4,1 ; movzbl (%r9,%r8,1),%eax
- DB 196,227,113,32,200,1 ; vpinsrb $0x1,%eax,%xmm1,%xmm1
- DB 68,137,208 ; mov %r10d,%eax
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,25,192,1 ; vextractf128 $0x1,%ymm0,%xmm0
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 196,227,113,32,200,2 ; vpinsrb $0x2,%eax,%xmm1,%xmm1
- DB 196,193,249,126,192 ; vmovq %xmm0,%r8
- DB 67,15,182,4,17 ; movzbl (%r9,%r10,1),%eax
- DB 196,99,113,32,192,3 ; vpinsrb $0x3,%eax,%xmm1,%xmm8
- DB 68,137,192 ; mov %r8d,%eax
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 197,249,110,200 ; vmovd %eax,%xmm1
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 67,15,182,4,1 ; movzbl (%r9,%r8,1),%eax
- DB 196,227,113,32,192,1 ; vpinsrb $0x1,%eax,%xmm1,%xmm0
- DB 68,137,208 ; mov %r10d,%eax
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 196,227,121,32,216,2 ; vpinsrb $0x2,%eax,%xmm0,%xmm3
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 67,15,182,4,17 ; movzbl (%r9,%r10,1),%eax
- DB 196,194,121,49,195 ; vpmovzxbd %xmm11,%xmm0
- DB 196,194,121,49,205 ; vpmovzxbd %xmm13,%xmm1
- DB 196,227,125,24,193,1 ; vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,13,255,146,2,0 ; vbroadcastss 0x292ff(%rip),%ymm9 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
- DB 196,194,121,49,204 ; vpmovzxbd %xmm12,%xmm1
- DB 196,194,121,49,214 ; vpmovzxbd %xmm14,%xmm2
- DB 196,227,117,24,202,1 ; vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,193,116,89,201 ; vmulps %ymm9,%ymm1,%ymm1
- DB 196,194,121,49,215 ; vpmovzxbd %xmm15,%xmm2
- DB 196,226,121,49,228 ; vpmovzxbd %xmm4,%xmm4
- DB 196,227,109,24,212,1 ; vinsertf128 $0x1,%xmm4,%ymm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,193,108,89,209 ; vmulps %ymm9,%ymm2,%ymm2
- DB 196,194,121,49,224 ; vpmovzxbd %xmm8,%xmm4
- DB 196,227,97,32,216,3 ; vpinsrb $0x3,%eax,%xmm3,%xmm3
- DB 196,226,121,49,219 ; vpmovzxbd %xmm3,%xmm3
- DB 196,227,93,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm4,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,193,100,89,217 ; vmulps %ymm9,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,229 ; vmovaps %ymm5,%ymm4
- DB 197,252,40,238 ; vmovaps %ymm6,%ymm5
- DB 197,252,40,247 ; vmovaps %ymm7,%ymm6
- DB 197,252,16,60,36 ; vmovups (%rsp),%ymm7
- DB 72,131,196,56 ; add $0x38,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_byte_tables_rgb_avx
-_sk_byte_tables_rgb_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,139,64,24 ; mov 0x18(%rax),%r8d
- DB 65,255,200 ; dec %r8d
- DB 196,65,121,110,192 ; vmovd %r8d,%xmm8
- DB 196,65,121,112,192,0 ; vpshufd $0x0,%xmm8,%xmm8
- DB 196,67,61,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,180,95,192 ; vmaxps %ymm0,%ymm9,%ymm0
- DB 196,98,125,24,21,231,145,2,0 ; vbroadcastss 0x291e7(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,194 ; vminps %ymm10,%ymm0,%ymm0
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 197,125,91,216 ; vcvtps2dq %ymm0,%ymm11
- DB 196,65,249,126,216 ; vmovq %xmm11,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 76,139,16 ; mov (%rax),%r10
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,193,121,110,193 ; vmovd %r9d,%xmm0
- DB 196,67,249,22,217,1 ; vpextrq $0x1,%xmm11,%r9
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,67,121,32,224,1 ; vpinsrb $0x1,%r8d,%xmm0,%xmm12
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 196,99,125,25,216,1 ; vextractf128 $0x1,%ymm11,%xmm0
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,67,25,32,216,2 ; vpinsrb $0x2,%r8d,%xmm12,%xmm11
- DB 196,193,249,126,192 ; vmovq %xmm0,%r8
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,67,33,32,217,3 ; vpinsrb $0x3,%r9d,%xmm11,%xmm11
- DB 69,137,193 ; mov %r8d,%r9d
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,65,121,110,225 ; vmovd %r9d,%xmm12
- DB 196,195,249,22,193,1 ; vpextrq $0x1,%xmm0,%r9
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,195,25,32,192,1 ; vpinsrb $0x1,%r8d,%xmm12,%xmm0
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,4,2 ; movzbl (%r10,%r8,1),%r8d
- DB 196,195,121,32,192,2 ; vpinsrb $0x2,%r8d,%xmm0,%xmm0
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 71,15,182,12,10 ; movzbl (%r10,%r9,1),%r9d
- DB 196,67,121,32,233,3 ; vpinsrb $0x3,%r9d,%xmm0,%xmm13
- DB 197,180,95,201 ; vmaxps %ymm1,%ymm9,%ymm1
- DB 196,193,116,93,202 ; vminps %ymm10,%ymm1,%ymm1
- DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
- DB 197,253,91,201 ; vcvtps2dq %ymm1,%ymm1
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 69,137,202 ; mov %r9d,%r10d
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,193,121,110,194 ; vmovd %r10d,%xmm0
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,1 ; vpinsrb $0x1,%r9d,%xmm0,%xmm0
- DB 69,137,209 ; mov %r10d,%r9d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,25,201,1 ; vextractf128 $0x1,%ymm1,%xmm1
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,2 ; vpinsrb $0x2,%r9d,%xmm0,%xmm0
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,67,121,32,226,3 ; vpinsrb $0x3,%r10d,%xmm0,%xmm12
- DB 69,137,202 ; mov %r9d,%r10d
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 196,193,121,110,194 ; vmovd %r10d,%xmm0
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,1 ; vpinsrb $0x1,%r9d,%xmm0,%xmm0
- DB 69,137,209 ; mov %r10d,%r9d
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 196,195,121,32,193,2 ; vpinsrb $0x2,%r9d,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 71,15,182,4,16 ; movzbl (%r8,%r10,1),%r8d
- DB 196,67,121,32,240,3 ; vpinsrb $0x3,%r8d,%xmm0,%xmm14
- DB 76,139,72,16 ; mov 0x10(%rax),%r9
- DB 197,180,95,194 ; vmaxps %ymm2,%ymm9,%ymm0
- DB 196,193,124,93,194 ; vminps %ymm10,%ymm0,%ymm0
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 197,253,91,208 ; vcvtps2dq %ymm0,%ymm2
- DB 196,193,249,126,208 ; vmovq %xmm2,%r8
- DB 68,137,192 ; mov %r8d,%eax
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 67,15,182,4,1 ; movzbl (%r9,%r8,1),%eax
- DB 196,227,121,32,192,1 ; vpinsrb $0x1,%eax,%xmm0,%xmm0
- DB 68,137,208 ; mov %r10d,%eax
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,25,210,1 ; vextractf128 $0x1,%ymm2,%xmm2
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 196,227,121,32,192,2 ; vpinsrb $0x2,%eax,%xmm0,%xmm0
- DB 196,193,249,126,208 ; vmovq %xmm2,%r8
- DB 67,15,182,4,17 ; movzbl (%r9,%r10,1),%eax
- DB 196,99,121,32,192,3 ; vpinsrb $0x3,%eax,%xmm0,%xmm8
- DB 68,137,192 ; mov %r8d,%eax
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 67,15,182,4,1 ; movzbl (%r9,%r8,1),%eax
- DB 196,227,121,32,192,1 ; vpinsrb $0x1,%eax,%xmm0,%xmm0
- DB 68,137,208 ; mov %r10d,%eax
- DB 65,15,182,4,1 ; movzbl (%r9,%rax,1),%eax
- DB 196,99,121,32,208,2 ; vpinsrb $0x2,%eax,%xmm0,%xmm10
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 67,15,182,4,17 ; movzbl (%r9,%r10,1),%eax
- DB 196,194,121,49,195 ; vpmovzxbd %xmm11,%xmm0
- DB 196,194,121,49,205 ; vpmovzxbd %xmm13,%xmm1
- DB 196,227,125,24,193,1 ; vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,13,101,144,2,0 ; vbroadcastss 0x29065(%rip),%ymm9 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
- DB 196,194,121,49,204 ; vpmovzxbd %xmm12,%xmm1
- DB 196,194,121,49,214 ; vpmovzxbd %xmm14,%xmm2
- DB 196,227,117,24,202,1 ; vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,193,116,89,201 ; vmulps %ymm9,%ymm1,%ymm1
- DB 196,66,121,49,192 ; vpmovzxbd %xmm8,%xmm8
- DB 196,227,41,32,208,3 ; vpinsrb $0x3,%eax,%xmm10,%xmm2
- DB 196,226,121,49,210 ; vpmovzxbd %xmm2,%xmm2
- DB 196,227,61,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm8,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,193,108,89,209 ; vmulps %ymm9,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_r_avx
-_sk_table_r_avx LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 196,65,121,112,192,0 ; vpshufd $0x0,%xmm8,%xmm8
- DB 196,67,61,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,180,95,192 ; vmaxps %ymm0,%ymm9,%ymm0
- DB 196,98,125,24,13,116,143,2,0 ; vbroadcastss 0x28f74(%rip),%ymm9 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,193 ; vminps %ymm9,%ymm0,%ymm0
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
- DB 196,227,249,22,192,1 ; vpextrq $0x1,%xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 196,193,249,126,194 ; vmovq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,25,192,1 ; vextractf128 $0x1,%ymm0,%xmm0
- DB 196,227,249,22,195,1 ; vpextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,193,249,126,199 ; vmovq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 196,129,122,16,4,160 ; vmovss (%r8,%r12,4),%xmm0
- DB 196,3,121,33,4,184,16 ; vinsertps $0x10,(%r8,%r15,4),%xmm0,%xmm8
- DB 196,129,122,16,4,176 ; vmovss (%r8,%r14,4),%xmm0
- DB 196,99,57,33,192,32 ; vinsertps $0x20,%xmm0,%xmm8,%xmm8
- DB 196,193,122,16,4,152 ; vmovss (%r8,%rbx,4),%xmm0
- DB 196,99,57,33,192,48 ; vinsertps $0x30,%xmm0,%xmm8,%xmm8
- DB 196,129,122,16,4,152 ; vmovss (%r8,%r11,4),%xmm0
- DB 196,3,121,33,12,144,16 ; vinsertps $0x10,(%r8,%r10,4),%xmm0,%xmm9
- DB 196,129,122,16,4,136 ; vmovss (%r8,%r9,4),%xmm0
- DB 196,99,49,33,200,32 ; vinsertps $0x20,%xmm0,%xmm9,%xmm9
- DB 196,193,122,16,4,128 ; vmovss (%r8,%rax,4),%xmm0
- DB 196,227,49,33,192,48 ; vinsertps $0x30,%xmm0,%xmm9,%xmm0
- DB 196,195,125,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_g_avx
-_sk_table_g_avx LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 196,65,121,112,192,0 ; vpshufd $0x0,%xmm8,%xmm8
- DB 196,67,61,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,180,95,201 ; vmaxps %ymm1,%ymm9,%ymm1
- DB 196,98,125,24,13,155,142,2,0 ; vbroadcastss 0x28e9b(%rip),%ymm9 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,116,93,201 ; vminps %ymm9,%ymm1,%ymm1
- DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 197,253,91,201 ; vcvtps2dq %ymm1,%ymm1
- DB 196,227,249,22,200,1 ; vpextrq $0x1,%xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 196,193,249,126,202 ; vmovq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,25,201,1 ; vextractf128 $0x1,%ymm1,%xmm1
- DB 196,227,249,22,203,1 ; vpextrq $0x1,%xmm1,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,193,249,126,207 ; vmovq %xmm1,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 196,129,122,16,12,160 ; vmovss (%r8,%r12,4),%xmm1
- DB 196,3,113,33,4,184,16 ; vinsertps $0x10,(%r8,%r15,4),%xmm1,%xmm8
- DB 196,129,122,16,12,176 ; vmovss (%r8,%r14,4),%xmm1
- DB 196,99,57,33,193,32 ; vinsertps $0x20,%xmm1,%xmm8,%xmm8
- DB 196,193,122,16,12,152 ; vmovss (%r8,%rbx,4),%xmm1
- DB 196,99,57,33,193,48 ; vinsertps $0x30,%xmm1,%xmm8,%xmm8
- DB 196,129,122,16,12,152 ; vmovss (%r8,%r11,4),%xmm1
- DB 196,3,113,33,12,144,16 ; vinsertps $0x10,(%r8,%r10,4),%xmm1,%xmm9
- DB 196,129,122,16,12,136 ; vmovss (%r8,%r9,4),%xmm1
- DB 196,99,49,33,201,32 ; vinsertps $0x20,%xmm1,%xmm9,%xmm9
- DB 196,193,122,16,12,128 ; vmovss (%r8,%rax,4),%xmm1
- DB 196,227,49,33,201,48 ; vinsertps $0x30,%xmm1,%xmm9,%xmm1
- DB 196,195,117,24,200,1 ; vinsertf128 $0x1,%xmm8,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_b_avx
-_sk_table_b_avx LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 196,65,121,112,192,0 ; vpshufd $0x0,%xmm8,%xmm8
- DB 196,67,61,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,180,95,210 ; vmaxps %ymm2,%ymm9,%ymm2
- DB 196,98,125,24,13,194,141,2,0 ; vbroadcastss 0x28dc2(%rip),%ymm9 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,108,93,209 ; vminps %ymm9,%ymm2,%ymm2
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 197,253,91,210 ; vcvtps2dq %ymm2,%ymm2
- DB 196,227,249,22,208,1 ; vpextrq $0x1,%xmm2,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 196,193,249,126,210 ; vmovq %xmm2,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,25,210,1 ; vextractf128 $0x1,%ymm2,%xmm2
- DB 196,227,249,22,211,1 ; vpextrq $0x1,%xmm2,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,193,249,126,215 ; vmovq %xmm2,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 196,129,122,16,20,160 ; vmovss (%r8,%r12,4),%xmm2
- DB 196,3,105,33,4,184,16 ; vinsertps $0x10,(%r8,%r15,4),%xmm2,%xmm8
- DB 196,129,122,16,20,176 ; vmovss (%r8,%r14,4),%xmm2
- DB 196,99,57,33,194,32 ; vinsertps $0x20,%xmm2,%xmm8,%xmm8
- DB 196,193,122,16,20,152 ; vmovss (%r8,%rbx,4),%xmm2
- DB 196,99,57,33,194,48 ; vinsertps $0x30,%xmm2,%xmm8,%xmm8
- DB 196,129,122,16,20,152 ; vmovss (%r8,%r11,4),%xmm2
- DB 196,3,105,33,12,144,16 ; vinsertps $0x10,(%r8,%r10,4),%xmm2,%xmm9
- DB 196,129,122,16,20,136 ; vmovss (%r8,%r9,4),%xmm2
- DB 196,99,49,33,202,32 ; vinsertps $0x20,%xmm2,%xmm9,%xmm9
- DB 196,193,122,16,20,128 ; vmovss (%r8,%rax,4),%xmm2
- DB 196,227,49,33,210,48 ; vinsertps $0x30,%xmm2,%xmm9,%xmm2
- DB 196,195,109,24,208,1 ; vinsertf128 $0x1,%xmm8,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_a_avx
-_sk_table_a_avx LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 196,65,121,112,192,0 ; vpshufd $0x0,%xmm8,%xmm8
- DB 196,67,61,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm8,%ymm8
- DB 196,65,124,91,192 ; vcvtdq2ps %ymm8,%ymm8
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,180,95,219 ; vmaxps %ymm3,%ymm9,%ymm3
- DB 196,98,125,24,13,233,140,2,0 ; vbroadcastss 0x28ce9(%rip),%ymm9 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,100,93,217 ; vminps %ymm9,%ymm3,%ymm3
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 197,253,91,219 ; vcvtps2dq %ymm3,%ymm3
- DB 196,227,249,22,216,1 ; vpextrq $0x1,%xmm3,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 196,193,249,126,218 ; vmovq %xmm3,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,25,219,1 ; vextractf128 $0x1,%ymm3,%xmm3
- DB 196,227,249,22,219,1 ; vpextrq $0x1,%xmm3,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,193,249,126,223 ; vmovq %xmm3,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 196,129,122,16,28,160 ; vmovss (%r8,%r12,4),%xmm3
- DB 196,3,97,33,4,184,16 ; vinsertps $0x10,(%r8,%r15,4),%xmm3,%xmm8
- DB 196,129,122,16,28,176 ; vmovss (%r8,%r14,4),%xmm3
- DB 196,99,57,33,195,32 ; vinsertps $0x20,%xmm3,%xmm8,%xmm8
- DB 196,193,122,16,28,152 ; vmovss (%r8,%rbx,4),%xmm3
- DB 196,99,57,33,195,48 ; vinsertps $0x30,%xmm3,%xmm8,%xmm8
- DB 196,129,122,16,28,152 ; vmovss (%r8,%r11,4),%xmm3
- DB 196,3,97,33,12,144,16 ; vinsertps $0x10,(%r8,%r10,4),%xmm3,%xmm9
- DB 196,129,122,16,28,136 ; vmovss (%r8,%r9,4),%xmm3
- DB 196,99,49,33,203,32 ; vinsertps $0x20,%xmm3,%xmm9,%xmm9
- DB 196,193,122,16,28,128 ; vmovss (%r8,%rax,4),%xmm3
- DB 196,227,49,33,219,48 ; vinsertps $0x30,%xmm3,%xmm9,%xmm3
- DB 196,195,101,24,216,1 ; vinsertf128 $0x1,%xmm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_r_avx
-_sk_parametric_r_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm8
- DB 196,65,124,194,192,2 ; vcmpleps %ymm8,%ymm0,%ymm8
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 196,98,125,24,80,24 ; vbroadcastss 0x18(%rax),%ymm10
- DB 197,52,89,200 ; vmulps %ymm0,%ymm9,%ymm9
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,80,4 ; vbroadcastss 0x4(%rax),%ymm10
- DB 196,98,125,24,88,8 ; vbroadcastss 0x8(%rax),%ymm11
- DB 197,172,89,192 ; vmulps %ymm0,%ymm10,%ymm0
- DB 196,65,124,88,219 ; vaddps %ymm11,%ymm0,%ymm11
- DB 196,98,125,24,32 ; vbroadcastss (%rax),%ymm12
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,36,194,208,0 ; vcmpeqps %ymm0,%ymm11,%ymm10
- DB 196,65,124,91,235 ; vcvtdq2ps %ymm11,%ymm13
- DB 196,98,125,24,53,140,140,2,0 ; vbroadcastss 0x28c8c(%rip),%ymm14 # 34b60 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- DB 196,65,20,89,238 ; vmulps %ymm14,%ymm13,%ymm13
- DB 196,98,125,24,53,130,140,2,0 ; vbroadcastss 0x28c82(%rip),%ymm14 # 34b64 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- DB 196,65,36,84,222 ; vandps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,212,139,2,0 ; vbroadcastss 0x28bd4(%rip),%ymm14 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,36,86,222 ; vorps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,106,140,2,0 ; vbroadcastss 0x28c6a(%rip),%ymm14 # 34b68 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- DB 196,65,20,88,238 ; vaddps %ymm14,%ymm13,%ymm13
- DB 196,98,125,24,53,96,140,2,0 ; vbroadcastss 0x28c60(%rip),%ymm14 # 34b6c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- DB 196,65,36,89,246 ; vmulps %ymm14,%ymm11,%ymm14
- DB 196,65,20,92,238 ; vsubps %ymm14,%ymm13,%ymm13
- DB 196,98,125,24,53,81,140,2,0 ; vbroadcastss 0x28c51(%rip),%ymm14 # 34b70 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- DB 196,65,36,88,222 ; vaddps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,71,140,2,0 ; vbroadcastss 0x28c47(%rip),%ymm14 # 34b74 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- DB 196,65,12,94,219 ; vdivps %ymm11,%ymm14,%ymm11
- DB 196,65,20,92,219 ; vsubps %ymm11,%ymm13,%ymm11
- DB 196,65,28,89,219 ; vmulps %ymm11,%ymm12,%ymm11
- DB 196,67,125,8,227,1 ; vroundps $0x1,%ymm11,%ymm12
- DB 196,65,36,92,228 ; vsubps %ymm12,%ymm11,%ymm12
- DB 196,98,125,24,45,40,140,2,0 ; vbroadcastss 0x28c28(%rip),%ymm13 # 34b78 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
- DB 196,98,125,24,45,30,140,2,0 ; vbroadcastss 0x28c1e(%rip),%ymm13 # 34b7c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- DB 196,65,28,89,237 ; vmulps %ymm13,%ymm12,%ymm13
- DB 196,65,36,92,221 ; vsubps %ymm13,%ymm11,%ymm11
- DB 196,98,125,24,45,15,140,2,0 ; vbroadcastss 0x28c0f(%rip),%ymm13 # 34b80 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- DB 196,65,20,92,228 ; vsubps %ymm12,%ymm13,%ymm12
- DB 196,98,125,24,45,5,140,2,0 ; vbroadcastss 0x28c05(%rip),%ymm13 # 34b84 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- DB 196,65,20,94,228 ; vdivps %ymm12,%ymm13,%ymm12
- DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,246,139,2,0 ; vbroadcastss 0x28bf6(%rip),%ymm12 # 34b88 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,99,37,74,208,160 ; vblendvps %ymm10,%ymm0,%ymm11,%ymm10
- DB 196,98,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm11
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,67,45,74,193,128 ; vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,5,8,139,2,0 ; vbroadcastss 0x28b08(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_g_avx
-_sk_parametric_g_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm8
- DB 196,65,116,194,192,2 ; vcmpleps %ymm8,%ymm1,%ymm8
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 196,98,125,24,80,24 ; vbroadcastss 0x18(%rax),%ymm10
- DB 197,52,89,201 ; vmulps %ymm1,%ymm9,%ymm9
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,80,4 ; vbroadcastss 0x4(%rax),%ymm10
- DB 196,98,125,24,88,8 ; vbroadcastss 0x8(%rax),%ymm11
- DB 197,172,89,201 ; vmulps %ymm1,%ymm10,%ymm1
- DB 196,65,116,88,219 ; vaddps %ymm11,%ymm1,%ymm11
- DB 196,98,125,24,32 ; vbroadcastss (%rax),%ymm12
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,36,194,209,0 ; vcmpeqps %ymm1,%ymm11,%ymm10
- DB 196,65,124,91,235 ; vcvtdq2ps %ymm11,%ymm13
- DB 196,98,125,24,53,67,139,2,0 ; vbroadcastss 0x28b43(%rip),%ymm14 # 34b60 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- DB 196,65,20,89,238 ; vmulps %ymm14,%ymm13,%ymm13
- DB 196,98,125,24,53,57,139,2,0 ; vbroadcastss 0x28b39(%rip),%ymm14 # 34b64 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- DB 196,65,36,84,222 ; vandps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,139,138,2,0 ; vbroadcastss 0x28a8b(%rip),%ymm14 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,36,86,222 ; vorps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,33,139,2,0 ; vbroadcastss 0x28b21(%rip),%ymm14 # 34b68 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- DB 196,65,20,88,238 ; vaddps %ymm14,%ymm13,%ymm13
- DB 196,98,125,24,53,23,139,2,0 ; vbroadcastss 0x28b17(%rip),%ymm14 # 34b6c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- DB 196,65,36,89,246 ; vmulps %ymm14,%ymm11,%ymm14
- DB 196,65,20,92,238 ; vsubps %ymm14,%ymm13,%ymm13
- DB 196,98,125,24,53,8,139,2,0 ; vbroadcastss 0x28b08(%rip),%ymm14 # 34b70 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- DB 196,65,36,88,222 ; vaddps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,254,138,2,0 ; vbroadcastss 0x28afe(%rip),%ymm14 # 34b74 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- DB 196,65,12,94,219 ; vdivps %ymm11,%ymm14,%ymm11
- DB 196,65,20,92,219 ; vsubps %ymm11,%ymm13,%ymm11
- DB 196,65,28,89,219 ; vmulps %ymm11,%ymm12,%ymm11
- DB 196,67,125,8,227,1 ; vroundps $0x1,%ymm11,%ymm12
- DB 196,65,36,92,228 ; vsubps %ymm12,%ymm11,%ymm12
- DB 196,98,125,24,45,223,138,2,0 ; vbroadcastss 0x28adf(%rip),%ymm13 # 34b78 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
- DB 196,98,125,24,45,213,138,2,0 ; vbroadcastss 0x28ad5(%rip),%ymm13 # 34b7c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- DB 196,65,28,89,237 ; vmulps %ymm13,%ymm12,%ymm13
- DB 196,65,36,92,221 ; vsubps %ymm13,%ymm11,%ymm11
- DB 196,98,125,24,45,198,138,2,0 ; vbroadcastss 0x28ac6(%rip),%ymm13 # 34b80 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- DB 196,65,20,92,228 ; vsubps %ymm12,%ymm13,%ymm12
- DB 196,98,125,24,45,188,138,2,0 ; vbroadcastss 0x28abc(%rip),%ymm13 # 34b84 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- DB 196,65,20,94,228 ; vdivps %ymm12,%ymm13,%ymm12
- DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,173,138,2,0 ; vbroadcastss 0x28aad(%rip),%ymm12 # 34b88 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,99,37,74,209,160 ; vblendvps %ymm10,%ymm1,%ymm11,%ymm10
- DB 196,98,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm11
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,67,45,74,193,128 ; vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- DB 197,188,95,201 ; vmaxps %ymm1,%ymm8,%ymm1
- DB 196,98,125,24,5,191,137,2,0 ; vbroadcastss 0x289bf(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_b_avx
-_sk_parametric_b_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm8
- DB 196,65,108,194,192,2 ; vcmpleps %ymm8,%ymm2,%ymm8
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 196,98,125,24,80,24 ; vbroadcastss 0x18(%rax),%ymm10
- DB 197,52,89,202 ; vmulps %ymm2,%ymm9,%ymm9
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,80,4 ; vbroadcastss 0x4(%rax),%ymm10
- DB 196,98,125,24,88,8 ; vbroadcastss 0x8(%rax),%ymm11
- DB 197,172,89,210 ; vmulps %ymm2,%ymm10,%ymm2
- DB 196,65,108,88,219 ; vaddps %ymm11,%ymm2,%ymm11
- DB 196,98,125,24,32 ; vbroadcastss (%rax),%ymm12
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,36,194,210,0 ; vcmpeqps %ymm2,%ymm11,%ymm10
- DB 196,65,124,91,235 ; vcvtdq2ps %ymm11,%ymm13
- DB 196,98,125,24,53,250,137,2,0 ; vbroadcastss 0x289fa(%rip),%ymm14 # 34b60 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- DB 196,65,20,89,238 ; vmulps %ymm14,%ymm13,%ymm13
- DB 196,98,125,24,53,240,137,2,0 ; vbroadcastss 0x289f0(%rip),%ymm14 # 34b64 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- DB 196,65,36,84,222 ; vandps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,66,137,2,0 ; vbroadcastss 0x28942(%rip),%ymm14 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,36,86,222 ; vorps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,216,137,2,0 ; vbroadcastss 0x289d8(%rip),%ymm14 # 34b68 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- DB 196,65,20,88,238 ; vaddps %ymm14,%ymm13,%ymm13
- DB 196,98,125,24,53,206,137,2,0 ; vbroadcastss 0x289ce(%rip),%ymm14 # 34b6c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- DB 196,65,36,89,246 ; vmulps %ymm14,%ymm11,%ymm14
- DB 196,65,20,92,238 ; vsubps %ymm14,%ymm13,%ymm13
- DB 196,98,125,24,53,191,137,2,0 ; vbroadcastss 0x289bf(%rip),%ymm14 # 34b70 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- DB 196,65,36,88,222 ; vaddps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,181,137,2,0 ; vbroadcastss 0x289b5(%rip),%ymm14 # 34b74 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- DB 196,65,12,94,219 ; vdivps %ymm11,%ymm14,%ymm11
- DB 196,65,20,92,219 ; vsubps %ymm11,%ymm13,%ymm11
- DB 196,65,28,89,219 ; vmulps %ymm11,%ymm12,%ymm11
- DB 196,67,125,8,227,1 ; vroundps $0x1,%ymm11,%ymm12
- DB 196,65,36,92,228 ; vsubps %ymm12,%ymm11,%ymm12
- DB 196,98,125,24,45,150,137,2,0 ; vbroadcastss 0x28996(%rip),%ymm13 # 34b78 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
- DB 196,98,125,24,45,140,137,2,0 ; vbroadcastss 0x2898c(%rip),%ymm13 # 34b7c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- DB 196,65,28,89,237 ; vmulps %ymm13,%ymm12,%ymm13
- DB 196,65,36,92,221 ; vsubps %ymm13,%ymm11,%ymm11
- DB 196,98,125,24,45,125,137,2,0 ; vbroadcastss 0x2897d(%rip),%ymm13 # 34b80 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- DB 196,65,20,92,228 ; vsubps %ymm12,%ymm13,%ymm12
- DB 196,98,125,24,45,115,137,2,0 ; vbroadcastss 0x28973(%rip),%ymm13 # 34b84 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- DB 196,65,20,94,228 ; vdivps %ymm12,%ymm13,%ymm12
- DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,100,137,2,0 ; vbroadcastss 0x28964(%rip),%ymm12 # 34b88 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,99,37,74,210,160 ; vblendvps %ymm10,%ymm2,%ymm11,%ymm10
- DB 196,98,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm11
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,67,45,74,193,128 ; vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- DB 197,188,95,210 ; vmaxps %ymm2,%ymm8,%ymm2
- DB 196,98,125,24,5,118,136,2,0 ; vbroadcastss 0x28876(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,108,93,208 ; vminps %ymm8,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_a_avx
-_sk_parametric_a_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm8
- DB 196,65,100,194,192,2 ; vcmpleps %ymm8,%ymm3,%ymm8
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 196,98,125,24,80,24 ; vbroadcastss 0x18(%rax),%ymm10
- DB 197,52,89,203 ; vmulps %ymm3,%ymm9,%ymm9
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,80,4 ; vbroadcastss 0x4(%rax),%ymm10
- DB 196,98,125,24,88,8 ; vbroadcastss 0x8(%rax),%ymm11
- DB 197,172,89,219 ; vmulps %ymm3,%ymm10,%ymm3
- DB 196,65,100,88,219 ; vaddps %ymm11,%ymm3,%ymm11
- DB 196,98,125,24,32 ; vbroadcastss (%rax),%ymm12
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 197,36,194,211,0 ; vcmpeqps %ymm3,%ymm11,%ymm10
- DB 196,65,124,91,235 ; vcvtdq2ps %ymm11,%ymm13
- DB 196,98,125,24,53,177,136,2,0 ; vbroadcastss 0x288b1(%rip),%ymm14 # 34b60 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- DB 196,65,20,89,238 ; vmulps %ymm14,%ymm13,%ymm13
- DB 196,98,125,24,53,167,136,2,0 ; vbroadcastss 0x288a7(%rip),%ymm14 # 34b64 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- DB 196,65,36,84,222 ; vandps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,249,135,2,0 ; vbroadcastss 0x287f9(%rip),%ymm14 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,36,86,222 ; vorps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,143,136,2,0 ; vbroadcastss 0x2888f(%rip),%ymm14 # 34b68 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- DB 196,65,20,88,238 ; vaddps %ymm14,%ymm13,%ymm13
- DB 196,98,125,24,53,133,136,2,0 ; vbroadcastss 0x28885(%rip),%ymm14 # 34b6c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- DB 196,65,36,89,246 ; vmulps %ymm14,%ymm11,%ymm14
- DB 196,65,20,92,238 ; vsubps %ymm14,%ymm13,%ymm13
- DB 196,98,125,24,53,118,136,2,0 ; vbroadcastss 0x28876(%rip),%ymm14 # 34b70 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- DB 196,65,36,88,222 ; vaddps %ymm14,%ymm11,%ymm11
- DB 196,98,125,24,53,108,136,2,0 ; vbroadcastss 0x2886c(%rip),%ymm14 # 34b74 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- DB 196,65,12,94,219 ; vdivps %ymm11,%ymm14,%ymm11
- DB 196,65,20,92,219 ; vsubps %ymm11,%ymm13,%ymm11
- DB 196,65,28,89,219 ; vmulps %ymm11,%ymm12,%ymm11
- DB 196,67,125,8,227,1 ; vroundps $0x1,%ymm11,%ymm12
- DB 196,65,36,92,228 ; vsubps %ymm12,%ymm11,%ymm12
- DB 196,98,125,24,45,77,136,2,0 ; vbroadcastss 0x2884d(%rip),%ymm13 # 34b78 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- DB 196,65,36,88,221 ; vaddps %ymm13,%ymm11,%ymm11
- DB 196,98,125,24,45,67,136,2,0 ; vbroadcastss 0x28843(%rip),%ymm13 # 34b7c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- DB 196,65,28,89,237 ; vmulps %ymm13,%ymm12,%ymm13
- DB 196,65,36,92,221 ; vsubps %ymm13,%ymm11,%ymm11
- DB 196,98,125,24,45,52,136,2,0 ; vbroadcastss 0x28834(%rip),%ymm13 # 34b80 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- DB 196,65,20,92,228 ; vsubps %ymm12,%ymm13,%ymm12
- DB 196,98,125,24,45,42,136,2,0 ; vbroadcastss 0x2882a(%rip),%ymm13 # 34b84 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- DB 196,65,20,94,228 ; vdivps %ymm12,%ymm13,%ymm12
- DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 196,98,125,24,37,27,136,2,0 ; vbroadcastss 0x2881b(%rip),%ymm12 # 34b88 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,99,37,74,211,160 ; vblendvps %ymm10,%ymm3,%ymm11,%ymm10
- DB 196,98,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm11
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,67,45,74,193,128 ; vblendvps %ymm8,%ymm9,%ymm10,%ymm8
- DB 197,188,95,219 ; vmaxps %ymm3,%ymm8,%ymm3
- DB 196,98,125,24,5,45,135,2,0 ; vbroadcastss 0x2872d(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gamma_avx
-_sk_gamma_avx LABEL PROC
- DB 72,129,236,56,1,0,0 ; sub $0x138,%rsp
- DB 197,252,17,188,36,0,1,0,0 ; vmovups %ymm7,0x100(%rsp)
- DB 197,252,17,180,36,224,0,0,0 ; vmovups %ymm6,0xe0(%rsp)
- DB 197,252,17,172,36,192,0,0,0 ; vmovups %ymm5,0xc0(%rsp)
- DB 197,252,17,164,36,160,0,0,0 ; vmovups %ymm4,0xa0(%rsp)
- DB 197,252,17,156,36,128,0,0,0 ; vmovups %ymm3,0x80(%rsp)
- DB 197,252,17,84,36,96 ; vmovups %ymm2,0x60(%rsp)
- DB 197,252,17,12,36 ; vmovups %ymm1,(%rsp)
- DB 197,252,40,224 ; vmovaps %ymm0,%ymm4
- DB 197,252,91,204 ; vcvtdq2ps %ymm4,%ymm1
- DB 196,226,125,24,5,108,135,2,0 ; vbroadcastss 0x2876c(%rip),%ymm0 # 34b60 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- DB 197,244,89,200 ; vmulps %ymm0,%ymm1,%ymm1
- DB 197,124,40,192 ; vmovaps %ymm0,%ymm8
- DB 197,124,17,68,36,32 ; vmovups %ymm8,0x20(%rsp)
- DB 196,98,125,24,13,89,135,2,0 ; vbroadcastss 0x28759(%rip),%ymm9 # 34b64 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- DB 196,193,92,84,209 ; vandps %ymm9,%ymm4,%ymm2
- DB 196,98,125,24,21,171,134,2,0 ; vbroadcastss 0x286ab(%rip),%ymm10 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,193,108,86,210 ; vorps %ymm10,%ymm2,%ymm2
- DB 196,98,125,24,29,65,135,2,0 ; vbroadcastss 0x28741(%rip),%ymm11 # 34b68 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- DB 196,193,116,88,203 ; vaddps %ymm11,%ymm1,%ymm1
- DB 196,98,125,24,37,55,135,2,0 ; vbroadcastss 0x28737(%rip),%ymm12 # 34b6c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- DB 196,193,108,89,220 ; vmulps %ymm12,%ymm2,%ymm3
- DB 197,244,92,203 ; vsubps %ymm3,%ymm1,%ymm1
- DB 196,98,125,24,45,41,135,2,0 ; vbroadcastss 0x28729(%rip),%ymm13 # 34b70 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- DB 196,193,108,88,213 ; vaddps %ymm13,%ymm2,%ymm2
- DB 196,98,125,24,53,31,135,2,0 ; vbroadcastss 0x2871f(%rip),%ymm14 # 34b74 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- DB 197,140,94,210 ; vdivps %ymm2,%ymm14,%ymm2
- DB 197,244,92,202 ; vsubps %ymm2,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,48 ; vbroadcastss (%rax),%ymm6
- DB 197,244,89,206 ; vmulps %ymm6,%ymm1,%ymm1
- DB 196,227,125,8,209,1 ; vroundps $0x1,%ymm1,%ymm2
- DB 197,244,92,234 ; vsubps %ymm2,%ymm1,%ymm5
- DB 196,98,125,24,61,253,134,2,0 ; vbroadcastss 0x286fd(%rip),%ymm15 # 34b78 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- DB 196,193,116,88,207 ; vaddps %ymm15,%ymm1,%ymm1
- DB 196,226,125,24,61,243,134,2,0 ; vbroadcastss 0x286f3(%rip),%ymm7 # 34b7c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- DB 197,212,89,215 ; vmulps %ymm7,%ymm5,%ymm2
- DB 197,244,92,194 ; vsubps %ymm2,%ymm1,%ymm0
- DB 196,226,125,24,29,230,134,2,0 ; vbroadcastss 0x286e6(%rip),%ymm3 # 34b80 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- DB 197,228,92,237 ; vsubps %ymm5,%ymm3,%ymm5
- DB 196,226,125,24,21,221,134,2,0 ; vbroadcastss 0x286dd(%rip),%ymm2 # 34b84 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- DB 197,236,94,237 ; vdivps %ymm5,%ymm2,%ymm5
- DB 197,252,88,197 ; vaddps %ymm5,%ymm0,%ymm0
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,220,194,205,0 ; vcmpeqps %ymm5,%ymm4,%ymm1
- DB 196,226,125,24,37,199,134,2,0 ; vbroadcastss 0x286c7(%rip),%ymm4 # 34b88 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- DB 197,252,89,196 ; vmulps %ymm4,%ymm0,%ymm0
- DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
- DB 196,227,125,74,197,16 ; vblendvps %ymm1,%ymm5,%ymm0,%ymm0
- DB 197,252,17,68,36,64 ; vmovups %ymm0,0x40(%rsp)
- DB 197,252,16,44,36 ; vmovups (%rsp),%ymm5
- DB 197,252,91,197 ; vcvtdq2ps %ymm5,%ymm0
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 196,193,84,84,201 ; vandps %ymm9,%ymm5,%ymm1
- DB 197,124,40,197 ; vmovaps %ymm5,%ymm8
- DB 196,193,116,86,202 ; vorps %ymm10,%ymm1,%ymm1
- DB 196,193,124,88,195 ; vaddps %ymm11,%ymm0,%ymm0
- DB 196,193,116,89,236 ; vmulps %ymm12,%ymm1,%ymm5
- DB 197,252,92,197 ; vsubps %ymm5,%ymm0,%ymm0
- DB 196,193,116,88,205 ; vaddps %ymm13,%ymm1,%ymm1
- DB 197,140,94,201 ; vdivps %ymm1,%ymm14,%ymm1
- DB 197,252,92,193 ; vsubps %ymm1,%ymm0,%ymm0
- DB 197,252,89,198 ; vmulps %ymm6,%ymm0,%ymm0
- DB 196,227,125,8,200,1 ; vroundps $0x1,%ymm0,%ymm1
- DB 197,252,92,201 ; vsubps %ymm1,%ymm0,%ymm1
- DB 196,193,124,88,199 ; vaddps %ymm15,%ymm0,%ymm0
- DB 197,244,89,239 ; vmulps %ymm7,%ymm1,%ymm5
- DB 197,252,92,197 ; vsubps %ymm5,%ymm0,%ymm0
- DB 197,228,92,201 ; vsubps %ymm1,%ymm3,%ymm1
- DB 197,236,94,201 ; vdivps %ymm1,%ymm2,%ymm1
- DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,188,194,205,0 ; vcmpeqps %ymm5,%ymm8,%ymm1
- DB 197,252,89,196 ; vmulps %ymm4,%ymm0,%ymm0
- DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
- DB 196,227,125,74,197,16 ; vblendvps %ymm1,%ymm5,%ymm0,%ymm0
- DB 197,252,17,4,36 ; vmovups %ymm0,(%rsp)
- DB 197,252,16,108,36,96 ; vmovups 0x60(%rsp),%ymm5
- DB 197,252,91,197 ; vcvtdq2ps %ymm5,%ymm0
- DB 197,252,89,68,36,32 ; vmulps 0x20(%rsp),%ymm0,%ymm0
- DB 196,193,84,84,201 ; vandps %ymm9,%ymm5,%ymm1
- DB 197,124,40,197 ; vmovaps %ymm5,%ymm8
- DB 196,193,116,86,202 ; vorps %ymm10,%ymm1,%ymm1
- DB 196,193,124,88,195 ; vaddps %ymm11,%ymm0,%ymm0
- DB 196,193,116,89,236 ; vmulps %ymm12,%ymm1,%ymm5
- DB 197,252,92,197 ; vsubps %ymm5,%ymm0,%ymm0
- DB 196,193,116,88,205 ; vaddps %ymm13,%ymm1,%ymm1
- DB 197,140,94,201 ; vdivps %ymm1,%ymm14,%ymm1
- DB 197,252,92,193 ; vsubps %ymm1,%ymm0,%ymm0
- DB 197,252,89,198 ; vmulps %ymm6,%ymm0,%ymm0
- DB 196,227,125,8,200,1 ; vroundps $0x1,%ymm0,%ymm1
- DB 197,252,92,201 ; vsubps %ymm1,%ymm0,%ymm1
- DB 196,193,124,88,199 ; vaddps %ymm15,%ymm0,%ymm0
- DB 197,244,89,239 ; vmulps %ymm7,%ymm1,%ymm5
- DB 197,252,92,197 ; vsubps %ymm5,%ymm0,%ymm0
- DB 197,228,92,201 ; vsubps %ymm1,%ymm3,%ymm1
- DB 197,236,94,201 ; vdivps %ymm1,%ymm2,%ymm1
- DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
- DB 197,252,89,196 ; vmulps %ymm4,%ymm0,%ymm0
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,188,194,202,0 ; vcmpeqps %ymm2,%ymm8,%ymm1
- DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
- DB 196,227,125,74,210,16 ; vblendvps %ymm1,%ymm2,%ymm0,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,68,36,64 ; vmovups 0x40(%rsp),%ymm0
- DB 197,252,16,12,36 ; vmovups (%rsp),%ymm1
- DB 197,252,16,156,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm3
- DB 197,252,16,164,36,160,0,0,0 ; vmovups 0xa0(%rsp),%ymm4
- DB 197,252,16,172,36,192,0,0,0 ; vmovups 0xc0(%rsp),%ymm5
- DB 197,252,16,180,36,224,0,0,0 ; vmovups 0xe0(%rsp),%ymm6
- DB 197,252,16,188,36,0,1,0,0 ; vmovups 0x100(%rsp),%ymm7
- DB 72,129,196,56,1,0,0 ; add $0x138,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gamma_dst_avx
-_sk_gamma_dst_avx LABEL PROC
- DB 72,129,236,120,1,0,0 ; sub $0x178,%rsp
- DB 197,252,17,188,36,64,1,0,0 ; vmovups %ymm7,0x140(%rsp)
- DB 197,252,17,116,36,32 ; vmovups %ymm6,0x20(%rsp)
- DB 197,124,40,197 ; vmovaps %ymm5,%ymm8
- DB 197,252,17,156,36,32,1,0,0 ; vmovups %ymm3,0x120(%rsp)
- DB 197,252,17,148,36,0,1,0,0 ; vmovups %ymm2,0x100(%rsp)
- DB 197,252,17,140,36,224,0,0,0 ; vmovups %ymm1,0xe0(%rsp)
- DB 197,252,17,132,36,192,0,0,0 ; vmovups %ymm0,0xc0(%rsp)
- DB 197,252,91,196 ; vcvtdq2ps %ymm4,%ymm0
- DB 196,226,125,24,29,12,133,2,0 ; vbroadcastss 0x2850c(%rip),%ymm3 # 34b60 <_sk_srcover_bgra_8888_sse2_lowp+0x348>
- DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 196,226,125,24,13,3,133,2,0 ; vbroadcastss 0x28503(%rip),%ymm1 # 34b64 <_sk_srcover_bgra_8888_sse2_lowp+0x34c>
- DB 197,252,17,140,36,128,0,0,0 ; vmovups %ymm1,0x80(%rsp)
- DB 197,220,84,201 ; vandps %ymm1,%ymm4,%ymm1
- DB 196,226,125,24,21,77,132,2,0 ; vbroadcastss 0x2844d(%rip),%ymm2 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,252,17,84,36,96 ; vmovups %ymm2,0x60(%rsp)
- DB 197,244,86,202 ; vorps %ymm2,%ymm1,%ymm1
- DB 196,226,125,24,21,222,132,2,0 ; vbroadcastss 0x284de(%rip),%ymm2 # 34b68 <_sk_srcover_bgra_8888_sse2_lowp+0x350>
- DB 197,252,17,84,36,64 ; vmovups %ymm2,0x40(%rsp)
- DB 197,252,88,194 ; vaddps %ymm2,%ymm0,%ymm0
- DB 196,98,125,24,37,207,132,2,0 ; vbroadcastss 0x284cf(%rip),%ymm12 # 34b6c <_sk_srcover_bgra_8888_sse2_lowp+0x354>
- DB 196,193,116,89,212 ; vmulps %ymm12,%ymm1,%ymm2
- DB 197,252,92,194 ; vsubps %ymm2,%ymm0,%ymm0
- DB 196,98,125,24,45,193,132,2,0 ; vbroadcastss 0x284c1(%rip),%ymm13 # 34b70 <_sk_srcover_bgra_8888_sse2_lowp+0x358>
- DB 196,193,116,88,205 ; vaddps %ymm13,%ymm1,%ymm1
- DB 196,98,125,24,53,183,132,2,0 ; vbroadcastss 0x284b7(%rip),%ymm14 # 34b74 <_sk_srcover_bgra_8888_sse2_lowp+0x35c>
- DB 197,140,94,201 ; vdivps %ymm1,%ymm14,%ymm1
- DB 197,252,92,193 ; vsubps %ymm1,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,40 ; vbroadcastss (%rax),%ymm5
- DB 197,252,89,197 ; vmulps %ymm5,%ymm0,%ymm0
- DB 196,227,125,8,200,1 ; vroundps $0x1,%ymm0,%ymm1
- DB 197,252,92,201 ; vsubps %ymm1,%ymm0,%ymm1
- DB 196,98,125,24,61,149,132,2,0 ; vbroadcastss 0x28495(%rip),%ymm15 # 34b78 <_sk_srcover_bgra_8888_sse2_lowp+0x360>
- DB 196,193,124,88,199 ; vaddps %ymm15,%ymm0,%ymm0
- DB 196,98,125,24,29,139,132,2,0 ; vbroadcastss 0x2848b(%rip),%ymm11 # 34b7c <_sk_srcover_bgra_8888_sse2_lowp+0x364>
- DB 196,193,116,89,211 ; vmulps %ymm11,%ymm1,%ymm2
- DB 197,252,92,194 ; vsubps %ymm2,%ymm0,%ymm0
- DB 196,98,125,24,21,125,132,2,0 ; vbroadcastss 0x2847d(%rip),%ymm10 # 34b80 <_sk_srcover_bgra_8888_sse2_lowp+0x368>
- DB 197,172,92,241 ; vsubps %ymm1,%ymm10,%ymm6
- DB 196,98,125,24,13,116,132,2,0 ; vbroadcastss 0x28474(%rip),%ymm9 # 34b84 <_sk_srcover_bgra_8888_sse2_lowp+0x36c>
- DB 197,180,94,246 ; vdivps %ymm6,%ymm9,%ymm6
- DB 197,252,88,198 ; vaddps %ymm6,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,220,194,225,0 ; vcmpeqps %ymm1,%ymm4,%ymm4
- DB 196,226,125,24,61,94,132,2,0 ; vbroadcastss 0x2845e(%rip),%ymm7 # 34b88 <_sk_srcover_bgra_8888_sse2_lowp+0x370>
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
- DB 196,227,125,74,193,64 ; vblendvps %ymm4,%ymm1,%ymm0,%ymm0
- DB 197,252,17,132,36,160,0,0,0 ; vmovups %ymm0,0xa0(%rsp)
- DB 197,124,17,4,36 ; vmovups %ymm8,(%rsp)
- DB 196,193,124,91,192 ; vcvtdq2ps %ymm8,%ymm0
- DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 197,252,16,148,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm2
- DB 197,188,84,242 ; vandps %ymm2,%ymm8,%ymm6
- DB 197,252,16,76,36,96 ; vmovups 0x60(%rsp),%ymm1
- DB 197,204,86,241 ; vorps %ymm1,%ymm6,%ymm6
- DB 197,252,16,100,36,64 ; vmovups 0x40(%rsp),%ymm4
- DB 197,252,88,196 ; vaddps %ymm4,%ymm0,%ymm0
- DB 196,65,76,89,196 ; vmulps %ymm12,%ymm6,%ymm8
- DB 196,193,124,92,192 ; vsubps %ymm8,%ymm0,%ymm0
- DB 196,193,76,88,245 ; vaddps %ymm13,%ymm6,%ymm6
- DB 197,140,94,246 ; vdivps %ymm6,%ymm14,%ymm6
- DB 197,252,92,198 ; vsubps %ymm6,%ymm0,%ymm0
- DB 197,252,89,197 ; vmulps %ymm5,%ymm0,%ymm0
- DB 196,227,125,8,240,1 ; vroundps $0x1,%ymm0,%ymm6
- DB 197,252,92,246 ; vsubps %ymm6,%ymm0,%ymm6
- DB 196,193,124,88,199 ; vaddps %ymm15,%ymm0,%ymm0
- DB 196,65,76,89,195 ; vmulps %ymm11,%ymm6,%ymm8
- DB 196,193,124,92,192 ; vsubps %ymm8,%ymm0,%ymm0
- DB 197,172,92,246 ; vsubps %ymm6,%ymm10,%ymm6
- DB 197,180,94,246 ; vdivps %ymm6,%ymm9,%ymm6
- DB 197,252,88,198 ; vaddps %ymm6,%ymm0,%ymm0
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,194,52,36,0 ; vcmpeqps (%rsp),%ymm8,%ymm6
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
- DB 196,195,125,74,192,96 ; vblendvps %ymm6,%ymm8,%ymm0,%ymm0
- DB 197,252,17,4,36 ; vmovups %ymm0,(%rsp)
- DB 197,252,16,116,36,32 ; vmovups 0x20(%rsp),%ymm6
- DB 197,252,91,198 ; vcvtdq2ps %ymm6,%ymm0
- DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 197,204,84,242 ; vandps %ymm2,%ymm6,%ymm6
- DB 197,204,86,241 ; vorps %ymm1,%ymm6,%ymm6
- DB 197,252,88,196 ; vaddps %ymm4,%ymm0,%ymm0
- DB 196,65,76,89,196 ; vmulps %ymm12,%ymm6,%ymm8
- DB 196,193,124,92,192 ; vsubps %ymm8,%ymm0,%ymm0
- DB 196,193,76,88,245 ; vaddps %ymm13,%ymm6,%ymm6
- DB 197,140,94,246 ; vdivps %ymm6,%ymm14,%ymm6
- DB 197,252,92,198 ; vsubps %ymm6,%ymm0,%ymm0
- DB 197,252,89,197 ; vmulps %ymm5,%ymm0,%ymm0
- DB 196,227,125,8,232,1 ; vroundps $0x1,%ymm0,%ymm5
- DB 197,252,92,237 ; vsubps %ymm5,%ymm0,%ymm5
- DB 196,193,124,88,199 ; vaddps %ymm15,%ymm0,%ymm0
- DB 196,193,84,89,243 ; vmulps %ymm11,%ymm5,%ymm6
- DB 197,252,92,198 ; vsubps %ymm6,%ymm0,%ymm0
- DB 197,172,92,221 ; vsubps %ymm5,%ymm10,%ymm3
- DB 197,180,94,211 ; vdivps %ymm3,%ymm9,%ymm2
- DB 197,252,88,194 ; vaddps %ymm2,%ymm0,%ymm0
- DB 197,252,89,199 ; vmulps %ymm7,%ymm0,%ymm0
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,236,194,76,36,32,0 ; vcmpeqps 0x20(%rsp),%ymm2,%ymm1
- DB 197,253,91,192 ; vcvtps2dq %ymm0,%ymm0
- DB 196,227,125,74,242,16 ; vblendvps %ymm1,%ymm2,%ymm0,%ymm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,132,36,192,0,0,0 ; vmovups 0xc0(%rsp),%ymm0
- DB 197,252,16,140,36,224,0,0,0 ; vmovups 0xe0(%rsp),%ymm1
- DB 197,252,16,148,36,0,1,0,0 ; vmovups 0x100(%rsp),%ymm2
- DB 197,252,16,156,36,32,1,0,0 ; vmovups 0x120(%rsp),%ymm3
- DB 197,252,16,164,36,160,0,0,0 ; vmovups 0xa0(%rsp),%ymm4
- DB 197,252,16,44,36 ; vmovups (%rsp),%ymm5
- DB 197,252,16,188,36,64,1,0,0 ; vmovups 0x140(%rsp),%ymm7
- DB 72,129,196,120,1,0,0 ; add $0x178,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lab_to_xyz_avx
-_sk_lab_to_xyz_avx LABEL PROC
- DB 196,98,125,24,5,253,130,2,0 ; vbroadcastss 0x282fd(%rip),%ymm8 # 34b8c <_sk_srcover_bgra_8888_sse2_lowp+0x374>
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,5,87,130,2,0 ; vbroadcastss 0x28257(%rip),%ymm8 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 196,98,125,24,13,229,130,2,0 ; vbroadcastss 0x282e5(%rip),%ymm9 # 34b90 <_sk_srcover_bgra_8888_sse2_lowp+0x378>
- DB 196,193,116,88,201 ; vaddps %ymm9,%ymm1,%ymm1
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 196,193,108,88,209 ; vaddps %ymm9,%ymm2,%ymm2
- DB 196,98,125,24,5,209,130,2,0 ; vbroadcastss 0x282d1(%rip),%ymm8 # 34b94 <_sk_srcover_bgra_8888_sse2_lowp+0x37c>
- DB 196,193,124,88,192 ; vaddps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,5,199,130,2,0 ; vbroadcastss 0x282c7(%rip),%ymm8 # 34b98 <_sk_srcover_bgra_8888_sse2_lowp+0x380>
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,5,189,130,2,0 ; vbroadcastss 0x282bd(%rip),%ymm8 # 34b9c <_sk_srcover_bgra_8888_sse2_lowp+0x384>
- DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 197,252,88,201 ; vaddps %ymm1,%ymm0,%ymm1
- DB 196,98,125,24,5,175,130,2,0 ; vbroadcastss 0x282af(%rip),%ymm8 # 34ba0 <_sk_srcover_bgra_8888_sse2_lowp+0x388>
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 197,252,92,210 ; vsubps %ymm2,%ymm0,%ymm2
- DB 197,116,89,193 ; vmulps %ymm1,%ymm1,%ymm8
- DB 196,65,116,89,192 ; vmulps %ymm8,%ymm1,%ymm8
- DB 196,98,125,24,13,152,130,2,0 ; vbroadcastss 0x28298(%rip),%ymm9 # 34ba4 <_sk_srcover_bgra_8888_sse2_lowp+0x38c>
- DB 196,65,52,194,208,1 ; vcmpltps %ymm8,%ymm9,%ymm10
- DB 196,98,125,24,29,141,130,2,0 ; vbroadcastss 0x2828d(%rip),%ymm11 # 34ba8 <_sk_srcover_bgra_8888_sse2_lowp+0x390>
- DB 196,193,116,88,203 ; vaddps %ymm11,%ymm1,%ymm1
- DB 196,98,125,24,37,131,130,2,0 ; vbroadcastss 0x28283(%rip),%ymm12 # 34bac <_sk_srcover_bgra_8888_sse2_lowp+0x394>
- DB 196,193,116,89,204 ; vmulps %ymm12,%ymm1,%ymm1
- DB 196,67,117,74,192,160 ; vblendvps %ymm10,%ymm8,%ymm1,%ymm8
- DB 197,252,89,200 ; vmulps %ymm0,%ymm0,%ymm1
- DB 197,252,89,201 ; vmulps %ymm1,%ymm0,%ymm1
- DB 197,52,194,209,1 ; vcmpltps %ymm1,%ymm9,%ymm10
- DB 196,193,124,88,195 ; vaddps %ymm11,%ymm0,%ymm0
- DB 196,193,124,89,196 ; vmulps %ymm12,%ymm0,%ymm0
- DB 196,227,125,74,201,160 ; vblendvps %ymm10,%ymm1,%ymm0,%ymm1
- DB 197,236,89,194 ; vmulps %ymm2,%ymm2,%ymm0
- DB 197,236,89,192 ; vmulps %ymm0,%ymm2,%ymm0
- DB 197,52,194,200,1 ; vcmpltps %ymm0,%ymm9,%ymm9
- DB 196,193,108,88,211 ; vaddps %ymm11,%ymm2,%ymm2
- DB 196,193,108,89,212 ; vmulps %ymm12,%ymm2,%ymm2
- DB 196,227,109,74,208,144 ; vblendvps %ymm9,%ymm0,%ymm2,%ymm2
- DB 196,226,125,24,5,57,130,2,0 ; vbroadcastss 0x28239(%rip),%ymm0 # 34bb0 <_sk_srcover_bgra_8888_sse2_lowp+0x398>
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,5,48,130,2,0 ; vbroadcastss 0x28230(%rip),%ymm8 # 34bb4 <_sk_srcover_bgra_8888_sse2_lowp+0x39c>
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_a8_avx
-_sk_load_a8_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,68 ; jne c9e3 <_sk_load_a8_avx+0x56>
- DB 196,194,121,48,4,16 ; vpmovzxbw (%r8,%rdx,1),%xmm0
- DB 197,249,219,5,163,138,2,0 ; vpand 0x28aa3(%rip),%xmm0,%xmm0 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,226,121,51,200 ; vpmovzxwd %xmm0,%xmm1
- DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
- DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,113,129,2,0 ; vbroadcastss 0x28171(%rip),%ymm1 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,252,89,217 ; vmulps %ymm1,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,180 ; ja c9a5 <_sk_load_a8_avx+0x18>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,121,0,0,0 ; lea 0x79(%rip),%r9 # ca74 <_sk_load_a8_avx+0xe7>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 235,150 ; jmp c9a5 <_sk_load_a8_avx+0x18>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,249,196,192,2 ; vpinsrw $0x2,%eax,%xmm0,%xmm0
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,249,110,200 ; vmovd %eax,%xmm1
- DB 196,226,121,48,201 ; vpmovzxbw %xmm1,%xmm1
- DB 196,227,121,14,193,3 ; vpblendw $0x3,%xmm1,%xmm0,%xmm0
- DB 233,110,255,255,255 ; jmpq c9a5 <_sk_load_a8_avx+0x18>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,249,196,192,6 ; vpinsrw $0x6,%eax,%xmm0,%xmm0
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 197,249,196,192,5 ; vpinsrw $0x5,%eax,%xmm0,%xmm0
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 197,249,196,192,4 ; vpinsrw $0x4,%eax,%xmm0,%xmm0
- DB 196,193,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm1
- DB 196,226,121,48,201 ; vpmovzxbw %xmm1,%xmm1
- DB 196,227,113,14,192,240 ; vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- DB 233,51,255,255,255 ; jmpq c9a5 <_sk_load_a8_avx+0x18>
- DB 102,144 ; xchg %ax,%ax
- DB 144 ; nop
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,170,255,255,255,155 ; ljmp *-0x64000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,255,255,255,221 ; callq ffffffffde00ca84 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd826c>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,195 ; inc %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_a8_dst_avx
-_sk_load_a8_dst_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,68 ; jne cae6 <_sk_load_a8_dst_avx+0x56>
- DB 196,194,121,48,36,16 ; vpmovzxbw (%r8,%rdx,1),%xmm4
- DB 197,217,219,37,160,137,2,0 ; vpand 0x289a0(%rip),%xmm4,%xmm4 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,226,121,51,236 ; vpmovzxwd %xmm4,%xmm5
- DB 197,249,112,228,78 ; vpshufd $0x4e,%xmm4,%xmm4
- DB 196,226,121,51,228 ; vpmovzxwd %xmm4,%xmm4
- DB 196,227,85,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,110,128,2,0 ; vbroadcastss 0x2806e(%rip),%ymm5 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,220,89,253 ; vmulps %ymm5,%ymm4,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,180 ; ja caa8 <_sk_load_a8_dst_avx+0x18>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,122,0,0,0 ; lea 0x7a(%rip),%r9 # cb78 <_sk_load_a8_dst_avx+0xe8>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 235,150 ; jmp caa8 <_sk_load_a8_dst_avx+0x18>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 197,217,196,224,2 ; vpinsrw $0x2,%eax,%xmm4,%xmm4
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,249,110,232 ; vmovd %eax,%xmm5
- DB 196,226,121,48,237 ; vpmovzxbw %xmm5,%xmm5
- DB 196,227,89,14,229,3 ; vpblendw $0x3,%xmm5,%xmm4,%xmm4
- DB 233,110,255,255,255 ; jmpq caa8 <_sk_load_a8_dst_avx+0x18>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 197,217,196,224,6 ; vpinsrw $0x6,%eax,%xmm4,%xmm4
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 197,217,196,224,5 ; vpinsrw $0x5,%eax,%xmm4,%xmm4
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 197,217,196,224,4 ; vpinsrw $0x4,%eax,%xmm4,%xmm4
- DB 196,193,121,110,44,16 ; vmovd (%r8,%rdx,1),%xmm5
- DB 196,226,121,48,237 ; vpmovzxbw %xmm5,%xmm5
- DB 196,227,81,14,228,240 ; vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- DB 233,51,255,255,255 ; jmpq caa8 <_sk_load_a8_dst_avx+0x18>
- DB 15,31,0 ; nopl (%rax)
- DB 143 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,169,255,255,255,154 ; ljmp *-0x65000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_a8_avx
-_sk_gather_a8_avx LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,80,12 ; vbroadcastss 0xc(%rax),%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 196,65,57,118,192 ; vpcmpeqd %xmm8,%xmm8,%xmm8
- DB 196,193,97,254,216 ; vpaddd %xmm8,%xmm3,%xmm3
- DB 196,193,105,254,208 ; vpaddd %xmm8,%xmm2,%xmm2
- DB 196,227,109,24,211,1 ; vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,180,95,192 ; vmaxps %ymm0,%ymm9,%ymm0
- DB 197,252,93,210 ; vminps %ymm2,%ymm0,%ymm2
- DB 196,226,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm0
- DB 196,227,125,25,195,1 ; vextractf128 $0x1,%ymm0,%xmm3
- DB 196,193,97,254,216 ; vpaddd %xmm8,%xmm3,%xmm3
- DB 196,193,121,254,192 ; vpaddd %xmm8,%xmm0,%xmm0
- DB 196,227,125,24,195,1 ; vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
- DB 197,180,95,201 ; vmaxps %ymm1,%ymm9,%ymm1
- DB 197,244,93,192 ; vminps %ymm0,%ymm1,%ymm0
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,200 ; vcvttps2dq %ymm0,%ymm1
- DB 197,249,110,64,8 ; vmovd 0x8(%rax),%xmm0
- DB 197,249,112,216,0 ; vpshufd $0x0,%xmm0,%xmm3
- DB 196,226,97,64,193 ; vpmulld %xmm1,%xmm3,%xmm0
- DB 196,227,125,25,201,1 ; vextractf128 $0x1,%ymm1,%xmm1
- DB 196,226,97,64,201 ; vpmulld %xmm1,%xmm3,%xmm1
- DB 197,254,91,210 ; vcvttps2dq %ymm2,%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 197,241,254,203 ; vpaddd %xmm3,%xmm1,%xmm1
- DB 196,227,249,22,200,1 ; vpextrq $0x1,%xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 196,193,249,126,202 ; vmovq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 197,249,254,194 ; vpaddd %xmm2,%xmm0,%xmm0
- DB 196,227,249,22,195,1 ; vpextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,193,249,126,199 ; vmovq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 71,15,182,60,56 ; movzbl (%r8,%r15,1),%r15d
- DB 67,15,182,44,32 ; movzbl (%r8,%r12,1),%ebp
- DB 197,249,110,197 ; vmovd %ebp,%xmm0
- DB 196,195,121,32,199,1 ; vpinsrb $0x1,%r15d,%xmm0,%xmm0
- DB 67,15,182,44,48 ; movzbl (%r8,%r14,1),%ebp
- DB 196,227,121,32,197,2 ; vpinsrb $0x2,%ebp,%xmm0,%xmm0
- DB 65,15,182,28,24 ; movzbl (%r8,%rbx,1),%ebx
- DB 196,227,121,32,195,3 ; vpinsrb $0x3,%ebx,%xmm0,%xmm0
- DB 196,226,121,49,192 ; vpmovzxbd %xmm0,%xmm0
- DB 67,15,182,44,16 ; movzbl (%r8,%r10,1),%ebp
- DB 67,15,182,28,24 ; movzbl (%r8,%r11,1),%ebx
- DB 197,249,110,203 ; vmovd %ebx,%xmm1
- DB 196,227,113,32,205,1 ; vpinsrb $0x1,%ebp,%xmm1,%xmm1
- DB 67,15,182,44,8 ; movzbl (%r8,%r9,1),%ebp
- DB 196,227,113,32,205,2 ; vpinsrb $0x2,%ebp,%xmm1,%xmm1
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,113,32,200,3 ; vpinsrb $0x3,%eax,%xmm1,%xmm1
- DB 196,226,121,49,201 ; vpmovzxbd %xmm1,%xmm1
- DB 196,227,125,24,193,1 ; vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,122,126,2,0 ; vbroadcastss 0x27e7a(%rip),%ymm1 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,252,89,217 ; vmulps %ymm1,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_a8_avx
-_sk_store_a8_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,98,125,24,13,199,125,2,0 ; vbroadcastss 0x27dc7(%rip),%ymm9 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,60,93,193 ; vminps %ymm9,%ymm8,%ymm8
- DB 196,98,125,24,13,229,125,2,0 ; vbroadcastss 0x27de5(%rip),%ymm9 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,66,57,43,193 ; vpackusdw %xmm9,%xmm8,%xmm8
- DB 197,57,103,192 ; vpackuswb %xmm0,%xmm8,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne cd37 <_sk_store_a8_avx+0x55>
- DB 196,65,121,214,4,16 ; vmovq %xmm8,(%r8,%rdx,1)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,242 ; ja cd33 <_sk_store_a8_avx+0x51>
- DB 196,66,121,48,192 ; vpmovzxbw %xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,88,0,0,0 ; lea 0x58(%rip),%r9 # cda8 <_sk_store_a8_avx+0xc6>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,67,121,20,4,16,0 ; vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- DB 235,209 ; jmp cd33 <_sk_store_a8_avx+0x51>
- DB 196,67,121,20,68,16,2,4 ; vpextrb $0x4,%xmm8,0x2(%r8,%rdx,1)
- DB 196,98,57,0,5,237,134,2,0 ; vpshufb 0x286ed(%rip),%xmm8,%xmm8 # 35460 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
- DB 196,67,121,21,4,16,0 ; vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- DB 235,183 ; jmp cd33 <_sk_store_a8_avx+0x51>
- DB 196,67,121,20,68,16,6,12 ; vpextrb $0xc,%xmm8,0x6(%r8,%rdx,1)
- DB 196,67,121,20,68,16,5,10 ; vpextrb $0xa,%xmm8,0x5(%r8,%rdx,1)
- DB 196,67,121,20,68,16,4,8 ; vpextrb $0x8,%xmm8,0x4(%r8,%rdx,1)
- DB 196,98,57,0,5,211,134,2,0 ; vpshufb 0x286d3(%rip),%xmm8,%xmm8 # 35470 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
- DB 196,65,121,126,4,16 ; vmovd %xmm8,(%r8,%rdx,1)
- DB 235,142 ; jmp cd33 <_sk_store_a8_avx+0x51>
- DB 15,31,0 ; nopl (%rax)
- DB 177,255 ; mov $0xff,%cl
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 186,255,255,255,236 ; mov $0xecffffff,%edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,228 ; jmpq *%rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255,212 ; callq *%rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_g8_avx
-_sk_load_g8_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,73 ; jne ce1f <_sk_load_g8_avx+0x5b>
- DB 196,194,121,48,4,16 ; vpmovzxbw (%r8,%rdx,1),%xmm0
- DB 197,249,219,5,108,134,2,0 ; vpand 0x2866c(%rip),%xmm0,%xmm0 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,226,121,51,200 ; vpmovzxwd %xmm0,%xmm1
- DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
- DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,58,125,2,0 ; vbroadcastss 0x27d3a(%rip),%ymm1 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,179,124,2,0 ; vbroadcastss 0x27cb3(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,175 ; ja cddc <_sk_load_g8_avx+0x18>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,121,0,0,0 ; lea 0x79(%rip),%r9 # ceb0 <_sk_load_g8_avx+0xec>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 235,145 ; jmp cddc <_sk_load_g8_avx+0x18>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,249,196,192,2 ; vpinsrw $0x2,%eax,%xmm0,%xmm0
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,249,110,200 ; vmovd %eax,%xmm1
- DB 196,226,121,48,201 ; vpmovzxbw %xmm1,%xmm1
- DB 196,227,121,14,193,3 ; vpblendw $0x3,%xmm1,%xmm0,%xmm0
- DB 233,105,255,255,255 ; jmpq cddc <_sk_load_g8_avx+0x18>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,249,196,192,6 ; vpinsrw $0x6,%eax,%xmm0,%xmm0
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 197,249,196,192,5 ; vpinsrw $0x5,%eax,%xmm0,%xmm0
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 197,249,196,192,4 ; vpinsrw $0x4,%eax,%xmm0,%xmm0
- DB 196,193,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm1
- DB 196,226,121,48,201 ; vpmovzxbw %xmm1,%xmm1
- DB 196,227,113,14,192,240 ; vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- DB 233,46,255,255,255 ; jmpq cddc <_sk_load_g8_avx+0x18>
- DB 102,144 ; xchg %ax,%ax
- DB 144 ; nop
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,170,255,255,255,155 ; ljmp *-0x64000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,255,255,255,221 ; callq ffffffffde00cec0 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd86a8>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,195 ; inc %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_g8_dst_avx
-_sk_load_g8_dst_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,73 ; jne cf27 <_sk_load_g8_dst_avx+0x5b>
- DB 196,194,121,48,36,16 ; vpmovzxbw (%r8,%rdx,1),%xmm4
- DB 197,217,219,37,100,133,2,0 ; vpand 0x28564(%rip),%xmm4,%xmm4 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 196,226,121,51,236 ; vpmovzxwd %xmm4,%xmm5
- DB 197,249,112,228,78 ; vpshufd $0x4e,%xmm4,%xmm4
- DB 196,226,121,51,228 ; vpmovzxwd %xmm4,%xmm4
- DB 196,227,85,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,50,124,2,0 ; vbroadcastss 0x27c32(%rip),%ymm5 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,220,89,229 ; vmulps %ymm5,%ymm4,%ymm4
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,61,171,123,2,0 ; vbroadcastss 0x27bab(%rip),%ymm7 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,40,236 ; vmovaps %ymm4,%ymm5
- DB 197,252,40,244 ; vmovaps %ymm4,%ymm6
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,175 ; ja cee4 <_sk_load_g8_dst_avx+0x18>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,121,0,0,0 ; lea 0x79(%rip),%r9 # cfb8 <_sk_load_g8_dst_avx+0xec>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 235,145 ; jmp cee4 <_sk_load_g8_dst_avx+0x18>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 197,217,196,224,2 ; vpinsrw $0x2,%eax,%xmm4,%xmm4
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,249,110,232 ; vmovd %eax,%xmm5
- DB 196,226,121,48,237 ; vpmovzxbw %xmm5,%xmm5
- DB 196,227,89,14,229,3 ; vpblendw $0x3,%xmm5,%xmm4,%xmm4
- DB 233,105,255,255,255 ; jmpq cee4 <_sk_load_g8_dst_avx+0x18>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 197,217,196,224,6 ; vpinsrw $0x6,%eax,%xmm4,%xmm4
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 197,217,196,224,5 ; vpinsrw $0x5,%eax,%xmm4,%xmm4
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 197,217,196,224,4 ; vpinsrw $0x4,%eax,%xmm4,%xmm4
- DB 196,193,121,110,44,16 ; vmovd (%r8,%rdx,1),%xmm5
- DB 196,226,121,48,237 ; vpmovzxbw %xmm5,%xmm5
- DB 196,227,81,14,228,240 ; vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- DB 233,46,255,255,255 ; jmpq cee4 <_sk_load_g8_dst_avx+0x18>
- DB 102,144 ; xchg %ax,%ax
- DB 144 ; nop
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,170,255,255,255,155 ; ljmp *-0x64000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,255,255,255,221 ; callq ffffffffde00cfc8 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddfd87b0>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,195 ; inc %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_g8_avx
-_sk_gather_g8_avx LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,80,12 ; vbroadcastss 0xc(%rax),%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 196,65,57,118,192 ; vpcmpeqd %xmm8,%xmm8,%xmm8
- DB 196,193,97,254,216 ; vpaddd %xmm8,%xmm3,%xmm3
- DB 196,193,105,254,208 ; vpaddd %xmm8,%xmm2,%xmm2
- DB 196,227,109,24,211,1 ; vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,180,95,192 ; vmaxps %ymm0,%ymm9,%ymm0
- DB 197,252,93,210 ; vminps %ymm2,%ymm0,%ymm2
- DB 196,226,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm0
- DB 196,227,125,25,195,1 ; vextractf128 $0x1,%ymm0,%xmm3
- DB 196,193,97,254,216 ; vpaddd %xmm8,%xmm3,%xmm3
- DB 196,193,121,254,192 ; vpaddd %xmm8,%xmm0,%xmm0
- DB 196,227,125,24,195,1 ; vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
- DB 197,180,95,201 ; vmaxps %ymm1,%ymm9,%ymm1
- DB 197,244,93,192 ; vminps %ymm0,%ymm1,%ymm0
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,200 ; vcvttps2dq %ymm0,%ymm1
- DB 197,249,110,64,8 ; vmovd 0x8(%rax),%xmm0
- DB 197,249,112,216,0 ; vpshufd $0x0,%xmm0,%xmm3
- DB 196,226,97,64,193 ; vpmulld %xmm1,%xmm3,%xmm0
- DB 196,227,125,25,201,1 ; vextractf128 $0x1,%ymm1,%xmm1
- DB 196,226,97,64,201 ; vpmulld %xmm1,%xmm3,%xmm1
- DB 197,254,91,210 ; vcvttps2dq %ymm2,%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 197,241,254,203 ; vpaddd %xmm3,%xmm1,%xmm1
- DB 196,227,249,22,200,1 ; vpextrq $0x1,%xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 196,193,249,126,202 ; vmovq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 197,249,254,194 ; vpaddd %xmm2,%xmm0,%xmm0
- DB 196,227,249,22,195,1 ; vpextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,193,249,126,199 ; vmovq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 71,15,182,60,56 ; movzbl (%r8,%r15,1),%r15d
- DB 67,15,182,44,32 ; movzbl (%r8,%r12,1),%ebp
- DB 197,249,110,197 ; vmovd %ebp,%xmm0
- DB 196,195,121,32,199,1 ; vpinsrb $0x1,%r15d,%xmm0,%xmm0
- DB 67,15,182,44,48 ; movzbl (%r8,%r14,1),%ebp
- DB 196,227,121,32,197,2 ; vpinsrb $0x2,%ebp,%xmm0,%xmm0
- DB 65,15,182,28,24 ; movzbl (%r8,%rbx,1),%ebx
- DB 196,227,121,32,195,3 ; vpinsrb $0x3,%ebx,%xmm0,%xmm0
- DB 196,226,121,49,192 ; vpmovzxbd %xmm0,%xmm0
- DB 67,15,182,44,16 ; movzbl (%r8,%r10,1),%ebp
- DB 67,15,182,28,24 ; movzbl (%r8,%r11,1),%ebx
- DB 197,249,110,203 ; vmovd %ebx,%xmm1
- DB 196,227,113,32,205,1 ; vpinsrb $0x1,%ebp,%xmm1,%xmm1
- DB 67,15,182,44,8 ; movzbl (%r8,%r9,1),%ebp
- DB 196,227,113,32,205,2 ; vpinsrb $0x2,%ebp,%xmm1,%xmm1
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,113,32,200,3 ; vpinsrb $0x3,%eax,%xmm1,%xmm1
- DB 196,226,121,49,201 ; vpmovzxbd %xmm1,%xmm1
- DB 196,227,125,24,193,1 ; vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,58,122,2,0 ; vbroadcastss 0x27a3a(%rip),%ymm1 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,179,121,2,0 ; vbroadcastss 0x279b3(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_565_avx
-_sk_load_565_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,130,0,0,0 ; jne d1c2 <_sk_load_565_avx+0x9b>
- DB 196,193,122,111,4,80 ; vmovdqu (%r8,%rdx,2),%xmm0
- DB 196,226,121,51,200 ; vpmovzxwd %xmm0,%xmm1
- DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
- DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 196,227,117,24,208,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- DB 196,226,125,24,5,224,121,2,0 ; vbroadcastss 0x279e0(%rip),%ymm0 # 34b44 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- DB 197,236,84,192 ; vandps %ymm0,%ymm2,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,211,121,2,0 ; vbroadcastss 0x279d3(%rip),%ymm1 # 34b48 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,24,13,202,121,2,0 ; vbroadcastss 0x279ca(%rip),%ymm1 # 34b4c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- DB 197,236,84,201 ; vandps %ymm1,%ymm2,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,29,189,121,2,0 ; vbroadcastss 0x279bd(%rip),%ymm3 # 34b50 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
- DB 196,226,125,24,29,180,121,2,0 ; vbroadcastss 0x279b4(%rip),%ymm3 # 34b54 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- DB 197,236,84,211 ; vandps %ymm3,%ymm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,226,125,24,29,167,121,2,0 ; vbroadcastss 0x279a7(%rip),%ymm3 # 34b58 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- DB 197,236,89,211 ; vmulps %ymm3,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,8,121,2,0 ; vbroadcastss 0x27908(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,114,255,255,255 ; ja d146 <_sk_load_565_avx+0x1f>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,98,0,0,0 ; lea 0x62(%rip),%r9 # d240 <_sk_load_565_avx+0x119>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 233,81,255,255,255 ; jmpq d146 <_sk_load_565_avx+0x1f>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,68,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,121,110,12,80 ; vmovd (%r8,%rdx,2),%xmm1
- DB 196,227,121,14,193,3 ; vpblendw $0x3,%xmm1,%xmm0,%xmm0
- DB 233,52,255,255,255 ; jmpq d146 <_sk_load_565_avx+0x1f>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,68,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,121,196,68,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,121,196,68,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,122,126,12,80 ; vmovq (%r8,%rdx,2),%xmm1
- DB 196,227,113,14,192,240 ; vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- DB 233,7,255,255,255 ; jmpq d146 <_sk_load_565_avx+0x1f>
- DB 144 ; nop
- DB 167 ; cmpsl %es:(%rdi),%ds:(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,193 ; inc %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,181,255,255,255,238 ; pushq -0x11000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,230 ; jmpq *%rsi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 222,255 ; fdivrp %st,%st(7)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_565_dst_avx
-_sk_load_565_dst_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,130,0,0,0 ; jne d2f7 <_sk_load_565_dst_avx+0x9b>
- DB 196,193,122,111,36,80 ; vmovdqu (%r8,%rdx,2),%xmm4
- DB 196,226,121,51,236 ; vpmovzxwd %xmm4,%xmm5
- DB 197,249,112,228,78 ; vpshufd $0x4e,%xmm4,%xmm4
- DB 196,226,121,51,228 ; vpmovzxwd %xmm4,%xmm4
- DB 196,227,85,24,244,1 ; vinsertf128 $0x1,%xmm4,%ymm5,%ymm6
- DB 196,226,125,24,37,171,120,2,0 ; vbroadcastss 0x278ab(%rip),%ymm4 # 34b44 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- DB 197,204,84,228 ; vandps %ymm4,%ymm6,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,158,120,2,0 ; vbroadcastss 0x2789e(%rip),%ymm5 # 34b48 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- DB 197,220,89,229 ; vmulps %ymm5,%ymm4,%ymm4
- DB 196,226,125,24,45,149,120,2,0 ; vbroadcastss 0x27895(%rip),%ymm5 # 34b4c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- DB 197,204,84,237 ; vandps %ymm5,%ymm6,%ymm5
- DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,226,125,24,61,136,120,2,0 ; vbroadcastss 0x27888(%rip),%ymm7 # 34b50 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- DB 197,212,89,239 ; vmulps %ymm7,%ymm5,%ymm5
- DB 196,226,125,24,61,127,120,2,0 ; vbroadcastss 0x2787f(%rip),%ymm7 # 34b54 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- DB 197,204,84,247 ; vandps %ymm7,%ymm6,%ymm6
- DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 196,226,125,24,61,114,120,2,0 ; vbroadcastss 0x27872(%rip),%ymm7 # 34b58 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- DB 197,204,89,247 ; vmulps %ymm7,%ymm6,%ymm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,61,211,119,2,0 ; vbroadcastss 0x277d3(%rip),%ymm7 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,114,255,255,255 ; ja d27b <_sk_load_565_dst_avx+0x1f>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,97,0,0,0 ; lea 0x61(%rip),%r9 # d374 <_sk_load_565_dst_avx+0x118>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 233,81,255,255,255 ; jmpq d27b <_sk_load_565_dst_avx+0x1f>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,100,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,121,110,44,80 ; vmovd (%r8,%rdx,2),%xmm5
- DB 196,227,89,14,229,3 ; vpblendw $0x3,%xmm5,%xmm4,%xmm4
- DB 233,52,255,255,255 ; jmpq d27b <_sk_load_565_dst_avx+0x1f>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,100,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,89,196,100,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,89,196,100,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,122,126,44,80 ; vmovq (%r8,%rdx,2),%xmm5
- DB 196,227,81,14,228,240 ; vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- DB 233,7,255,255,255 ; jmpq d27b <_sk_load_565_dst_avx+0x1f>
- DB 168,255 ; test $0xff,%al
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,182,255,255,255,239 ; pushq -0x10000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 223,255 ; (bad)
- DB 255 ; (bad)
- DB 255,211 ; callq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_565_avx
-_sk_gather_565_avx LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,80,12 ; vbroadcastss 0xc(%rax),%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 196,65,57,118,192 ; vpcmpeqd %xmm8,%xmm8,%xmm8
- DB 196,193,97,254,216 ; vpaddd %xmm8,%xmm3,%xmm3
- DB 196,193,105,254,208 ; vpaddd %xmm8,%xmm2,%xmm2
- DB 196,227,109,24,211,1 ; vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,180,95,192 ; vmaxps %ymm0,%ymm9,%ymm0
- DB 197,252,93,210 ; vminps %ymm2,%ymm0,%ymm2
- DB 196,226,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm0
- DB 196,227,125,25,195,1 ; vextractf128 $0x1,%ymm0,%xmm3
- DB 196,193,97,254,216 ; vpaddd %xmm8,%xmm3,%xmm3
- DB 196,193,121,254,192 ; vpaddd %xmm8,%xmm0,%xmm0
- DB 196,227,125,24,195,1 ; vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
- DB 197,180,95,201 ; vmaxps %ymm1,%ymm9,%ymm1
- DB 197,244,93,192 ; vminps %ymm0,%ymm1,%ymm0
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,200 ; vcvttps2dq %ymm0,%ymm1
- DB 197,249,110,64,8 ; vmovd 0x8(%rax),%xmm0
- DB 197,249,112,216,0 ; vpshufd $0x0,%xmm0,%xmm3
- DB 196,226,97,64,193 ; vpmulld %xmm1,%xmm3,%xmm0
- DB 196,227,125,25,201,1 ; vextractf128 $0x1,%ymm1,%xmm1
- DB 196,226,97,64,201 ; vpmulld %xmm1,%xmm3,%xmm1
- DB 197,254,91,210 ; vcvttps2dq %ymm2,%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 197,241,254,203 ; vpaddd %xmm3,%xmm1,%xmm1
- DB 196,227,249,22,200,1 ; vpextrq $0x1,%xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 196,193,249,126,202 ; vmovq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 197,249,254,194 ; vpaddd %xmm2,%xmm0,%xmm0
- DB 196,227,249,22,195,1 ; vpextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,193,249,126,199 ; vmovq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 71,15,183,60,120 ; movzwl (%r8,%r15,2),%r15d
- DB 67,15,183,44,96 ; movzwl (%r8,%r12,2),%ebp
- DB 197,249,110,197 ; vmovd %ebp,%xmm0
- DB 196,193,121,196,199,1 ; vpinsrw $0x1,%r15d,%xmm0,%xmm0
- DB 67,15,183,44,112 ; movzwl (%r8,%r14,2),%ebp
- DB 197,249,196,197,2 ; vpinsrw $0x2,%ebp,%xmm0,%xmm0
- DB 65,15,183,28,88 ; movzwl (%r8,%rbx,2),%ebx
- DB 197,249,196,195,3 ; vpinsrw $0x3,%ebx,%xmm0,%xmm0
- DB 67,15,183,44,88 ; movzwl (%r8,%r11,2),%ebp
- DB 197,249,196,197,4 ; vpinsrw $0x4,%ebp,%xmm0,%xmm0
- DB 67,15,183,44,80 ; movzwl (%r8,%r10,2),%ebp
- DB 197,249,196,197,5 ; vpinsrw $0x5,%ebp,%xmm0,%xmm0
- DB 67,15,183,44,72 ; movzwl (%r8,%r9,2),%ebp
- DB 197,249,196,197,6 ; vpinsrw $0x6,%ebp,%xmm0,%xmm0
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,249,196,192,7 ; vpinsrw $0x7,%eax,%xmm0,%xmm0
- DB 196,226,121,51,200 ; vpmovzxwd %xmm0,%xmm1
- DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
- DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 196,227,117,24,208,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm2
- DB 196,226,125,24,5,133,118,2,0 ; vbroadcastss 0x27685(%rip),%ymm0 # 34b44 <_sk_srcover_bgra_8888_sse2_lowp+0x32c>
- DB 197,236,84,192 ; vandps %ymm0,%ymm2,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,120,118,2,0 ; vbroadcastss 0x27678(%rip),%ymm1 # 34b48 <_sk_srcover_bgra_8888_sse2_lowp+0x330>
- DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,24,13,111,118,2,0 ; vbroadcastss 0x2766f(%rip),%ymm1 # 34b4c <_sk_srcover_bgra_8888_sse2_lowp+0x334>
- DB 197,236,84,201 ; vandps %ymm1,%ymm2,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,29,98,118,2,0 ; vbroadcastss 0x27662(%rip),%ymm3 # 34b50 <_sk_srcover_bgra_8888_sse2_lowp+0x338>
- DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
- DB 196,226,125,24,29,89,118,2,0 ; vbroadcastss 0x27659(%rip),%ymm3 # 34b54 <_sk_srcover_bgra_8888_sse2_lowp+0x33c>
- DB 197,236,84,211 ; vandps %ymm3,%ymm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,226,125,24,29,76,118,2,0 ; vbroadcastss 0x2764c(%rip),%ymm3 # 34b58 <_sk_srcover_bgra_8888_sse2_lowp+0x340>
- DB 197,236,89,211 ; vmulps %ymm3,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,173,117,2,0 ; vbroadcastss 0x275ad(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_565_avx
-_sk_store_565_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,200 ; vmaxps %ymm0,%ymm8,%ymm9
- DB 196,98,125,24,21,129,117,2,0 ; vbroadcastss 0x27581(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,52,93,202 ; vminps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,29,99,118,2,0 ; vbroadcastss 0x27663(%rip),%ymm11 # 34bb8 <_sk_srcover_bgra_8888_sse2_lowp+0x3a0>
- DB 196,65,52,89,203 ; vmulps %ymm11,%ymm9,%ymm9
- DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
- DB 196,193,25,114,241,11 ; vpslld $0xb,%xmm9,%xmm12
- DB 196,67,125,25,201,1 ; vextractf128 $0x1,%ymm9,%xmm9
- DB 196,193,49,114,241,11 ; vpslld $0xb,%xmm9,%xmm9
- DB 196,67,29,24,201,1 ; vinsertf128 $0x1,%xmm9,%ymm12,%ymm9
- DB 197,60,95,225 ; vmaxps %ymm1,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,98,125,24,45,51,118,2,0 ; vbroadcastss 0x27633(%rip),%ymm13 # 34bbc <_sk_srcover_bgra_8888_sse2_lowp+0x3a4>
- DB 196,65,28,89,229 ; vmulps %ymm13,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,17,114,244,5 ; vpslld $0x5,%xmm12,%xmm13
- DB 196,67,125,25,228,1 ; vextractf128 $0x1,%ymm12,%xmm12
- DB 196,193,25,114,244,5 ; vpslld $0x5,%xmm12,%xmm12
- DB 196,67,21,24,228,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- DB 196,65,29,86,201 ; vorpd %ymm9,%ymm12,%ymm9
- DB 197,60,95,194 ; vmaxps %ymm2,%ymm8,%ymm8
- DB 196,65,60,93,194 ; vminps %ymm10,%ymm8,%ymm8
- DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,65,53,86,192 ; vorpd %ymm8,%ymm9,%ymm8
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,66,57,43,193 ; vpackusdw %xmm9,%xmm8,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne d5e2 <_sk_store_565_avx+0xbd>
- DB 196,65,122,127,4,80 ; vmovdqu %xmm8,(%r8,%rdx,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,242 ; ja d5de <_sk_store_565_avx+0xb9>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,66,0,0,0 ; lea 0x42(%rip),%r9 # d638 <_sk_store_565_avx+0x113>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,67,121,21,4,80,0 ; vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- DB 235,214 ; jmp d5de <_sk_store_565_avx+0xb9>
- DB 196,67,121,21,68,80,4,2 ; vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- DB 196,65,121,126,4,80 ; vmovd %xmm8,(%r8,%rdx,2)
- DB 235,198 ; jmp d5de <_sk_store_565_avx+0xb9>
- DB 196,67,121,21,68,80,12,6 ; vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- DB 196,67,121,21,68,80,10,5 ; vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- DB 196,67,121,21,68,80,8,4 ; vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- DB 196,65,121,214,4,80 ; vmovq %xmm8,(%r8,%rdx,2)
- DB 235,166 ; jmp d5de <_sk_store_565_avx+0xb9>
- DB 199 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 216,255 ; fdivr %st(7),%st
- DB 255 ; (bad)
- DB 255,208 ; callq *%rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 248 ; clc
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,240 ; push %rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,255,255,255,224 ; callq ffffffffe100d650 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe0fd8e38>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_4444_avx
-_sk_load_4444_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,154,0,0,0 ; jne d707 <_sk_load_4444_avx+0xb3>
- DB 196,193,122,111,4,80 ; vmovdqu (%r8,%rdx,2),%xmm0
- DB 196,226,121,51,200 ; vpmovzxwd %xmm0,%xmm1
- DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
- DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 196,227,117,24,216,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- DB 196,226,125,24,5,47,117,2,0 ; vbroadcastss 0x2752f(%rip),%ymm0 # 34bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- DB 197,228,84,192 ; vandps %ymm0,%ymm3,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,34,117,2,0 ; vbroadcastss 0x27522(%rip),%ymm1 # 34bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,24,13,25,117,2,0 ; vbroadcastss 0x27519(%rip),%ymm1 # 34bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- DB 197,228,84,201 ; vandps %ymm1,%ymm3,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,21,12,117,2,0 ; vbroadcastss 0x2750c(%rip),%ymm2 # 34bcc <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- DB 197,244,89,202 ; vmulps %ymm2,%ymm1,%ymm1
- DB 196,226,125,24,21,3,117,2,0 ; vbroadcastss 0x27503(%rip),%ymm2 # 34bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- DB 197,228,84,210 ; vandps %ymm2,%ymm3,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,98,125,24,5,246,116,2,0 ; vbroadcastss 0x274f6(%rip),%ymm8 # 34bd4 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 196,98,125,24,5,236,116,2,0 ; vbroadcastss 0x274ec(%rip),%ymm8 # 34bd8 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- DB 196,193,100,84,216 ; vandps %ymm8,%ymm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,222,116,2,0 ; vbroadcastss 0x274de(%rip),%ymm8 # 34bdc <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,90,255,255,255 ; ja d673 <_sk_load_4444_avx+0x1f>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,97,0,0,0 ; lea 0x61(%rip),%r9 # d784 <_sk_load_4444_avx+0x130>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 233,57,255,255,255 ; jmpq d673 <_sk_load_4444_avx+0x1f>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,68,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,121,110,12,80 ; vmovd (%r8,%rdx,2),%xmm1
- DB 196,227,121,14,193,3 ; vpblendw $0x3,%xmm1,%xmm0,%xmm0
- DB 233,28,255,255,255 ; jmpq d673 <_sk_load_4444_avx+0x1f>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,68,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,121,196,68,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,121,196,68,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm0
- DB 196,193,122,126,12,80 ; vmovq (%r8,%rdx,2),%xmm1
- DB 196,227,113,14,192,240 ; vpblendw $0xf0,%xmm0,%xmm1,%xmm0
- DB 233,239,254,255,255 ; jmpq d673 <_sk_load_4444_avx+0x1f>
- DB 168,255 ; test $0xff,%al
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,182,255,255,255,239 ; pushq -0x10000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 223,255 ; (bad)
- DB 255 ; (bad)
- DB 255,211 ; callq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_4444_dst_avx
-_sk_load_4444_dst_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,154,0,0,0 ; jne d853 <_sk_load_4444_dst_avx+0xb3>
- DB 196,193,122,111,36,80 ; vmovdqu (%r8,%rdx,2),%xmm4
- DB 196,226,121,51,236 ; vpmovzxwd %xmm4,%xmm5
- DB 197,249,112,228,78 ; vpshufd $0x4e,%xmm4,%xmm4
- DB 196,226,121,51,228 ; vpmovzxwd %xmm4,%xmm4
- DB 196,227,85,24,252,1 ; vinsertf128 $0x1,%xmm4,%ymm5,%ymm7
- DB 196,226,125,24,37,227,115,2,0 ; vbroadcastss 0x273e3(%rip),%ymm4 # 34bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- DB 197,196,84,228 ; vandps %ymm4,%ymm7,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,226,125,24,45,214,115,2,0 ; vbroadcastss 0x273d6(%rip),%ymm5 # 34bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- DB 197,220,89,229 ; vmulps %ymm5,%ymm4,%ymm4
- DB 196,226,125,24,45,205,115,2,0 ; vbroadcastss 0x273cd(%rip),%ymm5 # 34bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- DB 197,196,84,237 ; vandps %ymm5,%ymm7,%ymm5
- DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,226,125,24,53,192,115,2,0 ; vbroadcastss 0x273c0(%rip),%ymm6 # 34bcc <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- DB 197,212,89,238 ; vmulps %ymm6,%ymm5,%ymm5
- DB 196,226,125,24,53,183,115,2,0 ; vbroadcastss 0x273b7(%rip),%ymm6 # 34bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- DB 197,196,84,246 ; vandps %ymm6,%ymm7,%ymm6
- DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 196,98,125,24,5,170,115,2,0 ; vbroadcastss 0x273aa(%rip),%ymm8 # 34bd4 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- DB 196,193,76,89,240 ; vmulps %ymm8,%ymm6,%ymm6
- DB 196,98,125,24,5,160,115,2,0 ; vbroadcastss 0x273a0(%rip),%ymm8 # 34bd8 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- DB 196,193,68,84,248 ; vandps %ymm8,%ymm7,%ymm7
- DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,98,125,24,5,146,115,2,0 ; vbroadcastss 0x27392(%rip),%ymm8 # 34bdc <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- DB 196,193,68,89,248 ; vmulps %ymm8,%ymm7,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,90,255,255,255 ; ja d7bf <_sk_load_4444_dst_avx+0x1f>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,97,0,0,0 ; lea 0x61(%rip),%r9 # d8d0 <_sk_load_4444_dst_avx+0x130>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 233,57,255,255,255 ; jmpq d7bf <_sk_load_4444_dst_avx+0x1f>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,100,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,121,110,44,80 ; vmovd (%r8,%rdx,2),%xmm5
- DB 196,227,89,14,229,3 ; vpblendw $0x3,%xmm5,%xmm4,%xmm4
- DB 233,28,255,255,255 ; jmpq d7bf <_sk_load_4444_dst_avx+0x1f>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,100,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,89,196,100,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,89,196,100,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm4
- DB 196,193,122,126,44,80 ; vmovq (%r8,%rdx,2),%xmm5
- DB 196,227,81,14,228,240 ; vpblendw $0xf0,%xmm4,%xmm5,%xmm4
- DB 233,239,254,255,255 ; jmpq d7bf <_sk_load_4444_dst_avx+0x1f>
- DB 168,255 ; test $0xff,%al
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,182,255,255,255,239 ; pushq -0x10000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 223,255 ; (bad)
- DB 255 ; (bad)
- DB 255,211 ; callq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_4444_avx
-_sk_gather_4444_avx LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,80,12 ; vbroadcastss 0xc(%rax),%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 196,65,57,118,192 ; vpcmpeqd %xmm8,%xmm8,%xmm8
- DB 196,193,97,254,216 ; vpaddd %xmm8,%xmm3,%xmm3
- DB 196,193,105,254,208 ; vpaddd %xmm8,%xmm2,%xmm2
- DB 196,227,109,24,211,1 ; vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,180,95,192 ; vmaxps %ymm0,%ymm9,%ymm0
- DB 197,252,93,210 ; vminps %ymm2,%ymm0,%ymm2
- DB 196,226,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm0
- DB 196,227,125,25,195,1 ; vextractf128 $0x1,%ymm0,%xmm3
- DB 196,193,97,254,216 ; vpaddd %xmm8,%xmm3,%xmm3
- DB 196,193,121,254,192 ; vpaddd %xmm8,%xmm0,%xmm0
- DB 196,227,125,24,195,1 ; vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
- DB 197,180,95,201 ; vmaxps %ymm1,%ymm9,%ymm1
- DB 197,244,93,192 ; vminps %ymm0,%ymm1,%ymm0
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,200 ; vcvttps2dq %ymm0,%ymm1
- DB 197,249,110,64,8 ; vmovd 0x8(%rax),%xmm0
- DB 197,249,112,216,0 ; vpshufd $0x0,%xmm0,%xmm3
- DB 196,226,97,64,193 ; vpmulld %xmm1,%xmm3,%xmm0
- DB 196,227,125,25,201,1 ; vextractf128 $0x1,%ymm1,%xmm1
- DB 196,226,97,64,201 ; vpmulld %xmm1,%xmm3,%xmm1
- DB 197,254,91,210 ; vcvttps2dq %ymm2,%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 197,241,254,203 ; vpaddd %xmm3,%xmm1,%xmm1
- DB 196,227,249,22,200,1 ; vpextrq $0x1,%xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 196,193,249,126,202 ; vmovq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 197,249,254,194 ; vpaddd %xmm2,%xmm0,%xmm0
- DB 196,227,249,22,195,1 ; vpextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,193,249,126,199 ; vmovq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 71,15,183,60,120 ; movzwl (%r8,%r15,2),%r15d
- DB 67,15,183,44,96 ; movzwl (%r8,%r12,2),%ebp
- DB 197,249,110,197 ; vmovd %ebp,%xmm0
- DB 196,193,121,196,199,1 ; vpinsrw $0x1,%r15d,%xmm0,%xmm0
- DB 67,15,183,44,112 ; movzwl (%r8,%r14,2),%ebp
- DB 197,249,196,197,2 ; vpinsrw $0x2,%ebp,%xmm0,%xmm0
- DB 65,15,183,28,88 ; movzwl (%r8,%rbx,2),%ebx
- DB 197,249,196,195,3 ; vpinsrw $0x3,%ebx,%xmm0,%xmm0
- DB 67,15,183,44,88 ; movzwl (%r8,%r11,2),%ebp
- DB 197,249,196,197,4 ; vpinsrw $0x4,%ebp,%xmm0,%xmm0
- DB 67,15,183,44,80 ; movzwl (%r8,%r10,2),%ebp
- DB 197,249,196,197,5 ; vpinsrw $0x5,%ebp,%xmm0,%xmm0
- DB 67,15,183,44,72 ; movzwl (%r8,%r9,2),%ebp
- DB 197,249,196,197,6 ; vpinsrw $0x6,%ebp,%xmm0,%xmm0
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,249,196,192,7 ; vpinsrw $0x7,%eax,%xmm0,%xmm0
- DB 196,226,121,51,200 ; vpmovzxwd %xmm0,%xmm1
- DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
- DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 196,227,117,24,216,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm3
- DB 196,226,125,24,5,165,113,2,0 ; vbroadcastss 0x271a5(%rip),%ymm0 # 34bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x3a8>
- DB 197,228,84,192 ; vandps %ymm0,%ymm3,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,226,125,24,13,152,113,2,0 ; vbroadcastss 0x27198(%rip),%ymm1 # 34bc4 <_sk_srcover_bgra_8888_sse2_lowp+0x3ac>
- DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 196,226,125,24,13,143,113,2,0 ; vbroadcastss 0x2718f(%rip),%ymm1 # 34bc8 <_sk_srcover_bgra_8888_sse2_lowp+0x3b0>
- DB 197,228,84,201 ; vandps %ymm1,%ymm3,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,226,125,24,21,130,113,2,0 ; vbroadcastss 0x27182(%rip),%ymm2 # 34bcc <_sk_srcover_bgra_8888_sse2_lowp+0x3b4>
- DB 197,244,89,202 ; vmulps %ymm2,%ymm1,%ymm1
- DB 196,226,125,24,21,121,113,2,0 ; vbroadcastss 0x27179(%rip),%ymm2 # 34bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x3b8>
- DB 197,228,84,210 ; vandps %ymm2,%ymm3,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,98,125,24,5,108,113,2,0 ; vbroadcastss 0x2716c(%rip),%ymm8 # 34bd4 <_sk_srcover_bgra_8888_sse2_lowp+0x3bc>
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 196,98,125,24,5,98,113,2,0 ; vbroadcastss 0x27162(%rip),%ymm8 # 34bd8 <_sk_srcover_bgra_8888_sse2_lowp+0x3c0>
- DB 196,193,100,84,216 ; vandps %ymm8,%ymm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,84,113,2,0 ; vbroadcastss 0x27154(%rip),%ymm8 # 34bdc <_sk_srcover_bgra_8888_sse2_lowp+0x3c4>
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_4444_avx
-_sk_store_4444_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,208 ; vmaxps %ymm0,%ymm8,%ymm10
- DB 196,98,125,24,13,13,112,2,0 ; vbroadcastss 0x2700d(%rip),%ymm9 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,44,93,209 ; vminps %ymm9,%ymm10,%ymm10
- DB 196,98,125,24,29,23,113,2,0 ; vbroadcastss 0x27117(%rip),%ymm11 # 34be0 <_sk_srcover_bgra_8888_sse2_lowp+0x3c8>
- DB 196,65,44,89,211 ; vmulps %ymm11,%ymm10,%ymm10
- DB 196,65,125,91,210 ; vcvtps2dq %ymm10,%ymm10
- DB 196,193,25,114,242,12 ; vpslld $0xc,%xmm10,%xmm12
- DB 196,67,125,25,210,1 ; vextractf128 $0x1,%ymm10,%xmm10
- DB 196,193,41,114,242,12 ; vpslld $0xc,%xmm10,%xmm10
- DB 196,67,29,24,210,1 ; vinsertf128 $0x1,%xmm10,%ymm12,%ymm10
- DB 197,60,95,225 ; vmaxps %ymm1,%ymm8,%ymm12
- DB 196,65,28,93,225 ; vminps %ymm9,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,17,114,244,8 ; vpslld $0x8,%xmm12,%xmm13
- DB 196,67,125,25,228,1 ; vextractf128 $0x1,%ymm12,%xmm12
- DB 196,193,25,114,244,8 ; vpslld $0x8,%xmm12,%xmm12
- DB 196,67,21,24,228,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- DB 196,65,29,86,210 ; vorpd %ymm10,%ymm12,%ymm10
- DB 197,60,95,226 ; vmaxps %ymm2,%ymm8,%ymm12
- DB 196,65,28,93,225 ; vminps %ymm9,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,17,114,244,4 ; vpslld $0x4,%xmm12,%xmm13
- DB 196,67,125,25,228,1 ; vextractf128 $0x1,%ymm12,%xmm12
- DB 196,193,25,114,244,4 ; vpslld $0x4,%xmm12,%xmm12
- DB 196,67,21,24,228,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,65,60,93,193 ; vminps %ymm9,%ymm8,%ymm8
- DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,65,29,86,192 ; vorpd %ymm8,%ymm12,%ymm8
- DB 196,65,45,86,192 ; vorpd %ymm8,%ymm10,%ymm8
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,66,57,43,193 ; vpackusdw %xmm9,%xmm8,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne db7d <_sk_store_4444_avx+0xe4>
- DB 196,65,122,127,4,80 ; vmovdqu %xmm8,(%r8,%rdx,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,242 ; ja db79 <_sk_store_4444_avx+0xe0>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,67,0,0,0 ; lea 0x43(%rip),%r9 # dbd4 <_sk_store_4444_avx+0x13b>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,67,121,21,4,80,0 ; vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- DB 235,214 ; jmp db79 <_sk_store_4444_avx+0xe0>
- DB 196,67,121,21,68,80,4,2 ; vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- DB 196,65,121,126,4,80 ; vmovd %xmm8,(%r8,%rdx,2)
- DB 235,198 ; jmp db79 <_sk_store_4444_avx+0xe0>
- DB 196,67,121,21,68,80,12,6 ; vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- DB 196,67,121,21,68,80,10,5 ; vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- DB 196,67,121,21,68,80,8,4 ; vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- DB 196,65,121,214,4,80 ; vmovq %xmm8,(%r8,%rdx,2)
- DB 235,166 ; jmp db79 <_sk_store_4444_avx+0xe0>
- DB 144 ; nop
- DB 198 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,215 ; callq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,207 ; dec %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,247 ; push %rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 239 ; out %eax,(%dx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 223,255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_8888_avx
-_sk_load_8888_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,135,0,0,0 ; jne dc91 <_sk_load_8888_avx+0xa1>
- DB 196,65,125,16,12,144 ; vmovupd (%r8,%rdx,4),%ymm9
- DB 197,125,40,21,200,116,2,0 ; vmovapd 0x274c8(%rip),%ymm10 # 350e0 <_sk_srcover_bgra_8888_sse2_lowp+0x8c8>
- DB 196,193,53,84,194 ; vandpd %ymm10,%ymm9,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,5,22,111,2,0 ; vbroadcastss 0x26f16(%rip),%ymm8 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 196,193,113,114,209,8 ; vpsrld $0x8,%xmm9,%xmm1
- DB 196,99,125,25,203,1 ; vextractf128 $0x1,%ymm9,%xmm3
- DB 197,233,114,211,8 ; vpsrld $0x8,%xmm3,%xmm2
- DB 196,227,117,24,202,1 ; vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- DB 196,193,117,84,202 ; vandpd %ymm10,%ymm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 196,193,33,114,209,16 ; vpsrld $0x10,%xmm9,%xmm11
- DB 197,233,114,211,16 ; vpsrld $0x10,%xmm3,%xmm2
- DB 196,227,37,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm11,%ymm2
- DB 196,193,109,84,210 ; vandpd %ymm10,%ymm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 196,193,49,114,209,24 ; vpsrld $0x18,%xmm9,%xmm9
- DB 197,225,114,211,24 ; vpsrld $0x18,%xmm3,%xmm3
- DB 196,227,53,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm9,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,108,255,255,255 ; ja dc10 <_sk_load_8888_avx+0x20>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,146,0,0,0 ; lea 0x92(%rip),%r9 # dd40 <_sk_load_8888_avx+0x150>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,122,16,12,144 ; vmovss (%r8,%rdx,4),%xmm9
- DB 233,78,255,255,255 ; jmpq dc10 <_sk_load_8888_avx+0x20>
- DB 196,193,121,110,68,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm0
- DB 197,249,112,192,68 ; vpshufd $0x44,%xmm0,%xmm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 196,99,117,12,200,4 ; vblendps $0x4,%ymm0,%ymm1,%ymm9
- DB 196,193,123,16,4,144 ; vmovsd (%r8,%rdx,4),%xmm0
- DB 196,99,53,13,200,1 ; vblendpd $0x1,%ymm0,%ymm9,%ymm9
- DB 233,39,255,255,255 ; jmpq dc10 <_sk_load_8888_avx+0x20>
- DB 196,193,121,110,68,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm0
- DB 197,249,112,192,68 ; vpshufd $0x44,%xmm0,%xmm0
- DB 196,227,125,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 196,99,117,12,200,64 ; vblendps $0x40,%ymm0,%ymm1,%ymm9
- DB 196,99,125,25,200,1 ; vextractf128 $0x1,%ymm9,%xmm0
- DB 196,195,121,34,68,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,99,53,24,200,1 ; vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
- DB 196,99,125,25,200,1 ; vextractf128 $0x1,%ymm9,%xmm0
- DB 196,195,121,34,68,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,99,53,24,200,1 ; vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
- DB 196,193,121,16,4,144 ; vmovupd (%r8,%rdx,4),%xmm0
- DB 196,67,125,13,201,12 ; vblendpd $0xc,%ymm9,%ymm0,%ymm9
- DB 233,210,254,255,255 ; jmpq dc10 <_sk_load_8888_avx+0x20>
- DB 102,144 ; xchg %ax,%ax
- DB 119,255 ; ja dd41 <_sk_load_8888_avx+0x151>
- DB 255 ; (bad)
- DB 255,152,255,255,255,130 ; lcall *-0x7d000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 237 ; in (%dx),%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 217,255 ; fcos
- DB 255 ; (bad)
- DB 255,197 ; inc %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 169 ; .byte 0xa9
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_8888_dst_avx
-_sk_load_8888_dst_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,135,0,0,0 ; jne ddfd <_sk_load_8888_dst_avx+0xa1>
- DB 196,65,125,16,12,144 ; vmovupd (%r8,%rdx,4),%ymm9
- DB 197,125,40,21,124,115,2,0 ; vmovapd 0x2737c(%rip),%ymm10 # 35100 <_sk_srcover_bgra_8888_sse2_lowp+0x8e8>
- DB 196,193,53,84,226 ; vandpd %ymm10,%ymm9,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,98,125,24,5,170,109,2,0 ; vbroadcastss 0x26daa(%rip),%ymm8 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,92,89,224 ; vmulps %ymm8,%ymm4,%ymm4
- DB 196,193,81,114,209,8 ; vpsrld $0x8,%xmm9,%xmm5
- DB 196,99,125,25,207,1 ; vextractf128 $0x1,%ymm9,%xmm7
- DB 197,201,114,215,8 ; vpsrld $0x8,%xmm7,%xmm6
- DB 196,227,85,24,238,1 ; vinsertf128 $0x1,%xmm6,%ymm5,%ymm5
- DB 196,193,85,84,234 ; vandpd %ymm10,%ymm5,%ymm5
- DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,193,84,89,232 ; vmulps %ymm8,%ymm5,%ymm5
- DB 196,193,33,114,209,16 ; vpsrld $0x10,%xmm9,%xmm11
- DB 197,201,114,215,16 ; vpsrld $0x10,%xmm7,%xmm6
- DB 196,227,37,24,246,1 ; vinsertf128 $0x1,%xmm6,%ymm11,%ymm6
- DB 196,193,77,84,242 ; vandpd %ymm10,%ymm6,%ymm6
- DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 196,193,76,89,240 ; vmulps %ymm8,%ymm6,%ymm6
- DB 196,193,49,114,209,24 ; vpsrld $0x18,%xmm9,%xmm9
- DB 197,193,114,215,24 ; vpsrld $0x18,%xmm7,%xmm7
- DB 196,227,53,24,255,1 ; vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
- DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,193,68,89,248 ; vmulps %ymm8,%ymm7,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,108,255,255,255 ; ja dd7c <_sk_load_8888_dst_avx+0x20>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,146,0,0,0 ; lea 0x92(%rip),%r9 # deac <_sk_load_8888_dst_avx+0x150>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,122,16,12,144 ; vmovss (%r8,%rdx,4),%xmm9
- DB 233,78,255,255,255 ; jmpq dd7c <_sk_load_8888_dst_avx+0x20>
- DB 196,193,121,110,100,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm4
- DB 197,249,112,228,68 ; vpshufd $0x44,%xmm4,%xmm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 196,99,85,12,204,4 ; vblendps $0x4,%ymm4,%ymm5,%ymm9
- DB 196,193,123,16,36,144 ; vmovsd (%r8,%rdx,4),%xmm4
- DB 196,99,53,13,204,1 ; vblendpd $0x1,%ymm4,%ymm9,%ymm9
- DB 233,39,255,255,255 ; jmpq dd7c <_sk_load_8888_dst_avx+0x20>
- DB 196,193,121,110,100,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm4
- DB 197,249,112,228,68 ; vpshufd $0x44,%xmm4,%xmm4
- DB 196,227,125,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 196,99,85,12,204,64 ; vblendps $0x40,%ymm4,%ymm5,%ymm9
- DB 196,99,125,25,204,1 ; vextractf128 $0x1,%ymm9,%xmm4
- DB 196,195,89,34,100,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,99,53,24,204,1 ; vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- DB 196,99,125,25,204,1 ; vextractf128 $0x1,%ymm9,%xmm4
- DB 196,195,89,34,100,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,99,53,24,204,1 ; vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- DB 196,193,121,16,36,144 ; vmovupd (%r8,%rdx,4),%xmm4
- DB 196,67,93,13,201,12 ; vblendpd $0xc,%ymm9,%ymm4,%ymm9
- DB 233,210,254,255,255 ; jmpq dd7c <_sk_load_8888_dst_avx+0x20>
- DB 102,144 ; xchg %ax,%ax
- DB 119,255 ; ja dead <_sk_load_8888_dst_avx+0x151>
- DB 255 ; (bad)
- DB 255,152,255,255,255,130 ; lcall *-0x7d000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 237 ; in (%dx),%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 217,255 ; fcos
- DB 255 ; (bad)
- DB 255,197 ; inc %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 169 ; .byte 0xa9
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_8888_avx
-_sk_gather_8888_avx LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,80,12 ; vbroadcastss 0xc(%rax),%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 196,65,57,118,192 ; vpcmpeqd %xmm8,%xmm8,%xmm8
- DB 196,193,97,254,216 ; vpaddd %xmm8,%xmm3,%xmm3
- DB 196,193,105,254,208 ; vpaddd %xmm8,%xmm2,%xmm2
- DB 196,227,109,24,211,1 ; vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,180,95,192 ; vmaxps %ymm0,%ymm9,%ymm0
- DB 197,252,93,194 ; vminps %ymm2,%ymm0,%ymm0
- DB 196,226,125,24,80,16 ; vbroadcastss 0x10(%rax),%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 196,193,97,254,216 ; vpaddd %xmm8,%xmm3,%xmm3
- DB 196,193,105,254,208 ; vpaddd %xmm8,%xmm2,%xmm2
- DB 196,227,109,24,211,1 ; vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- DB 197,180,95,201 ; vmaxps %ymm1,%ymm9,%ymm1
- DB 197,244,93,202 ; vminps %ymm2,%ymm1,%ymm1
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 197,249,110,80,8 ; vmovd 0x8(%rax),%xmm2
- DB 197,249,112,210,0 ; vpshufd $0x0,%xmm2,%xmm2
- DB 196,226,105,64,217 ; vpmulld %xmm1,%xmm2,%xmm3
- DB 196,227,125,25,201,1 ; vextractf128 $0x1,%ymm1,%xmm1
- DB 196,226,105,64,201 ; vpmulld %xmm1,%xmm2,%xmm1
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 196,227,125,25,194,1 ; vextractf128 $0x1,%ymm0,%xmm2
- DB 197,241,254,202 ; vpaddd %xmm2,%xmm1,%xmm1
- DB 196,225,249,126,200 ; vmovq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 197,225,254,192 ; vpaddd %xmm0,%xmm3,%xmm0
- DB 196,193,249,126,194 ; vmovq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,249,22,203,1 ; vpextrq $0x1,%xmm1,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,195,249,22,199,1 ; vpextrq $0x1,%xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 196,129,121,110,4,152 ; vmovd (%r8,%r11,4),%xmm0
- DB 196,131,121,34,4,144,1 ; vpinsrd $0x1,(%r8,%r10,4),%xmm0,%xmm0
- DB 196,131,121,34,4,160,2 ; vpinsrd $0x2,(%r8,%r12,4),%xmm0,%xmm0
- DB 196,3,121,34,4,184,3 ; vpinsrd $0x3,(%r8,%r15,4),%xmm0,%xmm8
- DB 196,129,121,110,4,136 ; vmovd (%r8,%r9,4),%xmm0
- DB 196,195,121,34,4,128,1 ; vpinsrd $0x1,(%r8,%rax,4),%xmm0,%xmm0
- DB 196,131,121,34,4,176,2 ; vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
- DB 196,195,121,34,28,152,3 ; vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
- DB 196,227,61,24,195,1 ; vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- DB 197,124,40,21,84,113,2,0 ; vmovaps 0x27154(%rip),%ymm10 # 35120 <_sk_srcover_bgra_8888_sse2_lowp+0x908>
- DB 196,193,124,84,194 ; vandps %ymm10,%ymm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,13,98,107,2,0 ; vbroadcastss 0x26b62(%rip),%ymm9 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
- DB 196,193,113,114,208,8 ; vpsrld $0x8,%xmm8,%xmm1
- DB 197,233,114,211,8 ; vpsrld $0x8,%xmm3,%xmm2
- DB 196,227,117,24,202,1 ; vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- DB 196,193,116,84,202 ; vandps %ymm10,%ymm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,193,116,89,201 ; vmulps %ymm9,%ymm1,%ymm1
- DB 196,193,33,114,208,16 ; vpsrld $0x10,%xmm8,%xmm11
- DB 197,233,114,211,16 ; vpsrld $0x10,%xmm3,%xmm2
- DB 196,227,37,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm11,%ymm2
- DB 196,193,108,84,210 ; vandps %ymm10,%ymm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,193,108,89,209 ; vmulps %ymm9,%ymm2,%ymm2
- DB 196,193,57,114,208,24 ; vpsrld $0x18,%xmm8,%xmm8
- DB 197,225,114,211,24 ; vpsrld $0x18,%xmm3,%xmm3
- DB 196,227,61,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,193,100,89,217 ; vmulps %ymm9,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_8888_avx
-_sk_store_8888_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,200 ; vmaxps %ymm0,%ymm8,%ymm9
- DB 196,98,125,24,21,95,106,2,0 ; vbroadcastss 0x26a5f(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,52,93,202 ; vminps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,29,125,106,2,0 ; vbroadcastss 0x26a7d(%rip),%ymm11 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,65,52,89,203 ; vmulps %ymm11,%ymm9,%ymm9
- DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
- DB 197,60,95,225 ; vmaxps %ymm1,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,17,114,244,8 ; vpslld $0x8,%xmm12,%xmm13
- DB 196,67,125,25,228,1 ; vextractf128 $0x1,%ymm12,%xmm12
- DB 196,193,25,114,244,8 ; vpslld $0x8,%xmm12,%xmm12
- DB 196,67,21,24,228,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- DB 196,65,29,86,201 ; vorpd %ymm9,%ymm12,%ymm9
- DB 197,60,95,226 ; vmaxps %ymm2,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,17,114,244,16 ; vpslld $0x10,%xmm12,%xmm13
- DB 196,67,125,25,228,1 ; vextractf128 $0x1,%ymm12,%xmm12
- DB 196,193,25,114,244,16 ; vpslld $0x10,%xmm12,%xmm12
- DB 196,67,21,24,228,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,65,60,93,194 ; vminps %ymm10,%ymm8,%ymm8
- DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,193,41,114,240,24 ; vpslld $0x18,%xmm8,%xmm10
- DB 196,67,125,25,192,1 ; vextractf128 $0x1,%ymm8,%xmm8
- DB 196,193,57,114,240,24 ; vpslld $0x18,%xmm8,%xmm8
- DB 196,67,45,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm10,%ymm8
- DB 196,65,29,86,192 ; vorpd %ymm8,%ymm12,%ymm8
- DB 196,65,53,86,192 ; vorpd %ymm8,%ymm9,%ymm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne e120 <_sk_store_8888_avx+0xda>
- DB 196,65,124,17,4,144 ; vmovups %ymm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,242 ; ja e11c <_sk_store_8888_avx+0xd6>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,84,0,0,0 ; lea 0x54(%rip),%r9 # e188 <_sk_store_8888_avx+0x142>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,126,4,144 ; vmovd %xmm8,(%r8,%rdx,4)
- DB 235,215 ; jmp e11c <_sk_store_8888_avx+0xd6>
- DB 196,67,121,22,68,144,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 196,65,121,214,4,144 ; vmovq %xmm8,(%r8,%rdx,4)
- DB 235,199 ; jmp e11c <_sk_store_8888_avx+0xd6>
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,24,2 ; vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,20,1 ; vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,65,122,17,76,144,16 ; vmovss %xmm9,0x10(%r8,%rdx,4)
- DB 196,65,121,17,4,144 ; vmovupd %xmm8,(%r8,%rdx,4)
- DB 235,150 ; jmp e11c <_sk_store_8888_avx+0xd6>
- DB 102,144 ; xchg %ax,%ax
- DB 181,255 ; mov $0xff,%ch
- DB 255 ; (bad)
- DB 255,197 ; inc %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 189,255,255,255,246 ; mov $0xf6ffffff,%ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 233,255,255,255,219 ; jmpq ffffffffdc00e19c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfd9984>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,205 ; dec %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_avx
-_sk_load_bgra_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,135,0,0,0 ; jne e245 <_sk_load_bgra_avx+0xa1>
- DB 196,65,125,16,12,144 ; vmovupd (%r8,%rdx,4),%ymm9
- DB 197,125,40,21,116,111,2,0 ; vmovapd 0x26f74(%rip),%ymm10 # 35140 <_sk_srcover_bgra_8888_sse2_lowp+0x928>
- DB 196,193,53,84,202 ; vandpd %ymm10,%ymm9,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,98,125,24,5,98,105,2,0 ; vbroadcastss 0x26962(%rip),%ymm8 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,116,89,208 ; vmulps %ymm8,%ymm1,%ymm2
- DB 196,193,113,114,209,8 ; vpsrld $0x8,%xmm9,%xmm1
- DB 196,99,125,25,203,1 ; vextractf128 $0x1,%ymm9,%xmm3
- DB 197,249,114,211,8 ; vpsrld $0x8,%xmm3,%xmm0
- DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- DB 196,193,125,84,194 ; vandpd %ymm10,%ymm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,193,124,89,200 ; vmulps %ymm8,%ymm0,%ymm1
- DB 196,193,33,114,209,16 ; vpsrld $0x10,%xmm9,%xmm11
- DB 197,249,114,211,16 ; vpsrld $0x10,%xmm3,%xmm0
- DB 196,227,37,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm11,%ymm0
- DB 196,193,125,84,194 ; vandpd %ymm10,%ymm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 196,193,49,114,209,24 ; vpsrld $0x18,%xmm9,%xmm9
- DB 197,225,114,211,24 ; vpsrld $0x18,%xmm3,%xmm3
- DB 196,227,53,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm9,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,108,255,255,255 ; ja e1c4 <_sk_load_bgra_avx+0x20>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,146,0,0,0 ; lea 0x92(%rip),%r9 # e2f4 <_sk_load_bgra_avx+0x150>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,122,16,12,144 ; vmovss (%r8,%rdx,4),%xmm9
- DB 233,78,255,255,255 ; jmpq e1c4 <_sk_load_bgra_avx+0x20>
- DB 196,193,121,110,68,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm0
- DB 197,249,112,192,68 ; vpshufd $0x44,%xmm0,%xmm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 196,99,117,12,200,4 ; vblendps $0x4,%ymm0,%ymm1,%ymm9
- DB 196,193,123,16,4,144 ; vmovsd (%r8,%rdx,4),%xmm0
- DB 196,99,53,13,200,1 ; vblendpd $0x1,%ymm0,%ymm9,%ymm9
- DB 233,39,255,255,255 ; jmpq e1c4 <_sk_load_bgra_avx+0x20>
- DB 196,193,121,110,68,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm0
- DB 197,249,112,192,68 ; vpshufd $0x44,%xmm0,%xmm0
- DB 196,227,125,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 196,99,117,12,200,64 ; vblendps $0x40,%ymm0,%ymm1,%ymm9
- DB 196,99,125,25,200,1 ; vextractf128 $0x1,%ymm9,%xmm0
- DB 196,195,121,34,68,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,99,53,24,200,1 ; vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
- DB 196,99,125,25,200,1 ; vextractf128 $0x1,%ymm9,%xmm0
- DB 196,195,121,34,68,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,99,53,24,200,1 ; vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
- DB 196,193,121,16,4,144 ; vmovupd (%r8,%rdx,4),%xmm0
- DB 196,67,125,13,201,12 ; vblendpd $0xc,%ymm9,%ymm0,%ymm9
- DB 233,210,254,255,255 ; jmpq e1c4 <_sk_load_bgra_avx+0x20>
- DB 102,144 ; xchg %ax,%ax
- DB 119,255 ; ja e2f5 <_sk_load_bgra_avx+0x151>
- DB 255 ; (bad)
- DB 255,152,255,255,255,130 ; lcall *-0x7d000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 237 ; in (%dx),%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 217,255 ; fcos
- DB 255 ; (bad)
- DB 255,197 ; inc %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 169 ; .byte 0xa9
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_dst_avx
-_sk_load_bgra_dst_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,135,0,0,0 ; jne e3b1 <_sk_load_bgra_dst_avx+0xa1>
- DB 196,65,125,16,12,144 ; vmovupd (%r8,%rdx,4),%ymm9
- DB 197,125,40,21,40,110,2,0 ; vmovapd 0x26e28(%rip),%ymm10 # 35160 <_sk_srcover_bgra_8888_sse2_lowp+0x948>
- DB 196,193,53,84,234 ; vandpd %ymm10,%ymm9,%ymm5
- DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,98,125,24,5,246,103,2,0 ; vbroadcastss 0x267f6(%rip),%ymm8 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,84,89,240 ; vmulps %ymm8,%ymm5,%ymm6
- DB 196,193,81,114,209,8 ; vpsrld $0x8,%xmm9,%xmm5
- DB 196,99,125,25,207,1 ; vextractf128 $0x1,%ymm9,%xmm7
- DB 197,217,114,215,8 ; vpsrld $0x8,%xmm7,%xmm4
- DB 196,227,85,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
- DB 196,193,93,84,226 ; vandpd %ymm10,%ymm4,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,193,92,89,232 ; vmulps %ymm8,%ymm4,%ymm5
- DB 196,193,33,114,209,16 ; vpsrld $0x10,%xmm9,%xmm11
- DB 197,217,114,215,16 ; vpsrld $0x10,%xmm7,%xmm4
- DB 196,227,37,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm11,%ymm4
- DB 196,193,93,84,226 ; vandpd %ymm10,%ymm4,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,193,92,89,224 ; vmulps %ymm8,%ymm4,%ymm4
- DB 196,193,49,114,209,24 ; vpsrld $0x18,%xmm9,%xmm9
- DB 197,193,114,215,24 ; vpsrld $0x18,%xmm7,%xmm7
- DB 196,227,53,24,255,1 ; vinsertf128 $0x1,%xmm7,%ymm9,%ymm7
- DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,193,68,89,248 ; vmulps %ymm8,%ymm7,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,108,255,255,255 ; ja e330 <_sk_load_bgra_dst_avx+0x20>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,146,0,0,0 ; lea 0x92(%rip),%r9 # e460 <_sk_load_bgra_dst_avx+0x150>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,122,16,12,144 ; vmovss (%r8,%rdx,4),%xmm9
- DB 233,78,255,255,255 ; jmpq e330 <_sk_load_bgra_dst_avx+0x20>
- DB 196,193,121,110,100,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm4
- DB 197,249,112,228,68 ; vpshufd $0x44,%xmm4,%xmm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 196,99,85,12,204,4 ; vblendps $0x4,%ymm4,%ymm5,%ymm9
- DB 196,193,123,16,36,144 ; vmovsd (%r8,%rdx,4),%xmm4
- DB 196,99,53,13,204,1 ; vblendpd $0x1,%ymm4,%ymm9,%ymm9
- DB 233,39,255,255,255 ; jmpq e330 <_sk_load_bgra_dst_avx+0x20>
- DB 196,193,121,110,100,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm4
- DB 197,249,112,228,68 ; vpshufd $0x44,%xmm4,%xmm4
- DB 196,227,125,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 196,99,85,12,204,64 ; vblendps $0x40,%ymm4,%ymm5,%ymm9
- DB 196,99,125,25,204,1 ; vextractf128 $0x1,%ymm9,%xmm4
- DB 196,195,89,34,100,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,99,53,24,204,1 ; vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- DB 196,99,125,25,204,1 ; vextractf128 $0x1,%ymm9,%xmm4
- DB 196,195,89,34,100,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,99,53,24,204,1 ; vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- DB 196,193,121,16,36,144 ; vmovupd (%r8,%rdx,4),%xmm4
- DB 196,67,93,13,201,12 ; vblendpd $0xc,%ymm9,%ymm4,%ymm9
- DB 233,210,254,255,255 ; jmpq e330 <_sk_load_bgra_dst_avx+0x20>
- DB 102,144 ; xchg %ax,%ax
- DB 119,255 ; ja e461 <_sk_load_bgra_dst_avx+0x151>
- DB 255 ; (bad)
- DB 255,152,255,255,255,130 ; lcall *-0x7d000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 237 ; in (%dx),%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 217,255 ; fcos
- DB 255 ; (bad)
- DB 255,197 ; inc %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 169 ; .byte 0xa9
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_bgra_avx
-_sk_gather_bgra_avx LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,80,12 ; vbroadcastss 0xc(%rax),%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 196,65,57,118,192 ; vpcmpeqd %xmm8,%xmm8,%xmm8
- DB 196,193,97,254,216 ; vpaddd %xmm8,%xmm3,%xmm3
- DB 196,193,105,254,208 ; vpaddd %xmm8,%xmm2,%xmm2
- DB 196,227,109,24,211,1 ; vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,180,95,192 ; vmaxps %ymm0,%ymm9,%ymm0
- DB 197,252,93,194 ; vminps %ymm2,%ymm0,%ymm0
- DB 196,226,125,24,80,16 ; vbroadcastss 0x10(%rax),%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 196,193,97,254,216 ; vpaddd %xmm8,%xmm3,%xmm3
- DB 196,193,105,254,208 ; vpaddd %xmm8,%xmm2,%xmm2
- DB 196,227,109,24,211,1 ; vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- DB 197,180,95,201 ; vmaxps %ymm1,%ymm9,%ymm1
- DB 197,244,93,202 ; vminps %ymm2,%ymm1,%ymm1
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 197,249,110,80,8 ; vmovd 0x8(%rax),%xmm2
- DB 197,249,112,210,0 ; vpshufd $0x0,%xmm2,%xmm2
- DB 196,226,105,64,217 ; vpmulld %xmm1,%xmm2,%xmm3
- DB 196,227,125,25,201,1 ; vextractf128 $0x1,%ymm1,%xmm1
- DB 196,226,105,64,201 ; vpmulld %xmm1,%xmm2,%xmm1
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 196,227,125,25,194,1 ; vextractf128 $0x1,%ymm0,%xmm2
- DB 197,241,254,202 ; vpaddd %xmm2,%xmm1,%xmm1
- DB 196,225,249,126,200 ; vmovq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 197,225,254,192 ; vpaddd %xmm0,%xmm3,%xmm0
- DB 196,193,249,126,194 ; vmovq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,249,22,203,1 ; vpextrq $0x1,%xmm1,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,195,249,22,199,1 ; vpextrq $0x1,%xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 196,129,121,110,4,152 ; vmovd (%r8,%r11,4),%xmm0
- DB 196,131,121,34,4,144,1 ; vpinsrd $0x1,(%r8,%r10,4),%xmm0,%xmm0
- DB 196,131,121,34,4,160,2 ; vpinsrd $0x2,(%r8,%r12,4),%xmm0,%xmm0
- DB 196,3,121,34,4,184,3 ; vpinsrd $0x3,(%r8,%r15,4),%xmm0,%xmm8
- DB 196,129,121,110,4,136 ; vmovd (%r8,%r9,4),%xmm0
- DB 196,195,121,34,4,128,1 ; vpinsrd $0x1,(%r8,%rax,4),%xmm0,%xmm0
- DB 196,131,121,34,4,176,2 ; vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
- DB 196,195,121,34,28,152,3 ; vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
- DB 196,227,61,24,195,1 ; vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- DB 197,124,40,13,0,108,2,0 ; vmovaps 0x26c00(%rip),%ymm9 # 35180 <_sk_srcover_bgra_8888_sse2_lowp+0x968>
- DB 196,193,124,84,193 ; vandps %ymm9,%ymm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,21,174,101,2,0 ; vbroadcastss 0x265ae(%rip),%ymm10 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 196,193,124,89,210 ; vmulps %ymm10,%ymm0,%ymm2
- DB 196,193,121,114,208,8 ; vpsrld $0x8,%xmm8,%xmm0
- DB 197,241,114,211,8 ; vpsrld $0x8,%xmm3,%xmm1
- DB 196,227,125,24,193,1 ; vinsertf128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,193,124,84,193 ; vandps %ymm9,%ymm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,193,124,89,202 ; vmulps %ymm10,%ymm0,%ymm1
- DB 196,193,33,114,208,16 ; vpsrld $0x10,%xmm8,%xmm11
- DB 197,249,114,211,16 ; vpsrld $0x10,%xmm3,%xmm0
- DB 196,227,37,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm11,%ymm0
- DB 196,193,124,84,193 ; vandps %ymm9,%ymm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,193,124,89,194 ; vmulps %ymm10,%ymm0,%ymm0
- DB 196,193,57,114,208,24 ; vpsrld $0x18,%xmm8,%xmm8
- DB 197,225,114,211,24 ; vpsrld $0x18,%xmm3,%xmm3
- DB 196,227,61,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,193,100,89,218 ; vmulps %ymm10,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_bgra_avx
-_sk_store_bgra_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,202 ; vmaxps %ymm2,%ymm8,%ymm9
- DB 196,98,125,24,21,171,100,2,0 ; vbroadcastss 0x264ab(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,52,93,202 ; vminps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,29,201,100,2,0 ; vbroadcastss 0x264c9(%rip),%ymm11 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,65,52,89,203 ; vmulps %ymm11,%ymm9,%ymm9
- DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
- DB 197,60,95,225 ; vmaxps %ymm1,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,17,114,244,8 ; vpslld $0x8,%xmm12,%xmm13
- DB 196,67,125,25,228,1 ; vextractf128 $0x1,%ymm12,%xmm12
- DB 196,193,25,114,244,8 ; vpslld $0x8,%xmm12,%xmm12
- DB 196,67,21,24,228,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- DB 196,65,29,86,201 ; vorpd %ymm9,%ymm12,%ymm9
- DB 197,60,95,224 ; vmaxps %ymm0,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,17,114,244,16 ; vpslld $0x10,%xmm12,%xmm13
- DB 196,67,125,25,228,1 ; vextractf128 $0x1,%ymm12,%xmm12
- DB 196,193,25,114,244,16 ; vpslld $0x10,%xmm12,%xmm12
- DB 196,67,21,24,228,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,65,60,93,194 ; vminps %ymm10,%ymm8,%ymm8
- DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,193,41,114,240,24 ; vpslld $0x18,%xmm8,%xmm10
- DB 196,67,125,25,192,1 ; vextractf128 $0x1,%ymm8,%xmm8
- DB 196,193,57,114,240,24 ; vpslld $0x18,%xmm8,%xmm8
- DB 196,67,45,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm10,%ymm8
- DB 196,65,29,86,192 ; vorpd %ymm8,%ymm12,%ymm8
- DB 196,65,53,86,192 ; vorpd %ymm8,%ymm9,%ymm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne e6d4 <_sk_store_bgra_avx+0xda>
- DB 196,65,124,17,4,144 ; vmovups %ymm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,242 ; ja e6d0 <_sk_store_bgra_avx+0xd6>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,84,0,0,0 ; lea 0x54(%rip),%r9 # e73c <_sk_store_bgra_avx+0x142>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,126,4,144 ; vmovd %xmm8,(%r8,%rdx,4)
- DB 235,215 ; jmp e6d0 <_sk_store_bgra_avx+0xd6>
- DB 196,67,121,22,68,144,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 196,65,121,214,4,144 ; vmovq %xmm8,(%r8,%rdx,4)
- DB 235,199 ; jmp e6d0 <_sk_store_bgra_avx+0xd6>
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,24,2 ; vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,20,1 ; vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,65,122,17,76,144,16 ; vmovss %xmm9,0x10(%r8,%rdx,4)
- DB 196,65,121,17,4,144 ; vmovupd %xmm8,(%r8,%rdx,4)
- DB 235,150 ; jmp e6d0 <_sk_store_bgra_avx+0xd6>
- DB 102,144 ; xchg %ax,%ax
- DB 181,255 ; mov $0xff,%ch
- DB 255 ; (bad)
- DB 255,197 ; inc %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 189,255,255,255,246 ; mov $0xf6ffffff,%ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 233,255,255,255,219 ; jmpq ffffffffdc00e750 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdbfd9f38>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,205 ; dec %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_1010102_avx
-_sk_load_1010102_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,145,0,0,0 ; jne e803 <_sk_load_1010102_avx+0xab>
- DB 196,65,125,16,12,144 ; vmovupd (%r8,%rdx,4),%ymm9
- DB 196,98,125,24,29,99,100,2,0 ; vbroadcastss 0x26463(%rip),%ymm11 # 34be4 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- DB 196,193,53,84,195 ; vandpd %ymm11,%ymm9,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,5,85,100,2,0 ; vbroadcastss 0x26455(%rip),%ymm8 # 34be8 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 196,193,41,114,209,10 ; vpsrld $0xa,%xmm9,%xmm10
- DB 196,99,125,25,203,1 ; vextractf128 $0x1,%ymm9,%xmm3
- DB 197,241,114,211,10 ; vpsrld $0xa,%xmm3,%xmm1
- DB 196,227,45,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm10,%ymm1
- DB 196,193,117,84,203 ; vandpd %ymm11,%ymm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 196,193,41,114,209,20 ; vpsrld $0x14,%xmm9,%xmm10
- DB 197,233,114,211,20 ; vpsrld $0x14,%xmm3,%xmm2
- DB 196,227,45,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm10,%ymm2
- DB 196,193,109,84,211 ; vandpd %ymm11,%ymm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,193,108,89,208 ; vmulps %ymm8,%ymm2,%ymm2
- DB 196,193,57,114,209,30 ; vpsrld $0x1e,%xmm9,%xmm8
- DB 197,225,114,211,30 ; vpsrld $0x1e,%xmm3,%xmm3
- DB 196,227,61,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,58,99,2,0 ; vbroadcastss 0x2633a(%rip),%ymm8 # 34b34 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,98,255,255,255 ; ja e778 <_sk_load_1010102_avx+0x20>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,144,0,0,0 ; lea 0x90(%rip),%r9 # e8b0 <_sk_load_1010102_avx+0x158>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,122,16,12,144 ; vmovss (%r8,%rdx,4),%xmm9
- DB 233,68,255,255,255 ; jmpq e778 <_sk_load_1010102_avx+0x20>
- DB 196,193,121,110,68,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm0
- DB 197,249,112,192,68 ; vpshufd $0x44,%xmm0,%xmm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 196,99,117,12,200,4 ; vblendps $0x4,%ymm0,%ymm1,%ymm9
- DB 196,193,123,16,4,144 ; vmovsd (%r8,%rdx,4),%xmm0
- DB 196,99,53,13,200,1 ; vblendpd $0x1,%ymm0,%ymm9,%ymm9
- DB 233,29,255,255,255 ; jmpq e778 <_sk_load_1010102_avx+0x20>
- DB 196,193,121,110,68,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm0
- DB 197,249,112,192,68 ; vpshufd $0x44,%xmm0,%xmm0
- DB 196,227,125,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 196,99,117,12,200,64 ; vblendps $0x40,%ymm0,%ymm1,%ymm9
- DB 196,99,125,25,200,1 ; vextractf128 $0x1,%ymm9,%xmm0
- DB 196,195,121,34,68,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,99,53,24,200,1 ; vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
- DB 196,99,125,25,200,1 ; vextractf128 $0x1,%ymm9,%xmm0
- DB 196,195,121,34,68,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm0,%xmm0
- DB 196,99,53,24,200,1 ; vinsertf128 $0x1,%xmm0,%ymm9,%ymm9
- DB 196,193,121,16,4,144 ; vmovupd (%r8,%rdx,4),%xmm0
- DB 196,67,125,13,201,12 ; vblendpd $0xc,%ymm9,%ymm0,%ymm9
- DB 233,200,254,255,255 ; jmpq e778 <_sk_load_1010102_avx+0x20>
- DB 121,255 ; jns e8b1 <_sk_load_1010102_avx+0x159>
- DB 255 ; (bad)
- DB 255,154,255,255,255,132 ; lcall *-0x7b000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 239 ; out %eax,(%dx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 219,255 ; (bad)
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 171 ; stos %eax,%es:(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_1010102_dst_avx
-_sk_load_1010102_dst_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,145,0,0,0 ; jne e977 <_sk_load_1010102_dst_avx+0xab>
- DB 196,65,125,16,12,144 ; vmovupd (%r8,%rdx,4),%ymm9
- DB 196,98,125,24,29,239,98,2,0 ; vbroadcastss 0x262ef(%rip),%ymm11 # 34be4 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- DB 196,193,53,84,227 ; vandpd %ymm11,%ymm9,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,98,125,24,5,225,98,2,0 ; vbroadcastss 0x262e1(%rip),%ymm8 # 34be8 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- DB 196,193,92,89,224 ; vmulps %ymm8,%ymm4,%ymm4
- DB 196,193,41,114,209,10 ; vpsrld $0xa,%xmm9,%xmm10
- DB 196,99,125,25,207,1 ; vextractf128 $0x1,%ymm9,%xmm7
- DB 197,209,114,215,10 ; vpsrld $0xa,%xmm7,%xmm5
- DB 196,227,45,24,237,1 ; vinsertf128 $0x1,%xmm5,%ymm10,%ymm5
- DB 196,193,85,84,235 ; vandpd %ymm11,%ymm5,%ymm5
- DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,193,84,89,232 ; vmulps %ymm8,%ymm5,%ymm5
- DB 196,193,41,114,209,20 ; vpsrld $0x14,%xmm9,%xmm10
- DB 197,201,114,215,20 ; vpsrld $0x14,%xmm7,%xmm6
- DB 196,227,45,24,246,1 ; vinsertf128 $0x1,%xmm6,%ymm10,%ymm6
- DB 196,193,77,84,243 ; vandpd %ymm11,%ymm6,%ymm6
- DB 197,252,91,246 ; vcvtdq2ps %ymm6,%ymm6
- DB 196,193,76,89,240 ; vmulps %ymm8,%ymm6,%ymm6
- DB 196,193,57,114,209,30 ; vpsrld $0x1e,%xmm9,%xmm8
- DB 197,193,114,215,30 ; vpsrld $0x1e,%xmm7,%xmm7
- DB 196,227,61,24,255,1 ; vinsertf128 $0x1,%xmm7,%ymm8,%ymm7
- DB 197,252,91,255 ; vcvtdq2ps %ymm7,%ymm7
- DB 196,98,125,24,5,198,97,2,0 ; vbroadcastss 0x261c6(%rip),%ymm8 # 34b34 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- DB 196,193,68,89,248 ; vmulps %ymm8,%ymm7,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 15,135,98,255,255,255 ; ja e8ec <_sk_load_1010102_dst_avx+0x20>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,144,0,0,0 ; lea 0x90(%rip),%r9 # ea24 <_sk_load_1010102_dst_avx+0x158>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,122,16,12,144 ; vmovss (%r8,%rdx,4),%xmm9
- DB 233,68,255,255,255 ; jmpq e8ec <_sk_load_1010102_dst_avx+0x20>
- DB 196,193,121,110,100,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm4
- DB 197,249,112,228,68 ; vpshufd $0x44,%xmm4,%xmm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 196,99,85,12,204,4 ; vblendps $0x4,%ymm4,%ymm5,%ymm9
- DB 196,193,123,16,36,144 ; vmovsd (%r8,%rdx,4),%xmm4
- DB 196,99,53,13,204,1 ; vblendpd $0x1,%ymm4,%ymm9,%ymm9
- DB 233,29,255,255,255 ; jmpq e8ec <_sk_load_1010102_dst_avx+0x20>
- DB 196,193,121,110,100,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm4
- DB 197,249,112,228,68 ; vpshufd $0x44,%xmm4,%xmm4
- DB 196,227,125,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm0,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 196,99,85,12,204,64 ; vblendps $0x40,%ymm4,%ymm5,%ymm9
- DB 196,99,125,25,204,1 ; vextractf128 $0x1,%ymm9,%xmm4
- DB 196,195,89,34,100,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,99,53,24,204,1 ; vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- DB 196,99,125,25,204,1 ; vextractf128 $0x1,%ymm9,%xmm4
- DB 196,195,89,34,100,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm4,%xmm4
- DB 196,99,53,24,204,1 ; vinsertf128 $0x1,%xmm4,%ymm9,%ymm9
- DB 196,193,121,16,36,144 ; vmovupd (%r8,%rdx,4),%xmm4
- DB 196,67,93,13,201,12 ; vblendpd $0xc,%ymm9,%ymm4,%ymm9
- DB 233,200,254,255,255 ; jmpq e8ec <_sk_load_1010102_dst_avx+0x20>
- DB 121,255 ; jns ea25 <_sk_load_1010102_dst_avx+0x159>
- DB 255 ; (bad)
- DB 255,154,255,255,255,132 ; lcall *-0x7b000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 239 ; out %eax,(%dx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 219,255 ; (bad)
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 171 ; stos %eax,%es:(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_1010102_avx
-_sk_gather_1010102_avx LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,80,12 ; vbroadcastss 0xc(%rax),%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 196,65,57,118,192 ; vpcmpeqd %xmm8,%xmm8,%xmm8
- DB 196,193,97,254,216 ; vpaddd %xmm8,%xmm3,%xmm3
- DB 196,193,105,254,208 ; vpaddd %xmm8,%xmm2,%xmm2
- DB 196,227,109,24,211,1 ; vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,180,95,192 ; vmaxps %ymm0,%ymm9,%ymm0
- DB 197,252,93,194 ; vminps %ymm2,%ymm0,%ymm0
- DB 196,226,125,24,80,16 ; vbroadcastss 0x10(%rax),%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 196,193,97,254,216 ; vpaddd %xmm8,%xmm3,%xmm3
- DB 196,193,105,254,208 ; vpaddd %xmm8,%xmm2,%xmm2
- DB 196,227,109,24,211,1 ; vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- DB 197,180,95,201 ; vmaxps %ymm1,%ymm9,%ymm1
- DB 197,244,93,202 ; vminps %ymm2,%ymm1,%ymm1
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 197,249,110,80,8 ; vmovd 0x8(%rax),%xmm2
- DB 197,249,112,210,0 ; vpshufd $0x0,%xmm2,%xmm2
- DB 196,226,105,64,217 ; vpmulld %xmm1,%xmm2,%xmm3
- DB 196,227,125,25,201,1 ; vextractf128 $0x1,%ymm1,%xmm1
- DB 196,226,105,64,201 ; vpmulld %xmm1,%xmm2,%xmm1
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 196,227,125,25,194,1 ; vextractf128 $0x1,%ymm0,%xmm2
- DB 197,241,254,202 ; vpaddd %xmm2,%xmm1,%xmm1
- DB 196,225,249,126,200 ; vmovq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 197,225,254,192 ; vpaddd %xmm0,%xmm3,%xmm0
- DB 196,193,249,126,194 ; vmovq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,249,22,203,1 ; vpextrq $0x1,%xmm1,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,195,249,22,199,1 ; vpextrq $0x1,%xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 196,129,121,110,4,152 ; vmovd (%r8,%r11,4),%xmm0
- DB 196,131,121,34,4,144,1 ; vpinsrd $0x1,(%r8,%r10,4),%xmm0,%xmm0
- DB 196,131,121,34,4,160,2 ; vpinsrd $0x2,(%r8,%r12,4),%xmm0,%xmm0
- DB 196,3,121,34,4,184,3 ; vpinsrd $0x3,(%r8,%r15,4),%xmm0,%xmm8
- DB 196,129,121,110,4,136 ; vmovd (%r8,%r9,4),%xmm0
- DB 196,195,121,34,4,128,1 ; vpinsrd $0x1,(%r8,%rax,4),%xmm0,%xmm0
- DB 196,131,121,34,4,176,2 ; vpinsrd $0x2,(%r8,%r14,4),%xmm0,%xmm0
- DB 196,195,121,34,28,152,3 ; vpinsrd $0x3,(%r8,%rbx,4),%xmm0,%xmm3
- DB 196,227,61,24,195,1 ; vinsertf128 $0x1,%xmm3,%ymm8,%ymm0
- DB 196,98,125,24,29,159,96,2,0 ; vbroadcastss 0x2609f(%rip),%ymm11 # 34be4 <_sk_srcover_bgra_8888_sse2_lowp+0x3cc>
- DB 196,193,124,84,195 ; vandps %ymm11,%ymm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,13,145,96,2,0 ; vbroadcastss 0x26091(%rip),%ymm9 # 34be8 <_sk_srcover_bgra_8888_sse2_lowp+0x3d0>
- DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
- DB 196,193,41,114,208,10 ; vpsrld $0xa,%xmm8,%xmm10
- DB 197,241,114,211,10 ; vpsrld $0xa,%xmm3,%xmm1
- DB 196,227,45,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm10,%ymm1
- DB 196,193,116,84,203 ; vandps %ymm11,%ymm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,193,116,89,201 ; vmulps %ymm9,%ymm1,%ymm1
- DB 196,193,41,114,208,20 ; vpsrld $0x14,%xmm8,%xmm10
- DB 197,233,114,211,20 ; vpsrld $0x14,%xmm3,%xmm2
- DB 196,227,45,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm10,%ymm2
- DB 196,193,108,84,211 ; vandps %ymm11,%ymm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,193,108,89,209 ; vmulps %ymm9,%ymm2,%ymm2
- DB 196,193,57,114,208,30 ; vpsrld $0x1e,%xmm8,%xmm8
- DB 197,225,114,211,30 ; vpsrld $0x1e,%xmm3,%xmm3
- DB 196,227,61,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,98,125,24,5,124,95,2,0 ; vbroadcastss 0x25f7c(%rip),%ymm8 # 34b34 <_sk_srcover_bgra_8888_sse2_lowp+0x31c>
- DB 196,193,100,89,216 ; vmulps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_1010102_avx
-_sk_store_1010102_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,200 ; vmaxps %ymm0,%ymm8,%ymm9
- DB 196,98,125,24,21,221,94,2,0 ; vbroadcastss 0x25edd(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,52,93,202 ; vminps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,29,243,95,2,0 ; vbroadcastss 0x25ff3(%rip),%ymm11 # 34bec <_sk_srcover_bgra_8888_sse2_lowp+0x3d4>
- DB 196,65,52,89,203 ; vmulps %ymm11,%ymm9,%ymm9
- DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
- DB 197,60,95,225 ; vmaxps %ymm1,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,193,17,114,244,10 ; vpslld $0xa,%xmm12,%xmm13
- DB 196,67,125,25,228,1 ; vextractf128 $0x1,%ymm12,%xmm12
- DB 196,193,25,114,244,10 ; vpslld $0xa,%xmm12,%xmm12
- DB 196,67,21,24,228,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm12
- DB 196,65,29,86,201 ; vorpd %ymm9,%ymm12,%ymm9
- DB 197,60,95,226 ; vmaxps %ymm2,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,219 ; vmulps %ymm11,%ymm12,%ymm11
- DB 196,65,125,91,219 ; vcvtps2dq %ymm11,%ymm11
- DB 196,193,25,114,243,20 ; vpslld $0x14,%xmm11,%xmm12
- DB 196,67,125,25,219,1 ; vextractf128 $0x1,%ymm11,%xmm11
- DB 196,193,33,114,243,20 ; vpslld $0x14,%xmm11,%xmm11
- DB 196,67,29,24,219,1 ; vinsertf128 $0x1,%xmm11,%ymm12,%ymm11
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,65,60,93,194 ; vminps %ymm10,%ymm8,%ymm8
- DB 196,98,125,24,21,128,95,2,0 ; vbroadcastss 0x25f80(%rip),%ymm10 # 34bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x3d8>
- DB 196,65,60,89,194 ; vmulps %ymm10,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,193,41,114,240,30 ; vpslld $0x1e,%xmm8,%xmm10
- DB 196,67,125,25,192,1 ; vextractf128 $0x1,%ymm8,%xmm8
- DB 196,193,57,114,240,30 ; vpslld $0x1e,%xmm8,%xmm8
- DB 196,67,45,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm10,%ymm8
- DB 196,65,37,86,192 ; vorpd %ymm8,%ymm11,%ymm8
- DB 196,65,53,86,192 ; vorpd %ymm8,%ymm9,%ymm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne ecab <_sk_store_1010102_avx+0xe3>
- DB 196,65,124,17,4,144 ; vmovups %ymm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,242 ; ja eca7 <_sk_store_1010102_avx+0xdf>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,85,0,0,0 ; lea 0x55(%rip),%r9 # ed14 <_sk_store_1010102_avx+0x14c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,126,4,144 ; vmovd %xmm8,(%r8,%rdx,4)
- DB 235,215 ; jmp eca7 <_sk_store_1010102_avx+0xdf>
- DB 196,67,121,22,68,144,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 196,65,121,214,4,144 ; vmovq %xmm8,(%r8,%rdx,4)
- DB 235,199 ; jmp eca7 <_sk_store_1010102_avx+0xdf>
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,24,2 ; vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,20,1 ; vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- DB 196,67,125,25,193,1 ; vextractf128 $0x1,%ymm8,%xmm9
- DB 196,65,122,17,76,144,16 ; vmovss %xmm9,0x10(%r8,%rdx,4)
- DB 196,65,121,17,4,144 ; vmovupd %xmm8,(%r8,%rdx,4)
- DB 235,150 ; jmp eca7 <_sk_store_1010102_avx+0xdf>
- DB 15,31,0 ; nopl (%rax)
- DB 180,255 ; mov $0xff,%ah
- DB 255 ; (bad)
- DB 255,196 ; inc %esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 188,255,255,255,245 ; mov $0xf5ffffff,%esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,255,255,255,218 ; callq ffffffffdb00ed28 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffdafda510>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,204 ; dec %esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_f16_avx
-_sk_load_f16_avx LABEL PROC
- DB 72,129,236,152,0,0,0 ; sub $0x98,%rsp
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,3 ; shl $0x3,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 197,252,17,124,36,96 ; vmovups %ymm7,0x60(%rsp)
- DB 197,252,17,116,36,64 ; vmovups %ymm6,0x40(%rsp)
- DB 197,252,17,108,36,32 ; vmovups %ymm5,0x20(%rsp)
- DB 197,252,17,36,36 ; vmovups %ymm4,(%rsp)
- DB 15,133,33,2,0,0 ; jne ef89 <_sk_load_f16_avx+0x259>
- DB 196,65,121,16,4,208 ; vmovupd (%r8,%rdx,8),%xmm8
- DB 196,193,121,16,84,208,16 ; vmovupd 0x10(%r8,%rdx,8),%xmm2
- DB 196,193,121,16,92,208,32 ; vmovupd 0x20(%r8,%rdx,8),%xmm3
- DB 196,65,122,111,76,208,48 ; vmovdqu 0x30(%r8,%rdx,8),%xmm9
- DB 197,185,97,194 ; vpunpcklwd %xmm2,%xmm8,%xmm0
- DB 197,185,105,210 ; vpunpckhwd %xmm2,%xmm8,%xmm2
- DB 196,193,97,97,201 ; vpunpcklwd %xmm9,%xmm3,%xmm1
- DB 196,193,97,105,217 ; vpunpckhwd %xmm9,%xmm3,%xmm3
- DB 197,121,97,242 ; vpunpcklwd %xmm2,%xmm0,%xmm14
- DB 197,121,105,194 ; vpunpckhwd %xmm2,%xmm0,%xmm8
- DB 197,113,97,251 ; vpunpcklwd %xmm3,%xmm1,%xmm15
- DB 197,113,105,203 ; vpunpckhwd %xmm3,%xmm1,%xmm9
- DB 196,193,9,108,199 ; vpunpcklqdq %xmm15,%xmm14,%xmm0
- DB 196,226,121,51,200 ; vpmovzxwd %xmm0,%xmm1
- DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
- DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 197,123,18,21,71,111,2,0 ; vmovddup 0x26f47(%rip),%xmm10 # 35d08 <_sk_srcover_bgra_8888_sse2_lowp+0x14f0>
- DB 196,193,121,219,218 ; vpand %xmm10,%xmm0,%xmm3
- DB 196,98,121,24,29,133,94,2,0 ; vbroadcastss 0x25e85(%rip),%xmm11 # 34c54 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
- DB 197,33,102,227 ; vpcmpgtd %xmm3,%xmm11,%xmm12
- DB 196,193,113,219,210 ; vpand %xmm10,%xmm1,%xmm2
- DB 197,33,102,234 ; vpcmpgtd %xmm2,%xmm11,%xmm13
- DB 196,195,21,24,252,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm7
- DB 197,123,18,37,38,111,2,0 ; vmovddup 0x26f26(%rip),%xmm12 # 35d10 <_sk_srcover_bgra_8888_sse2_lowp+0x14f8>
- DB 196,193,113,219,204 ; vpand %xmm12,%xmm1,%xmm1
- DB 197,241,114,241,16 ; vpslld $0x10,%xmm1,%xmm1
- DB 196,193,121,219,196 ; vpand %xmm12,%xmm0,%xmm0
- DB 197,249,114,240,16 ; vpslld $0x10,%xmm0,%xmm0
- DB 197,233,114,242,13 ; vpslld $0xd,%xmm2,%xmm2
- DB 197,241,235,202 ; vpor %xmm2,%xmm1,%xmm1
- DB 197,233,114,243,13 ; vpslld $0xd,%xmm3,%xmm2
- DB 197,249,235,194 ; vpor %xmm2,%xmm0,%xmm0
- DB 196,226,121,24,29,63,94,2,0 ; vbroadcastss 0x25e3f(%rip),%xmm3 # 34c58 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
- DB 197,249,254,195 ; vpaddd %xmm3,%xmm0,%xmm0
- DB 197,241,254,203 ; vpaddd %xmm3,%xmm1,%xmm1
- DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,227,125,74,196,112 ; vblendvps %ymm7,%ymm4,%ymm0,%ymm0
- DB 196,193,9,109,207 ; vpunpckhqdq %xmm15,%xmm14,%xmm1
- DB 196,226,121,51,209 ; vpmovzxwd %xmm1,%xmm2
- DB 197,249,112,201,78 ; vpshufd $0x4e,%xmm1,%xmm1
- DB 196,98,121,51,249 ; vpmovzxwd %xmm1,%xmm15
- DB 196,193,1,219,250 ; vpand %xmm10,%xmm15,%xmm7
- DB 197,33,102,247 ; vpcmpgtd %xmm7,%xmm11,%xmm14
- DB 196,193,105,219,202 ; vpand %xmm10,%xmm2,%xmm1
- DB 197,33,102,233 ; vpcmpgtd %xmm1,%xmm11,%xmm13
- DB 196,67,21,24,238,1 ; vinsertf128 $0x1,%xmm14,%ymm13,%ymm13
- DB 196,193,105,219,212 ; vpand %xmm12,%xmm2,%xmm2
- DB 197,233,114,242,16 ; vpslld $0x10,%xmm2,%xmm2
- DB 197,241,114,241,13 ; vpslld $0xd,%xmm1,%xmm1
- DB 197,233,235,201 ; vpor %xmm1,%xmm2,%xmm1
- DB 196,193,1,219,212 ; vpand %xmm12,%xmm15,%xmm2
- DB 197,233,114,242,16 ; vpslld $0x10,%xmm2,%xmm2
- DB 197,193,114,247,13 ; vpslld $0xd,%xmm7,%xmm7
- DB 197,233,235,215 ; vpor %xmm7,%xmm2,%xmm2
- DB 197,233,254,211 ; vpaddd %xmm3,%xmm2,%xmm2
- DB 197,241,254,203 ; vpaddd %xmm3,%xmm1,%xmm1
- DB 196,227,117,24,202,1 ; vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- DB 196,227,117,74,204,208 ; vblendvps %ymm13,%ymm4,%ymm1,%ymm1
- DB 196,193,57,108,209 ; vpunpcklqdq %xmm9,%xmm8,%xmm2
- DB 196,226,121,51,250 ; vpmovzxwd %xmm2,%xmm7
- DB 197,249,112,210,78 ; vpshufd $0x4e,%xmm2,%xmm2
- DB 196,98,121,51,234 ; vpmovzxwd %xmm2,%xmm13
- DB 196,65,17,219,250 ; vpand %xmm10,%xmm13,%xmm15
- DB 196,65,33,102,247 ; vpcmpgtd %xmm15,%xmm11,%xmm14
- DB 196,193,65,219,210 ; vpand %xmm10,%xmm7,%xmm2
- DB 197,161,102,242 ; vpcmpgtd %xmm2,%xmm11,%xmm6
- DB 196,195,77,24,246,1 ; vinsertf128 $0x1,%xmm14,%ymm6,%ymm6
- DB 196,193,65,219,252 ; vpand %xmm12,%xmm7,%xmm7
- DB 197,193,114,247,16 ; vpslld $0x10,%xmm7,%xmm7
- DB 197,233,114,242,13 ; vpslld $0xd,%xmm2,%xmm2
- DB 197,193,235,210 ; vpor %xmm2,%xmm7,%xmm2
- DB 196,193,17,219,252 ; vpand %xmm12,%xmm13,%xmm7
- DB 197,193,114,247,16 ; vpslld $0x10,%xmm7,%xmm7
- DB 196,193,81,114,247,13 ; vpslld $0xd,%xmm15,%xmm5
- DB 197,193,235,237 ; vpor %xmm5,%xmm7,%xmm5
- DB 197,209,254,235 ; vpaddd %xmm3,%xmm5,%xmm5
- DB 197,233,254,211 ; vpaddd %xmm3,%xmm2,%xmm2
- DB 196,227,109,24,213,1 ; vinsertf128 $0x1,%xmm5,%ymm2,%ymm2
- DB 196,227,109,74,212,96 ; vblendvps %ymm6,%ymm4,%ymm2,%ymm2
- DB 196,193,57,109,233 ; vpunpckhqdq %xmm9,%xmm8,%xmm5
- DB 196,226,121,51,245 ; vpmovzxwd %xmm5,%xmm6
- DB 197,249,112,237,78 ; vpshufd $0x4e,%xmm5,%xmm5
- DB 196,226,121,51,237 ; vpmovzxwd %xmm5,%xmm5
- DB 196,65,81,219,202 ; vpand %xmm10,%xmm5,%xmm9
- DB 196,65,33,102,193 ; vpcmpgtd %xmm9,%xmm11,%xmm8
- DB 196,193,73,219,250 ; vpand %xmm10,%xmm6,%xmm7
- DB 197,33,102,215 ; vpcmpgtd %xmm7,%xmm11,%xmm10
- DB 196,67,45,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm10,%ymm8
- DB 196,193,73,219,244 ; vpand %xmm12,%xmm6,%xmm6
- DB 196,193,81,219,236 ; vpand %xmm12,%xmm5,%xmm5
- DB 197,201,114,246,16 ; vpslld $0x10,%xmm6,%xmm6
- DB 197,193,114,247,13 ; vpslld $0xd,%xmm7,%xmm7
- DB 197,201,235,247 ; vpor %xmm7,%xmm6,%xmm6
- DB 197,209,114,245,16 ; vpslld $0x10,%xmm5,%xmm5
- DB 196,193,65,114,241,13 ; vpslld $0xd,%xmm9,%xmm7
- DB 197,209,235,239 ; vpor %xmm7,%xmm5,%xmm5
- DB 197,209,254,235 ; vpaddd %xmm3,%xmm5,%xmm5
- DB 197,201,254,219 ; vpaddd %xmm3,%xmm6,%xmm3
- DB 196,227,101,24,221,1 ; vinsertf128 $0x1,%xmm5,%ymm3,%ymm3
- DB 196,227,101,74,220,128 ; vblendvps %ymm8,%ymm4,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,36,36 ; vmovups (%rsp),%ymm4
- DB 197,252,16,108,36,32 ; vmovups 0x20(%rsp),%ymm5
- DB 197,252,16,116,36,64 ; vmovups 0x40(%rsp),%ymm6
- DB 197,252,16,124,36,96 ; vmovups 0x60(%rsp),%ymm7
- DB 72,129,196,152,0,0,0 ; add $0x98,%rsp
- DB 255,224 ; jmpq *%rax
- DB 196,65,123,16,4,208 ; vmovsd (%r8,%rdx,8),%xmm8
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,85 ; je efef <_sk_load_f16_avx+0x2bf>
- DB 196,65,57,22,68,208,8 ; vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,72 ; jb efef <_sk_load_f16_avx+0x2bf>
- DB 196,193,123,16,84,208,16 ; vmovsd 0x10(%r8,%rdx,8),%xmm2
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 116,72 ; je effc <_sk_load_f16_avx+0x2cc>
- DB 196,193,105,22,84,208,24 ; vmovhpd 0x18(%r8,%rdx,8),%xmm2,%xmm2
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,59 ; jb effc <_sk_load_f16_avx+0x2cc>
- DB 196,193,123,16,92,208,32 ; vmovsd 0x20(%r8,%rdx,8),%xmm3
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 15,132,177,253,255,255 ; je ed83 <_sk_load_f16_avx+0x53>
- DB 196,193,97,22,92,208,40 ; vmovhpd 0x28(%r8,%rdx,8),%xmm3,%xmm3
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 15,130,160,253,255,255 ; jb ed83 <_sk_load_f16_avx+0x53>
- DB 196,65,122,126,76,208,48 ; vmovq 0x30(%r8,%rdx,8),%xmm9
- DB 233,148,253,255,255 ; jmpq ed83 <_sk_load_f16_avx+0x53>
- DB 197,225,87,219 ; vxorpd %xmm3,%xmm3,%xmm3
- DB 197,233,87,210 ; vxorpd %xmm2,%xmm2,%xmm2
- DB 233,135,253,255,255 ; jmpq ed83 <_sk_load_f16_avx+0x53>
- DB 197,225,87,219 ; vxorpd %xmm3,%xmm3,%xmm3
- DB 233,126,253,255,255 ; jmpq ed83 <_sk_load_f16_avx+0x53>
-
-PUBLIC _sk_load_f16_dst_avx
-_sk_load_f16_dst_avx LABEL PROC
- DB 72,129,236,152,0,0,0 ; sub $0x98,%rsp
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,3 ; shl $0x3,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 197,252,17,92,36,96 ; vmovups %ymm3,0x60(%rsp)
- DB 197,252,17,84,36,64 ; vmovups %ymm2,0x40(%rsp)
- DB 197,252,17,76,36,32 ; vmovups %ymm1,0x20(%rsp)
- DB 197,252,17,4,36 ; vmovups %ymm0,(%rsp)
- DB 15,133,33,2,0,0 ; jne f25e <_sk_load_f16_dst_avx+0x259>
- DB 196,65,121,16,4,208 ; vmovupd (%r8,%rdx,8),%xmm8
- DB 196,193,121,16,116,208,16 ; vmovupd 0x10(%r8,%rdx,8),%xmm6
- DB 196,193,121,16,124,208,32 ; vmovupd 0x20(%r8,%rdx,8),%xmm7
- DB 196,65,122,111,76,208,48 ; vmovdqu 0x30(%r8,%rdx,8),%xmm9
- DB 197,185,97,230 ; vpunpcklwd %xmm6,%xmm8,%xmm4
- DB 197,185,105,246 ; vpunpckhwd %xmm6,%xmm8,%xmm6
- DB 196,193,65,97,233 ; vpunpcklwd %xmm9,%xmm7,%xmm5
- DB 196,193,65,105,249 ; vpunpckhwd %xmm9,%xmm7,%xmm7
- DB 197,89,97,246 ; vpunpcklwd %xmm6,%xmm4,%xmm14
- DB 197,89,105,198 ; vpunpckhwd %xmm6,%xmm4,%xmm8
- DB 197,81,97,255 ; vpunpcklwd %xmm7,%xmm5,%xmm15
- DB 197,81,105,207 ; vpunpckhwd %xmm7,%xmm5,%xmm9
- DB 196,193,9,108,231 ; vpunpcklqdq %xmm15,%xmm14,%xmm4
- DB 196,226,121,51,236 ; vpmovzxwd %xmm4,%xmm5
- DB 197,249,112,228,78 ; vpshufd $0x4e,%xmm4,%xmm4
- DB 196,226,121,51,228 ; vpmovzxwd %xmm4,%xmm4
- DB 197,123,18,21,114,108,2,0 ; vmovddup 0x26c72(%rip),%xmm10 # 35d08 <_sk_srcover_bgra_8888_sse2_lowp+0x14f0>
- DB 196,193,89,219,250 ; vpand %xmm10,%xmm4,%xmm7
- DB 196,98,121,24,29,176,91,2,0 ; vbroadcastss 0x25bb0(%rip),%xmm11 # 34c54 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
- DB 197,33,102,231 ; vpcmpgtd %xmm7,%xmm11,%xmm12
- DB 196,193,81,219,242 ; vpand %xmm10,%xmm5,%xmm6
- DB 197,33,102,238 ; vpcmpgtd %xmm6,%xmm11,%xmm13
- DB 196,195,21,24,220,1 ; vinsertf128 $0x1,%xmm12,%ymm13,%ymm3
- DB 197,123,18,37,81,108,2,0 ; vmovddup 0x26c51(%rip),%xmm12 # 35d10 <_sk_srcover_bgra_8888_sse2_lowp+0x14f8>
- DB 196,193,81,219,236 ; vpand %xmm12,%xmm5,%xmm5
- DB 197,209,114,245,16 ; vpslld $0x10,%xmm5,%xmm5
- DB 196,193,89,219,228 ; vpand %xmm12,%xmm4,%xmm4
- DB 197,217,114,244,16 ; vpslld $0x10,%xmm4,%xmm4
- DB 197,201,114,246,13 ; vpslld $0xd,%xmm6,%xmm6
- DB 197,209,235,238 ; vpor %xmm6,%xmm5,%xmm5
- DB 197,201,114,247,13 ; vpslld $0xd,%xmm7,%xmm6
- DB 197,217,235,230 ; vpor %xmm6,%xmm4,%xmm4
- DB 196,226,121,24,61,106,91,2,0 ; vbroadcastss 0x25b6a(%rip),%xmm7 # 34c58 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
- DB 197,217,254,231 ; vpaddd %xmm7,%xmm4,%xmm4
- DB 197,209,254,239 ; vpaddd %xmm7,%xmm5,%xmm5
- DB 196,227,85,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 196,227,93,74,224,48 ; vblendvps %ymm3,%ymm0,%ymm4,%ymm4
- DB 196,193,9,109,223 ; vpunpckhqdq %xmm15,%xmm14,%xmm3
- DB 196,226,121,51,235 ; vpmovzxwd %xmm3,%xmm5
- DB 197,249,112,219,78 ; vpshufd $0x4e,%xmm3,%xmm3
- DB 196,98,121,51,251 ; vpmovzxwd %xmm3,%xmm15
- DB 196,193,1,219,242 ; vpand %xmm10,%xmm15,%xmm6
- DB 197,33,102,246 ; vpcmpgtd %xmm6,%xmm11,%xmm14
- DB 196,193,81,219,218 ; vpand %xmm10,%xmm5,%xmm3
- DB 197,33,102,235 ; vpcmpgtd %xmm3,%xmm11,%xmm13
- DB 196,67,21,24,238,1 ; vinsertf128 $0x1,%xmm14,%ymm13,%ymm13
- DB 196,193,81,219,236 ; vpand %xmm12,%xmm5,%xmm5
- DB 197,209,114,245,16 ; vpslld $0x10,%xmm5,%xmm5
- DB 197,225,114,243,13 ; vpslld $0xd,%xmm3,%xmm3
- DB 197,209,235,219 ; vpor %xmm3,%xmm5,%xmm3
- DB 196,193,1,219,236 ; vpand %xmm12,%xmm15,%xmm5
- DB 197,209,114,245,16 ; vpslld $0x10,%xmm5,%xmm5
- DB 197,201,114,246,13 ; vpslld $0xd,%xmm6,%xmm6
- DB 197,209,235,238 ; vpor %xmm6,%xmm5,%xmm5
- DB 197,209,254,239 ; vpaddd %xmm7,%xmm5,%xmm5
- DB 197,225,254,223 ; vpaddd %xmm7,%xmm3,%xmm3
- DB 196,227,101,24,221,1 ; vinsertf128 $0x1,%xmm5,%ymm3,%ymm3
- DB 196,227,101,74,232,208 ; vblendvps %ymm13,%ymm0,%ymm3,%ymm5
- DB 196,193,57,108,217 ; vpunpcklqdq %xmm9,%xmm8,%xmm3
- DB 196,226,121,51,243 ; vpmovzxwd %xmm3,%xmm6
- DB 197,249,112,219,78 ; vpshufd $0x4e,%xmm3,%xmm3
- DB 196,98,121,51,235 ; vpmovzxwd %xmm3,%xmm13
- DB 196,65,17,219,250 ; vpand %xmm10,%xmm13,%xmm15
- DB 196,65,33,102,247 ; vpcmpgtd %xmm15,%xmm11,%xmm14
- DB 196,193,73,219,218 ; vpand %xmm10,%xmm6,%xmm3
- DB 197,161,102,211 ; vpcmpgtd %xmm3,%xmm11,%xmm2
- DB 196,195,109,24,214,1 ; vinsertf128 $0x1,%xmm14,%ymm2,%ymm2
- DB 196,193,73,219,244 ; vpand %xmm12,%xmm6,%xmm6
- DB 197,201,114,246,16 ; vpslld $0x10,%xmm6,%xmm6
- DB 197,225,114,243,13 ; vpslld $0xd,%xmm3,%xmm3
- DB 197,201,235,219 ; vpor %xmm3,%xmm6,%xmm3
- DB 196,193,17,219,244 ; vpand %xmm12,%xmm13,%xmm6
- DB 197,201,114,246,16 ; vpslld $0x10,%xmm6,%xmm6
- DB 196,193,113,114,247,13 ; vpslld $0xd,%xmm15,%xmm1
- DB 197,201,235,201 ; vpor %xmm1,%xmm6,%xmm1
- DB 197,241,254,207 ; vpaddd %xmm7,%xmm1,%xmm1
- DB 197,225,254,223 ; vpaddd %xmm7,%xmm3,%xmm3
- DB 196,227,101,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm3,%ymm1
- DB 196,227,117,74,240,32 ; vblendvps %ymm2,%ymm0,%ymm1,%ymm6
- DB 196,193,57,109,201 ; vpunpckhqdq %xmm9,%xmm8,%xmm1
- DB 196,226,121,51,209 ; vpmovzxwd %xmm1,%xmm2
- DB 197,249,112,201,78 ; vpshufd $0x4e,%xmm1,%xmm1
- DB 196,226,121,51,201 ; vpmovzxwd %xmm1,%xmm1
- DB 196,65,113,219,202 ; vpand %xmm10,%xmm1,%xmm9
- DB 196,65,33,102,193 ; vpcmpgtd %xmm9,%xmm11,%xmm8
- DB 196,193,105,219,218 ; vpand %xmm10,%xmm2,%xmm3
- DB 197,33,102,211 ; vpcmpgtd %xmm3,%xmm11,%xmm10
- DB 196,67,45,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm10,%ymm8
- DB 196,193,105,219,212 ; vpand %xmm12,%xmm2,%xmm2
- DB 196,193,113,219,204 ; vpand %xmm12,%xmm1,%xmm1
- DB 197,233,114,242,16 ; vpslld $0x10,%xmm2,%xmm2
- DB 197,225,114,243,13 ; vpslld $0xd,%xmm3,%xmm3
- DB 197,233,235,211 ; vpor %xmm3,%xmm2,%xmm2
- DB 197,241,114,241,16 ; vpslld $0x10,%xmm1,%xmm1
- DB 196,193,97,114,241,13 ; vpslld $0xd,%xmm9,%xmm3
- DB 197,241,235,203 ; vpor %xmm3,%xmm1,%xmm1
- DB 197,241,254,207 ; vpaddd %xmm7,%xmm1,%xmm1
- DB 197,233,254,215 ; vpaddd %xmm7,%xmm2,%xmm2
- DB 196,227,109,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm2,%ymm1
- DB 196,227,117,74,248,128 ; vblendvps %ymm8,%ymm0,%ymm1,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,4,36 ; vmovups (%rsp),%ymm0
- DB 197,252,16,76,36,32 ; vmovups 0x20(%rsp),%ymm1
- DB 197,252,16,84,36,64 ; vmovups 0x40(%rsp),%ymm2
- DB 197,252,16,92,36,96 ; vmovups 0x60(%rsp),%ymm3
- DB 72,129,196,152,0,0,0 ; add $0x98,%rsp
- DB 255,224 ; jmpq *%rax
- DB 196,65,123,16,4,208 ; vmovsd (%r8,%rdx,8),%xmm8
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,85 ; je f2c4 <_sk_load_f16_dst_avx+0x2bf>
- DB 196,65,57,22,68,208,8 ; vmovhpd 0x8(%r8,%rdx,8),%xmm8,%xmm8
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,72 ; jb f2c4 <_sk_load_f16_dst_avx+0x2bf>
- DB 196,193,123,16,116,208,16 ; vmovsd 0x10(%r8,%rdx,8),%xmm6
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 116,72 ; je f2d1 <_sk_load_f16_dst_avx+0x2cc>
- DB 196,193,73,22,116,208,24 ; vmovhpd 0x18(%r8,%rdx,8),%xmm6,%xmm6
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,59 ; jb f2d1 <_sk_load_f16_dst_avx+0x2cc>
- DB 196,193,123,16,124,208,32 ; vmovsd 0x20(%r8,%rdx,8),%xmm7
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 15,132,177,253,255,255 ; je f058 <_sk_load_f16_dst_avx+0x53>
- DB 196,193,65,22,124,208,40 ; vmovhpd 0x28(%r8,%rdx,8),%xmm7,%xmm7
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 15,130,160,253,255,255 ; jb f058 <_sk_load_f16_dst_avx+0x53>
- DB 196,65,122,126,76,208,48 ; vmovq 0x30(%r8,%rdx,8),%xmm9
- DB 233,148,253,255,255 ; jmpq f058 <_sk_load_f16_dst_avx+0x53>
- DB 197,193,87,255 ; vxorpd %xmm7,%xmm7,%xmm7
- DB 197,201,87,246 ; vxorpd %xmm6,%xmm6,%xmm6
- DB 233,135,253,255,255 ; jmpq f058 <_sk_load_f16_dst_avx+0x53>
- DB 197,193,87,255 ; vxorpd %xmm7,%xmm7,%xmm7
- DB 233,126,253,255,255 ; jmpq f058 <_sk_load_f16_dst_avx+0x53>
-
-PUBLIC _sk_gather_f16_avx
-_sk_gather_f16_avx LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,129,236,152,0,0,0 ; sub $0x98,%rsp
- DB 197,252,17,124,36,96 ; vmovups %ymm7,0x60(%rsp)
- DB 197,252,17,116,36,64 ; vmovups %ymm6,0x40(%rsp)
- DB 197,252,17,108,36,32 ; vmovups %ymm5,0x20(%rsp)
- DB 197,252,17,36,36 ; vmovups %ymm4,(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,80,12 ; vbroadcastss 0xc(%rax),%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 196,65,49,118,201 ; vpcmpeqd %xmm9,%xmm9,%xmm9
- DB 196,193,97,254,217 ; vpaddd %xmm9,%xmm3,%xmm3
- DB 196,193,105,254,209 ; vpaddd %xmm9,%xmm2,%xmm2
- DB 196,227,109,24,211,1 ; vinsertf128 $0x1,%xmm3,%ymm2,%ymm2
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,220,95,192 ; vmaxps %ymm0,%ymm4,%ymm0
- DB 197,252,93,210 ; vminps %ymm2,%ymm0,%ymm2
- DB 196,226,125,24,64,16 ; vbroadcastss 0x10(%rax),%ymm0
- DB 196,227,125,25,195,1 ; vextractf128 $0x1,%ymm0,%xmm3
- DB 196,193,97,254,217 ; vpaddd %xmm9,%xmm3,%xmm3
- DB 196,193,121,254,193 ; vpaddd %xmm9,%xmm0,%xmm0
- DB 196,227,125,24,195,1 ; vinsertf128 $0x1,%xmm3,%ymm0,%ymm0
- DB 197,220,95,201 ; vmaxps %ymm1,%ymm4,%ymm1
- DB 197,244,93,192 ; vminps %ymm0,%ymm1,%ymm0
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,200 ; vcvttps2dq %ymm0,%ymm1
- DB 197,249,110,64,8 ; vmovd 0x8(%rax),%xmm0
- DB 197,249,112,216,0 ; vpshufd $0x0,%xmm0,%xmm3
- DB 196,226,97,64,193 ; vpmulld %xmm1,%xmm3,%xmm0
- DB 196,227,125,25,201,1 ; vextractf128 $0x1,%ymm1,%xmm1
- DB 196,226,97,64,201 ; vpmulld %xmm1,%xmm3,%xmm1
- DB 197,254,91,210 ; vcvttps2dq %ymm2,%ymm2
- DB 196,227,125,25,211,1 ; vextractf128 $0x1,%ymm2,%xmm3
- DB 197,241,254,203 ; vpaddd %xmm3,%xmm1,%xmm1
- DB 196,227,249,22,200,1 ; vpextrq $0x1,%xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 196,193,249,126,202 ; vmovq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 197,249,254,194 ; vpaddd %xmm2,%xmm0,%xmm0
- DB 196,227,249,22,195,1 ; vpextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,193,249,126,199 ; vmovq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 196,129,122,126,4,248 ; vmovq (%r8,%r15,8),%xmm0
- DB 196,129,122,126,12,224 ; vmovq (%r8,%r12,8),%xmm1
- DB 197,113,108,208 ; vpunpcklqdq %xmm0,%xmm1,%xmm10
- DB 196,193,122,126,12,216 ; vmovq (%r8,%rbx,8),%xmm1
- DB 196,129,122,126,20,240 ; vmovq (%r8,%r14,8),%xmm2
- DB 197,233,108,201 ; vpunpcklqdq %xmm1,%xmm2,%xmm1
- DB 196,129,122,126,20,208 ; vmovq (%r8,%r10,8),%xmm2
- DB 196,129,122,126,28,216 ; vmovq (%r8,%r11,8),%xmm3
- DB 197,225,108,210 ; vpunpcklqdq %xmm2,%xmm3,%xmm2
- DB 196,65,122,126,12,192 ; vmovq (%r8,%rax,8),%xmm9
- DB 196,129,122,126,28,200 ; vmovq (%r8,%r9,8),%xmm3
- DB 196,193,97,108,217 ; vpunpcklqdq %xmm9,%xmm3,%xmm3
- DB 197,169,97,193 ; vpunpcklwd %xmm1,%xmm10,%xmm0
- DB 197,169,105,201 ; vpunpckhwd %xmm1,%xmm10,%xmm1
- DB 197,105,97,211 ; vpunpcklwd %xmm3,%xmm2,%xmm10
- DB 197,233,105,211 ; vpunpckhwd %xmm3,%xmm2,%xmm2
- DB 197,121,97,241 ; vpunpcklwd %xmm1,%xmm0,%xmm14
- DB 197,121,105,201 ; vpunpckhwd %xmm1,%xmm0,%xmm9
- DB 197,41,97,250 ; vpunpcklwd %xmm2,%xmm10,%xmm15
- DB 197,41,105,210 ; vpunpckhwd %xmm2,%xmm10,%xmm10
- DB 196,193,9,108,199 ; vpunpcklqdq %xmm15,%xmm14,%xmm0
- DB 196,226,121,51,208 ; vpmovzxwd %xmm0,%xmm2
- DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
- DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 197,123,18,29,212,104,2,0 ; vmovddup 0x268d4(%rip),%xmm11 # 35d08 <_sk_srcover_bgra_8888_sse2_lowp+0x14f0>
- DB 196,193,121,219,219 ; vpand %xmm11,%xmm0,%xmm3
- DB 196,98,121,24,37,18,88,2,0 ; vbroadcastss 0x25812(%rip),%xmm12 # 34c54 <_sk_srcover_bgra_8888_sse2_lowp+0x43c>
- DB 197,25,102,235 ; vpcmpgtd %xmm3,%xmm12,%xmm13
- DB 196,193,105,219,203 ; vpand %xmm11,%xmm2,%xmm1
- DB 197,25,102,193 ; vpcmpgtd %xmm1,%xmm12,%xmm8
- DB 196,67,61,24,197,1 ; vinsertf128 $0x1,%xmm13,%ymm8,%ymm8
- DB 197,123,18,45,179,104,2,0 ; vmovddup 0x268b3(%rip),%xmm13 # 35d10 <_sk_srcover_bgra_8888_sse2_lowp+0x14f8>
- DB 196,193,105,219,213 ; vpand %xmm13,%xmm2,%xmm2
- DB 197,233,114,242,16 ; vpslld $0x10,%xmm2,%xmm2
- DB 197,241,114,241,13 ; vpslld $0xd,%xmm1,%xmm1
- DB 197,233,235,201 ; vpor %xmm1,%xmm2,%xmm1
- DB 196,193,121,219,197 ; vpand %xmm13,%xmm0,%xmm0
- DB 197,249,114,240,16 ; vpslld $0x10,%xmm0,%xmm0
- DB 197,233,114,243,13 ; vpslld $0xd,%xmm3,%xmm2
- DB 197,249,235,194 ; vpor %xmm2,%xmm0,%xmm0
- DB 196,226,121,24,29,204,87,2,0 ; vbroadcastss 0x257cc(%rip),%xmm3 # 34c58 <_sk_srcover_bgra_8888_sse2_lowp+0x440>
- DB 197,249,254,195 ; vpaddd %xmm3,%xmm0,%xmm0
- DB 197,241,254,203 ; vpaddd %xmm3,%xmm1,%xmm1
- DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- DB 196,227,125,74,196,128 ; vblendvps %ymm8,%ymm4,%ymm0,%ymm0
- DB 196,193,9,109,207 ; vpunpckhqdq %xmm15,%xmm14,%xmm1
- DB 196,226,121,51,209 ; vpmovzxwd %xmm1,%xmm2
- DB 197,249,112,201,78 ; vpshufd $0x4e,%xmm1,%xmm1
- DB 196,98,121,51,193 ; vpmovzxwd %xmm1,%xmm8
- DB 196,65,57,219,251 ; vpand %xmm11,%xmm8,%xmm15
- DB 196,65,25,102,247 ; vpcmpgtd %xmm15,%xmm12,%xmm14
- DB 196,193,105,219,203 ; vpand %xmm11,%xmm2,%xmm1
- DB 197,153,102,249 ; vpcmpgtd %xmm1,%xmm12,%xmm7
- DB 196,195,69,24,254,1 ; vinsertf128 $0x1,%xmm14,%ymm7,%ymm7
- DB 196,193,105,219,213 ; vpand %xmm13,%xmm2,%xmm2
- DB 197,233,114,242,16 ; vpslld $0x10,%xmm2,%xmm2
- DB 197,241,114,241,13 ; vpslld $0xd,%xmm1,%xmm1
- DB 197,233,235,201 ; vpor %xmm1,%xmm2,%xmm1
- DB 196,193,57,219,213 ; vpand %xmm13,%xmm8,%xmm2
- DB 197,233,114,242,16 ; vpslld $0x10,%xmm2,%xmm2
- DB 196,193,73,114,247,13 ; vpslld $0xd,%xmm15,%xmm6
- DB 197,233,235,214 ; vpor %xmm6,%xmm2,%xmm2
- DB 197,233,254,211 ; vpaddd %xmm3,%xmm2,%xmm2
- DB 197,241,254,203 ; vpaddd %xmm3,%xmm1,%xmm1
- DB 196,227,117,24,202,1 ; vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- DB 196,227,117,74,204,112 ; vblendvps %ymm7,%ymm4,%ymm1,%ymm1
- DB 196,193,49,108,210 ; vpunpcklqdq %xmm10,%xmm9,%xmm2
- DB 196,226,121,51,242 ; vpmovzxwd %xmm2,%xmm6
- DB 197,249,112,210,78 ; vpshufd $0x4e,%xmm2,%xmm2
- DB 196,98,121,51,242 ; vpmovzxwd %xmm2,%xmm14
- DB 196,193,9,219,251 ; vpand %xmm11,%xmm14,%xmm7
- DB 197,25,102,199 ; vpcmpgtd %xmm7,%xmm12,%xmm8
- DB 196,193,73,219,211 ; vpand %xmm11,%xmm6,%xmm2
- DB 197,25,102,250 ; vpcmpgtd %xmm2,%xmm12,%xmm15
- DB 196,67,5,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm15,%ymm8
- DB 196,193,73,219,245 ; vpand %xmm13,%xmm6,%xmm6
- DB 197,201,114,246,16 ; vpslld $0x10,%xmm6,%xmm6
- DB 197,233,114,242,13 ; vpslld $0xd,%xmm2,%xmm2
- DB 197,201,235,210 ; vpor %xmm2,%xmm6,%xmm2
- DB 196,193,9,219,245 ; vpand %xmm13,%xmm14,%xmm6
- DB 197,201,114,246,16 ; vpslld $0x10,%xmm6,%xmm6
- DB 197,193,114,247,13 ; vpslld $0xd,%xmm7,%xmm7
- DB 197,201,235,247 ; vpor %xmm7,%xmm6,%xmm6
- DB 197,201,254,243 ; vpaddd %xmm3,%xmm6,%xmm6
- DB 197,233,254,211 ; vpaddd %xmm3,%xmm2,%xmm2
- DB 196,227,109,24,214,1 ; vinsertf128 $0x1,%xmm6,%ymm2,%ymm2
- DB 196,227,109,74,212,128 ; vblendvps %ymm8,%ymm4,%ymm2,%ymm2
- DB 196,193,49,109,242 ; vpunpckhqdq %xmm10,%xmm9,%xmm6
- DB 196,226,121,51,254 ; vpmovzxwd %xmm6,%xmm7
- DB 197,249,112,246,78 ; vpshufd $0x4e,%xmm6,%xmm6
- DB 196,98,121,51,214 ; vpmovzxwd %xmm6,%xmm10
- DB 196,65,41,219,195 ; vpand %xmm11,%xmm10,%xmm8
- DB 196,65,25,102,200 ; vpcmpgtd %xmm8,%xmm12,%xmm9
- DB 196,193,65,219,243 ; vpand %xmm11,%xmm7,%xmm6
- DB 197,25,102,222 ; vpcmpgtd %xmm6,%xmm12,%xmm11
- DB 196,67,37,24,201,1 ; vinsertf128 $0x1,%xmm9,%ymm11,%ymm9
- DB 196,193,65,219,253 ; vpand %xmm13,%xmm7,%xmm7
- DB 196,65,41,219,213 ; vpand %xmm13,%xmm10,%xmm10
- DB 197,193,114,247,16 ; vpslld $0x10,%xmm7,%xmm7
- DB 197,201,114,246,13 ; vpslld $0xd,%xmm6,%xmm6
- DB 197,193,235,246 ; vpor %xmm6,%xmm7,%xmm6
- DB 196,193,65,114,242,16 ; vpslld $0x10,%xmm10,%xmm7
- DB 196,193,81,114,240,13 ; vpslld $0xd,%xmm8,%xmm5
- DB 197,193,235,237 ; vpor %xmm5,%xmm7,%xmm5
- DB 197,209,254,235 ; vpaddd %xmm3,%xmm5,%xmm5
- DB 197,201,254,219 ; vpaddd %xmm3,%xmm6,%xmm3
- DB 196,227,101,24,221,1 ; vinsertf128 $0x1,%xmm5,%ymm3,%ymm3
- DB 196,227,101,74,220,144 ; vblendvps %ymm9,%ymm4,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,36,36 ; vmovups (%rsp),%ymm4
- DB 197,252,16,108,36,32 ; vmovups 0x20(%rsp),%ymm5
- DB 197,252,16,116,36,64 ; vmovups 0x40(%rsp),%ymm6
- DB 197,252,16,124,36,96 ; vmovups 0x60(%rsp),%ymm7
- DB 72,129,196,152,0,0,0 ; add $0x98,%rsp
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_f16_avx
-_sk_store_f16_avx LABEL PROC
- DB 72,129,236,184,0,0,0 ; sub $0xb8,%rsp
- DB 197,252,17,188,36,128,0,0,0 ; vmovups %ymm7,0x80(%rsp)
- DB 197,252,17,116,36,96 ; vmovups %ymm6,0x60(%rsp)
- DB 197,252,17,108,36,64 ; vmovups %ymm5,0x40(%rsp)
- DB 197,252,17,100,36,32 ; vmovups %ymm4,0x20(%rsp)
- DB 197,252,40,225 ; vmovaps %ymm1,%ymm4
- DB 196,98,125,24,5,233,85,2,0 ; vbroadcastss 0x255e9(%rip),%ymm8 # 34c18 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- DB 196,65,124,84,216 ; vandps %ymm8,%ymm0,%ymm11
- DB 196,98,125,24,21,31,86,2,0 ; vbroadcastss 0x2561f(%rip),%ymm10 # 34c5c <_sk_srcover_bgra_8888_sse2_lowp+0x444>
- DB 196,65,124,84,226 ; vandps %ymm10,%ymm0,%ymm12
- DB 196,67,125,25,229,1 ; vextractf128 $0x1,%ymm12,%xmm13
- DB 196,98,121,24,13,15,86,2,0 ; vbroadcastss 0x2560f(%rip),%xmm9 # 34c60 <_sk_srcover_bgra_8888_sse2_lowp+0x448>
- DB 196,65,49,102,245 ; vpcmpgtd %xmm13,%xmm9,%xmm14
- DB 196,65,49,102,252 ; vpcmpgtd %xmm12,%xmm9,%xmm15
- DB 196,67,5,24,246,1 ; vinsertf128 $0x1,%xmm14,%ymm15,%ymm14
- DB 196,67,125,25,223,1 ; vextractf128 $0x1,%ymm11,%xmm15
- DB 196,193,1,114,215,16 ; vpsrld $0x10,%xmm15,%xmm15
- DB 196,193,33,114,211,16 ; vpsrld $0x10,%xmm11,%xmm11
- DB 196,193,17,114,213,13 ; vpsrld $0xd,%xmm13,%xmm13
- DB 196,65,17,254,239 ; vpaddd %xmm15,%xmm13,%xmm13
- DB 196,193,25,114,212,13 ; vpsrld $0xd,%xmm12,%xmm12
- DB 196,65,25,254,227 ; vpaddd %xmm11,%xmm12,%xmm12
- DB 196,98,121,24,29,210,85,2,0 ; vbroadcastss 0x255d2(%rip),%xmm11 # 34c64 <_sk_srcover_bgra_8888_sse2_lowp+0x44c>
- DB 196,65,17,254,235 ; vpaddd %xmm11,%xmm13,%xmm13
- DB 196,65,25,254,227 ; vpaddd %xmm11,%xmm12,%xmm12
- DB 196,67,29,24,237,1 ; vinsertf128 $0x1,%xmm13,%ymm12,%ymm13
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 196,99,21,74,233,224 ; vblendvps %ymm14,%ymm1,%ymm13,%ymm13
- DB 196,65,92,84,242 ; vandps %ymm10,%ymm4,%ymm14
- DB 196,67,125,25,247,1 ; vextractf128 $0x1,%ymm14,%xmm15
- DB 196,193,49,102,255 ; vpcmpgtd %xmm15,%xmm9,%xmm7
- DB 196,65,49,102,230 ; vpcmpgtd %xmm14,%xmm9,%xmm12
- DB 196,227,29,24,255,1 ; vinsertf128 $0x1,%xmm7,%ymm12,%ymm7
- DB 197,252,17,36,36 ; vmovups %ymm4,(%rsp)
- DB 196,65,92,84,224 ; vandps %ymm8,%ymm4,%ymm12
- DB 196,99,125,25,230,1 ; vextractf128 $0x1,%ymm12,%xmm6
- DB 197,201,114,214,16 ; vpsrld $0x10,%xmm6,%xmm6
- DB 196,193,81,114,215,13 ; vpsrld $0xd,%xmm15,%xmm5
- DB 197,124,40,250 ; vmovaps %ymm2,%ymm15
- DB 197,209,254,238 ; vpaddd %xmm6,%xmm5,%xmm5
- DB 196,193,73,114,212,16 ; vpsrld $0x10,%xmm12,%xmm6
- DB 196,193,89,114,214,13 ; vpsrld $0xd,%xmm14,%xmm4
- DB 197,217,254,230 ; vpaddd %xmm6,%xmm4,%xmm4
- DB 196,193,81,254,235 ; vpaddd %xmm11,%xmm5,%xmm5
- DB 196,193,89,254,227 ; vpaddd %xmm11,%xmm4,%xmm4
- DB 196,227,93,24,229,1 ; vinsertf128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,99,93,74,241,112 ; vblendvps %ymm7,%ymm1,%ymm4,%ymm14
- DB 196,193,4,84,226 ; vandps %ymm10,%ymm15,%ymm4
- DB 196,227,125,25,229,1 ; vextractf128 $0x1,%ymm4,%xmm5
- DB 197,177,102,245 ; vpcmpgtd %xmm5,%xmm9,%xmm6
- DB 197,177,102,252 ; vpcmpgtd %xmm4,%xmm9,%xmm7
- DB 196,227,69,24,246,1 ; vinsertf128 $0x1,%xmm6,%ymm7,%ymm6
- DB 196,193,4,84,248 ; vandps %ymm8,%ymm15,%ymm7
- DB 196,227,125,25,250,1 ; vextractf128 $0x1,%ymm7,%xmm2
- DB 197,233,114,210,16 ; vpsrld $0x10,%xmm2,%xmm2
- DB 197,209,114,213,13 ; vpsrld $0xd,%xmm5,%xmm5
- DB 197,209,254,210 ; vpaddd %xmm2,%xmm5,%xmm2
- DB 197,209,114,215,16 ; vpsrld $0x10,%xmm7,%xmm5
- DB 197,217,114,212,13 ; vpsrld $0xd,%xmm4,%xmm4
- DB 197,217,254,229 ; vpaddd %xmm5,%xmm4,%xmm4
- DB 196,193,105,254,211 ; vpaddd %xmm11,%xmm2,%xmm2
- DB 196,193,89,254,227 ; vpaddd %xmm11,%xmm4,%xmm4
- DB 196,227,93,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm4,%ymm2
- DB 196,99,109,74,225,96 ; vblendvps %ymm6,%ymm1,%ymm2,%ymm12
- DB 196,193,100,84,226 ; vandps %ymm10,%ymm3,%ymm4
- DB 196,227,125,25,229,1 ; vextractf128 $0x1,%ymm4,%xmm5
- DB 197,177,102,245 ; vpcmpgtd %xmm5,%xmm9,%xmm6
- DB 197,177,102,252 ; vpcmpgtd %xmm4,%xmm9,%xmm7
- DB 196,227,69,24,246,1 ; vinsertf128 $0x1,%xmm6,%ymm7,%ymm6
- DB 196,193,100,84,248 ; vandps %ymm8,%ymm3,%ymm7
- DB 196,227,125,25,250,1 ; vextractf128 $0x1,%ymm7,%xmm2
- DB 197,233,114,210,16 ; vpsrld $0x10,%xmm2,%xmm2
- DB 197,209,114,213,13 ; vpsrld $0xd,%xmm5,%xmm5
- DB 197,209,254,210 ; vpaddd %xmm2,%xmm5,%xmm2
- DB 197,209,114,215,16 ; vpsrld $0x10,%xmm7,%xmm5
- DB 197,217,114,212,13 ; vpsrld $0xd,%xmm4,%xmm4
- DB 197,217,254,229 ; vpaddd %xmm5,%xmm4,%xmm4
- DB 196,193,105,254,211 ; vpaddd %xmm11,%xmm2,%xmm2
- DB 196,193,89,254,227 ; vpaddd %xmm11,%xmm4,%xmm4
- DB 196,227,93,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm4,%ymm2
- DB 196,227,109,74,201,96 ; vblendvps %ymm6,%ymm1,%ymm2,%ymm1
- DB 196,99,125,25,234,1 ; vextractf128 $0x1,%ymm13,%xmm2
- DB 196,226,17,43,210 ; vpackusdw %xmm2,%xmm13,%xmm2
- DB 196,99,125,25,244,1 ; vextractf128 $0x1,%ymm14,%xmm4
- DB 196,226,9,43,228 ; vpackusdw %xmm4,%xmm14,%xmm4
- DB 196,99,125,25,229,1 ; vextractf128 $0x1,%ymm12,%xmm5
- DB 196,226,25,43,245 ; vpackusdw %xmm5,%xmm12,%xmm6
- DB 196,227,125,25,205,1 ; vextractf128 $0x1,%ymm1,%xmm5
- DB 196,226,113,43,205 ; vpackusdw %xmm5,%xmm1,%xmm1
- DB 197,233,97,236 ; vpunpcklwd %xmm4,%xmm2,%xmm5
- DB 197,233,105,212 ; vpunpckhwd %xmm4,%xmm2,%xmm2
- DB 197,201,97,225 ; vpunpcklwd %xmm1,%xmm6,%xmm4
- DB 197,201,105,201 ; vpunpckhwd %xmm1,%xmm6,%xmm1
- DB 197,81,98,220 ; vpunpckldq %xmm4,%xmm5,%xmm11
- DB 197,81,106,212 ; vpunpckhdq %xmm4,%xmm5,%xmm10
- DB 197,105,98,201 ; vpunpckldq %xmm1,%xmm2,%xmm9
- DB 197,105,106,193 ; vpunpckhdq %xmm1,%xmm2,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,3 ; shl $0x3,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,74 ; jne f868 <_sk_store_f16_avx+0x268>
- DB 196,65,122,127,28,208 ; vmovdqu %xmm11,(%r8,%rdx,8)
- DB 196,65,122,127,84,208,16 ; vmovdqu %xmm10,0x10(%r8,%rdx,8)
- DB 196,65,122,127,76,208,32 ; vmovdqu %xmm9,0x20(%r8,%rdx,8)
- DB 196,65,122,127,68,208,48 ; vmovdqu %xmm8,0x30(%r8,%rdx,8)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,12,36 ; vmovups (%rsp),%ymm1
- DB 197,124,41,250 ; vmovaps %ymm15,%ymm2
- DB 197,252,16,100,36,32 ; vmovups 0x20(%rsp),%ymm4
- DB 197,252,16,108,36,64 ; vmovups 0x40(%rsp),%ymm5
- DB 197,252,16,116,36,96 ; vmovups 0x60(%rsp),%ymm6
- DB 197,252,16,188,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm7
- DB 72,129,196,184,0,0,0 ; add $0xb8,%rsp
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,214,28,208 ; vmovq %xmm11,(%r8,%rdx,8)
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,197 ; je f839 <_sk_store_f16_avx+0x239>
- DB 196,65,121,23,92,208,8 ; vmovhpd %xmm11,0x8(%r8,%rdx,8)
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,184 ; jb f839 <_sk_store_f16_avx+0x239>
- DB 196,65,121,214,84,208,16 ; vmovq %xmm10,0x10(%r8,%rdx,8)
- DB 116,175 ; je f839 <_sk_store_f16_avx+0x239>
- DB 196,65,121,23,84,208,24 ; vmovhpd %xmm10,0x18(%r8,%rdx,8)
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,162 ; jb f839 <_sk_store_f16_avx+0x239>
- DB 196,65,121,214,76,208,32 ; vmovq %xmm9,0x20(%r8,%rdx,8)
- DB 116,153 ; je f839 <_sk_store_f16_avx+0x239>
- DB 196,65,121,23,76,208,40 ; vmovhpd %xmm9,0x28(%r8,%rdx,8)
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 114,140 ; jb f839 <_sk_store_f16_avx+0x239>
- DB 196,65,121,214,68,208,48 ; vmovq %xmm8,0x30(%r8,%rdx,8)
- DB 235,131 ; jmp f839 <_sk_store_f16_avx+0x239>
-
-PUBLIC _sk_load_u16_be_avx
-_sk_load_u16_be_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 77,1,201 ; add %r9,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,12,1,0,0 ; jne f9e3 <_sk_load_u16_be_avx+0x12d>
- DB 196,1,121,16,4,65 ; vmovupd (%r9,%r8,2),%xmm8
- DB 196,129,121,16,84,65,16 ; vmovupd 0x10(%r9,%r8,2),%xmm2
- DB 196,129,121,16,92,65,32 ; vmovupd 0x20(%r9,%r8,2),%xmm3
- DB 196,1,122,111,76,65,48 ; vmovdqu 0x30(%r9,%r8,2),%xmm9
- DB 197,185,97,194 ; vpunpcklwd %xmm2,%xmm8,%xmm0
- DB 197,185,105,210 ; vpunpckhwd %xmm2,%xmm8,%xmm2
- DB 196,193,97,97,201 ; vpunpcklwd %xmm9,%xmm3,%xmm1
- DB 196,193,97,105,217 ; vpunpckhwd %xmm9,%xmm3,%xmm3
- DB 197,121,97,210 ; vpunpcklwd %xmm2,%xmm0,%xmm10
- DB 197,121,105,194 ; vpunpckhwd %xmm2,%xmm0,%xmm8
- DB 197,241,97,211 ; vpunpcklwd %xmm3,%xmm1,%xmm2
- DB 197,113,105,219 ; vpunpckhwd %xmm3,%xmm1,%xmm11
- DB 197,169,108,194 ; vpunpcklqdq %xmm2,%xmm10,%xmm0
- DB 197,241,113,240,8 ; vpsllw $0x8,%xmm0,%xmm1
- DB 197,249,113,208,8 ; vpsrlw $0x8,%xmm0,%xmm0
- DB 197,241,235,192 ; vpor %xmm0,%xmm1,%xmm0
- DB 196,226,121,51,200 ; vpmovzxwd %xmm0,%xmm1
- DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
- DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,13,20,82,2,0 ; vbroadcastss 0x25214(%rip),%ymm9 # 34b5c <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
- DB 197,169,109,202 ; vpunpckhqdq %xmm2,%xmm10,%xmm1
- DB 197,233,113,241,8 ; vpsllw $0x8,%xmm1,%xmm2
- DB 197,241,113,209,8 ; vpsrlw $0x8,%xmm1,%xmm1
- DB 197,233,235,201 ; vpor %xmm1,%xmm2,%xmm1
- DB 196,226,121,51,209 ; vpmovzxwd %xmm1,%xmm2
- DB 197,249,112,201,78 ; vpshufd $0x4e,%xmm1,%xmm1
- DB 196,226,121,51,201 ; vpmovzxwd %xmm1,%xmm1
- DB 196,227,109,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm2,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,193,116,89,201 ; vmulps %ymm9,%ymm1,%ymm1
- DB 196,193,57,108,211 ; vpunpcklqdq %xmm11,%xmm8,%xmm2
- DB 197,225,113,242,8 ; vpsllw $0x8,%xmm2,%xmm3
- DB 197,233,113,210,8 ; vpsrlw $0x8,%xmm2,%xmm2
- DB 197,225,235,210 ; vpor %xmm2,%xmm3,%xmm2
- DB 196,226,121,51,218 ; vpmovzxwd %xmm2,%xmm3
- DB 197,249,112,210,78 ; vpshufd $0x4e,%xmm2,%xmm2
- DB 196,226,121,51,210 ; vpmovzxwd %xmm2,%xmm2
- DB 196,227,101,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm3,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,193,108,89,209 ; vmulps %ymm9,%ymm2,%ymm2
- DB 196,193,57,109,219 ; vpunpckhqdq %xmm11,%xmm8,%xmm3
- DB 197,185,113,243,8 ; vpsllw $0x8,%xmm3,%xmm8
- DB 197,225,113,211,8 ; vpsrlw $0x8,%xmm3,%xmm3
- DB 197,185,235,219 ; vpor %xmm3,%xmm8,%xmm3
- DB 196,98,121,51,195 ; vpmovzxwd %xmm3,%xmm8
- DB 197,249,112,219,78 ; vpshufd $0x4e,%xmm3,%xmm3
- DB 196,226,121,51,219 ; vpmovzxwd %xmm3,%xmm3
- DB 196,227,61,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm8,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 196,193,100,89,217 ; vmulps %ymm9,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 196,1,123,16,4,65 ; vmovsd (%r9,%r8,2),%xmm8
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,85 ; je fa49 <_sk_load_u16_be_avx+0x193>
- DB 196,1,57,22,68,65,8 ; vmovhpd 0x8(%r9,%r8,2),%xmm8,%xmm8
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,72 ; jb fa49 <_sk_load_u16_be_avx+0x193>
- DB 196,129,123,16,84,65,16 ; vmovsd 0x10(%r9,%r8,2),%xmm2
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 116,72 ; je fa56 <_sk_load_u16_be_avx+0x1a0>
- DB 196,129,105,22,84,65,24 ; vmovhpd 0x18(%r9,%r8,2),%xmm2,%xmm2
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,59 ; jb fa56 <_sk_load_u16_be_avx+0x1a0>
- DB 196,129,123,16,92,65,32 ; vmovsd 0x20(%r9,%r8,2),%xmm3
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 15,132,198,254,255,255 ; je f8f2 <_sk_load_u16_be_avx+0x3c>
- DB 196,129,97,22,92,65,40 ; vmovhpd 0x28(%r9,%r8,2),%xmm3,%xmm3
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 15,130,181,254,255,255 ; jb f8f2 <_sk_load_u16_be_avx+0x3c>
- DB 196,1,122,126,76,65,48 ; vmovq 0x30(%r9,%r8,2),%xmm9
- DB 233,169,254,255,255 ; jmpq f8f2 <_sk_load_u16_be_avx+0x3c>
- DB 197,225,87,219 ; vxorpd %xmm3,%xmm3,%xmm3
- DB 197,233,87,210 ; vxorpd %xmm2,%xmm2,%xmm2
- DB 233,156,254,255,255 ; jmpq f8f2 <_sk_load_u16_be_avx+0x3c>
- DB 197,225,87,219 ; vxorpd %xmm3,%xmm3,%xmm3
- DB 233,147,254,255,255 ; jmpq f8f2 <_sk_load_u16_be_avx+0x3c>
-
-PUBLIC _sk_load_rgb_u16_be_avx
-_sk_load_rgb_u16_be_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,82 ; lea (%rdx,%rdx,2),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 77,1,201 ; add %r9,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,253,0,0,0 ; jne fb79 <_sk_load_rgb_u16_be_avx+0x11a>
- DB 196,1,122,111,28,65 ; vmovdqu (%r9,%r8,2),%xmm11
- DB 196,129,122,111,92,65,12 ; vmovdqu 0xc(%r9,%r8,2),%xmm3
- DB 196,129,122,111,84,65,24 ; vmovdqu 0x18(%r9,%r8,2),%xmm2
- DB 196,129,122,111,68,65,32 ; vmovdqu 0x20(%r9,%r8,2),%xmm0
- DB 197,249,115,216,4 ; vpsrldq $0x4,%xmm0,%xmm0
- DB 196,193,57,115,219,6 ; vpsrldq $0x6,%xmm11,%xmm8
- DB 197,169,115,219,6 ; vpsrldq $0x6,%xmm3,%xmm10
- DB 197,241,115,218,6 ; vpsrldq $0x6,%xmm2,%xmm1
- DB 197,177,115,216,6 ; vpsrldq $0x6,%xmm0,%xmm9
- DB 196,193,113,97,201 ; vpunpcklwd %xmm9,%xmm1,%xmm1
- DB 197,233,97,192 ; vpunpcklwd %xmm0,%xmm2,%xmm0
- DB 196,193,57,97,210 ; vpunpcklwd %xmm10,%xmm8,%xmm2
- DB 197,161,97,219 ; vpunpcklwd %xmm3,%xmm11,%xmm3
- DB 197,97,97,194 ; vpunpcklwd %xmm2,%xmm3,%xmm8
- DB 197,225,105,210 ; vpunpckhwd %xmm2,%xmm3,%xmm2
- DB 197,249,97,217 ; vpunpcklwd %xmm1,%xmm0,%xmm3
- DB 197,249,105,193 ; vpunpckhwd %xmm1,%xmm0,%xmm0
- DB 197,233,108,208 ; vpunpcklqdq %xmm0,%xmm2,%xmm2
- DB 197,185,108,195 ; vpunpcklqdq %xmm3,%xmm8,%xmm0
- DB 197,241,113,240,8 ; vpsllw $0x8,%xmm0,%xmm1
- DB 197,249,113,208,8 ; vpsrlw $0x8,%xmm0,%xmm0
- DB 197,241,235,192 ; vpor %xmm0,%xmm1,%xmm0
- DB 196,226,121,51,200 ; vpmovzxwd %xmm0,%xmm1
- DB 197,249,112,192,78 ; vpshufd $0x4e,%xmm0,%xmm0
- DB 196,226,121,51,192 ; vpmovzxwd %xmm0,%xmm0
- DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,98,125,24,13,81,80,2,0 ; vbroadcastss 0x25051(%rip),%ymm9 # 34b5c <_sk_srcover_bgra_8888_sse2_lowp+0x344>
- DB 196,193,124,89,193 ; vmulps %ymm9,%ymm0,%ymm0
- DB 197,185,109,203 ; vpunpckhqdq %xmm3,%xmm8,%xmm1
- DB 197,225,113,241,8 ; vpsllw $0x8,%xmm1,%xmm3
- DB 197,241,113,209,8 ; vpsrlw $0x8,%xmm1,%xmm1
- DB 197,225,235,201 ; vpor %xmm1,%xmm3,%xmm1
- DB 196,226,121,51,217 ; vpmovzxwd %xmm1,%xmm3
- DB 197,249,112,201,78 ; vpshufd $0x4e,%xmm1,%xmm1
- DB 196,226,121,51,201 ; vpmovzxwd %xmm1,%xmm1
- DB 196,227,101,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm3,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 196,193,116,89,201 ; vmulps %ymm9,%ymm1,%ymm1
- DB 197,225,113,242,8 ; vpsllw $0x8,%xmm2,%xmm3
- DB 197,233,113,210,8 ; vpsrlw $0x8,%xmm2,%xmm2
- DB 197,225,235,210 ; vpor %xmm2,%xmm3,%xmm2
- DB 196,226,121,51,218 ; vpmovzxwd %xmm2,%xmm3
- DB 197,249,112,210,78 ; vpshufd $0x4e,%xmm2,%xmm2
- DB 196,226,121,51,210 ; vpmovzxwd %xmm2,%xmm2
- DB 196,227,101,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm3,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,193,108,89,209 ; vmulps %ymm9,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,81,79,2,0 ; vbroadcastss 0x24f51(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 255,224 ; jmpq *%rax
- DB 196,129,121,110,4,65 ; vmovd (%r9,%r8,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,1,121,196,92,65,4,2 ; vpinsrw $0x2,0x4(%r9,%r8,2),%xmm0,%xmm11
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,31 ; jne fbb1 <_sk_load_rgb_u16_be_avx+0x152>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,65,41,239,210 ; vpxor %xmm10,%xmm10,%xmm10
- DB 197,225,239,219 ; vpxor %xmm3,%xmm3,%xmm3
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 233,0,255,255,255 ; jmpq fab1 <_sk_load_rgb_u16_be_avx+0x52>
- DB 196,129,121,110,68,65,6 ; vmovd 0x6(%r9,%r8,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,1,121,196,68,65,10,2 ; vpinsrw $0x2,0xa(%r9,%r8,2),%xmm0,%xmm8
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,48 ; jb fbfb <_sk_load_rgb_u16_be_avx+0x19c>
- DB 196,129,121,110,68,65,12 ; vmovd 0xc(%r9,%r8,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,92,65,16,2 ; vpinsrw $0x2,0x10(%r9,%r8,2),%xmm0,%xmm3
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 117,48 ; jne fc15 <_sk_load_rgb_u16_be_avx+0x1b6>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,65,41,239,210 ; vpxor %xmm10,%xmm10,%xmm10
- DB 233,182,254,255,255 ; jmpq fab1 <_sk_load_rgb_u16_be_avx+0x52>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 196,65,41,239,210 ; vpxor %xmm10,%xmm10,%xmm10
- DB 197,225,239,219 ; vpxor %xmm3,%xmm3,%xmm3
- DB 233,156,254,255,255 ; jmpq fab1 <_sk_load_rgb_u16_be_avx+0x52>
- DB 196,129,121,110,68,65,18 ; vmovd 0x12(%r9,%r8,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,1,121,196,84,65,22,2 ; vpinsrw $0x2,0x16(%r9,%r8,2),%xmm0,%xmm10
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,39 ; jb fc56 <_sk_load_rgb_u16_be_avx+0x1f7>
- DB 196,129,121,110,68,65,24 ; vmovd 0x18(%r9,%r8,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,84,65,28,2 ; vpinsrw $0x2,0x1c(%r9,%r8,2),%xmm0,%xmm2
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 117,30 ; jne fc67 <_sk_load_rgb_u16_be_avx+0x208>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 233,91,254,255,255 ; jmpq fab1 <_sk_load_rgb_u16_be_avx+0x52>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 197,241,239,201 ; vpxor %xmm1,%xmm1,%xmm1
- DB 197,233,239,210 ; vpxor %xmm2,%xmm2,%xmm2
- DB 233,74,254,255,255 ; jmpq fab1 <_sk_load_rgb_u16_be_avx+0x52>
- DB 196,129,121,110,68,65,30 ; vmovd 0x1e(%r9,%r8,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,76,65,34,2 ; vpinsrw $0x2,0x22(%r9,%r8,2),%xmm0,%xmm1
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 114,25 ; jb fc9a <_sk_load_rgb_u16_be_avx+0x23b>
- DB 196,129,121,110,68,65,36 ; vmovd 0x24(%r9,%r8,2),%xmm0
- DB 196,65,49,239,201 ; vpxor %xmm9,%xmm9,%xmm9
- DB 196,129,121,196,68,65,40,2 ; vpinsrw $0x2,0x28(%r9,%r8,2),%xmm0,%xmm0
- DB 233,23,254,255,255 ; jmpq fab1 <_sk_load_rgb_u16_be_avx+0x52>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 233,14,254,255,255 ; jmpq fab1 <_sk_load_rgb_u16_be_avx+0x52>
-
-PUBLIC _sk_store_u16_be_avx
-_sk_store_u16_be_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 77,1,201 ; add %r9,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,95,200 ; vmaxps %ymm0,%ymm8,%ymm9
- DB 196,98,125,24,21,251,77,2,0 ; vbroadcastss 0x24dfb(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,65,52,93,202 ; vminps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,29,25,79,2,0 ; vbroadcastss 0x24f19(%rip),%ymm11 # 34bf4 <_sk_srcover_bgra_8888_sse2_lowp+0x3dc>
- DB 196,65,52,89,203 ; vmulps %ymm11,%ymm9,%ymm9
- DB 196,65,125,91,201 ; vcvtps2dq %ymm9,%ymm9
- DB 196,67,125,25,204,1 ; vextractf128 $0x1,%ymm9,%xmm12
- DB 196,66,49,43,204 ; vpackusdw %xmm12,%xmm9,%xmm9
- DB 196,193,25,113,241,8 ; vpsllw $0x8,%xmm9,%xmm12
- DB 196,193,49,113,209,8 ; vpsrlw $0x8,%xmm9,%xmm9
- DB 196,65,25,235,201 ; vpor %xmm9,%xmm12,%xmm9
- DB 197,60,95,225 ; vmaxps %ymm1,%ymm8,%ymm12
- DB 196,65,28,93,226 ; vminps %ymm10,%ymm12,%ymm12
- DB 196,65,28,89,227 ; vmulps %ymm11,%ymm12,%ymm12
- DB 196,65,125,91,228 ; vcvtps2dq %ymm12,%ymm12
- DB 196,67,125,25,229,1 ; vextractf128 $0x1,%ymm12,%xmm13
- DB 196,66,25,43,229 ; vpackusdw %xmm13,%xmm12,%xmm12
- DB 196,193,17,113,244,8 ; vpsllw $0x8,%xmm12,%xmm13
- DB 196,193,25,113,212,8 ; vpsrlw $0x8,%xmm12,%xmm12
- DB 196,65,17,235,228 ; vpor %xmm12,%xmm13,%xmm12
- DB 197,60,95,234 ; vmaxps %ymm2,%ymm8,%ymm13
- DB 196,65,20,93,234 ; vminps %ymm10,%ymm13,%ymm13
- DB 196,65,20,89,235 ; vmulps %ymm11,%ymm13,%ymm13
- DB 196,65,125,91,237 ; vcvtps2dq %ymm13,%ymm13
- DB 196,67,125,25,238,1 ; vextractf128 $0x1,%ymm13,%xmm14
- DB 196,66,17,43,238 ; vpackusdw %xmm14,%xmm13,%xmm13
- DB 196,193,9,113,245,8 ; vpsllw $0x8,%xmm13,%xmm14
- DB 196,193,17,113,213,8 ; vpsrlw $0x8,%xmm13,%xmm13
- DB 196,65,9,235,237 ; vpor %xmm13,%xmm14,%xmm13
- DB 197,60,95,195 ; vmaxps %ymm3,%ymm8,%ymm8
- DB 196,65,60,93,194 ; vminps %ymm10,%ymm8,%ymm8
- DB 196,65,60,89,195 ; vmulps %ymm11,%ymm8,%ymm8
- DB 196,65,125,91,192 ; vcvtps2dq %ymm8,%ymm8
- DB 196,67,125,25,194,1 ; vextractf128 $0x1,%ymm8,%xmm10
- DB 196,66,57,43,194 ; vpackusdw %xmm10,%xmm8,%xmm8
- DB 196,193,41,113,240,8 ; vpsllw $0x8,%xmm8,%xmm10
- DB 196,193,57,113,208,8 ; vpsrlw $0x8,%xmm8,%xmm8
- DB 196,65,41,235,192 ; vpor %xmm8,%xmm10,%xmm8
- DB 196,65,49,97,212 ; vpunpcklwd %xmm12,%xmm9,%xmm10
- DB 196,65,49,105,228 ; vpunpckhwd %xmm12,%xmm9,%xmm12
- DB 196,65,17,97,200 ; vpunpcklwd %xmm8,%xmm13,%xmm9
- DB 196,65,17,105,192 ; vpunpckhwd %xmm8,%xmm13,%xmm8
- DB 196,65,41,98,217 ; vpunpckldq %xmm9,%xmm10,%xmm11
- DB 196,65,41,106,209 ; vpunpckhdq %xmm9,%xmm10,%xmm10
- DB 196,65,25,98,200 ; vpunpckldq %xmm8,%xmm12,%xmm9
- DB 196,65,25,106,192 ; vpunpckhdq %xmm8,%xmm12,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,31 ; jne fdda <_sk_store_u16_be_avx+0x137>
- DB 196,1,122,127,28,65 ; vmovdqu %xmm11,(%r9,%r8,2)
- DB 196,1,122,127,84,65,16 ; vmovdqu %xmm10,0x10(%r9,%r8,2)
- DB 196,1,122,127,76,65,32 ; vmovdqu %xmm9,0x20(%r9,%r8,2)
- DB 196,1,122,127,68,65,48 ; vmovdqu %xmm8,0x30(%r9,%r8,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 196,1,121,214,28,65 ; vmovq %xmm11,(%r9,%r8,2)
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,240 ; je fdd6 <_sk_store_u16_be_avx+0x133>
- DB 196,1,121,23,92,65,8 ; vmovhpd %xmm11,0x8(%r9,%r8,2)
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,227 ; jb fdd6 <_sk_store_u16_be_avx+0x133>
- DB 196,1,121,214,84,65,16 ; vmovq %xmm10,0x10(%r9,%r8,2)
- DB 116,218 ; je fdd6 <_sk_store_u16_be_avx+0x133>
- DB 196,1,121,23,84,65,24 ; vmovhpd %xmm10,0x18(%r9,%r8,2)
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,205 ; jb fdd6 <_sk_store_u16_be_avx+0x133>
- DB 196,1,121,214,76,65,32 ; vmovq %xmm9,0x20(%r9,%r8,2)
- DB 116,196 ; je fdd6 <_sk_store_u16_be_avx+0x133>
- DB 196,1,121,23,76,65,40 ; vmovhpd %xmm9,0x28(%r9,%r8,2)
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 114,183 ; jb fdd6 <_sk_store_u16_be_avx+0x133>
- DB 196,1,121,214,68,65,48 ; vmovq %xmm8,0x30(%r9,%r8,2)
- DB 235,174 ; jmp fdd6 <_sk_store_u16_be_avx+0x133>
-
-PUBLIC _sk_load_f32_avx
-_sk_load_f32_avx LABEL PROC
- DB 72,129,236,152,0,0,0 ; sub $0x98,%rsp
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,253,87,192 ; vxorpd %ymm0,%ymm0,%ymm0
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 15,135,88,1,0,0 ; ja ff97 <_sk_load_f32_avx+0x16f>
- DB 197,253,17,36,36 ; vmovupd %ymm4,(%rsp)
- DB 197,253,17,108,36,32 ; vmovupd %ymm5,0x20(%rsp)
- DB 197,253,17,116,36,64 ; vmovupd %ymm6,0x40(%rsp)
- DB 197,253,17,124,36,96 ; vmovupd %ymm7,0x60(%rsp)
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 73,193,225,2 ; shl $0x2,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 76,141,21,52,1,0,0 ; lea 0x134(%rip),%r10 # ffa8 <_sk_load_f32_avx+0x180>
- DB 73,99,4,186 ; movslq (%r10,%rdi,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 197,221,87,228 ; vxorpd %ymm4,%ymm4,%ymm4
- DB 196,65,53,87,201 ; vxorpd %ymm9,%ymm9,%ymm9
- DB 197,237,87,210 ; vxorpd %ymm2,%ymm2,%ymm2
- DB 196,65,37,87,219 ; vxorpd %ymm11,%ymm11,%ymm11
- DB 196,65,29,87,228 ; vxorpd %ymm12,%ymm12,%ymm12
- DB 196,65,61,87,192 ; vxorpd %ymm8,%ymm8,%ymm8
- DB 196,65,13,87,246 ; vxorpd %ymm14,%ymm14,%ymm14
- DB 197,205,87,246 ; vxorpd %ymm6,%ymm6,%ymm6
- DB 196,65,5,87,255 ; vxorpd %ymm15,%ymm15,%ymm15
- DB 197,245,87,201 ; vxorpd %ymm1,%ymm1,%ymm1
- DB 196,65,21,87,237 ; vxorpd %ymm13,%ymm13,%ymm13
- DB 197,213,87,237 ; vxorpd %ymm5,%ymm5,%ymm5
- DB 197,229,87,219 ; vxorpd %ymm3,%ymm3,%ymm3
- DB 196,65,45,87,210 ; vxorpd %ymm10,%ymm10,%ymm10
- DB 197,197,87,255 ; vxorpd %ymm7,%ymm7,%ymm7
- DB 255,224 ; jmpq *%rax
- DB 196,129,121,16,68,129,112 ; vmovupd 0x70(%r9,%r8,4),%xmm0
- DB 196,227,125,6,192,40 ; vperm2f128 $0x28,%ymm0,%ymm0,%ymm0
- DB 196,129,121,16,76,129,96 ; vmovupd 0x60(%r9,%r8,4),%xmm1
- DB 196,227,125,6,225,40 ; vperm2f128 $0x28,%ymm1,%ymm0,%ymm4
- DB 196,129,121,16,76,129,80 ; vmovupd 0x50(%r9,%r8,4),%xmm1
- DB 196,227,125,6,209,40 ; vperm2f128 $0x28,%ymm1,%ymm0,%ymm2
- DB 197,125,40,204 ; vmovapd %ymm4,%ymm9
- DB 196,129,121,16,76,129,64 ; vmovupd 0x40(%r9,%r8,4),%xmm1
- DB 196,99,125,6,193,40 ; vperm2f128 $0x28,%ymm1,%ymm0,%ymm8
- DB 196,65,125,40,217 ; vmovapd %ymm9,%ymm11
- DB 197,125,40,226 ; vmovapd %ymm2,%ymm12
- DB 196,129,121,16,76,129,48 ; vmovupd 0x30(%r9,%r8,4),%xmm1
- DB 196,227,117,13,192,12 ; vblendpd $0xc,%ymm0,%ymm1,%ymm0
- DB 196,65,125,40,243 ; vmovapd %ymm11,%ymm14
- DB 197,125,41,230 ; vmovapd %ymm12,%ymm6
- DB 196,65,125,40,248 ; vmovapd %ymm8,%ymm15
- DB 196,129,121,16,76,129,32 ; vmovupd 0x20(%r9,%r8,4),%xmm1
- DB 196,195,117,13,206,12 ; vblendpd $0xc,%ymm14,%ymm1,%ymm1
- DB 197,125,40,238 ; vmovapd %ymm6,%ymm13
- DB 197,125,41,253 ; vmovapd %ymm15,%ymm5
- DB 196,129,121,16,84,129,16 ; vmovupd 0x10(%r9,%r8,4),%xmm2
- DB 196,67,109,13,213,12 ; vblendpd $0xc,%ymm13,%ymm2,%ymm10
- DB 197,253,40,217 ; vmovapd %ymm1,%ymm3
- DB 197,253,40,253 ; vmovapd %ymm5,%ymm7
- DB 196,129,121,16,12,129 ; vmovupd (%r9,%r8,4),%xmm1
- DB 196,227,117,13,207,12 ; vblendpd $0xc,%ymm7,%ymm1,%ymm1
- DB 197,252,16,124,36,96 ; vmovups 0x60(%rsp),%ymm7
- DB 197,252,16,116,36,64 ; vmovups 0x40(%rsp),%ymm6
- DB 197,252,16,108,36,32 ; vmovups 0x20(%rsp),%ymm5
- DB 197,252,16,36,36 ; vmovups (%rsp),%ymm4
- DB 196,193,116,20,210 ; vunpcklps %ymm10,%ymm1,%ymm2
- DB 196,65,116,21,194 ; vunpckhps %ymm10,%ymm1,%ymm8
- DB 197,228,20,200 ; vunpcklps %ymm0,%ymm3,%ymm1
- DB 197,228,21,216 ; vunpckhps %ymm0,%ymm3,%ymm3
- DB 197,237,20,193 ; vunpcklpd %ymm1,%ymm2,%ymm0
- DB 197,237,21,201 ; vunpckhpd %ymm1,%ymm2,%ymm1
- DB 197,189,20,211 ; vunpcklpd %ymm3,%ymm8,%ymm2
- DB 197,189,21,219 ; vunpckhpd %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,129,196,152,0,0,0 ; add $0x98,%rsp
- DB 255,224 ; jmpq *%rax
- DB 197,229,87,219 ; vxorpd %ymm3,%ymm3,%ymm3
- DB 196,65,45,87,210 ; vxorpd %ymm10,%ymm10,%ymm10
- DB 197,245,87,201 ; vxorpd %ymm1,%ymm1,%ymm1
- DB 235,196 ; jmp ff6a <_sk_load_f32_avx+0x142>
- DB 102,144 ; xchg %ax,%ax
- DB 25,255 ; sbb %edi,%edi
- DB 255 ; (bad)
- DB 255,159,255,255,255,138 ; lcall *-0x75000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,117,255 ; pushq -0x1(%rbp)
- DB 255 ; (bad)
- DB 255,90,255 ; lcall *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,68,255,255 ; incl -0x1(%rdi,%rdi,8)
- DB 255,51 ; pushq (%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,38 ; jmpq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_f32_dst_avx
-_sk_load_f32_dst_avx LABEL PROC
- DB 72,129,236,152,0,0,0 ; sub $0x98,%rsp
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,221,87,228 ; vxorpd %ymm4,%ymm4,%ymm4
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 15,135,88,1,0,0 ; ja 10137 <_sk_load_f32_dst_avx+0x16f>
- DB 197,253,17,4,36 ; vmovupd %ymm0,(%rsp)
- DB 197,253,17,76,36,32 ; vmovupd %ymm1,0x20(%rsp)
- DB 197,253,17,84,36,64 ; vmovupd %ymm2,0x40(%rsp)
- DB 197,253,17,92,36,96 ; vmovupd %ymm3,0x60(%rsp)
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 73,193,225,2 ; shl $0x2,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 76,141,21,52,1,0,0 ; lea 0x134(%rip),%r10 # 10148 <_sk_load_f32_dst_avx+0x180>
- DB 73,99,4,186 ; movslq (%r10,%rdi,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 197,253,87,192 ; vxorpd %ymm0,%ymm0,%ymm0
- DB 196,65,53,87,201 ; vxorpd %ymm9,%ymm9,%ymm9
- DB 197,205,87,246 ; vxorpd %ymm6,%ymm6,%ymm6
- DB 196,65,37,87,219 ; vxorpd %ymm11,%ymm11,%ymm11
- DB 196,65,29,87,228 ; vxorpd %ymm12,%ymm12,%ymm12
- DB 196,65,61,87,192 ; vxorpd %ymm8,%ymm8,%ymm8
- DB 196,65,13,87,246 ; vxorpd %ymm14,%ymm14,%ymm14
- DB 197,237,87,210 ; vxorpd %ymm2,%ymm2,%ymm2
- DB 196,65,5,87,255 ; vxorpd %ymm15,%ymm15,%ymm15
- DB 197,213,87,237 ; vxorpd %ymm5,%ymm5,%ymm5
- DB 196,65,21,87,237 ; vxorpd %ymm13,%ymm13,%ymm13
- DB 197,245,87,201 ; vxorpd %ymm1,%ymm1,%ymm1
- DB 197,197,87,255 ; vxorpd %ymm7,%ymm7,%ymm7
- DB 196,65,45,87,210 ; vxorpd %ymm10,%ymm10,%ymm10
- DB 197,229,87,219 ; vxorpd %ymm3,%ymm3,%ymm3
- DB 255,224 ; jmpq *%rax
- DB 196,129,121,16,68,129,112 ; vmovupd 0x70(%r9,%r8,4),%xmm0
- DB 196,227,125,6,224,40 ; vperm2f128 $0x28,%ymm0,%ymm0,%ymm4
- DB 196,129,121,16,68,129,96 ; vmovupd 0x60(%r9,%r8,4),%xmm0
- DB 196,227,125,6,192,40 ; vperm2f128 $0x28,%ymm0,%ymm0,%ymm0
- DB 196,129,121,16,76,129,80 ; vmovupd 0x50(%r9,%r8,4),%xmm1
- DB 196,227,125,6,241,40 ; vperm2f128 $0x28,%ymm1,%ymm0,%ymm6
- DB 197,125,40,200 ; vmovapd %ymm0,%ymm9
- DB 196,129,121,16,68,129,64 ; vmovupd 0x40(%r9,%r8,4),%xmm0
- DB 196,99,125,6,192,40 ; vperm2f128 $0x28,%ymm0,%ymm0,%ymm8
- DB 196,65,125,40,217 ; vmovapd %ymm9,%ymm11
- DB 197,125,40,230 ; vmovapd %ymm6,%ymm12
- DB 196,129,121,16,68,129,48 ; vmovupd 0x30(%r9,%r8,4),%xmm0
- DB 196,227,125,13,228,12 ; vblendpd $0xc,%ymm4,%ymm0,%ymm4
- DB 196,65,125,40,243 ; vmovapd %ymm11,%ymm14
- DB 197,125,41,226 ; vmovapd %ymm12,%ymm2
- DB 196,65,125,40,248 ; vmovapd %ymm8,%ymm15
- DB 196,129,121,16,68,129,32 ; vmovupd 0x20(%r9,%r8,4),%xmm0
- DB 196,195,125,13,238,12 ; vblendpd $0xc,%ymm14,%ymm0,%ymm5
- DB 197,125,40,234 ; vmovapd %ymm2,%ymm13
- DB 197,125,41,249 ; vmovapd %ymm15,%ymm1
- DB 196,129,121,16,68,129,16 ; vmovupd 0x10(%r9,%r8,4),%xmm0
- DB 196,67,125,13,213,12 ; vblendpd $0xc,%ymm13,%ymm0,%ymm10
- DB 197,253,40,253 ; vmovapd %ymm5,%ymm7
- DB 197,253,40,217 ; vmovapd %ymm1,%ymm3
- DB 196,129,121,16,4,129 ; vmovupd (%r9,%r8,4),%xmm0
- DB 196,227,125,13,235,12 ; vblendpd $0xc,%ymm3,%ymm0,%ymm5
- DB 197,252,16,92,36,96 ; vmovups 0x60(%rsp),%ymm3
- DB 197,252,16,84,36,64 ; vmovups 0x40(%rsp),%ymm2
- DB 197,252,16,76,36,32 ; vmovups 0x20(%rsp),%ymm1
- DB 197,252,16,4,36 ; vmovups (%rsp),%ymm0
- DB 196,193,84,20,242 ; vunpcklps %ymm10,%ymm5,%ymm6
- DB 196,65,84,21,194 ; vunpckhps %ymm10,%ymm5,%ymm8
- DB 197,196,20,236 ; vunpcklps %ymm4,%ymm7,%ymm5
- DB 197,196,21,252 ; vunpckhps %ymm4,%ymm7,%ymm7
- DB 197,205,20,229 ; vunpcklpd %ymm5,%ymm6,%ymm4
- DB 197,205,21,237 ; vunpckhpd %ymm5,%ymm6,%ymm5
- DB 197,189,20,247 ; vunpcklpd %ymm7,%ymm8,%ymm6
- DB 197,189,21,255 ; vunpckhpd %ymm7,%ymm8,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,129,196,152,0,0,0 ; add $0x98,%rsp
- DB 255,224 ; jmpq *%rax
- DB 197,197,87,255 ; vxorpd %ymm7,%ymm7,%ymm7
- DB 196,65,45,87,210 ; vxorpd %ymm10,%ymm10,%ymm10
- DB 197,213,87,237 ; vxorpd %ymm5,%ymm5,%ymm5
- DB 235,196 ; jmp 1010a <_sk_load_f32_dst_avx+0x142>
- DB 102,144 ; xchg %ax,%ax
- DB 25,255 ; sbb %edi,%edi
- DB 255 ; (bad)
- DB 255,159,255,255,255,138 ; lcall *-0x75000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,117,255 ; pushq -0x1(%rbp)
- DB 255 ; (bad)
- DB 255,90,255 ; lcall *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,68,255,255 ; incl -0x1(%rdi,%rdi,8)
- DB 255,51 ; pushq (%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,38 ; jmpq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_f32_avx
-_sk_store_f32_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 73,193,225,2 ; shl $0x2,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 197,124,20,193 ; vunpcklps %ymm1,%ymm0,%ymm8
- DB 197,124,21,217 ; vunpckhps %ymm1,%ymm0,%ymm11
- DB 197,108,20,203 ; vunpcklps %ymm3,%ymm2,%ymm9
- DB 197,108,21,227 ; vunpckhps %ymm3,%ymm2,%ymm12
- DB 196,65,61,20,209 ; vunpcklpd %ymm9,%ymm8,%ymm10
- DB 196,65,61,21,201 ; vunpckhpd %ymm9,%ymm8,%ymm9
- DB 196,65,37,20,196 ; vunpcklpd %ymm12,%ymm11,%ymm8
- DB 196,65,37,21,220 ; vunpckhpd %ymm12,%ymm11,%ymm11
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,55 ; jne 101e1 <_sk_store_f32_avx+0x79>
- DB 196,67,45,24,225,1 ; vinsertf128 $0x1,%xmm9,%ymm10,%ymm12
- DB 196,67,61,24,235,1 ; vinsertf128 $0x1,%xmm11,%ymm8,%ymm13
- DB 196,67,45,6,201,49 ; vperm2f128 $0x31,%ymm9,%ymm10,%ymm9
- DB 196,67,61,6,195,49 ; vperm2f128 $0x31,%ymm11,%ymm8,%ymm8
- DB 196,1,124,17,36,129 ; vmovups %ymm12,(%r9,%r8,4)
- DB 196,1,124,17,108,129,32 ; vmovups %ymm13,0x20(%r9,%r8,4)
- DB 196,1,125,17,76,129,64 ; vmovupd %ymm9,0x40(%r9,%r8,4)
- DB 196,1,125,17,68,129,96 ; vmovupd %ymm8,0x60(%r9,%r8,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 196,1,121,17,20,129 ; vmovupd %xmm10,(%r9,%r8,4)
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,240 ; je 101dd <_sk_store_f32_avx+0x75>
- DB 196,1,121,17,76,129,16 ; vmovupd %xmm9,0x10(%r9,%r8,4)
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,227 ; jb 101dd <_sk_store_f32_avx+0x75>
- DB 196,1,121,17,68,129,32 ; vmovupd %xmm8,0x20(%r9,%r8,4)
- DB 116,218 ; je 101dd <_sk_store_f32_avx+0x75>
- DB 196,1,121,17,92,129,48 ; vmovupd %xmm11,0x30(%r9,%r8,4)
- DB 72,131,255,5 ; cmp $0x5,%rdi
- DB 114,205 ; jb 101dd <_sk_store_f32_avx+0x75>
- DB 196,3,125,25,84,129,64,1 ; vextractf128 $0x1,%ymm10,0x40(%r9,%r8,4)
- DB 116,195 ; je 101dd <_sk_store_f32_avx+0x75>
- DB 196,3,125,25,76,129,80,1 ; vextractf128 $0x1,%ymm9,0x50(%r9,%r8,4)
- DB 72,131,255,7 ; cmp $0x7,%rdi
- DB 114,181 ; jb 101dd <_sk_store_f32_avx+0x75>
- DB 196,3,125,25,68,129,96,1 ; vextractf128 $0x1,%ymm8,0x60(%r9,%r8,4)
- DB 235,171 ; jmp 101dd <_sk_store_f32_avx+0x75>
-
-PUBLIC _sk_repeat_x_avx
-_sk_repeat_x_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,4 ; vbroadcastss 0x4(%rax),%ymm8
- DB 197,60,89,192 ; vmulps %ymm0,%ymm8,%ymm8
- DB 196,67,125,8,192,1 ; vroundps $0x1,%ymm8,%ymm8
- DB 196,98,125,24,8 ; vbroadcastss (%rax),%ymm9
- DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 196,193,124,92,192 ; vsubps %ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_repeat_y_avx
-_sk_repeat_y_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,4 ; vbroadcastss 0x4(%rax),%ymm8
- DB 197,60,89,193 ; vmulps %ymm1,%ymm8,%ymm8
- DB 196,67,125,8,192,1 ; vroundps $0x1,%ymm8,%ymm8
- DB 196,98,125,24,8 ; vbroadcastss (%rax),%ymm9
- DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 196,193,116,92,200 ; vsubps %ymm8,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_x_avx
-_sk_mirror_x_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,122,16,0 ; vmovss (%rax),%xmm8
- DB 197,122,16,72,4 ; vmovss 0x4(%rax),%xmm9
- DB 196,67,121,4,208,0 ; vpermilps $0x0,%xmm8,%xmm10
- DB 196,67,45,24,210,1 ; vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- DB 196,65,124,92,218 ; vsubps %ymm10,%ymm0,%ymm11
- DB 196,193,58,88,192 ; vaddss %xmm8,%xmm8,%xmm0
- DB 196,227,121,4,192,0 ; vpermilps $0x0,%xmm0,%xmm0
- DB 196,99,125,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm0,%ymm8
- DB 197,178,89,5,19,72,2,0 ; vmulss 0x24813(%rip),%xmm9,%xmm0 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,227,121,4,192,0 ; vpermilps $0x0,%xmm0,%xmm0
- DB 196,227,125,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm0,%ymm0
- DB 197,164,89,192 ; vmulps %ymm0,%ymm11,%ymm0
- DB 196,227,125,8,192,1 ; vroundps $0x1,%ymm0,%ymm0
- DB 196,193,124,89,192 ; vmulps %ymm8,%ymm0,%ymm0
- DB 197,164,92,192 ; vsubps %ymm0,%ymm11,%ymm0
- DB 196,193,124,92,194 ; vsubps %ymm10,%ymm0,%ymm0
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,92,192 ; vsubps %ymm0,%ymm8,%ymm8
- DB 197,188,84,192 ; vandps %ymm0,%ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_y_avx
-_sk_mirror_y_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,122,16,0 ; vmovss (%rax),%xmm8
- DB 197,122,16,72,4 ; vmovss 0x4(%rax),%xmm9
- DB 196,67,121,4,208,0 ; vpermilps $0x0,%xmm8,%xmm10
- DB 196,67,45,24,210,1 ; vinsertf128 $0x1,%xmm10,%ymm10,%ymm10
- DB 196,65,116,92,218 ; vsubps %ymm10,%ymm1,%ymm11
- DB 196,193,58,88,200 ; vaddss %xmm8,%xmm8,%xmm1
- DB 196,227,121,4,201,0 ; vpermilps $0x0,%xmm1,%xmm1
- DB 196,99,117,24,193,1 ; vinsertf128 $0x1,%xmm1,%ymm1,%ymm8
- DB 197,178,89,13,169,71,2,0 ; vmulss 0x247a9(%rip),%xmm9,%xmm1 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,227,121,4,201,0 ; vpermilps $0x0,%xmm1,%xmm1
- DB 196,227,117,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- DB 197,164,89,201 ; vmulps %ymm1,%ymm11,%ymm1
- DB 196,227,125,8,201,1 ; vroundps $0x1,%ymm1,%ymm1
- DB 196,193,116,89,200 ; vmulps %ymm8,%ymm1,%ymm1
- DB 197,164,92,201 ; vsubps %ymm1,%ymm11,%ymm1
- DB 196,193,116,92,202 ; vsubps %ymm10,%ymm1,%ymm1
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,92,193 ; vsubps %ymm1,%ymm8,%ymm8
- DB 197,188,84,201 ; vandps %ymm1,%ymm8,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_x_1_avx
-_sk_clamp_x_1_avx LABEL PROC
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,5,102,71,2,0 ; vbroadcastss 0x24766(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_repeat_x_1_avx
-_sk_repeat_x_1_avx LABEL PROC
- DB 196,99,125,8,192,1 ; vroundps $0x1,%ymm0,%ymm8
- DB 196,193,124,92,192 ; vsubps %ymm8,%ymm0,%ymm0
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,5,64,71,2,0 ; vbroadcastss 0x24740(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_x_1_avx
-_sk_mirror_x_1_avx LABEL PROC
- DB 196,98,125,24,5,70,71,2,0 ; vbroadcastss 0x24746(%rip),%ymm8 # 34ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
- DB 196,193,124,88,192 ; vaddps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,13,28,71,2,0 ; vbroadcastss 0x2471c(%rip),%ymm9 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,124,89,201 ; vmulps %ymm9,%ymm0,%ymm9
- DB 196,67,125,8,201,1 ; vroundps $0x1,%ymm9,%ymm9
- DB 196,65,52,88,201 ; vaddps %ymm9,%ymm9,%ymm9
- DB 196,193,124,92,193 ; vsubps %ymm9,%ymm0,%ymm0
- DB 196,193,124,88,192 ; vaddps %ymm8,%ymm0,%ymm0
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,92,200 ; vsubps %ymm0,%ymm8,%ymm9
- DB 197,180,84,192 ; vandps %ymm0,%ymm9,%ymm0
- DB 197,188,95,192 ; vmaxps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,5,236,70,2,0 ; vbroadcastss 0x246ec(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_x_avx
-_sk_decal_x_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,194,200,2 ; vcmpleps %ymm0,%ymm8,%ymm9
- DB 196,98,125,24,80,64 ; vbroadcastss 0x40(%rax),%ymm10
- DB 196,65,124,194,210,1 ; vcmpltps %ymm10,%ymm0,%ymm10
- DB 196,65,44,84,201 ; vandps %ymm9,%ymm10,%ymm9
- DB 196,65,60,194,208,15 ; vcmptrueps %ymm8,%ymm8,%ymm10
- DB 196,67,61,74,194,144 ; vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- DB 197,124,17,0 ; vmovups %ymm8,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_y_avx
-_sk_decal_y_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,194,201,2 ; vcmpleps %ymm1,%ymm8,%ymm9
- DB 196,98,125,24,80,68 ; vbroadcastss 0x44(%rax),%ymm10
- DB 196,65,116,194,210,1 ; vcmpltps %ymm10,%ymm1,%ymm10
- DB 196,65,44,84,201 ; vandps %ymm9,%ymm10,%ymm9
- DB 196,65,60,194,208,15 ; vcmptrueps %ymm8,%ymm8,%ymm10
- DB 196,67,61,74,194,144 ; vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- DB 197,124,17,0 ; vmovups %ymm8,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_x_and_y_avx
-_sk_decal_x_and_y_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,194,200,2 ; vcmpleps %ymm0,%ymm8,%ymm9
- DB 196,67,125,25,202,1 ; vextractf128 $0x1,%ymm9,%xmm10
- DB 196,65,49,99,202 ; vpacksswb %xmm10,%xmm9,%xmm9
- DB 196,98,125,24,80,64 ; vbroadcastss 0x40(%rax),%ymm10
- DB 196,65,124,194,210,1 ; vcmpltps %ymm10,%ymm0,%ymm10
- DB 196,67,125,25,211,1 ; vextractf128 $0x1,%ymm10,%xmm11
- DB 196,65,41,99,211 ; vpacksswb %xmm11,%xmm10,%xmm10
- DB 197,60,194,217,2 ; vcmpleps %ymm1,%ymm8,%ymm11
- DB 196,67,125,25,220,1 ; vextractf128 $0x1,%ymm11,%xmm12
- DB 196,65,33,99,220 ; vpacksswb %xmm12,%xmm11,%xmm11
- DB 196,65,33,219,201 ; vpand %xmm9,%xmm11,%xmm9
- DB 196,65,49,219,202 ; vpand %xmm10,%xmm9,%xmm9
- DB 196,98,125,24,80,68 ; vbroadcastss 0x44(%rax),%ymm10
- DB 196,65,116,194,210,1 ; vcmpltps %ymm10,%ymm1,%ymm10
- DB 196,67,125,25,211,1 ; vextractf128 $0x1,%ymm10,%xmm11
- DB 196,65,41,99,211 ; vpacksswb %xmm11,%xmm10,%xmm10
- DB 196,65,49,219,202 ; vpand %xmm10,%xmm9,%xmm9
- DB 196,66,121,51,209 ; vpmovzxwd %xmm9,%xmm10
- DB 196,193,41,114,242,31 ; vpslld $0x1f,%xmm10,%xmm10
- DB 196,193,41,114,226,31 ; vpsrad $0x1f,%xmm10,%xmm10
- DB 197,49,105,200 ; vpunpckhwd %xmm0,%xmm9,%xmm9
- DB 196,193,49,114,241,31 ; vpslld $0x1f,%xmm9,%xmm9
- DB 196,193,49,114,225,31 ; vpsrad $0x1f,%xmm9,%xmm9
- DB 196,67,45,24,201,1 ; vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- DB 196,65,60,194,208,15 ; vcmptrueps %ymm8,%ymm8,%ymm10
- DB 196,67,61,74,194,144 ; vblendvps %ymm9,%ymm10,%ymm8,%ymm8
- DB 197,124,17,0 ; vmovups %ymm8,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_check_decal_mask_avx
-_sk_check_decal_mask_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,16,0 ; vmovups (%rax),%ymm8
- DB 197,188,84,192 ; vandps %ymm0,%ymm8,%ymm0
- DB 197,188,84,201 ; vandps %ymm1,%ymm8,%ymm1
- DB 197,188,84,210 ; vandps %ymm2,%ymm8,%ymm2
- DB 197,188,84,219 ; vandps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_luminance_to_alpha_avx
-_sk_luminance_to_alpha_avx LABEL PROC
- DB 196,226,125,24,29,239,70,2,0 ; vbroadcastss 0x246ef(%rip),%ymm3 # 34bf8 <_sk_srcover_bgra_8888_sse2_lowp+0x3e0>
- DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 196,226,125,24,29,230,70,2,0 ; vbroadcastss 0x246e6(%rip),%ymm3 # 34bfc <_sk_srcover_bgra_8888_sse2_lowp+0x3e4>
- DB 197,244,89,203 ; vmulps %ymm3,%ymm1,%ymm1
- DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
- DB 196,226,125,24,13,217,70,2,0 ; vbroadcastss 0x246d9(%rip),%ymm1 # 34c00 <_sk_srcover_bgra_8888_sse2_lowp+0x3e8>
- DB 197,236,89,201 ; vmulps %ymm1,%ymm2,%ymm1
- DB 197,252,88,217 ; vaddps %ymm1,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_translate_avx
-_sk_matrix_translate_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
- DB 196,98,125,24,64,4 ; vbroadcastss 0x4(%rax),%ymm8
- DB 197,188,88,201 ; vaddps %ymm1,%ymm8,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_scale_translate_avx
-_sk_matrix_scale_translate_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 196,98,125,24,72,8 ; vbroadcastss 0x8(%rax),%ymm9
- DB 197,188,89,192 ; vmulps %ymm0,%ymm8,%ymm0
- DB 196,193,124,88,193 ; vaddps %ymm9,%ymm0,%ymm0
- DB 196,98,125,24,64,4 ; vbroadcastss 0x4(%rax),%ymm8
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 197,188,89,201 ; vmulps %ymm1,%ymm8,%ymm1
- DB 196,193,116,88,201 ; vaddps %ymm9,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_2x3_avx
-_sk_matrix_2x3_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 196,98,125,24,72,8 ; vbroadcastss 0x8(%rax),%ymm9
- DB 196,98,125,24,80,16 ; vbroadcastss 0x10(%rax),%ymm10
- DB 197,52,89,201 ; vmulps %ymm1,%ymm9,%ymm9
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 197,60,89,192 ; vmulps %ymm0,%ymm8,%ymm8
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 196,98,125,24,72,4 ; vbroadcastss 0x4(%rax),%ymm9
- DB 196,98,125,24,80,12 ; vbroadcastss 0xc(%rax),%ymm10
- DB 196,98,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm11
- DB 197,172,89,201 ; vmulps %ymm1,%ymm10,%ymm1
- DB 196,193,116,88,203 ; vaddps %ymm11,%ymm1,%ymm1
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 197,252,88,201 ; vaddps %ymm1,%ymm0,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_3x4_avx
-_sk_matrix_3x4_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 196,98,125,24,80,24 ; vbroadcastss 0x18(%rax),%ymm10
- DB 196,98,125,24,88,36 ; vbroadcastss 0x24(%rax),%ymm11
- DB 197,44,89,210 ; vmulps %ymm2,%ymm10,%ymm10
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 197,52,89,201 ; vmulps %ymm1,%ymm9,%ymm9
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 197,60,89,192 ; vmulps %ymm0,%ymm8,%ymm8
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 196,98,125,24,72,4 ; vbroadcastss 0x4(%rax),%ymm9
- DB 196,98,125,24,80,16 ; vbroadcastss 0x10(%rax),%ymm10
- DB 196,98,125,24,88,28 ; vbroadcastss 0x1c(%rax),%ymm11
- DB 196,98,125,24,96,40 ; vbroadcastss 0x28(%rax),%ymm12
- DB 197,36,89,218 ; vmulps %ymm2,%ymm11,%ymm11
- DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 197,44,89,209 ; vmulps %ymm1,%ymm10,%ymm10
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 197,52,89,200 ; vmulps %ymm0,%ymm9,%ymm9
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm10
- DB 196,98,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm11
- DB 196,98,125,24,96,32 ; vbroadcastss 0x20(%rax),%ymm12
- DB 196,98,125,24,104,44 ; vbroadcastss 0x2c(%rax),%ymm13
- DB 197,156,89,210 ; vmulps %ymm2,%ymm12,%ymm2
- DB 196,193,108,88,213 ; vaddps %ymm13,%ymm2,%ymm2
- DB 197,164,89,201 ; vmulps %ymm1,%ymm11,%ymm1
- DB 197,244,88,202 ; vaddps %ymm2,%ymm1,%ymm1
- DB 197,172,89,192 ; vmulps %ymm0,%ymm10,%ymm0
- DB 197,252,88,209 ; vaddps %ymm1,%ymm0,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 197,124,41,201 ; vmovaps %ymm9,%ymm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_4x5_avx
-_sk_matrix_4x5_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 196,98,125,24,72,16 ; vbroadcastss 0x10(%rax),%ymm9
- DB 196,98,125,24,80,32 ; vbroadcastss 0x20(%rax),%ymm10
- DB 196,98,125,24,88,48 ; vbroadcastss 0x30(%rax),%ymm11
- DB 196,98,125,24,96,64 ; vbroadcastss 0x40(%rax),%ymm12
- DB 197,36,89,219 ; vmulps %ymm3,%ymm11,%ymm11
- DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 197,44,89,210 ; vmulps %ymm2,%ymm10,%ymm10
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 197,52,89,201 ; vmulps %ymm1,%ymm9,%ymm9
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 197,60,89,192 ; vmulps %ymm0,%ymm8,%ymm8
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 196,98,125,24,72,4 ; vbroadcastss 0x4(%rax),%ymm9
- DB 196,98,125,24,80,20 ; vbroadcastss 0x14(%rax),%ymm10
- DB 196,98,125,24,88,36 ; vbroadcastss 0x24(%rax),%ymm11
- DB 196,98,125,24,96,52 ; vbroadcastss 0x34(%rax),%ymm12
- DB 196,98,125,24,104,68 ; vbroadcastss 0x44(%rax),%ymm13
- DB 197,28,89,227 ; vmulps %ymm3,%ymm12,%ymm12
- DB 196,65,28,88,229 ; vaddps %ymm13,%ymm12,%ymm12
- DB 197,36,89,218 ; vmulps %ymm2,%ymm11,%ymm11
- DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 197,44,89,209 ; vmulps %ymm1,%ymm10,%ymm10
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 197,52,89,200 ; vmulps %ymm0,%ymm9,%ymm9
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm10
- DB 196,98,125,24,88,24 ; vbroadcastss 0x18(%rax),%ymm11
- DB 196,98,125,24,96,40 ; vbroadcastss 0x28(%rax),%ymm12
- DB 196,98,125,24,104,56 ; vbroadcastss 0x38(%rax),%ymm13
- DB 196,98,125,24,112,72 ; vbroadcastss 0x48(%rax),%ymm14
- DB 197,20,89,235 ; vmulps %ymm3,%ymm13,%ymm13
- DB 196,65,20,88,238 ; vaddps %ymm14,%ymm13,%ymm13
- DB 197,28,89,226 ; vmulps %ymm2,%ymm12,%ymm12
- DB 196,65,28,88,229 ; vaddps %ymm13,%ymm12,%ymm12
- DB 197,36,89,217 ; vmulps %ymm1,%ymm11,%ymm11
- DB 196,65,36,88,220 ; vaddps %ymm12,%ymm11,%ymm11
- DB 197,44,89,208 ; vmulps %ymm0,%ymm10,%ymm10
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,98,125,24,88,12 ; vbroadcastss 0xc(%rax),%ymm11
- DB 196,98,125,24,96,28 ; vbroadcastss 0x1c(%rax),%ymm12
- DB 196,98,125,24,104,44 ; vbroadcastss 0x2c(%rax),%ymm13
- DB 196,98,125,24,112,60 ; vbroadcastss 0x3c(%rax),%ymm14
- DB 196,98,125,24,120,76 ; vbroadcastss 0x4c(%rax),%ymm15
- DB 197,140,89,219 ; vmulps %ymm3,%ymm14,%ymm3
- DB 196,193,100,88,223 ; vaddps %ymm15,%ymm3,%ymm3
- DB 197,148,89,210 ; vmulps %ymm2,%ymm13,%ymm2
- DB 197,236,88,211 ; vaddps %ymm3,%ymm2,%ymm2
- DB 197,156,89,201 ; vmulps %ymm1,%ymm12,%ymm1
- DB 197,244,88,202 ; vaddps %ymm2,%ymm1,%ymm1
- DB 197,164,89,192 ; vmulps %ymm0,%ymm11,%ymm0
- DB 197,252,88,217 ; vaddps %ymm1,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 197,124,41,201 ; vmovaps %ymm9,%ymm1
- DB 197,124,41,210 ; vmovaps %ymm10,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_4x3_avx
-_sk_matrix_4x3_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,16 ; vbroadcastss (%rax),%ymm2
- DB 196,226,125,24,88,16 ; vbroadcastss 0x10(%rax),%ymm3
- DB 196,98,125,24,64,32 ; vbroadcastss 0x20(%rax),%ymm8
- DB 197,228,89,217 ; vmulps %ymm1,%ymm3,%ymm3
- DB 196,193,100,88,216 ; vaddps %ymm8,%ymm3,%ymm3
- DB 197,236,89,208 ; vmulps %ymm0,%ymm2,%ymm2
- DB 197,108,88,195 ; vaddps %ymm3,%ymm2,%ymm8
- DB 196,226,125,24,80,4 ; vbroadcastss 0x4(%rax),%ymm2
- DB 196,226,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm3
- DB 196,98,125,24,72,36 ; vbroadcastss 0x24(%rax),%ymm9
- DB 197,228,89,217 ; vmulps %ymm1,%ymm3,%ymm3
- DB 196,193,100,88,217 ; vaddps %ymm9,%ymm3,%ymm3
- DB 197,236,89,208 ; vmulps %ymm0,%ymm2,%ymm2
- DB 197,108,88,203 ; vaddps %ymm3,%ymm2,%ymm9
- DB 196,226,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm2
- DB 196,226,125,24,88,24 ; vbroadcastss 0x18(%rax),%ymm3
- DB 196,98,125,24,80,40 ; vbroadcastss 0x28(%rax),%ymm10
- DB 197,228,89,217 ; vmulps %ymm1,%ymm3,%ymm3
- DB 196,193,100,88,218 ; vaddps %ymm10,%ymm3,%ymm3
- DB 197,236,89,208 ; vmulps %ymm0,%ymm2,%ymm2
- DB 197,236,88,211 ; vaddps %ymm3,%ymm2,%ymm2
- DB 196,226,125,24,88,12 ; vbroadcastss 0xc(%rax),%ymm3
- DB 196,98,125,24,80,28 ; vbroadcastss 0x1c(%rax),%ymm10
- DB 196,98,125,24,88,44 ; vbroadcastss 0x2c(%rax),%ymm11
- DB 197,172,89,201 ; vmulps %ymm1,%ymm10,%ymm1
- DB 196,193,116,88,203 ; vaddps %ymm11,%ymm1,%ymm1
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,252,88,217 ; vaddps %ymm1,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 197,124,41,201 ; vmovaps %ymm9,%ymm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_perspective_avx
-_sk_matrix_perspective_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 196,98,125,24,72,4 ; vbroadcastss 0x4(%rax),%ymm9
- DB 196,98,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm10
- DB 197,52,89,201 ; vmulps %ymm1,%ymm9,%ymm9
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 197,60,89,192 ; vmulps %ymm0,%ymm8,%ymm8
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 196,98,125,24,80,16 ; vbroadcastss 0x10(%rax),%ymm10
- DB 196,98,125,24,88,20 ; vbroadcastss 0x14(%rax),%ymm11
- DB 197,44,89,209 ; vmulps %ymm1,%ymm10,%ymm10
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 197,52,89,200 ; vmulps %ymm0,%ymm9,%ymm9
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,80,24 ; vbroadcastss 0x18(%rax),%ymm10
- DB 196,98,125,24,88,28 ; vbroadcastss 0x1c(%rax),%ymm11
- DB 196,98,125,24,96,32 ; vbroadcastss 0x20(%rax),%ymm12
- DB 197,164,89,201 ; vmulps %ymm1,%ymm11,%ymm1
- DB 196,193,116,88,204 ; vaddps %ymm12,%ymm1,%ymm1
- DB 197,172,89,192 ; vmulps %ymm0,%ymm10,%ymm0
- DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
- DB 197,252,83,200 ; vrcpps %ymm0,%ymm1
- DB 197,188,89,193 ; vmulps %ymm1,%ymm8,%ymm0
- DB 197,180,89,201 ; vmulps %ymm1,%ymm9,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_evenly_spaced_gradient_avx
-_sk_evenly_spaced_gradient_avx LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,131,236,40 ; sub $0x28,%rsp
- DB 197,252,17,60,36 ; vmovups %ymm7,(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,139,24 ; mov (%rax),%rbx
- DB 72,139,104,8 ; mov 0x8(%rax),%rbp
- DB 72,255,203 ; dec %rbx
- DB 120,7 ; js 108ce <_sk_evenly_spaced_gradient_avx+0x28>
- DB 196,225,242,42,203 ; vcvtsi2ss %rbx,%xmm1,%xmm1
- DB 235,21 ; jmp 108e3 <_sk_evenly_spaced_gradient_avx+0x3d>
- DB 73,137,216 ; mov %rbx,%r8
- DB 73,209,232 ; shr %r8
- DB 131,227,1 ; and $0x1,%ebx
- DB 76,9,195 ; or %r8,%rbx
- DB 196,225,242,42,203 ; vcvtsi2ss %rbx,%xmm1,%xmm1
- DB 197,242,88,201 ; vaddss %xmm1,%xmm1,%xmm1
- DB 196,227,121,4,201,0 ; vpermilps $0x0,%xmm1,%xmm1
- DB 196,227,117,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- DB 197,244,89,200 ; vmulps %ymm0,%ymm1,%ymm1
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,195,249,22,200,1 ; vpextrq $0x1,%xmm1,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,193,249,126,202 ; vmovq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,25,201,1 ; vextractf128 $0x1,%ymm1,%xmm1
- DB 196,195,249,22,207,1 ; vpextrq $0x1,%xmm1,%r15
- DB 69,137,254 ; mov %r15d,%r14d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 196,193,249,126,205 ; vmovq %xmm1,%r13
- DB 69,137,236 ; mov %r13d,%r12d
- DB 73,193,237,32 ; shr $0x20,%r13
- DB 196,161,122,16,76,165,0 ; vmovss 0x0(%rbp,%r12,4),%xmm1
- DB 196,163,113,33,76,173,0,16 ; vinsertps $0x10,0x0(%rbp,%r13,4),%xmm1,%xmm1
- DB 196,161,122,16,84,181,0 ; vmovss 0x0(%rbp,%r14,4),%xmm2
- DB 196,33,122,16,68,189,0 ; vmovss 0x0(%rbp,%r15,4),%xmm8
- DB 196,161,122,16,92,157,0 ; vmovss 0x0(%rbp,%r11,4),%xmm3
- DB 196,35,97,33,76,149,0,16 ; vinsertps $0x10,0x0(%rbp,%r10,4),%xmm3,%xmm9
- DB 196,161,122,16,124,141,0 ; vmovss 0x0(%rbp,%r9,4),%xmm7
- DB 196,33,122,16,92,133,0 ; vmovss 0x0(%rbp,%r8,4),%xmm11
- DB 196,99,113,33,226,32 ; vinsertps $0x20,%xmm2,%xmm1,%xmm12
- DB 72,139,88,40 ; mov 0x28(%rax),%rbx
- DB 196,161,122,16,20,163 ; vmovss (%rbx,%r12,4),%xmm2
- DB 196,35,105,33,44,171,16 ; vinsertps $0x10,(%rbx,%r13,4),%xmm2,%xmm13
- DB 196,161,122,16,28,179 ; vmovss (%rbx,%r14,4),%xmm3
- DB 196,161,122,16,12,187 ; vmovss (%rbx,%r15,4),%xmm1
- DB 196,161,122,16,20,155 ; vmovss (%rbx,%r11,4),%xmm2
- DB 196,35,105,33,52,147,16 ; vinsertps $0x10,(%rbx,%r10,4),%xmm2,%xmm14
- DB 196,33,122,16,60,139 ; vmovss (%rbx,%r9,4),%xmm15
- DB 196,33,122,16,20,131 ; vmovss (%rbx,%r8,4),%xmm10
- DB 196,67,25,33,192,48 ; vinsertps $0x30,%xmm8,%xmm12,%xmm8
- DB 196,227,49,33,215,32 ; vinsertps $0x20,%xmm7,%xmm9,%xmm2
- DB 196,195,105,33,211,48 ; vinsertps $0x30,%xmm11,%xmm2,%xmm2
- DB 196,67,109,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm2,%ymm8
- DB 196,227,17,33,211,32 ; vinsertps $0x20,%xmm3,%xmm13,%xmm2
- DB 196,99,105,33,201,48 ; vinsertps $0x30,%xmm1,%xmm2,%xmm9
- DB 72,139,88,16 ; mov 0x10(%rax),%rbx
- DB 196,161,122,16,20,163 ; vmovss (%rbx,%r12,4),%xmm2
- DB 196,35,105,33,28,171,16 ; vinsertps $0x10,(%rbx,%r13,4),%xmm2,%xmm11
- DB 196,33,122,16,36,179 ; vmovss (%rbx,%r14,4),%xmm12
- DB 196,161,122,16,12,187 ; vmovss (%rbx,%r15,4),%xmm1
- DB 196,161,122,16,60,155 ; vmovss (%rbx,%r11,4),%xmm7
- DB 196,163,65,33,60,147,16 ; vinsertps $0x10,(%rbx,%r10,4),%xmm7,%xmm7
- DB 196,161,122,16,28,139 ; vmovss (%rbx,%r9,4),%xmm3
- DB 196,33,122,16,44,131 ; vmovss (%rbx,%r8,4),%xmm13
- DB 196,195,9,33,215,32 ; vinsertps $0x20,%xmm15,%xmm14,%xmm2
- DB 196,195,105,33,210,48 ; vinsertps $0x30,%xmm10,%xmm2,%xmm2
- DB 196,67,109,24,241,1 ; vinsertf128 $0x1,%xmm9,%ymm2,%ymm14
- DB 196,195,33,33,212,32 ; vinsertps $0x20,%xmm12,%xmm11,%xmm2
- DB 196,99,105,33,201,48 ; vinsertps $0x30,%xmm1,%xmm2,%xmm9
- DB 196,99,65,33,211,32 ; vinsertps $0x20,%xmm3,%xmm7,%xmm10
- DB 72,139,88,48 ; mov 0x30(%rax),%rbx
- DB 196,161,122,16,28,163 ; vmovss (%rbx,%r12,4),%xmm3
- DB 196,35,97,33,28,171,16 ; vinsertps $0x10,(%rbx,%r13,4),%xmm3,%xmm11
- DB 196,33,122,16,60,179 ; vmovss (%rbx,%r14,4),%xmm15
- DB 196,33,122,16,36,187 ; vmovss (%rbx,%r15,4),%xmm12
- DB 196,161,122,16,20,155 ; vmovss (%rbx,%r11,4),%xmm2
- DB 196,163,105,33,20,147,16 ; vinsertps $0x10,(%rbx,%r10,4),%xmm2,%xmm2
- DB 196,161,122,16,60,139 ; vmovss (%rbx,%r9,4),%xmm7
- DB 196,161,122,16,28,131 ; vmovss (%rbx,%r8,4),%xmm3
- DB 196,67,41,33,213,48 ; vinsertps $0x30,%xmm13,%xmm10,%xmm10
- DB 196,67,45,24,233,1 ; vinsertf128 $0x1,%xmm9,%ymm10,%ymm13
- DB 196,195,33,33,207,32 ; vinsertps $0x20,%xmm15,%xmm11,%xmm1
- DB 196,67,113,33,204,48 ; vinsertps $0x30,%xmm12,%xmm1,%xmm9
- DB 196,227,105,33,215,32 ; vinsertps $0x20,%xmm7,%xmm2,%xmm2
- DB 196,99,105,33,211,48 ; vinsertps $0x30,%xmm3,%xmm2,%xmm10
- DB 72,139,88,24 ; mov 0x18(%rax),%rbx
- DB 196,161,122,16,28,163 ; vmovss (%rbx,%r12,4),%xmm3
- DB 196,35,97,33,28,171,16 ; vinsertps $0x10,(%rbx,%r13,4),%xmm3,%xmm11
- DB 196,33,122,16,36,179 ; vmovss (%rbx,%r14,4),%xmm12
- DB 196,33,122,16,60,187 ; vmovss (%rbx,%r15,4),%xmm15
- DB 196,161,122,16,20,155 ; vmovss (%rbx,%r11,4),%xmm2
- DB 196,163,105,33,20,147,16 ; vinsertps $0x10,(%rbx,%r10,4),%xmm2,%xmm2
- DB 196,161,122,16,28,139 ; vmovss (%rbx,%r9,4),%xmm3
- DB 196,161,122,16,60,131 ; vmovss (%rbx,%r8,4),%xmm7
- DB 196,67,45,24,201,1 ; vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- DB 196,195,33,33,204,32 ; vinsertps $0x20,%xmm12,%xmm11,%xmm1
- DB 196,195,113,33,207,48 ; vinsertps $0x30,%xmm15,%xmm1,%xmm1
- DB 196,227,105,33,211,32 ; vinsertps $0x20,%xmm3,%xmm2,%xmm2
- DB 196,227,105,33,215,48 ; vinsertps $0x30,%xmm7,%xmm2,%xmm2
- DB 196,99,109,24,209,1 ; vinsertf128 $0x1,%xmm1,%ymm2,%ymm10
- DB 72,139,88,56 ; mov 0x38(%rax),%rbx
- DB 196,161,122,16,12,163 ; vmovss (%rbx,%r12,4),%xmm1
- DB 196,35,113,33,28,171,16 ; vinsertps $0x10,(%rbx,%r13,4),%xmm1,%xmm11
- DB 196,33,122,16,36,179 ; vmovss (%rbx,%r14,4),%xmm12
- DB 196,33,122,16,60,187 ; vmovss (%rbx,%r15,4),%xmm15
- DB 196,161,122,16,60,155 ; vmovss (%rbx,%r11,4),%xmm7
- DB 196,163,65,33,60,147,16 ; vinsertps $0x10,(%rbx,%r10,4),%xmm7,%xmm7
- DB 196,161,122,16,12,139 ; vmovss (%rbx,%r9,4),%xmm1
- DB 196,161,122,16,20,131 ; vmovss (%rbx,%r8,4),%xmm2
- DB 196,195,33,33,220,32 ; vinsertps $0x20,%xmm12,%xmm11,%xmm3
- DB 196,195,97,33,223,48 ; vinsertps $0x30,%xmm15,%xmm3,%xmm3
- DB 196,227,65,33,201,32 ; vinsertps $0x20,%xmm1,%xmm7,%xmm1
- DB 196,227,113,33,202,48 ; vinsertps $0x30,%xmm2,%xmm1,%xmm1
- DB 196,99,117,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm1,%ymm11
- DB 72,139,88,32 ; mov 0x20(%rax),%rbx
- DB 196,161,122,16,12,163 ; vmovss (%rbx,%r12,4),%xmm1
- DB 196,163,113,33,12,171,16 ; vinsertps $0x10,(%rbx,%r13,4),%xmm1,%xmm1
- DB 196,161,122,16,20,179 ; vmovss (%rbx,%r14,4),%xmm2
- DB 196,227,113,33,202,32 ; vinsertps $0x20,%xmm2,%xmm1,%xmm1
- DB 196,161,122,16,20,187 ; vmovss (%rbx,%r15,4),%xmm2
- DB 196,161,122,16,28,155 ; vmovss (%rbx,%r11,4),%xmm3
- DB 196,35,97,33,36,147,16 ; vinsertps $0x10,(%rbx,%r10,4),%xmm3,%xmm12
- DB 196,161,122,16,60,139 ; vmovss (%rbx,%r9,4),%xmm7
- DB 196,161,122,16,28,131 ; vmovss (%rbx,%r8,4),%xmm3
- DB 196,99,113,33,250,48 ; vinsertps $0x30,%xmm2,%xmm1,%xmm15
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 196,161,122,16,20,160 ; vmovss (%rax,%r12,4),%xmm2
- DB 196,163,105,33,20,168,16 ; vinsertps $0x10,(%rax,%r13,4),%xmm2,%xmm2
- DB 196,227,25,33,255,32 ; vinsertps $0x20,%xmm7,%xmm12,%xmm7
- DB 196,161,122,16,12,176 ; vmovss (%rax,%r14,4),%xmm1
- DB 196,227,65,33,219,48 ; vinsertps $0x30,%xmm3,%xmm7,%xmm3
- DB 196,161,122,16,60,184 ; vmovss (%rax,%r15,4),%xmm7
- DB 196,67,101,24,231,1 ; vinsertf128 $0x1,%xmm15,%ymm3,%ymm12
- DB 196,161,122,16,28,152 ; vmovss (%rax,%r11,4),%xmm3
- DB 196,163,97,33,28,144,16 ; vinsertps $0x10,(%rax,%r10,4),%xmm3,%xmm3
- DB 196,227,105,33,201,32 ; vinsertps $0x20,%xmm1,%xmm2,%xmm1
- DB 196,161,122,16,20,136 ; vmovss (%rax,%r9,4),%xmm2
- DB 196,227,113,33,207,48 ; vinsertps $0x30,%xmm7,%xmm1,%xmm1
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,97,33,210,32 ; vinsertps $0x20,%xmm2,%xmm3,%xmm2
- DB 196,227,105,33,215,48 ; vinsertps $0x30,%xmm7,%xmm2,%xmm2
- DB 196,227,109,24,217,1 ; vinsertf128 $0x1,%xmm1,%ymm2,%ymm3
- DB 197,188,89,200 ; vmulps %ymm0,%ymm8,%ymm1
- DB 196,65,116,88,198 ; vaddps %ymm14,%ymm1,%ymm8
- DB 197,148,89,200 ; vmulps %ymm0,%ymm13,%ymm1
- DB 196,193,116,88,201 ; vaddps %ymm9,%ymm1,%ymm1
- DB 197,172,89,208 ; vmulps %ymm0,%ymm10,%ymm2
- DB 196,193,108,88,211 ; vaddps %ymm11,%ymm2,%ymm2
- DB 197,156,89,192 ; vmulps %ymm0,%ymm12,%ymm0
- DB 197,252,88,219 ; vaddps %ymm3,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 197,252,16,60,36 ; vmovups (%rsp),%ymm7
- DB 72,131,196,40 ; add $0x28,%rsp
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gradient_avx
-_sk_gradient_avx LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,131,236,48 ; sub $0x30,%rsp
- DB 197,252,17,60,36 ; vmovups %ymm7,(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 73,131,248,2 ; cmp $0x2,%r8
- DB 114,81 ; jb 10c83 <_sk_gradient_avx+0x72>
- DB 72,139,88,72 ; mov 0x48(%rax),%rbx
- DB 73,255,200 ; dec %r8
- DB 72,131,195,4 ; add $0x4,%rbx
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 196,98,125,24,21,129,62,2,0 ; vbroadcastss 0x23e81(%rip),%ymm10 # 34acc <_sk_srcover_bgra_8888_sse2_lowp+0x2b4>
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 196,98,125,24,3 ; vbroadcastss (%rbx),%ymm8
- DB 197,60,194,192,2 ; vcmpleps %ymm0,%ymm8,%ymm8
- DB 196,67,53,74,194,128 ; vblendvps %ymm8,%ymm10,%ymm9,%ymm8
- DB 196,99,125,25,194,1 ; vextractf128 $0x1,%ymm8,%xmm2
- DB 196,227,125,25,203,1 ; vextractf128 $0x1,%ymm1,%xmm3
- DB 197,225,254,210 ; vpaddd %xmm2,%xmm3,%xmm2
- DB 196,193,113,254,200 ; vpaddd %xmm8,%xmm1,%xmm1
- DB 196,227,117,24,202,1 ; vinsertf128 $0x1,%xmm2,%ymm1,%ymm1
- DB 72,131,195,4 ; add $0x4,%rbx
- DB 73,255,200 ; dec %r8
- DB 117,204 ; jne 10c4f <_sk_gradient_avx+0x3e>
- DB 196,195,249,22,200,1 ; vpextrq $0x1,%xmm1,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,193,249,126,202 ; vmovq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,25,201,1 ; vextractf128 $0x1,%ymm1,%xmm1
- DB 196,195,249,22,207,1 ; vpextrq $0x1,%xmm1,%r15
- DB 69,137,254 ; mov %r15d,%r14d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 196,225,249,126,203 ; vmovq %xmm1,%rbx
- DB 65,137,220 ; mov %ebx,%r12d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 76,139,104,8 ; mov 0x8(%rax),%r13
- DB 196,129,122,16,76,165,0 ; vmovss 0x0(%r13,%r12,4),%xmm1
- DB 196,195,113,33,76,157,0,16 ; vinsertps $0x10,0x0(%r13,%rbx,4),%xmm1,%xmm1
- DB 196,129,122,16,84,181,0 ; vmovss 0x0(%r13,%r14,4),%xmm2
- DB 196,1,122,16,68,189,0 ; vmovss 0x0(%r13,%r15,4),%xmm8
- DB 196,129,122,16,92,157,0 ; vmovss 0x0(%r13,%r11,4),%xmm3
- DB 196,3,97,33,76,149,0,16 ; vinsertps $0x10,0x0(%r13,%r10,4),%xmm3,%xmm9
- DB 196,129,122,16,124,141,0 ; vmovss 0x0(%r13,%r9,4),%xmm7
- DB 196,1,122,16,92,133,0 ; vmovss 0x0(%r13,%r8,4),%xmm11
- DB 196,99,113,33,226,32 ; vinsertps $0x20,%xmm2,%xmm1,%xmm12
- DB 76,139,104,40 ; mov 0x28(%rax),%r13
- DB 196,129,122,16,84,165,0 ; vmovss 0x0(%r13,%r12,4),%xmm2
- DB 196,67,105,33,108,157,0,16 ; vinsertps $0x10,0x0(%r13,%rbx,4),%xmm2,%xmm13
- DB 196,129,122,16,92,181,0 ; vmovss 0x0(%r13,%r14,4),%xmm3
- DB 196,129,122,16,76,189,0 ; vmovss 0x0(%r13,%r15,4),%xmm1
- DB 196,129,122,16,84,157,0 ; vmovss 0x0(%r13,%r11,4),%xmm2
- DB 196,3,105,33,116,149,0,16 ; vinsertps $0x10,0x0(%r13,%r10,4),%xmm2,%xmm14
- DB 196,1,122,16,124,141,0 ; vmovss 0x0(%r13,%r9,4),%xmm15
- DB 196,1,122,16,84,133,0 ; vmovss 0x0(%r13,%r8,4),%xmm10
- DB 196,67,25,33,192,48 ; vinsertps $0x30,%xmm8,%xmm12,%xmm8
- DB 196,227,49,33,215,32 ; vinsertps $0x20,%xmm7,%xmm9,%xmm2
- DB 196,195,105,33,211,48 ; vinsertps $0x30,%xmm11,%xmm2,%xmm2
- DB 196,67,109,24,192,1 ; vinsertf128 $0x1,%xmm8,%ymm2,%ymm8
- DB 196,227,17,33,211,32 ; vinsertps $0x20,%xmm3,%xmm13,%xmm2
- DB 196,99,105,33,201,48 ; vinsertps $0x30,%xmm1,%xmm2,%xmm9
- DB 76,139,104,16 ; mov 0x10(%rax),%r13
- DB 196,129,122,16,84,165,0 ; vmovss 0x0(%r13,%r12,4),%xmm2
- DB 196,67,105,33,92,157,0,16 ; vinsertps $0x10,0x0(%r13,%rbx,4),%xmm2,%xmm11
- DB 196,1,122,16,100,181,0 ; vmovss 0x0(%r13,%r14,4),%xmm12
- DB 196,129,122,16,76,189,0 ; vmovss 0x0(%r13,%r15,4),%xmm1
- DB 196,129,122,16,124,157,0 ; vmovss 0x0(%r13,%r11,4),%xmm7
- DB 196,131,65,33,124,149,0,16 ; vinsertps $0x10,0x0(%r13,%r10,4),%xmm7,%xmm7
- DB 196,129,122,16,92,141,0 ; vmovss 0x0(%r13,%r9,4),%xmm3
- DB 196,1,122,16,108,133,0 ; vmovss 0x0(%r13,%r8,4),%xmm13
- DB 196,195,9,33,215,32 ; vinsertps $0x20,%xmm15,%xmm14,%xmm2
- DB 196,195,105,33,210,48 ; vinsertps $0x30,%xmm10,%xmm2,%xmm2
- DB 196,67,109,24,241,1 ; vinsertf128 $0x1,%xmm9,%ymm2,%ymm14
- DB 196,195,33,33,212,32 ; vinsertps $0x20,%xmm12,%xmm11,%xmm2
- DB 196,99,105,33,201,48 ; vinsertps $0x30,%xmm1,%xmm2,%xmm9
- DB 196,99,65,33,211,32 ; vinsertps $0x20,%xmm3,%xmm7,%xmm10
- DB 76,139,104,48 ; mov 0x30(%rax),%r13
- DB 196,129,122,16,92,165,0 ; vmovss 0x0(%r13,%r12,4),%xmm3
- DB 196,67,97,33,92,157,0,16 ; vinsertps $0x10,0x0(%r13,%rbx,4),%xmm3,%xmm11
- DB 196,1,122,16,124,181,0 ; vmovss 0x0(%r13,%r14,4),%xmm15
- DB 196,1,122,16,100,189,0 ; vmovss 0x0(%r13,%r15,4),%xmm12
- DB 196,129,122,16,84,157,0 ; vmovss 0x0(%r13,%r11,4),%xmm2
- DB 196,131,105,33,84,149,0,16 ; vinsertps $0x10,0x0(%r13,%r10,4),%xmm2,%xmm2
- DB 196,129,122,16,124,141,0 ; vmovss 0x0(%r13,%r9,4),%xmm7
- DB 196,129,122,16,92,133,0 ; vmovss 0x0(%r13,%r8,4),%xmm3
- DB 196,67,41,33,213,48 ; vinsertps $0x30,%xmm13,%xmm10,%xmm10
- DB 196,67,45,24,233,1 ; vinsertf128 $0x1,%xmm9,%ymm10,%ymm13
- DB 196,195,33,33,207,32 ; vinsertps $0x20,%xmm15,%xmm11,%xmm1
- DB 196,67,113,33,204,48 ; vinsertps $0x30,%xmm12,%xmm1,%xmm9
- DB 196,227,105,33,215,32 ; vinsertps $0x20,%xmm7,%xmm2,%xmm2
- DB 196,99,105,33,211,48 ; vinsertps $0x30,%xmm3,%xmm2,%xmm10
- DB 76,139,104,24 ; mov 0x18(%rax),%r13
- DB 196,129,122,16,92,165,0 ; vmovss 0x0(%r13,%r12,4),%xmm3
- DB 196,67,97,33,92,157,0,16 ; vinsertps $0x10,0x0(%r13,%rbx,4),%xmm3,%xmm11
- DB 196,1,122,16,100,181,0 ; vmovss 0x0(%r13,%r14,4),%xmm12
- DB 196,1,122,16,124,189,0 ; vmovss 0x0(%r13,%r15,4),%xmm15
- DB 196,129,122,16,84,157,0 ; vmovss 0x0(%r13,%r11,4),%xmm2
- DB 196,131,105,33,84,149,0,16 ; vinsertps $0x10,0x0(%r13,%r10,4),%xmm2,%xmm2
- DB 196,129,122,16,92,141,0 ; vmovss 0x0(%r13,%r9,4),%xmm3
- DB 196,129,122,16,124,133,0 ; vmovss 0x0(%r13,%r8,4),%xmm7
- DB 196,67,45,24,201,1 ; vinsertf128 $0x1,%xmm9,%ymm10,%ymm9
- DB 196,195,33,33,204,32 ; vinsertps $0x20,%xmm12,%xmm11,%xmm1
- DB 196,195,113,33,207,48 ; vinsertps $0x30,%xmm15,%xmm1,%xmm1
- DB 196,227,105,33,211,32 ; vinsertps $0x20,%xmm3,%xmm2,%xmm2
- DB 196,227,105,33,215,48 ; vinsertps $0x30,%xmm7,%xmm2,%xmm2
- DB 196,99,109,24,209,1 ; vinsertf128 $0x1,%xmm1,%ymm2,%ymm10
- DB 76,139,104,56 ; mov 0x38(%rax),%r13
- DB 196,129,122,16,76,165,0 ; vmovss 0x0(%r13,%r12,4),%xmm1
- DB 196,67,113,33,92,157,0,16 ; vinsertps $0x10,0x0(%r13,%rbx,4),%xmm1,%xmm11
- DB 196,1,122,16,100,181,0 ; vmovss 0x0(%r13,%r14,4),%xmm12
- DB 196,1,122,16,124,189,0 ; vmovss 0x0(%r13,%r15,4),%xmm15
- DB 196,129,122,16,124,157,0 ; vmovss 0x0(%r13,%r11,4),%xmm7
- DB 196,131,65,33,124,149,0,16 ; vinsertps $0x10,0x0(%r13,%r10,4),%xmm7,%xmm7
- DB 196,129,122,16,76,141,0 ; vmovss 0x0(%r13,%r9,4),%xmm1
- DB 196,129,122,16,84,133,0 ; vmovss 0x0(%r13,%r8,4),%xmm2
- DB 196,195,33,33,220,32 ; vinsertps $0x20,%xmm12,%xmm11,%xmm3
- DB 196,195,97,33,223,48 ; vinsertps $0x30,%xmm15,%xmm3,%xmm3
- DB 196,227,65,33,201,32 ; vinsertps $0x20,%xmm1,%xmm7,%xmm1
- DB 196,227,113,33,202,48 ; vinsertps $0x30,%xmm2,%xmm1,%xmm1
- DB 196,99,117,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm1,%ymm11
- DB 76,139,104,32 ; mov 0x20(%rax),%r13
- DB 196,129,122,16,76,165,0 ; vmovss 0x0(%r13,%r12,4),%xmm1
- DB 196,195,113,33,76,157,0,16 ; vinsertps $0x10,0x0(%r13,%rbx,4),%xmm1,%xmm1
- DB 196,129,122,16,84,181,0 ; vmovss 0x0(%r13,%r14,4),%xmm2
- DB 196,227,113,33,202,32 ; vinsertps $0x20,%xmm2,%xmm1,%xmm1
- DB 196,129,122,16,84,189,0 ; vmovss 0x0(%r13,%r15,4),%xmm2
- DB 196,129,122,16,92,157,0 ; vmovss 0x0(%r13,%r11,4),%xmm3
- DB 196,3,97,33,100,149,0,16 ; vinsertps $0x10,0x0(%r13,%r10,4),%xmm3,%xmm12
- DB 196,129,122,16,124,141,0 ; vmovss 0x0(%r13,%r9,4),%xmm7
- DB 196,129,122,16,92,133,0 ; vmovss 0x0(%r13,%r8,4),%xmm3
- DB 196,99,113,33,250,48 ; vinsertps $0x30,%xmm2,%xmm1,%xmm15
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 196,161,122,16,20,160 ; vmovss (%rax,%r12,4),%xmm2
- DB 196,227,105,33,20,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- DB 196,227,25,33,255,32 ; vinsertps $0x20,%xmm7,%xmm12,%xmm7
- DB 196,161,122,16,12,176 ; vmovss (%rax,%r14,4),%xmm1
- DB 196,227,65,33,219,48 ; vinsertps $0x30,%xmm3,%xmm7,%xmm3
- DB 196,161,122,16,60,184 ; vmovss (%rax,%r15,4),%xmm7
- DB 196,67,101,24,231,1 ; vinsertf128 $0x1,%xmm15,%ymm3,%ymm12
- DB 196,161,122,16,28,152 ; vmovss (%rax,%r11,4),%xmm3
- DB 196,163,97,33,28,144,16 ; vinsertps $0x10,(%rax,%r10,4),%xmm3,%xmm3
- DB 196,227,105,33,201,32 ; vinsertps $0x20,%xmm1,%xmm2,%xmm1
- DB 196,161,122,16,20,136 ; vmovss (%rax,%r9,4),%xmm2
- DB 196,227,113,33,207,48 ; vinsertps $0x30,%xmm7,%xmm1,%xmm1
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,97,33,210,32 ; vinsertps $0x20,%xmm2,%xmm3,%xmm2
- DB 196,227,105,33,215,48 ; vinsertps $0x30,%xmm7,%xmm2,%xmm2
- DB 196,227,109,24,217,1 ; vinsertf128 $0x1,%xmm1,%ymm2,%ymm3
- DB 197,188,89,200 ; vmulps %ymm0,%ymm8,%ymm1
- DB 196,65,116,88,198 ; vaddps %ymm14,%ymm1,%ymm8
- DB 197,148,89,200 ; vmulps %ymm0,%ymm13,%ymm1
- DB 196,193,116,88,201 ; vaddps %ymm9,%ymm1,%ymm1
- DB 197,172,89,208 ; vmulps %ymm0,%ymm10,%ymm2
- DB 196,193,108,88,211 ; vaddps %ymm11,%ymm2,%ymm2
- DB 197,156,89,192 ; vmulps %ymm0,%ymm12,%ymm0
- DB 197,252,88,219 ; vaddps %ymm3,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 197,252,16,60,36 ; vmovups (%rsp),%ymm7
- DB 72,131,196,48 ; add $0x30,%rsp
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_evenly_spaced_2_stop_gradient_avx
-_sk_evenly_spaced_2_stop_gradient_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,8 ; vbroadcastss (%rax),%ymm1
- DB 196,226,125,24,80,16 ; vbroadcastss 0x10(%rax),%ymm2
- DB 197,244,89,200 ; vmulps %ymm0,%ymm1,%ymm1
- DB 197,116,88,194 ; vaddps %ymm2,%ymm1,%ymm8
- DB 196,226,125,24,72,4 ; vbroadcastss 0x4(%rax),%ymm1
- DB 196,226,125,24,80,20 ; vbroadcastss 0x14(%rax),%ymm2
- DB 197,244,89,200 ; vmulps %ymm0,%ymm1,%ymm1
- DB 197,244,88,202 ; vaddps %ymm2,%ymm1,%ymm1
- DB 196,226,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm2
- DB 196,226,125,24,88,24 ; vbroadcastss 0x18(%rax),%ymm3
- DB 197,236,89,208 ; vmulps %ymm0,%ymm2,%ymm2
- DB 197,236,88,211 ; vaddps %ymm3,%ymm2,%ymm2
- DB 196,226,125,24,88,12 ; vbroadcastss 0xc(%rax),%ymm3
- DB 196,98,125,24,72,28 ; vbroadcastss 0x1c(%rax),%ymm9
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 196,193,124,88,217 ; vaddps %ymm9,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_unit_angle_avx
-_sk_xy_to_unit_angle_avx LABEL PROC
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,92,200 ; vsubps %ymm0,%ymm8,%ymm9
- DB 197,52,84,200 ; vandps %ymm0,%ymm9,%ymm9
- DB 197,60,92,209 ; vsubps %ymm1,%ymm8,%ymm10
- DB 197,44,84,209 ; vandps %ymm1,%ymm10,%ymm10
- DB 196,65,52,93,218 ; vminps %ymm10,%ymm9,%ymm11
- DB 196,65,52,95,226 ; vmaxps %ymm10,%ymm9,%ymm12
- DB 196,65,36,94,220 ; vdivps %ymm12,%ymm11,%ymm11
- DB 196,65,36,89,227 ; vmulps %ymm11,%ymm11,%ymm12
- DB 196,98,125,24,45,168,59,2,0 ; vbroadcastss 0x23ba8(%rip),%ymm13 # 34c04 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
- DB 196,65,28,89,237 ; vmulps %ymm13,%ymm12,%ymm13
- DB 196,98,125,24,53,158,59,2,0 ; vbroadcastss 0x23b9e(%rip),%ymm14 # 34c08 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
- DB 196,65,20,88,238 ; vaddps %ymm14,%ymm13,%ymm13
- DB 196,65,28,89,237 ; vmulps %ymm13,%ymm12,%ymm13
- DB 196,98,125,24,53,143,59,2,0 ; vbroadcastss 0x23b8f(%rip),%ymm14 # 34c0c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
- DB 196,65,20,88,238 ; vaddps %ymm14,%ymm13,%ymm13
- DB 196,65,28,89,229 ; vmulps %ymm13,%ymm12,%ymm12
- DB 196,98,125,24,45,128,59,2,0 ; vbroadcastss 0x23b80(%rip),%ymm13 # 34c10 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
- DB 196,65,28,88,229 ; vaddps %ymm13,%ymm12,%ymm12
- DB 196,65,36,89,220 ; vmulps %ymm12,%ymm11,%ymm11
- DB 196,65,52,194,202,1 ; vcmpltps %ymm10,%ymm9,%ymm9
- DB 196,98,125,24,21,107,59,2,0 ; vbroadcastss 0x23b6b(%rip),%ymm10 # 34c14 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- DB 196,65,44,92,211 ; vsubps %ymm11,%ymm10,%ymm10
- DB 196,67,37,74,202,144 ; vblendvps %ymm9,%ymm10,%ymm11,%ymm9
- DB 196,193,124,194,192,1 ; vcmpltps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,21,1,58,2,0 ; vbroadcastss 0x23a01(%rip),%ymm10 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,44,92,209 ; vsubps %ymm9,%ymm10,%ymm10
- DB 196,195,53,74,194,0 ; vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- DB 196,65,116,194,200,1 ; vcmpltps %ymm8,%ymm1,%ymm9
- DB 196,98,125,24,21,235,57,2,0 ; vbroadcastss 0x239eb(%rip),%ymm10 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,44,92,208 ; vsubps %ymm0,%ymm10,%ymm10
- DB 196,195,125,74,194,144 ; vblendvps %ymm9,%ymm10,%ymm0,%ymm0
- DB 196,65,124,194,200,3 ; vcmpunordps %ymm8,%ymm0,%ymm9
- DB 196,195,125,74,192,144 ; vblendvps %ymm9,%ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_radius_avx
-_sk_xy_to_radius_avx LABEL PROC
- DB 197,252,89,192 ; vmulps %ymm0,%ymm0,%ymm0
- DB 197,116,89,193 ; vmulps %ymm1,%ymm1,%ymm8
- DB 196,193,124,88,192 ; vaddps %ymm8,%ymm0,%ymm0
- DB 197,252,81,192 ; vsqrtps %ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_negate_x_avx
-_sk_negate_x_avx LABEL PROC
- DB 196,98,125,24,5,3,59,2,0 ; vbroadcastss 0x23b03(%rip),%ymm8 # 34c18 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- DB 196,193,124,87,192 ; vxorps %ymm8,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_strip_avx
-_sk_xy_to_2pt_conical_strip_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,64 ; vbroadcastss 0x40(%rax),%ymm8
- DB 197,116,89,201 ; vmulps %ymm1,%ymm1,%ymm9
- DB 196,65,60,92,193 ; vsubps %ymm9,%ymm8,%ymm8
- DB 196,65,124,81,192 ; vsqrtps %ymm8,%ymm8
- DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_focal_on_circle_avx
-_sk_xy_to_2pt_conical_focal_on_circle_avx LABEL PROC
- DB 197,116,89,193 ; vmulps %ymm1,%ymm1,%ymm8
- DB 197,60,94,192 ; vdivps %ymm0,%ymm8,%ymm8
- DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_well_behaved_avx
-_sk_xy_to_2pt_conical_well_behaved_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,89,192 ; vmulps %ymm0,%ymm0,%ymm8
- DB 197,116,89,201 ; vmulps %ymm1,%ymm1,%ymm9
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 196,65,124,81,192 ; vsqrtps %ymm8,%ymm8
- DB 196,98,125,24,72,64 ; vbroadcastss 0x40(%rax),%ymm9
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_greater_avx
-_sk_xy_to_2pt_conical_greater_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,89,192 ; vmulps %ymm0,%ymm0,%ymm8
- DB 197,116,89,201 ; vmulps %ymm1,%ymm1,%ymm9
- DB 196,65,60,92,193 ; vsubps %ymm9,%ymm8,%ymm8
- DB 196,65,124,81,192 ; vsqrtps %ymm8,%ymm8
- DB 196,98,125,24,72,64 ; vbroadcastss 0x40(%rax),%ymm9
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_smaller_avx
-_sk_xy_to_2pt_conical_smaller_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,89,192 ; vmulps %ymm0,%ymm0,%ymm8
- DB 197,116,89,201 ; vmulps %ymm1,%ymm1,%ymm9
- DB 196,65,60,92,193 ; vsubps %ymm9,%ymm8,%ymm8
- DB 196,65,124,81,192 ; vsqrtps %ymm8,%ymm8
- DB 196,98,125,24,13,99,58,2,0 ; vbroadcastss 0x23a63(%rip),%ymm9 # 34c18 <_sk_srcover_bgra_8888_sse2_lowp+0x400>
- DB 196,65,60,87,193 ; vxorps %ymm9,%ymm8,%ymm8
- DB 196,98,125,24,72,64 ; vbroadcastss 0x40(%rax),%ymm9
- DB 197,180,89,192 ; vmulps %ymm0,%ymm9,%ymm0
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_alter_2pt_conical_compensate_focal_avx
-_sk_alter_2pt_conical_compensate_focal_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,64,68 ; vbroadcastss 0x44(%rax),%ymm8
- DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_alter_2pt_conical_unswap_avx
-_sk_alter_2pt_conical_unswap_avx LABEL PROC
- DB 196,98,125,24,5,227,56,2,0 ; vbroadcastss 0x238e3(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,188,92,192 ; vsubps %ymm0,%ymm8,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mask_2pt_conical_nan_avx
-_sk_mask_2pt_conical_nan_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 196,65,124,194,193,3 ; vcmpunordps %ymm9,%ymm0,%ymm8
- DB 196,67,125,74,193,128 ; vblendvps %ymm8,%ymm9,%ymm0,%ymm8
- DB 196,193,124,194,193,7 ; vcmpordps %ymm9,%ymm0,%ymm0
- DB 196,65,52,194,209,15 ; vcmptrueps %ymm9,%ymm9,%ymm10
- DB 196,195,53,74,194,0 ; vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- DB 197,252,17,0 ; vmovups %ymm0,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mask_2pt_conical_degenerates_avx
-_sk_mask_2pt_conical_degenerates_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,52,194,192,5 ; vcmpnltps %ymm0,%ymm9,%ymm8
- DB 196,67,125,74,193,128 ; vblendvps %ymm8,%ymm9,%ymm0,%ymm8
- DB 197,180,194,192,1 ; vcmpltps %ymm0,%ymm9,%ymm0
- DB 196,65,52,194,209,15 ; vcmptrueps %ymm9,%ymm9,%ymm10
- DB 196,195,53,74,194,0 ; vblendvps %ymm0,%ymm10,%ymm9,%ymm0
- DB 197,252,17,0 ; vmovups %ymm0,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,192 ; vmovaps %ymm8,%ymm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_apply_vector_mask_avx
-_sk_apply_vector_mask_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,16,0 ; vmovups (%rax),%ymm8
- DB 197,188,84,192 ; vandps %ymm0,%ymm8,%ymm0
- DB 197,188,84,201 ; vandps %ymm1,%ymm8,%ymm1
- DB 197,188,84,210 ; vandps %ymm2,%ymm8,%ymm2
- DB 197,188,84,219 ; vandps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_save_xy_avx
-_sk_save_xy_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,5,82,56,2,0 ; vbroadcastss 0x23852(%rip),%ymm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,124,88,200 ; vaddps %ymm8,%ymm0,%ymm9
- DB 196,67,125,8,209,1 ; vroundps $0x1,%ymm9,%ymm10
- DB 196,65,52,92,202 ; vsubps %ymm10,%ymm9,%ymm9
- DB 196,65,116,88,192 ; vaddps %ymm8,%ymm1,%ymm8
- DB 196,67,125,8,208,1 ; vroundps $0x1,%ymm8,%ymm10
- DB 196,65,60,92,194 ; vsubps %ymm10,%ymm8,%ymm8
- DB 197,252,17,0 ; vmovups %ymm0,(%rax)
- DB 197,252,17,72,64 ; vmovups %ymm1,0x40(%rax)
- DB 197,124,17,136,128,0,0,0 ; vmovups %ymm9,0x80(%rax)
- DB 197,124,17,128,192,0,0,0 ; vmovups %ymm8,0xc0(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_accumulate_avx
-_sk_accumulate_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,16,128,0,1,0,0 ; vmovups 0x100(%rax),%ymm8
- DB 197,60,89,128,64,1,0,0 ; vmulps 0x140(%rax),%ymm8,%ymm8
- DB 197,60,89,200 ; vmulps %ymm0,%ymm8,%ymm9
- DB 197,180,88,228 ; vaddps %ymm4,%ymm9,%ymm4
- DB 197,60,89,201 ; vmulps %ymm1,%ymm8,%ymm9
- DB 197,180,88,237 ; vaddps %ymm5,%ymm9,%ymm5
- DB 197,60,89,202 ; vmulps %ymm2,%ymm8,%ymm9
- DB 197,180,88,246 ; vaddps %ymm6,%ymm9,%ymm6
- DB 197,60,89,195 ; vmulps %ymm3,%ymm8,%ymm8
- DB 197,188,88,255 ; vaddps %ymm7,%ymm8,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_nx_avx
-_sk_bilinear_nx_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,44,57,2,0 ; vbroadcastss 0x2392c(%rip),%ymm0 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 196,98,125,24,5,203,55,2,0 ; vbroadcastss 0x237cb(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,128,128,0,0,0 ; vsubps 0x80(%rax),%ymm8,%ymm8
- DB 197,124,17,128,0,1,0,0 ; vmovups %ymm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_px_avx
-_sk_bilinear_px_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,168,55,2,0 ; vbroadcastss 0x237a8(%rip),%ymm0 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 197,124,16,128,128,0,0,0 ; vmovups 0x80(%rax),%ymm8
- DB 197,124,17,128,0,1,0,0 ; vmovups %ymm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_ny_avx
-_sk_bilinear_ny_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,221,56,2,0 ; vbroadcastss 0x238dd(%rip),%ymm1 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 197,244,88,72,64 ; vaddps 0x40(%rax),%ymm1,%ymm1
- DB 196,98,125,24,5,123,55,2,0 ; vbroadcastss 0x2377b(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,128,192,0,0,0 ; vsubps 0xc0(%rax),%ymm8,%ymm8
- DB 197,124,17,128,64,1,0,0 ; vmovups %ymm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_py_avx
-_sk_bilinear_py_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,88,55,2,0 ; vbroadcastss 0x23758(%rip),%ymm1 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,244,88,72,64 ; vaddps 0x40(%rax),%ymm1,%ymm1
- DB 197,124,16,128,192,0,0,0 ; vmovups 0xc0(%rax),%ymm8
- DB 197,124,17,128,64,1,0,0 ; vmovups %ymm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n3x_avx
-_sk_bicubic_n3x_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,144,56,2,0 ; vbroadcastss 0x23890(%rip),%ymm0 # 34c20 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 196,98,125,24,5,43,55,2,0 ; vbroadcastss 0x2372b(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,128,128,0,0,0 ; vsubps 0x80(%rax),%ymm8,%ymm8
- DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,113,56,2,0 ; vbroadcastss 0x23871(%rip),%ymm10 # 34c24 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- DB 196,65,60,89,194 ; vmulps %ymm10,%ymm8,%ymm8
- DB 196,98,125,24,21,123,55,2,0 ; vbroadcastss 0x2377b(%rip),%ymm10 # 34b3c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- DB 196,65,60,88,194 ; vaddps %ymm10,%ymm8,%ymm8
- DB 196,65,52,89,192 ; vmulps %ymm8,%ymm9,%ymm8
- DB 197,124,17,128,0,1,0,0 ; vmovups %ymm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n1x_avx
-_sk_bicubic_n1x_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,58,56,2,0 ; vbroadcastss 0x2383a(%rip),%ymm0 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 196,98,125,24,5,217,54,2,0 ; vbroadcastss 0x236d9(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,128,128,0,0,0 ; vsubps 0x80(%rax),%ymm8,%ymm8
- DB 196,98,125,24,13,44,56,2,0 ; vbroadcastss 0x2382c(%rip),%ymm9 # 34c2c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- DB 196,65,60,89,201 ; vmulps %ymm9,%ymm8,%ymm9
- DB 196,98,125,24,21,26,56,2,0 ; vbroadcastss 0x2381a(%rip),%ymm10 # 34c28 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 196,65,60,89,201 ; vmulps %ymm9,%ymm8,%ymm9
- DB 196,98,125,24,21,163,54,2,0 ; vbroadcastss 0x236a3(%rip),%ymm10 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 196,98,125,24,13,252,55,2,0 ; vbroadcastss 0x237fc(%rip),%ymm9 # 34c30 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 197,124,17,128,0,1,0,0 ; vmovups %ymm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p1x_avx
-_sk_bicubic_p1x_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,5,116,54,2,0 ; vbroadcastss 0x23674(%rip),%ymm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,188,88,0 ; vaddps (%rax),%ymm8,%ymm0
- DB 197,124,16,136,128,0,0,0 ; vmovups 0x80(%rax),%ymm9
- DB 196,98,125,24,21,199,55,2,0 ; vbroadcastss 0x237c7(%rip),%ymm10 # 34c2c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- DB 196,65,52,89,210 ; vmulps %ymm10,%ymm9,%ymm10
- DB 196,98,125,24,29,181,55,2,0 ; vbroadcastss 0x237b5(%rip),%ymm11 # 34c28 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,65,52,89,210 ; vmulps %ymm10,%ymm9,%ymm10
- DB 196,65,44,88,192 ; vaddps %ymm8,%ymm10,%ymm8
- DB 196,65,52,89,192 ; vmulps %ymm8,%ymm9,%ymm8
- DB 196,98,125,24,13,160,55,2,0 ; vbroadcastss 0x237a0(%rip),%ymm9 # 34c30 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 197,124,17,128,0,1,0,0 ; vmovups %ymm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p3x_avx
-_sk_bicubic_p3x_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,5,124,55,2,0 ; vbroadcastss 0x2377c(%rip),%ymm0 # 34c28 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 197,124,16,128,128,0,0,0 ; vmovups 0x80(%rax),%ymm8
- DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,94,55,2,0 ; vbroadcastss 0x2375e(%rip),%ymm10 # 34c24 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- DB 196,65,60,89,194 ; vmulps %ymm10,%ymm8,%ymm8
- DB 196,98,125,24,21,104,54,2,0 ; vbroadcastss 0x23668(%rip),%ymm10 # 34b3c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- DB 196,65,60,88,194 ; vaddps %ymm10,%ymm8,%ymm8
- DB 196,65,52,89,192 ; vmulps %ymm8,%ymm9,%ymm8
- DB 197,124,17,128,0,1,0,0 ; vmovups %ymm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n3y_avx
-_sk_bicubic_n3y_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,43,55,2,0 ; vbroadcastss 0x2372b(%rip),%ymm1 # 34c20 <_sk_srcover_bgra_8888_sse2_lowp+0x408>
- DB 197,244,88,72,64 ; vaddps 0x40(%rax),%ymm1,%ymm1
- DB 196,98,125,24,5,197,53,2,0 ; vbroadcastss 0x235c5(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,128,192,0,0,0 ; vsubps 0xc0(%rax),%ymm8,%ymm8
- DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,11,55,2,0 ; vbroadcastss 0x2370b(%rip),%ymm10 # 34c24 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- DB 196,65,60,89,194 ; vmulps %ymm10,%ymm8,%ymm8
- DB 196,98,125,24,21,21,54,2,0 ; vbroadcastss 0x23615(%rip),%ymm10 # 34b3c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- DB 196,65,60,88,194 ; vaddps %ymm10,%ymm8,%ymm8
- DB 196,65,52,89,192 ; vmulps %ymm8,%ymm9,%ymm8
- DB 197,124,17,128,64,1,0,0 ; vmovups %ymm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n1y_avx
-_sk_bicubic_n1y_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,212,54,2,0 ; vbroadcastss 0x236d4(%rip),%ymm1 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 197,244,88,72,64 ; vaddps 0x40(%rax),%ymm1,%ymm1
- DB 196,98,125,24,5,114,53,2,0 ; vbroadcastss 0x23572(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,128,192,0,0,0 ; vsubps 0xc0(%rax),%ymm8,%ymm8
- DB 196,98,125,24,13,197,54,2,0 ; vbroadcastss 0x236c5(%rip),%ymm9 # 34c2c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- DB 196,65,60,89,201 ; vmulps %ymm9,%ymm8,%ymm9
- DB 196,98,125,24,21,179,54,2,0 ; vbroadcastss 0x236b3(%rip),%ymm10 # 34c28 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 196,65,60,89,201 ; vmulps %ymm9,%ymm8,%ymm9
- DB 196,98,125,24,21,60,53,2,0 ; vbroadcastss 0x2353c(%rip),%ymm10 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,52,88,202 ; vaddps %ymm10,%ymm9,%ymm9
- DB 196,65,60,89,193 ; vmulps %ymm9,%ymm8,%ymm8
- DB 196,98,125,24,13,149,54,2,0 ; vbroadcastss 0x23695(%rip),%ymm9 # 34c30 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 197,124,17,128,64,1,0,0 ; vmovups %ymm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p1y_avx
-_sk_bicubic_p1y_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,5,13,53,2,0 ; vbroadcastss 0x2350d(%rip),%ymm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,188,88,72,64 ; vaddps 0x40(%rax),%ymm8,%ymm1
- DB 197,124,16,136,192,0,0,0 ; vmovups 0xc0(%rax),%ymm9
- DB 196,98,125,24,21,95,54,2,0 ; vbroadcastss 0x2365f(%rip),%ymm10 # 34c2c <_sk_srcover_bgra_8888_sse2_lowp+0x414>
- DB 196,65,52,89,210 ; vmulps %ymm10,%ymm9,%ymm10
- DB 196,98,125,24,29,77,54,2,0 ; vbroadcastss 0x2364d(%rip),%ymm11 # 34c28 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- DB 196,65,44,88,211 ; vaddps %ymm11,%ymm10,%ymm10
- DB 196,65,52,89,210 ; vmulps %ymm10,%ymm9,%ymm10
- DB 196,65,44,88,192 ; vaddps %ymm8,%ymm10,%ymm8
- DB 196,65,52,89,192 ; vmulps %ymm8,%ymm9,%ymm8
- DB 196,98,125,24,13,56,54,2,0 ; vbroadcastss 0x23638(%rip),%ymm9 # 34c30 <_sk_srcover_bgra_8888_sse2_lowp+0x418>
- DB 196,65,60,88,193 ; vaddps %ymm9,%ymm8,%ymm8
- DB 197,124,17,128,64,1,0,0 ; vmovups %ymm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p3y_avx
-_sk_bicubic_p3y_avx LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,13,20,54,2,0 ; vbroadcastss 0x23614(%rip),%ymm1 # 34c28 <_sk_srcover_bgra_8888_sse2_lowp+0x410>
- DB 197,244,88,72,64 ; vaddps 0x40(%rax),%ymm1,%ymm1
- DB 197,124,16,128,192,0,0,0 ; vmovups 0xc0(%rax),%ymm8
- DB 196,65,60,89,200 ; vmulps %ymm8,%ymm8,%ymm9
- DB 196,98,125,24,21,245,53,2,0 ; vbroadcastss 0x235f5(%rip),%ymm10 # 34c24 <_sk_srcover_bgra_8888_sse2_lowp+0x40c>
- DB 196,65,60,89,194 ; vmulps %ymm10,%ymm8,%ymm8
- DB 196,98,125,24,21,255,52,2,0 ; vbroadcastss 0x234ff(%rip),%ymm10 # 34b3c <_sk_srcover_bgra_8888_sse2_lowp+0x324>
- DB 196,65,60,88,194 ; vaddps %ymm10,%ymm8,%ymm8
- DB 196,65,52,89,192 ; vmulps %ymm8,%ymm9,%ymm8
- DB 197,124,17,128,64,1,0,0 ; vmovups %ymm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_callback_avx
-_sk_callback_avx LABEL PROC
- DB 85 ; push %rbp
- DB 72,137,229 ; mov %rsp,%rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,131,228,224 ; and $0xffffffffffffffe0,%rsp
- DB 72,129,236,192,0,0,0 ; sub $0xc0,%rsp
- DB 197,252,41,188,36,128,0,0,0 ; vmovaps %ymm7,0x80(%rsp)
- DB 197,252,41,116,36,96 ; vmovaps %ymm6,0x60(%rsp)
- DB 197,252,41,108,36,64 ; vmovaps %ymm5,0x40(%rsp)
- DB 197,252,41,100,36,32 ; vmovaps %ymm4,0x20(%rsp)
- DB 73,137,206 ; mov %rcx,%r14
- DB 73,137,215 ; mov %rdx,%r15
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,137,195 ; mov %rax,%rbx
- DB 197,252,20,225 ; vunpcklps %ymm1,%ymm0,%ymm4
- DB 197,252,21,193 ; vunpckhps %ymm1,%ymm0,%ymm0
- DB 197,236,20,203 ; vunpcklps %ymm3,%ymm2,%ymm1
- DB 197,236,21,211 ; vunpckhps %ymm3,%ymm2,%ymm2
- DB 197,221,20,217 ; vunpcklpd %ymm1,%ymm4,%ymm3
- DB 197,221,21,201 ; vunpckhpd %ymm1,%ymm4,%ymm1
- DB 197,253,20,226 ; vunpcklpd %ymm2,%ymm0,%ymm4
- DB 197,253,21,194 ; vunpckhpd %ymm2,%ymm0,%ymm0
- DB 196,227,101,24,209,1 ; vinsertf128 $0x1,%xmm1,%ymm3,%ymm2
- DB 196,227,93,24,232,1 ; vinsertf128 $0x1,%xmm0,%ymm4,%ymm5
- DB 196,227,101,6,201,49 ; vperm2f128 $0x31,%ymm1,%ymm3,%ymm1
- DB 196,227,93,6,192,49 ; vperm2f128 $0x31,%ymm0,%ymm4,%ymm0
- DB 197,252,17,83,8 ; vmovups %ymm2,0x8(%rbx)
- DB 197,252,17,107,40 ; vmovups %ymm5,0x28(%rbx)
- DB 197,253,17,75,72 ; vmovupd %ymm1,0x48(%rbx)
- DB 197,253,17,67,104 ; vmovupd %ymm0,0x68(%rbx)
- DB 72,133,255 ; test %rdi,%rdi
- DB 186,8,0,0,0 ; mov $0x8,%edx
- DB 15,69,215 ; cmovne %edi,%edx
- DB 72,137,217 ; mov %rbx,%rcx
- DB 197,248,119 ; vzeroupper
- DB 255,19 ; callq *(%rbx)
- DB 72,139,131,8,1,0,0 ; mov 0x108(%rbx),%rax
- DB 197,248,16,0 ; vmovups (%rax),%xmm0
- DB 197,248,16,72,16 ; vmovups 0x10(%rax),%xmm1
- DB 197,248,16,80,32 ; vmovups 0x20(%rax),%xmm2
- DB 197,248,16,88,48 ; vmovups 0x30(%rax),%xmm3
- DB 196,227,101,24,88,112,1 ; vinsertf128 $0x1,0x70(%rax),%ymm3,%ymm3
- DB 196,227,109,24,80,96,1 ; vinsertf128 $0x1,0x60(%rax),%ymm2,%ymm2
- DB 196,227,117,24,72,80,1 ; vinsertf128 $0x1,0x50(%rax),%ymm1,%ymm1
- DB 196,227,125,24,64,64,1 ; vinsertf128 $0x1,0x40(%rax),%ymm0,%ymm0
- DB 197,252,20,225 ; vunpcklps %ymm1,%ymm0,%ymm4
- DB 197,252,21,233 ; vunpckhps %ymm1,%ymm0,%ymm5
- DB 197,236,20,203 ; vunpcklps %ymm3,%ymm2,%ymm1
- DB 197,236,21,219 ; vunpckhps %ymm3,%ymm2,%ymm3
- DB 197,221,20,193 ; vunpcklpd %ymm1,%ymm4,%ymm0
- DB 197,221,21,201 ; vunpckhpd %ymm1,%ymm4,%ymm1
- DB 197,213,20,211 ; vunpcklpd %ymm3,%ymm5,%ymm2
- DB 197,213,21,219 ; vunpckhpd %ymm3,%ymm5,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,137,250 ; mov %r15,%rdx
- DB 76,137,241 ; mov %r14,%rcx
- DB 197,252,40,100,36,32 ; vmovaps 0x20(%rsp),%ymm4
- DB 197,252,40,108,36,64 ; vmovaps 0x40(%rsp),%ymm5
- DB 197,252,40,116,36,96 ; vmovaps 0x60(%rsp),%ymm6
- DB 197,252,40,188,36,128,0,0,0 ; vmovaps 0x80(%rsp),%ymm7
- DB 72,141,101,232 ; lea -0x18(%rbp),%rsp
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clut_3D_avx
-_sk_clut_3D_avx LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,129,236,88,2,0,0 ; sub $0x258,%rsp
- DB 197,252,17,188,36,32,2,0,0 ; vmovups %ymm7,0x220(%rsp)
- DB 197,252,17,180,36,0,2,0,0 ; vmovups %ymm6,0x200(%rsp)
- DB 197,252,17,172,36,224,1,0,0 ; vmovups %ymm5,0x1e0(%rsp)
- DB 197,252,17,164,36,192,1,0,0 ; vmovups %ymm4,0x1c0(%rsp)
- DB 197,252,17,156,36,160,1,0,0 ; vmovups %ymm3,0x1a0(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,139,64,16 ; mov 0x10(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 196,193,121,110,217 ; vmovd %r9d,%xmm3
- DB 197,249,112,219,0 ; vpshufd $0x0,%xmm3,%xmm3
- DB 196,227,101,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 197,228,89,210 ; vmulps %ymm2,%ymm3,%ymm2
- DB 197,252,17,148,36,64,1,0,0 ; vmovups %ymm2,0x140(%rsp)
- DB 197,254,91,218 ; vcvttps2dq %ymm2,%ymm3
- DB 68,139,72,12 ; mov 0xc(%rax),%r9d
- DB 69,141,81,255 ; lea -0x1(%r9),%r10d
- DB 196,193,121,110,210 ; vmovd %r10d,%xmm2
- DB 197,249,112,210,0 ; vpshufd $0x0,%xmm2,%xmm2
- DB 196,227,109,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 197,236,89,201 ; vmulps %ymm1,%ymm2,%ymm1
- DB 197,252,17,76,36,64 ; vmovups %ymm1,0x40(%rsp)
- DB 197,254,91,225 ; vcvttps2dq %ymm1,%ymm4
- DB 196,193,121,110,200 ; vmovd %r8d,%xmm1
- DB 197,121,112,201,0 ; vpshufd $0x0,%xmm1,%xmm9
- DB 196,227,125,25,226,1 ; vextractf128 $0x1,%ymm4,%xmm2
- DB 197,253,111,244 ; vmovdqa %ymm4,%ymm6
- DB 197,254,127,180,36,192,0,0,0 ; vmovdqu %ymm6,0xc0(%rsp)
- DB 196,226,49,64,226 ; vpmulld %xmm2,%xmm9,%xmm4
- DB 197,249,127,164,36,16,1,0,0 ; vmovdqa %xmm4,0x110(%rsp)
- DB 196,227,125,25,223,1 ; vextractf128 $0x1,%ymm3,%xmm7
- DB 197,249,127,124,36,96 ; vmovdqa %xmm7,0x60(%rsp)
- DB 197,253,111,235 ; vmovdqa %ymm3,%ymm5
- DB 197,254,127,172,36,32,1,0,0 ; vmovdqu %ymm5,0x120(%rsp)
- DB 196,193,121,110,209 ; vmovd %r9d,%xmm2
- DB 196,226,105,64,201 ; vpmulld %xmm1,%xmm2,%xmm1
- DB 197,249,112,217,0 ; vpshufd $0x0,%xmm1,%xmm3
- DB 68,139,64,8 ; mov 0x8(%rax),%r8d
- DB 65,255,200 ; dec %r8d
- DB 196,193,121,110,200 ; vmovd %r8d,%xmm1
- DB 197,249,112,201,0 ; vpshufd $0x0,%xmm1,%xmm1
- DB 196,227,117,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 197,116,89,232 ; vmulps %ymm0,%ymm1,%ymm13
- DB 196,65,126,91,221 ; vcvttps2dq %ymm13,%ymm11
- DB 196,99,125,25,216,1 ; vextractf128 $0x1,%ymm11,%xmm0
- DB 196,226,97,64,192 ; vpmulld %xmm0,%xmm3,%xmm0
- DB 197,249,127,68,36,48 ; vmovdqa %xmm0,0x30(%rsp)
- DB 72,139,0 ; mov (%rax),%rax
- DB 197,217,254,207 ; vpaddd %xmm7,%xmm4,%xmm1
- DB 197,249,254,193 ; vpaddd %xmm1,%xmm0,%xmm0
- DB 196,226,121,24,37,151,51,2,0 ; vbroadcastss 0x23397(%rip),%xmm4 # 34c38 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- DB 196,98,121,64,228 ; vpmulld %xmm4,%xmm0,%xmm12
- DB 196,226,49,64,198 ; vpmulld %xmm6,%xmm9,%xmm0
- DB 197,249,127,132,36,0,1,0,0 ; vmovdqa %xmm0,0x100(%rsp)
- DB 197,249,254,197 ; vpaddd %xmm5,%xmm0,%xmm0
- DB 196,194,97,64,211 ; vpmulld %xmm11,%xmm3,%xmm2
- DB 197,249,127,84,36,32 ; vmovdqa %xmm2,0x20(%rsp)
- DB 197,233,254,208 ; vpaddd %xmm0,%xmm2,%xmm2
- DB 196,226,105,64,212 ; vpmulld %xmm4,%xmm2,%xmm2
- DB 196,193,121,126,208 ; vmovd %xmm2,%r8d
- DB 196,195,121,22,209,1 ; vpextrd $0x1,%xmm2,%r9d
- DB 196,195,121,22,210,2 ; vpextrd $0x2,%xmm2,%r10d
- DB 196,195,121,22,211,3 ; vpextrd $0x3,%xmm2,%r11d
- DB 196,65,121,126,231 ; vmovd %xmm12,%r15d
- DB 196,67,121,22,230,1 ; vpextrd $0x1,%xmm12,%r14d
- DB 196,67,121,22,228,2 ; vpextrd $0x2,%xmm12,%r12d
- DB 196,99,121,22,227,3 ; vpextrd $0x3,%xmm12,%ebx
- DB 196,161,122,16,44,184 ; vmovss (%rax,%r15,4),%xmm5
- DB 196,163,81,33,44,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm5,%xmm5
- DB 196,163,81,33,44,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm5,%xmm5
- DB 196,227,81,33,44,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm5,%xmm5
- DB 196,161,122,16,52,128 ; vmovss (%rax,%r8,4),%xmm6
- DB 196,163,73,33,52,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- DB 196,163,73,33,52,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm6,%xmm6
- DB 196,163,73,33,52,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm6,%xmm6
- DB 196,99,77,24,245,1 ; vinsertf128 $0x1,%xmm5,%ymm6,%ymm14
- DB 197,201,118,246 ; vpcmpeqd %xmm6,%xmm6,%xmm6
- DB 197,233,250,238 ; vpsubd %xmm6,%xmm2,%xmm5
- DB 196,195,249,22,232,1 ; vpextrq $0x1,%xmm5,%r8
- DB 196,193,249,126,233 ; vmovq %xmm5,%r9
- DB 197,153,250,238 ; vpsubd %xmm6,%xmm12,%xmm5
- DB 196,195,249,22,234,1 ; vpextrq $0x1,%xmm5,%r10
- DB 196,225,249,126,235 ; vmovq %xmm5,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,44,152 ; vmovss (%rax,%r11,4),%xmm5
- DB 196,227,81,33,44,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm5,%xmm5
- DB 196,161,122,16,52,176 ; vmovss (%rax,%r14,4),%xmm6
- DB 196,227,81,33,238,32 ; vinsertps $0x20,%xmm6,%xmm5,%xmm5
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,81,33,238,48 ; vinsertps $0x30,%xmm6,%xmm5,%xmm5
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,52,152 ; vmovss (%rax,%rbx,4),%xmm6
- DB 196,163,73,33,52,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,73,33,247,32 ; vinsertps $0x20,%xmm7,%xmm6,%xmm6
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,73,33,247,48 ; vinsertps $0x30,%xmm7,%xmm6,%xmm6
- DB 196,227,77,24,237,1 ; vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- DB 196,98,121,24,21,8,49,2,0 ; vbroadcastss 0x23108(%rip),%xmm10 # 34ad4 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- DB 196,193,105,254,210 ; vpaddd %xmm10,%xmm2,%xmm2
- DB 196,195,249,22,208,1 ; vpextrq $0x1,%xmm2,%r8
- DB 196,193,249,126,209 ; vmovq %xmm2,%r9
- DB 196,193,25,254,210 ; vpaddd %xmm10,%xmm12,%xmm2
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 196,225,249,126,211 ; vmovq %xmm2,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,20,152 ; vmovss (%rax,%r11,4),%xmm2
- DB 196,227,105,33,20,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- DB 196,161,122,16,52,176 ; vmovss (%rax,%r14,4),%xmm6
- DB 196,227,105,33,214,32 ; vinsertps $0x20,%xmm6,%xmm2,%xmm2
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,105,33,214,48 ; vinsertps $0x30,%xmm6,%xmm2,%xmm2
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,52,152 ; vmovss (%rax,%rbx,4),%xmm6
- DB 196,163,73,33,52,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,73,33,247,32 ; vinsertps $0x20,%xmm7,%xmm6,%xmm6
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,73,33,247,48 ; vinsertps $0x30,%xmm7,%xmm6,%xmm6
- DB 196,227,77,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm6,%ymm2
- DB 196,226,125,24,61,212,49,2,0 ; vbroadcastss 0x231d4(%rip),%ymm7 # 34c34 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- DB 197,148,88,247 ; vaddps %ymm7,%ymm13,%ymm6
- DB 197,124,40,231 ; vmovaps %ymm7,%ymm12
- DB 197,124,17,164,36,128,0,0,0 ; vmovups %ymm12,0x80(%rsp)
- DB 197,254,91,246 ; vcvttps2dq %ymm6,%ymm6
- DB 196,227,125,25,247,1 ; vextractf128 $0x1,%ymm6,%xmm7
- DB 196,226,97,64,255 ; vpmulld %xmm7,%xmm3,%xmm7
- DB 197,249,127,124,36,16 ; vmovdqa %xmm7,0x10(%rsp)
- DB 196,226,97,64,222 ; vpmulld %xmm6,%xmm3,%xmm3
- DB 197,249,127,28,36 ; vmovdqa %xmm3,(%rsp)
- DB 197,225,254,192 ; vpaddd %xmm0,%xmm3,%xmm0
- DB 197,193,254,201 ; vpaddd %xmm1,%xmm7,%xmm1
- DB 196,226,113,64,204 ; vpmulld %xmm4,%xmm1,%xmm1
- DB 196,226,121,64,220 ; vpmulld %xmm4,%xmm0,%xmm3
- DB 196,193,121,126,217 ; vmovd %xmm3,%r9d
- DB 196,195,121,22,216,1 ; vpextrd $0x1,%xmm3,%r8d
- DB 196,195,121,22,218,2 ; vpextrd $0x2,%xmm3,%r10d
- DB 196,195,121,22,219,3 ; vpextrd $0x3,%xmm3,%r11d
- DB 196,193,121,126,207 ; vmovd %xmm1,%r15d
- DB 196,195,121,22,206,1 ; vpextrd $0x1,%xmm1,%r14d
- DB 196,195,121,22,204,2 ; vpextrd $0x2,%xmm1,%r12d
- DB 196,227,121,22,203,3 ; vpextrd $0x3,%xmm1,%ebx
- DB 196,161,122,16,4,184 ; vmovss (%rax,%r15,4),%xmm0
- DB 196,163,121,33,4,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- DB 196,163,121,33,4,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- DB 196,227,121,33,4,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,52,136 ; vmovss (%rax,%r9,4),%xmm6
- DB 196,163,73,33,52,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm6,%xmm6
- DB 196,163,73,33,52,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm6,%xmm6
- DB 196,163,73,33,52,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm6,%xmm6
- DB 196,99,77,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm6,%ymm8
- DB 197,201,118,246 ; vpcmpeqd %xmm6,%xmm6,%xmm6
- DB 197,225,250,198 ; vpsubd %xmm6,%xmm3,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 197,241,250,198 ; vpsubd %xmm6,%xmm1,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,60,176 ; vmovss (%rax,%r14,4),%xmm7
- DB 196,227,121,33,199,32 ; vinsertps $0x20,%xmm7,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,121,33,199,48 ; vinsertps $0x30,%xmm7,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,60,152 ; vmovss (%rax,%rbx,4),%xmm7
- DB 196,163,65,33,60,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7
- DB 196,33,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm15
- DB 196,195,65,33,255,32 ; vinsertps $0x20,%xmm15,%xmm7,%xmm7
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,52,128 ; vmovss (%rax,%r8,4),%xmm6
- DB 196,227,65,33,246,48 ; vinsertps $0x30,%xmm6,%xmm7,%xmm6
- DB 196,227,77,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm6,%ymm0
- DB 196,193,97,254,218 ; vpaddd %xmm10,%xmm3,%xmm3
- DB 196,195,249,22,216,1 ; vpextrq $0x1,%xmm3,%r8
- DB 196,193,249,126,217 ; vmovq %xmm3,%r9
- DB 196,193,113,254,202 ; vpaddd %xmm10,%xmm1,%xmm1
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 196,225,249,126,203 ; vmovq %xmm1,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,12,152 ; vmovss (%rax,%r11,4),%xmm1
- DB 196,227,113,33,12,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- DB 196,161,122,16,28,176 ; vmovss (%rax,%r14,4),%xmm3
- DB 196,227,113,33,203,32 ; vinsertps $0x20,%xmm3,%xmm1,%xmm1
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,113,33,203,48 ; vinsertps $0x30,%xmm3,%xmm1,%xmm1
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,28,152 ; vmovss (%rax,%rbx,4),%xmm3
- DB 196,163,97,33,28,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,97,33,222,32 ; vinsertps $0x20,%xmm6,%xmm3,%xmm3
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,52,128 ; vmovss (%rax,%r8,4),%xmm6
- DB 196,227,97,33,222,48 ; vinsertps $0x30,%xmm6,%xmm3,%xmm3
- DB 196,227,101,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm3,%ymm1
- DB 196,193,124,91,219 ; vcvtdq2ps %ymm11,%ymm3
- DB 197,20,92,219 ; vsubps %ymm3,%ymm13,%ymm11
- DB 196,193,60,92,222 ; vsubps %ymm14,%ymm8,%ymm3
- DB 197,164,89,219 ; vmulps %ymm3,%ymm11,%ymm3
- DB 197,140,88,219 ; vaddps %ymm3,%ymm14,%ymm3
- DB 197,252,17,156,36,96,1,0,0 ; vmovups %ymm3,0x160(%rsp)
- DB 197,252,92,197 ; vsubps %ymm5,%ymm0,%ymm0
- DB 197,164,89,192 ; vmulps %ymm0,%ymm11,%ymm0
- DB 197,212,88,192 ; vaddps %ymm0,%ymm5,%ymm0
- DB 197,252,17,132,36,160,0,0,0 ; vmovups %ymm0,0xa0(%rsp)
- DB 197,244,92,194 ; vsubps %ymm2,%ymm1,%ymm0
- DB 197,164,89,192 ; vmulps %ymm0,%ymm11,%ymm0
- DB 197,236,88,192 ; vaddps %ymm0,%ymm2,%ymm0
- DB 197,252,17,132,36,128,1,0,0 ; vmovups %ymm0,0x180(%rsp)
- DB 197,156,88,68,36,64 ; vaddps 0x40(%rsp),%ymm12,%ymm0
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 196,226,49,64,200 ; vpmulld %xmm0,%xmm9,%xmm1
- DB 197,249,127,140,36,224,0,0,0 ; vmovdqa %xmm1,0xe0(%rsp)
- DB 196,227,125,25,192,1 ; vextractf128 $0x1,%ymm0,%xmm0
- DB 196,226,49,64,192 ; vpmulld %xmm0,%xmm9,%xmm0
- DB 197,249,127,132,36,240,0,0,0 ; vmovdqa %xmm0,0xf0(%rsp)
- DB 197,249,254,116,36,96 ; vpaddd 0x60(%rsp),%xmm0,%xmm6
- DB 197,121,111,100,36,48 ; vmovdqa 0x30(%rsp),%xmm12
- DB 196,193,73,254,196 ; vpaddd %xmm12,%xmm6,%xmm0
- DB 196,98,121,64,196 ; vpmulld %xmm4,%xmm0,%xmm8
- DB 197,241,254,140,36,32,1,0,0 ; vpaddd 0x120(%rsp),%xmm1,%xmm1
- DB 197,249,111,108,36,32 ; vmovdqa 0x20(%rsp),%xmm5
- DB 197,241,254,197 ; vpaddd %xmm5,%xmm1,%xmm0
- DB 196,226,121,64,196 ; vpmulld %xmm4,%xmm0,%xmm0
- DB 196,193,121,126,193 ; vmovd %xmm0,%r9d
- DB 196,195,121,22,192,1 ; vpextrd $0x1,%xmm0,%r8d
- DB 196,195,121,22,194,2 ; vpextrd $0x2,%xmm0,%r10d
- DB 196,195,121,22,195,3 ; vpextrd $0x3,%xmm0,%r11d
- DB 196,65,121,126,199 ; vmovd %xmm8,%r15d
- DB 196,67,121,22,198,1 ; vpextrd $0x1,%xmm8,%r14d
- DB 196,67,121,22,196,2 ; vpextrd $0x2,%xmm8,%r12d
- DB 196,99,121,22,195,3 ; vpextrd $0x3,%xmm8,%ebx
- DB 196,161,122,16,60,184 ; vmovss (%rax,%r15,4),%xmm7
- DB 196,163,65,33,60,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm7,%xmm7
- DB 196,163,65,33,60,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm7,%xmm7
- DB 196,227,65,33,60,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm7,%xmm7
- DB 196,161,122,16,20,136 ; vmovss (%rax,%r9,4),%xmm2
- DB 196,163,105,33,20,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm2,%xmm2
- DB 196,163,105,33,20,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm2,%xmm2
- DB 196,163,105,33,20,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm2,%xmm2
- DB 196,227,109,24,215,1 ; vinsertf128 $0x1,%xmm7,%ymm2,%ymm2
- DB 197,252,17,84,36,96 ; vmovups %ymm2,0x60(%rsp)
- DB 197,225,118,219 ; vpcmpeqd %xmm3,%xmm3,%xmm3
- DB 197,249,250,211 ; vpsubd %xmm3,%xmm0,%xmm2
- DB 196,195,249,22,208,1 ; vpextrq $0x1,%xmm2,%r8
- DB 196,193,249,126,209 ; vmovq %xmm2,%r9
- DB 197,185,250,211 ; vpsubd %xmm3,%xmm8,%xmm2
- DB 196,65,17,118,237 ; vpcmpeqd %xmm13,%xmm13,%xmm13
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 196,225,249,126,211 ; vmovq %xmm2,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,20,152 ; vmovss (%rax,%r11,4),%xmm2
- DB 196,227,105,33,20,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- DB 196,161,122,16,60,176 ; vmovss (%rax,%r14,4),%xmm7
- DB 196,227,105,33,215,32 ; vinsertps $0x20,%xmm7,%xmm2,%xmm2
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,105,33,215,48 ; vinsertps $0x30,%xmm7,%xmm2,%xmm2
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,60,152 ; vmovss (%rax,%rbx,4),%xmm7
- DB 196,163,65,33,60,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,65,33,219,32 ; vinsertps $0x20,%xmm3,%xmm7,%xmm3
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,97,33,223,48 ; vinsertps $0x30,%xmm7,%xmm3,%xmm3
- DB 196,99,101,24,202,1 ; vinsertf128 $0x1,%xmm2,%ymm3,%ymm9
- DB 196,193,121,254,194 ; vpaddd %xmm10,%xmm0,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 196,193,57,254,194 ; vpaddd %xmm10,%xmm8,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,20,176 ; vmovss (%rax,%r14,4),%xmm2
- DB 196,227,121,33,194,32 ; vinsertps $0x20,%xmm2,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,20,144 ; vmovss (%rax,%r10,4),%xmm2
- DB 196,227,121,33,194,48 ; vinsertps $0x30,%xmm2,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,20,152 ; vmovss (%rax,%rbx,4),%xmm2
- DB 196,163,105,33,20,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,105,33,211,32 ; vinsertps $0x20,%xmm3,%xmm2,%xmm2
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,28,128 ; vmovss (%rax,%r8,4),%xmm3
- DB 196,227,105,33,211,48 ; vinsertps $0x30,%xmm3,%xmm2,%xmm2
- DB 196,99,109,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm2,%ymm8
- DB 197,121,111,60,36 ; vmovdqa (%rsp),%xmm15
- DB 197,129,254,193 ; vpaddd %xmm1,%xmm15,%xmm0
- DB 197,121,111,116,36,16 ; vmovdqa 0x10(%rsp),%xmm14
- DB 197,137,254,206 ; vpaddd %xmm6,%xmm14,%xmm1
- DB 196,226,113,64,244 ; vpmulld %xmm4,%xmm1,%xmm6
- DB 196,226,121,64,204 ; vpmulld %xmm4,%xmm0,%xmm1
- DB 196,193,121,126,201 ; vmovd %xmm1,%r9d
- DB 196,195,121,22,200,1 ; vpextrd $0x1,%xmm1,%r8d
- DB 196,195,121,22,202,2 ; vpextrd $0x2,%xmm1,%r10d
- DB 196,195,121,22,203,3 ; vpextrd $0x3,%xmm1,%r11d
- DB 196,193,121,126,247 ; vmovd %xmm6,%r15d
- DB 196,195,121,22,246,1 ; vpextrd $0x1,%xmm6,%r14d
- DB 196,195,121,22,244,2 ; vpextrd $0x2,%xmm6,%r12d
- DB 196,227,121,22,243,3 ; vpextrd $0x3,%xmm6,%ebx
- DB 196,161,122,16,4,184 ; vmovss (%rax,%r15,4),%xmm0
- DB 196,163,121,33,4,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- DB 196,163,121,33,4,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- DB 196,227,121,33,4,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,20,136 ; vmovss (%rax,%r9,4),%xmm2
- DB 196,163,105,33,20,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm2,%xmm2
- DB 196,163,105,33,20,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm2,%xmm2
- DB 196,163,105,33,20,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm2,%xmm2
- DB 196,227,109,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm2,%ymm0
- DB 196,193,113,250,213 ; vpsubd %xmm13,%xmm1,%xmm2
- DB 196,195,249,22,208,1 ; vpextrq $0x1,%xmm2,%r8
- DB 196,193,249,126,209 ; vmovq %xmm2,%r9
- DB 196,193,73,250,213 ; vpsubd %xmm13,%xmm6,%xmm2
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 196,225,249,126,211 ; vmovq %xmm2,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,20,152 ; vmovss (%rax,%r11,4),%xmm2
- DB 196,227,105,33,20,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- DB 196,161,122,16,28,176 ; vmovss (%rax,%r14,4),%xmm3
- DB 196,227,105,33,211,32 ; vinsertps $0x20,%xmm3,%xmm2,%xmm2
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,105,33,211,48 ; vinsertps $0x30,%xmm3,%xmm2,%xmm2
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,28,152 ; vmovss (%rax,%rbx,4),%xmm3
- DB 196,163,97,33,28,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,97,33,223,32 ; vinsertps $0x20,%xmm7,%xmm3,%xmm3
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,97,33,223,48 ; vinsertps $0x30,%xmm7,%xmm3,%xmm3
- DB 196,99,101,24,234,1 ; vinsertf128 $0x1,%xmm2,%ymm3,%ymm13
- DB 196,193,113,254,202 ; vpaddd %xmm10,%xmm1,%xmm1
- DB 196,195,249,22,200,1 ; vpextrq $0x1,%xmm1,%r8
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 196,193,73,254,202 ; vpaddd %xmm10,%xmm6,%xmm1
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 196,225,249,126,203 ; vmovq %xmm1,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,12,152 ; vmovss (%rax,%r11,4),%xmm1
- DB 196,227,113,33,12,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- DB 196,161,122,16,20,176 ; vmovss (%rax,%r14,4),%xmm2
- DB 196,227,113,33,202,32 ; vinsertps $0x20,%xmm2,%xmm1,%xmm1
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,20,144 ; vmovss (%rax,%r10,4),%xmm2
- DB 196,227,113,33,202,48 ; vinsertps $0x30,%xmm2,%xmm1,%xmm1
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,20,152 ; vmovss (%rax,%rbx,4),%xmm2
- DB 196,163,105,33,20,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,105,33,211,32 ; vinsertps $0x20,%xmm3,%xmm2,%xmm2
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,28,128 ; vmovss (%rax,%r8,4),%xmm3
- DB 196,227,105,33,211,48 ; vinsertps $0x30,%xmm3,%xmm2,%xmm2
- DB 196,227,109,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm2,%ymm1
- DB 197,252,16,84,36,96 ; vmovups 0x60(%rsp),%ymm2
- DB 197,252,92,194 ; vsubps %ymm2,%ymm0,%ymm0
- DB 197,164,89,192 ; vmulps %ymm0,%ymm11,%ymm0
- DB 197,236,88,208 ; vaddps %ymm0,%ymm2,%ymm2
- DB 196,193,20,92,193 ; vsubps %ymm9,%ymm13,%ymm0
- DB 197,164,89,192 ; vmulps %ymm0,%ymm11,%ymm0
- DB 197,180,88,216 ; vaddps %ymm0,%ymm9,%ymm3
- DB 196,193,116,92,192 ; vsubps %ymm8,%ymm1,%ymm0
- DB 197,164,89,192 ; vmulps %ymm0,%ymm11,%ymm0
- DB 197,188,88,200 ; vaddps %ymm0,%ymm8,%ymm1
- DB 197,252,91,132,36,192,0,0,0 ; vcvtdq2ps 0xc0(%rsp),%ymm0
- DB 197,252,16,116,36,64 ; vmovups 0x40(%rsp),%ymm6
- DB 197,76,92,232 ; vsubps %ymm0,%ymm6,%ymm13
- DB 197,252,16,132,36,96,1,0,0 ; vmovups 0x160(%rsp),%ymm0
- DB 197,236,92,208 ; vsubps %ymm0,%ymm2,%ymm2
- DB 197,148,89,210 ; vmulps %ymm2,%ymm13,%ymm2
- DB 197,252,88,194 ; vaddps %ymm2,%ymm0,%ymm0
- DB 197,252,17,68,36,64 ; vmovups %ymm0,0x40(%rsp)
- DB 197,252,16,132,36,160,0,0,0 ; vmovups 0xa0(%rsp),%ymm0
- DB 197,228,92,208 ; vsubps %ymm0,%ymm3,%ymm2
- DB 197,148,89,210 ; vmulps %ymm2,%ymm13,%ymm2
- DB 197,252,88,194 ; vaddps %ymm2,%ymm0,%ymm0
- DB 197,252,17,132,36,192,0,0,0 ; vmovups %ymm0,0xc0(%rsp)
- DB 197,252,16,132,36,128,1,0,0 ; vmovups 0x180(%rsp),%ymm0
- DB 197,244,92,200 ; vsubps %ymm0,%ymm1,%ymm1
- DB 197,148,89,201 ; vmulps %ymm1,%ymm13,%ymm1
- DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
- DB 197,252,17,132,36,160,0,0,0 ; vmovups %ymm0,0xa0(%rsp)
- DB 197,252,16,132,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm0
- DB 197,252,88,140,36,64,1,0,0 ; vaddps 0x140(%rsp),%ymm0,%ymm1
- DB 197,126,91,201 ; vcvttps2dq %ymm1,%ymm9
- DB 196,99,125,25,200,1 ; vextractf128 $0x1,%ymm9,%xmm0
- DB 197,249,127,132,36,128,0,0,0 ; vmovdqa %xmm0,0x80(%rsp)
- DB 197,249,254,180,36,16,1,0,0 ; vpaddd 0x110(%rsp),%xmm0,%xmm6
- DB 197,177,254,156,36,0,1,0,0 ; vpaddd 0x100(%rsp),%xmm9,%xmm3
- DB 197,153,254,206 ; vpaddd %xmm6,%xmm12,%xmm1
- DB 196,226,113,64,204 ; vpmulld %xmm4,%xmm1,%xmm1
- DB 197,209,254,211 ; vpaddd %xmm3,%xmm5,%xmm2
- DB 196,226,105,64,212 ; vpmulld %xmm4,%xmm2,%xmm2
- DB 196,193,121,126,209 ; vmovd %xmm2,%r9d
- DB 196,195,121,22,208,1 ; vpextrd $0x1,%xmm2,%r8d
- DB 196,195,121,22,210,2 ; vpextrd $0x2,%xmm2,%r10d
- DB 196,195,121,22,211,3 ; vpextrd $0x3,%xmm2,%r11d
- DB 196,193,121,126,207 ; vmovd %xmm1,%r15d
- DB 196,195,121,22,206,1 ; vpextrd $0x1,%xmm1,%r14d
- DB 196,195,121,22,204,2 ; vpextrd $0x2,%xmm1,%r12d
- DB 196,227,121,22,203,3 ; vpextrd $0x3,%xmm1,%ebx
- DB 196,161,122,16,60,184 ; vmovss (%rax,%r15,4),%xmm7
- DB 196,163,65,33,60,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm7,%xmm7
- DB 196,163,65,33,60,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm7,%xmm7
- DB 196,227,65,33,60,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm7,%xmm7
- DB 196,161,122,16,4,136 ; vmovss (%rax,%r9,4),%xmm0
- DB 196,163,121,33,4,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm0,%xmm0
- DB 196,163,121,33,4,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm0,%xmm0
- DB 196,163,121,33,4,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm0,%xmm0
- DB 196,99,125,24,231,1 ; vinsertf128 $0x1,%xmm7,%ymm0,%ymm12
- DB 197,209,118,237 ; vpcmpeqd %xmm5,%xmm5,%xmm5
- DB 197,233,250,197 ; vpsubd %xmm5,%xmm2,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 197,241,250,197 ; vpsubd %xmm5,%xmm1,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,60,176 ; vmovss (%rax,%r14,4),%xmm7
- DB 196,227,121,33,199,32 ; vinsertps $0x20,%xmm7,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,121,33,199,48 ; vinsertps $0x30,%xmm7,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,60,152 ; vmovss (%rax,%rbx,4),%xmm7
- DB 196,163,65,33,60,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7
- DB 196,161,122,16,44,144 ; vmovss (%rax,%r10,4),%xmm5
- DB 196,227,65,33,237,32 ; vinsertps $0x20,%xmm5,%xmm7,%xmm5
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,81,33,239,48 ; vinsertps $0x30,%xmm7,%xmm5,%xmm5
- DB 196,227,85,24,248,1 ; vinsertf128 $0x1,%xmm0,%ymm5,%ymm7
- DB 196,193,105,254,194 ; vpaddd %xmm10,%xmm2,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 196,193,113,254,194 ; vpaddd %xmm10,%xmm1,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,12,176 ; vmovss (%rax,%r14,4),%xmm1
- DB 196,227,121,33,193,32 ; vinsertps $0x20,%xmm1,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,12,144 ; vmovss (%rax,%r10,4),%xmm1
- DB 196,227,121,33,193,48 ; vinsertps $0x30,%xmm1,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,12,152 ; vmovss (%rax,%rbx,4),%xmm1
- DB 196,163,113,33,12,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1
- DB 196,161,122,16,20,144 ; vmovss (%rax,%r10,4),%xmm2
- DB 196,227,113,33,202,32 ; vinsertps $0x20,%xmm2,%xmm1,%xmm1
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,20,128 ; vmovss (%rax,%r8,4),%xmm2
- DB 196,227,113,33,202,48 ; vinsertps $0x30,%xmm2,%xmm1,%xmm1
- DB 196,99,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm8
- DB 197,129,254,195 ; vpaddd %xmm3,%xmm15,%xmm0
- DB 197,137,254,206 ; vpaddd %xmm6,%xmm14,%xmm1
- DB 196,226,113,64,204 ; vpmulld %xmm4,%xmm1,%xmm1
- DB 196,226,121,64,212 ; vpmulld %xmm4,%xmm0,%xmm2
- DB 196,193,121,126,209 ; vmovd %xmm2,%r9d
- DB 196,195,121,22,208,1 ; vpextrd $0x1,%xmm2,%r8d
- DB 196,195,121,22,210,2 ; vpextrd $0x2,%xmm2,%r10d
- DB 196,195,121,22,211,3 ; vpextrd $0x3,%xmm2,%r11d
- DB 196,193,121,126,207 ; vmovd %xmm1,%r15d
- DB 196,195,121,22,206,1 ; vpextrd $0x1,%xmm1,%r14d
- DB 196,195,121,22,204,2 ; vpextrd $0x2,%xmm1,%r12d
- DB 196,227,121,22,203,3 ; vpextrd $0x3,%xmm1,%ebx
- DB 196,161,122,16,4,184 ; vmovss (%rax,%r15,4),%xmm0
- DB 196,163,121,33,4,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- DB 196,163,121,33,4,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- DB 196,227,121,33,4,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,28,136 ; vmovss (%rax,%r9,4),%xmm3
- DB 196,163,97,33,28,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- DB 196,163,97,33,28,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- DB 196,163,97,33,28,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- DB 196,227,101,24,216,1 ; vinsertf128 $0x1,%xmm0,%ymm3,%ymm3
- DB 197,209,118,237 ; vpcmpeqd %xmm5,%xmm5,%xmm5
- DB 197,233,250,197 ; vpsubd %xmm5,%xmm2,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 197,241,250,197 ; vpsubd %xmm5,%xmm1,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,44,176 ; vmovss (%rax,%r14,4),%xmm5
- DB 196,227,121,33,197,32 ; vinsertps $0x20,%xmm5,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,44,144 ; vmovss (%rax,%r10,4),%xmm5
- DB 196,227,121,33,197,48 ; vinsertps $0x30,%xmm5,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,44,152 ; vmovss (%rax,%rbx,4),%xmm5
- DB 196,163,81,33,44,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm5,%xmm5
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,81,33,238,32 ; vinsertps $0x20,%xmm6,%xmm5,%xmm5
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,52,128 ; vmovss (%rax,%r8,4),%xmm6
- DB 196,227,81,33,238,48 ; vinsertps $0x30,%xmm6,%xmm5,%xmm5
- DB 196,227,85,24,240,1 ; vinsertf128 $0x1,%xmm0,%ymm5,%ymm6
- DB 196,193,105,254,194 ; vpaddd %xmm10,%xmm2,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 196,193,113,254,194 ; vpaddd %xmm10,%xmm1,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,12,176 ; vmovss (%rax,%r14,4),%xmm1
- DB 196,227,121,33,193,32 ; vinsertps $0x20,%xmm1,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,12,144 ; vmovss (%rax,%r10,4),%xmm1
- DB 196,227,121,33,193,48 ; vinsertps $0x30,%xmm1,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,12,152 ; vmovss (%rax,%rbx,4),%xmm1
- DB 196,163,113,33,12,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1
- DB 196,161,122,16,20,144 ; vmovss (%rax,%r10,4),%xmm2
- DB 196,227,113,33,202,32 ; vinsertps $0x20,%xmm2,%xmm1,%xmm1
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,20,128 ; vmovss (%rax,%r8,4),%xmm2
- DB 196,227,113,33,202,48 ; vinsertps $0x30,%xmm2,%xmm1,%xmm1
- DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- DB 196,193,100,92,204 ; vsubps %ymm12,%ymm3,%ymm1
- DB 197,164,89,201 ; vmulps %ymm1,%ymm11,%ymm1
- DB 197,28,88,225 ; vaddps %ymm1,%ymm12,%ymm12
- DB 197,204,92,207 ; vsubps %ymm7,%ymm6,%ymm1
- DB 197,164,89,201 ; vmulps %ymm1,%ymm11,%ymm1
- DB 197,68,88,241 ; vaddps %ymm1,%ymm7,%ymm14
- DB 196,193,124,92,192 ; vsubps %ymm8,%ymm0,%ymm0
- DB 197,164,89,192 ; vmulps %ymm0,%ymm11,%ymm0
- DB 197,60,88,192 ; vaddps %ymm0,%ymm8,%ymm8
- DB 197,249,111,132,36,128,0,0,0 ; vmovdqa 0x80(%rsp),%xmm0
- DB 197,249,254,180,36,240,0,0,0 ; vpaddd 0xf0(%rsp),%xmm0,%xmm6
- DB 197,177,254,140,36,224,0,0,0 ; vpaddd 0xe0(%rsp),%xmm9,%xmm1
- DB 197,241,254,68,36,32 ; vpaddd 0x20(%rsp),%xmm1,%xmm0
- DB 197,201,254,84,36,48 ; vpaddd 0x30(%rsp),%xmm6,%xmm2
- DB 196,98,105,64,204 ; vpmulld %xmm4,%xmm2,%xmm9
- DB 196,226,121,64,220 ; vpmulld %xmm4,%xmm0,%xmm3
- DB 196,193,121,126,217 ; vmovd %xmm3,%r9d
- DB 196,195,121,22,216,1 ; vpextrd $0x1,%xmm3,%r8d
- DB 196,195,121,22,218,2 ; vpextrd $0x2,%xmm3,%r10d
- DB 196,195,121,22,219,3 ; vpextrd $0x3,%xmm3,%r11d
- DB 196,65,121,126,207 ; vmovd %xmm9,%r15d
- DB 196,67,121,22,206,1 ; vpextrd $0x1,%xmm9,%r14d
- DB 196,67,121,22,204,2 ; vpextrd $0x2,%xmm9,%r12d
- DB 196,99,121,22,203,3 ; vpextrd $0x3,%xmm9,%ebx
- DB 196,161,122,16,4,184 ; vmovss (%rax,%r15,4),%xmm0
- DB 196,163,121,33,4,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- DB 196,163,121,33,4,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- DB 196,227,121,33,4,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,20,136 ; vmovss (%rax,%r9,4),%xmm2
- DB 196,163,105,33,20,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm2,%xmm2
- DB 196,163,105,33,20,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm2,%xmm2
- DB 196,163,105,33,20,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm2,%xmm2
- DB 196,227,109,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm2,%ymm0
- DB 197,209,118,237 ; vpcmpeqd %xmm5,%xmm5,%xmm5
- DB 197,225,250,213 ; vpsubd %xmm5,%xmm3,%xmm2
- DB 196,195,249,22,208,1 ; vpextrq $0x1,%xmm2,%r8
- DB 196,193,249,126,209 ; vmovq %xmm2,%r9
- DB 197,177,250,213 ; vpsubd %xmm5,%xmm9,%xmm2
- DB 196,65,1,118,255 ; vpcmpeqd %xmm15,%xmm15,%xmm15
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 196,225,249,126,211 ; vmovq %xmm2,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,20,152 ; vmovss (%rax,%r11,4),%xmm2
- DB 196,227,105,33,20,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- DB 196,161,122,16,44,176 ; vmovss (%rax,%r14,4),%xmm5
- DB 196,227,105,33,213,32 ; vinsertps $0x20,%xmm5,%xmm2,%xmm2
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,44,144 ; vmovss (%rax,%r10,4),%xmm5
- DB 196,227,105,33,213,48 ; vinsertps $0x30,%xmm5,%xmm2,%xmm2
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,44,152 ; vmovss (%rax,%rbx,4),%xmm5
- DB 196,163,81,33,44,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm5,%xmm5
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,81,33,239,32 ; vinsertps $0x20,%xmm7,%xmm5,%xmm5
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,81,33,239,48 ; vinsertps $0x30,%xmm7,%xmm5,%xmm5
- DB 196,227,85,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm5,%ymm2
- DB 196,193,97,254,218 ; vpaddd %xmm10,%xmm3,%xmm3
- DB 196,195,249,22,216,1 ; vpextrq $0x1,%xmm3,%r8
- DB 196,193,249,126,217 ; vmovq %xmm3,%r9
- DB 196,193,49,254,218 ; vpaddd %xmm10,%xmm9,%xmm3
- DB 196,195,249,22,218,1 ; vpextrq $0x1,%xmm3,%r10
- DB 196,225,249,126,219 ; vmovq %xmm3,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,28,152 ; vmovss (%rax,%r11,4),%xmm3
- DB 196,227,97,33,28,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- DB 196,161,122,16,44,176 ; vmovss (%rax,%r14,4),%xmm5
- DB 196,227,97,33,221,32 ; vinsertps $0x20,%xmm5,%xmm3,%xmm3
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,44,144 ; vmovss (%rax,%r10,4),%xmm5
- DB 196,227,97,33,221,48 ; vinsertps $0x30,%xmm5,%xmm3,%xmm3
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,44,152 ; vmovss (%rax,%rbx,4),%xmm5
- DB 196,163,81,33,44,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm5,%xmm5
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,81,33,239,32 ; vinsertps $0x20,%xmm7,%xmm5,%xmm5
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,81,33,239,48 ; vinsertps $0x30,%xmm7,%xmm5,%xmm5
- DB 196,99,85,24,203,1 ; vinsertf128 $0x1,%xmm3,%ymm5,%ymm9
- DB 197,241,254,12,36 ; vpaddd (%rsp),%xmm1,%xmm1
- DB 197,201,254,92,36,16 ; vpaddd 0x10(%rsp),%xmm6,%xmm3
- DB 196,226,97,64,220 ; vpmulld %xmm4,%xmm3,%xmm3
- DB 196,226,113,64,228 ; vpmulld %xmm4,%xmm1,%xmm4
- DB 196,193,121,126,225 ; vmovd %xmm4,%r9d
- DB 196,195,121,22,224,1 ; vpextrd $0x1,%xmm4,%r8d
- DB 196,195,121,22,226,2 ; vpextrd $0x2,%xmm4,%r10d
- DB 196,195,121,22,227,3 ; vpextrd $0x3,%xmm4,%r11d
- DB 196,193,121,126,223 ; vmovd %xmm3,%r15d
- DB 196,195,121,22,222,1 ; vpextrd $0x1,%xmm3,%r14d
- DB 196,195,121,22,220,2 ; vpextrd $0x2,%xmm3,%r12d
- DB 196,227,121,22,219,3 ; vpextrd $0x3,%xmm3,%ebx
- DB 196,161,122,16,12,184 ; vmovss (%rax,%r15,4),%xmm1
- DB 196,163,113,33,12,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm1,%xmm1
- DB 196,163,113,33,12,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm1,%xmm1
- DB 196,227,113,33,12,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm1,%xmm1
- DB 196,161,122,16,44,136 ; vmovss (%rax,%r9,4),%xmm5
- DB 196,163,81,33,44,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm5,%xmm5
- DB 196,163,81,33,44,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm5,%xmm5
- DB 196,163,81,33,44,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm5,%xmm5
- DB 196,227,85,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm5,%ymm1
- DB 196,193,89,250,239 ; vpsubd %xmm15,%xmm4,%xmm5
- DB 196,195,249,22,232,1 ; vpextrq $0x1,%xmm5,%r8
- DB 196,193,249,126,233 ; vmovq %xmm5,%r9
- DB 196,193,97,250,239 ; vpsubd %xmm15,%xmm3,%xmm5
- DB 196,195,249,22,234,1 ; vpextrq $0x1,%xmm5,%r10
- DB 196,225,249,126,235 ; vmovq %xmm5,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,44,152 ; vmovss (%rax,%r11,4),%xmm5
- DB 196,227,81,33,44,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm5,%xmm5
- DB 196,161,122,16,52,176 ; vmovss (%rax,%r14,4),%xmm6
- DB 196,227,81,33,238,32 ; vinsertps $0x20,%xmm6,%xmm5,%xmm5
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,81,33,238,48 ; vinsertps $0x30,%xmm6,%xmm5,%xmm5
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,52,152 ; vmovss (%rax,%rbx,4),%xmm6
- DB 196,163,73,33,52,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,73,33,247,32 ; vinsertps $0x20,%xmm7,%xmm6,%xmm6
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,73,33,247,48 ; vinsertps $0x30,%xmm7,%xmm6,%xmm6
- DB 196,227,77,24,245,1 ; vinsertf128 $0x1,%xmm5,%ymm6,%ymm6
- DB 196,193,89,254,226 ; vpaddd %xmm10,%xmm4,%xmm4
- DB 196,195,249,22,224,1 ; vpextrq $0x1,%xmm4,%r8
- DB 196,193,249,126,225 ; vmovq %xmm4,%r9
- DB 196,193,97,254,218 ; vpaddd %xmm10,%xmm3,%xmm3
- DB 196,195,249,22,218,1 ; vpextrq $0x1,%xmm3,%r10
- DB 196,225,249,126,219 ; vmovq %xmm3,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,28,152 ; vmovss (%rax,%r11,4),%xmm3
- DB 196,227,97,33,28,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- DB 196,161,122,16,36,176 ; vmovss (%rax,%r14,4),%xmm4
- DB 196,227,97,33,220,32 ; vinsertps $0x20,%xmm4,%xmm3,%xmm3
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,36,144 ; vmovss (%rax,%r10,4),%xmm4
- DB 196,227,97,33,220,48 ; vinsertps $0x30,%xmm4,%xmm3,%xmm3
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,36,152 ; vmovss (%rax,%rbx,4),%xmm4
- DB 196,163,89,33,36,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4
- DB 196,161,122,16,44,144 ; vmovss (%rax,%r10,4),%xmm5
- DB 196,227,89,33,229,32 ; vinsertps $0x20,%xmm5,%xmm4,%xmm4
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,44,128 ; vmovss (%rax,%r8,4),%xmm5
- DB 196,227,89,33,229,48 ; vinsertps $0x30,%xmm5,%xmm4,%xmm4
- DB 196,227,93,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm4,%ymm3
- DB 197,244,92,200 ; vsubps %ymm0,%ymm1,%ymm1
- DB 197,164,89,201 ; vmulps %ymm1,%ymm11,%ymm1
- DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
- DB 197,204,92,202 ; vsubps %ymm2,%ymm6,%ymm1
- DB 197,164,89,201 ; vmulps %ymm1,%ymm11,%ymm1
- DB 197,236,88,201 ; vaddps %ymm1,%ymm2,%ymm1
- DB 196,193,100,92,209 ; vsubps %ymm9,%ymm3,%ymm2
- DB 197,164,89,210 ; vmulps %ymm2,%ymm11,%ymm2
- DB 197,180,88,210 ; vaddps %ymm2,%ymm9,%ymm2
- DB 196,193,124,92,196 ; vsubps %ymm12,%ymm0,%ymm0
- DB 197,148,89,192 ; vmulps %ymm0,%ymm13,%ymm0
- DB 197,156,88,192 ; vaddps %ymm0,%ymm12,%ymm0
- DB 196,193,116,92,206 ; vsubps %ymm14,%ymm1,%ymm1
- DB 197,148,89,201 ; vmulps %ymm1,%ymm13,%ymm1
- DB 197,140,88,201 ; vaddps %ymm1,%ymm14,%ymm1
- DB 196,193,108,92,208 ; vsubps %ymm8,%ymm2,%ymm2
- DB 197,148,89,210 ; vmulps %ymm2,%ymm13,%ymm2
- DB 197,188,88,210 ; vaddps %ymm2,%ymm8,%ymm2
- DB 197,252,91,156,36,32,1,0,0 ; vcvtdq2ps 0x120(%rsp),%ymm3
- DB 197,252,16,164,36,64,1,0,0 ; vmovups 0x140(%rsp),%ymm4
- DB 197,220,92,219 ; vsubps %ymm3,%ymm4,%ymm3
- DB 197,252,16,100,36,64 ; vmovups 0x40(%rsp),%ymm4
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,220,88,192 ; vaddps %ymm0,%ymm4,%ymm0
- DB 197,252,16,164,36,192,0,0,0 ; vmovups 0xc0(%rsp),%ymm4
- DB 197,244,92,204 ; vsubps %ymm4,%ymm1,%ymm1
- DB 197,228,89,201 ; vmulps %ymm1,%ymm3,%ymm1
- DB 197,220,88,201 ; vaddps %ymm1,%ymm4,%ymm1
- DB 197,252,16,164,36,160,0,0,0 ; vmovups 0xa0(%rsp),%ymm4
- DB 197,236,92,212 ; vsubps %ymm4,%ymm2,%ymm2
- DB 197,228,89,210 ; vmulps %ymm2,%ymm3,%ymm2
- DB 197,220,88,210 ; vaddps %ymm2,%ymm4,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,156,36,160,1,0,0 ; vmovups 0x1a0(%rsp),%ymm3
- DB 197,252,16,164,36,192,1,0,0 ; vmovups 0x1c0(%rsp),%ymm4
- DB 197,252,16,172,36,224,1,0,0 ; vmovups 0x1e0(%rsp),%ymm5
- DB 197,252,16,180,36,0,2,0,0 ; vmovups 0x200(%rsp),%ymm6
- DB 197,252,16,188,36,32,2,0,0 ; vmovups 0x220(%rsp),%ymm7
- DB 72,129,196,88,2,0,0 ; add $0x258,%rsp
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clut_4D_avx
-_sk_clut_4D_avx LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,129,236,88,3,0,0 ; sub $0x358,%rsp
- DB 197,252,17,188,36,32,3,0,0 ; vmovups %ymm7,0x320(%rsp)
- DB 197,252,17,180,36,0,3,0,0 ; vmovups %ymm6,0x300(%rsp)
- DB 197,252,17,172,36,224,2,0,0 ; vmovups %ymm5,0x2e0(%rsp)
- DB 197,252,17,164,36,192,2,0,0 ; vmovups %ymm4,0x2c0(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,139,64,20 ; mov 0x14(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 196,193,121,110,225 ; vmovd %r9d,%xmm4
- DB 197,249,112,228,0 ; vpshufd $0x0,%xmm4,%xmm4
- DB 196,227,93,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm4,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 197,92,89,203 ; vmulps %ymm3,%ymm4,%ymm9
- DB 197,124,17,140,36,96,2,0,0 ; vmovups %ymm9,0x260(%rsp)
- DB 68,139,72,16 ; mov 0x10(%rax),%r9d
- DB 69,141,81,255 ; lea -0x1(%r9),%r10d
- DB 196,193,121,110,218 ; vmovd %r10d,%xmm3
- DB 197,249,112,219,0 ; vpshufd $0x0,%xmm3,%xmm3
- DB 196,227,101,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 197,228,89,210 ; vmulps %ymm2,%ymm3,%ymm2
- DB 197,252,17,148,36,128,1,0,0 ; vmovups %ymm2,0x180(%rsp)
- DB 197,254,91,218 ; vcvttps2dq %ymm2,%ymm3
- DB 196,227,125,25,218,1 ; vextractf128 $0x1,%ymm3,%xmm2
- DB 197,253,111,251 ; vmovdqa %ymm3,%ymm7
- DB 197,254,127,188,36,192,1,0,0 ; vmovdqu %ymm7,0x1c0(%rsp)
- DB 196,193,121,110,216 ; vmovd %r8d,%xmm3
- DB 197,249,112,227,0 ; vpshufd $0x0,%xmm3,%xmm4
- DB 196,226,89,64,242 ; vpmulld %xmm2,%xmm4,%xmm6
- DB 197,249,111,236 ; vmovdqa %xmm4,%xmm5
- DB 197,249,127,108,36,64 ; vmovdqa %xmm5,0x40(%rsp)
- DB 197,249,127,180,36,32,1,0,0 ; vmovdqa %xmm6,0x120(%rsp)
- DB 196,193,121,110,209 ; vmovd %r9d,%xmm2
- DB 196,226,105,64,211 ; vpmulld %xmm3,%xmm2,%xmm2
- DB 197,121,112,194,0 ; vpshufd $0x0,%xmm2,%xmm8
- DB 68,139,64,12 ; mov 0xc(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 196,193,121,110,217 ; vmovd %r9d,%xmm3
- DB 197,249,112,219,0 ; vpshufd $0x0,%xmm3,%xmm3
- DB 196,227,101,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm3,%ymm3
- DB 197,252,91,219 ; vcvtdq2ps %ymm3,%ymm3
- DB 197,228,89,201 ; vmulps %ymm1,%ymm3,%ymm1
- DB 197,252,17,140,36,0,1,0,0 ; vmovups %ymm1,0x100(%rsp)
- DB 197,254,91,217 ; vcvttps2dq %ymm1,%ymm3
- DB 196,227,125,25,217,1 ; vextractf128 $0x1,%ymm3,%xmm1
- DB 197,125,111,211 ; vmovdqa %ymm3,%ymm10
- DB 197,126,127,148,36,64,1,0,0 ; vmovdqu %ymm10,0x140(%rsp)
- DB 196,226,57,64,217 ; vpmulld %xmm1,%xmm8,%xmm3
- DB 197,249,127,156,36,96,1,0,0 ; vmovdqa %xmm3,0x160(%rsp)
- DB 196,193,121,110,200 ; vmovd %r8d,%xmm1
- DB 196,226,113,64,202 ; vpmulld %xmm2,%xmm1,%xmm1
- DB 197,249,112,225,0 ; vpshufd $0x0,%xmm1,%xmm4
- DB 68,139,64,8 ; mov 0x8(%rax),%r8d
- DB 65,255,200 ; dec %r8d
- DB 196,193,121,110,200 ; vmovd %r8d,%xmm1
- DB 197,249,112,201,0 ; vpshufd $0x0,%xmm1,%xmm1
- DB 196,227,117,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- DB 197,252,91,201 ; vcvtdq2ps %ymm1,%ymm1
- DB 197,116,89,248 ; vmulps %ymm0,%ymm1,%ymm15
- DB 196,65,126,91,223 ; vcvttps2dq %ymm15,%ymm11
- DB 196,99,125,25,216,1 ; vextractf128 $0x1,%ymm11,%xmm0
- DB 196,226,89,64,208 ; vpmulld %xmm0,%xmm4,%xmm2
- DB 197,249,127,20,36 ; vmovdqa %xmm2,(%rsp)
- DB 72,139,0 ; mov (%rax),%rax
- DB 196,193,126,91,201 ; vcvttps2dq %ymm9,%ymm1
- DB 197,254,127,140,36,64,2,0,0 ; vmovdqu %ymm1,0x240(%rsp)
- DB 196,227,125,25,200,1 ; vextractf128 $0x1,%ymm1,%xmm0
- DB 197,249,127,132,36,224,0,0,0 ; vmovdqa %xmm0,0xe0(%rsp)
- DB 197,201,254,192 ; vpaddd %xmm0,%xmm6,%xmm0
- DB 197,249,127,132,36,160,0,0,0 ; vmovdqa %xmm0,0xa0(%rsp)
- DB 197,225,254,216 ; vpaddd %xmm0,%xmm3,%xmm3
- DB 197,233,254,195 ; vpaddd %xmm3,%xmm2,%xmm0
- DB 196,98,121,24,13,101,34,2,0 ; vbroadcastss 0x22265(%rip),%xmm9 # 34c38 <_sk_srcover_bgra_8888_sse2_lowp+0x420>
- DB 196,194,121,64,209 ; vpmulld %xmm9,%xmm0,%xmm2
- DB 196,226,81,64,199 ; vpmulld %xmm7,%xmm5,%xmm0
- DB 197,249,127,132,36,224,1,0,0 ; vmovdqa %xmm0,0x1e0(%rsp)
- DB 197,121,254,241 ; vpaddd %xmm1,%xmm0,%xmm14
- DB 196,194,57,64,194 ; vpmulld %xmm10,%xmm8,%xmm0
- DB 197,249,127,68,36,112 ; vmovdqa %xmm0,0x70(%rsp)
- DB 196,193,121,254,206 ; vpaddd %xmm14,%xmm0,%xmm1
- DB 196,194,89,64,195 ; vpmulld %xmm11,%xmm4,%xmm0
- DB 197,249,127,68,36,16 ; vmovdqa %xmm0,0x10(%rsp)
- DB 197,249,254,193 ; vpaddd %xmm1,%xmm0,%xmm0
- DB 196,194,121,64,193 ; vpmulld %xmm9,%xmm0,%xmm0
- DB 196,193,121,126,192 ; vmovd %xmm0,%r8d
- DB 196,195,121,22,193,1 ; vpextrd $0x1,%xmm0,%r9d
- DB 196,195,121,22,194,2 ; vpextrd $0x2,%xmm0,%r10d
- DB 196,195,121,22,195,3 ; vpextrd $0x3,%xmm0,%r11d
- DB 196,193,121,126,215 ; vmovd %xmm2,%r15d
- DB 196,195,121,22,214,1 ; vpextrd $0x1,%xmm2,%r14d
- DB 196,195,121,22,212,2 ; vpextrd $0x2,%xmm2,%r12d
- DB 196,227,121,22,211,3 ; vpextrd $0x3,%xmm2,%ebx
- DB 196,161,122,16,44,184 ; vmovss (%rax,%r15,4),%xmm5
- DB 196,163,81,33,44,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm5,%xmm5
- DB 196,163,81,33,44,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm5,%xmm5
- DB 196,227,81,33,44,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm5,%xmm5
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,163,65,33,60,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7
- DB 196,163,65,33,60,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm7,%xmm7
- DB 196,163,65,33,60,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm7,%xmm7
- DB 196,99,69,24,237,1 ; vinsertf128 $0x1,%xmm5,%ymm7,%ymm13
- DB 197,201,118,246 ; vpcmpeqd %xmm6,%xmm6,%xmm6
- DB 197,249,250,238 ; vpsubd %xmm6,%xmm0,%xmm5
- DB 196,195,249,22,232,1 ; vpextrq $0x1,%xmm5,%r8
- DB 196,193,249,126,233 ; vmovq %xmm5,%r9
- DB 197,233,250,238 ; vpsubd %xmm6,%xmm2,%xmm5
- DB 196,195,249,22,234,1 ; vpextrq $0x1,%xmm5,%r10
- DB 196,225,249,126,235 ; vmovq %xmm5,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,44,152 ; vmovss (%rax,%r11,4),%xmm5
- DB 196,227,81,33,44,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm5,%xmm5
- DB 196,161,122,16,60,176 ; vmovss (%rax,%r14,4),%xmm7
- DB 196,227,81,33,239,32 ; vinsertps $0x20,%xmm7,%xmm5,%xmm5
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,81,33,239,48 ; vinsertps $0x30,%xmm7,%xmm5,%xmm5
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,60,152 ; vmovss (%rax,%rbx,4),%xmm7
- DB 196,163,65,33,60,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,65,33,246,32 ; vinsertps $0x20,%xmm6,%xmm7,%xmm6
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,73,33,247,48 ; vinsertps $0x30,%xmm7,%xmm6,%xmm6
- DB 196,227,77,24,237,1 ; vinsertf128 $0x1,%xmm5,%ymm6,%ymm5
- DB 196,98,121,24,21,198,31,2,0 ; vbroadcastss 0x21fc6(%rip),%xmm10 # 34ad4 <_sk_srcover_bgra_8888_sse2_lowp+0x2bc>
- DB 196,193,121,254,194 ; vpaddd %xmm10,%xmm0,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 196,193,105,254,194 ; vpaddd %xmm10,%xmm2,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,20,176 ; vmovss (%rax,%r14,4),%xmm2
- DB 196,227,121,33,194,32 ; vinsertps $0x20,%xmm2,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,20,144 ; vmovss (%rax,%r10,4),%xmm2
- DB 196,227,121,33,194,48 ; vinsertps $0x30,%xmm2,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,20,152 ; vmovss (%rax,%rbx,4),%xmm2
- DB 196,163,105,33,20,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,105,33,214,32 ; vinsertps $0x20,%xmm6,%xmm2,%xmm2
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,52,128 ; vmovss (%rax,%r8,4),%xmm6
- DB 196,227,105,33,214,48 ; vinsertps $0x30,%xmm6,%xmm2,%xmm2
- DB 196,227,109,24,208,1 ; vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- DB 196,98,125,24,37,146,32,2,0 ; vbroadcastss 0x22092(%rip),%ymm12 # 34c34 <_sk_srcover_bgra_8888_sse2_lowp+0x41c>
- DB 196,193,4,88,196 ; vaddps %ymm12,%ymm15,%ymm0
- DB 197,124,17,164,36,128,0,0,0 ; vmovups %ymm12,0x80(%rsp)
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 196,227,125,25,198,1 ; vextractf128 $0x1,%ymm0,%xmm6
- DB 196,226,89,64,246 ; vpmulld %xmm6,%xmm4,%xmm6
- DB 197,249,127,116,36,48 ; vmovdqa %xmm6,0x30(%rsp)
- DB 196,226,89,64,192 ; vpmulld %xmm0,%xmm4,%xmm0
- DB 197,249,127,68,36,32 ; vmovdqa %xmm0,0x20(%rsp)
- DB 197,249,254,193 ; vpaddd %xmm1,%xmm0,%xmm0
- DB 197,201,254,203 ; vpaddd %xmm3,%xmm6,%xmm1
- DB 196,194,113,64,201 ; vpmulld %xmm9,%xmm1,%xmm1
- DB 196,194,121,64,225 ; vpmulld %xmm9,%xmm0,%xmm4
- DB 196,193,121,126,225 ; vmovd %xmm4,%r9d
- DB 196,195,121,22,224,1 ; vpextrd $0x1,%xmm4,%r8d
- DB 196,195,121,22,226,2 ; vpextrd $0x2,%xmm4,%r10d
- DB 196,195,121,22,227,3 ; vpextrd $0x3,%xmm4,%r11d
- DB 196,193,121,126,207 ; vmovd %xmm1,%r15d
- DB 196,195,121,22,206,1 ; vpextrd $0x1,%xmm1,%r14d
- DB 196,195,121,22,204,2 ; vpextrd $0x2,%xmm1,%r12d
- DB 196,227,121,22,203,3 ; vpextrd $0x3,%xmm1,%ebx
- DB 196,161,122,16,4,184 ; vmovss (%rax,%r15,4),%xmm0
- DB 196,163,121,33,4,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- DB 196,163,121,33,4,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- DB 196,227,121,33,4,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,28,136 ; vmovss (%rax,%r9,4),%xmm3
- DB 196,163,97,33,28,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- DB 196,163,97,33,28,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- DB 196,163,97,33,28,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- DB 196,227,101,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm3,%ymm0
- DB 197,201,118,246 ; vpcmpeqd %xmm6,%xmm6,%xmm6
- DB 197,217,250,222 ; vpsubd %xmm6,%xmm4,%xmm3
- DB 196,195,249,22,216,1 ; vpextrq $0x1,%xmm3,%r8
- DB 196,193,249,126,217 ; vmovq %xmm3,%r9
- DB 197,241,250,222 ; vpsubd %xmm6,%xmm1,%xmm3
- DB 196,195,249,22,218,1 ; vpextrq $0x1,%xmm3,%r10
- DB 196,225,249,126,219 ; vmovq %xmm3,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,28,152 ; vmovss (%rax,%r11,4),%xmm3
- DB 196,227,97,33,28,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- DB 196,161,122,16,52,176 ; vmovss (%rax,%r14,4),%xmm6
- DB 196,227,97,33,222,32 ; vinsertps $0x20,%xmm6,%xmm3,%xmm3
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,97,33,222,48 ; vinsertps $0x30,%xmm6,%xmm3,%xmm3
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,52,152 ; vmovss (%rax,%rbx,4),%xmm6
- DB 196,163,73,33,52,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,73,33,247,32 ; vinsertps $0x20,%xmm7,%xmm6,%xmm6
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,73,33,247,48 ; vinsertps $0x30,%xmm7,%xmm6,%xmm6
- DB 196,227,77,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm6,%ymm3
- DB 196,193,89,254,226 ; vpaddd %xmm10,%xmm4,%xmm4
- DB 196,195,249,22,224,1 ; vpextrq $0x1,%xmm4,%r8
- DB 196,193,249,126,225 ; vmovq %xmm4,%r9
- DB 196,193,113,254,202 ; vpaddd %xmm10,%xmm1,%xmm1
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 196,225,249,126,203 ; vmovq %xmm1,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,12,152 ; vmovss (%rax,%r11,4),%xmm1
- DB 196,227,113,33,12,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- DB 196,161,122,16,36,176 ; vmovss (%rax,%r14,4),%xmm4
- DB 196,227,113,33,204,32 ; vinsertps $0x20,%xmm4,%xmm1,%xmm1
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,36,144 ; vmovss (%rax,%r10,4),%xmm4
- DB 196,227,113,33,204,48 ; vinsertps $0x30,%xmm4,%xmm1,%xmm1
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,36,152 ; vmovss (%rax,%rbx,4),%xmm4
- DB 196,163,89,33,36,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,89,33,230,32 ; vinsertps $0x20,%xmm6,%xmm4,%xmm4
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,52,128 ; vmovss (%rax,%r8,4),%xmm6
- DB 196,227,89,33,230,48 ; vinsertps $0x30,%xmm6,%xmm4,%xmm4
- DB 196,227,93,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm4,%ymm1
- DB 196,193,124,91,227 ; vcvtdq2ps %ymm11,%ymm4
- DB 197,4,92,252 ; vsubps %ymm4,%ymm15,%ymm15
- DB 196,193,124,92,197 ; vsubps %ymm13,%ymm0,%ymm0
- DB 197,132,89,192 ; vmulps %ymm0,%ymm15,%ymm0
- DB 197,148,88,192 ; vaddps %ymm0,%ymm13,%ymm0
- DB 197,252,17,132,36,160,1,0,0 ; vmovups %ymm0,0x1a0(%rsp)
- DB 197,228,92,197 ; vsubps %ymm5,%ymm3,%ymm0
- DB 197,132,89,192 ; vmulps %ymm0,%ymm15,%ymm0
- DB 197,212,88,192 ; vaddps %ymm0,%ymm5,%ymm0
- DB 197,252,17,132,36,192,0,0,0 ; vmovups %ymm0,0xc0(%rsp)
- DB 197,244,92,194 ; vsubps %ymm2,%ymm1,%ymm0
- DB 197,132,89,192 ; vmulps %ymm0,%ymm15,%ymm0
- DB 197,108,88,232 ; vaddps %ymm0,%ymm2,%ymm13
- DB 197,124,16,156,36,0,1,0,0 ; vmovups 0x100(%rsp),%ymm11
- DB 196,193,36,88,196 ; vaddps %ymm12,%ymm11,%ymm0
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 196,226,57,64,200 ; vpmulld %xmm0,%xmm8,%xmm1
- DB 197,249,127,76,36,96 ; vmovdqa %xmm1,0x60(%rsp)
- DB 196,227,125,25,192,1 ; vextractf128 $0x1,%ymm0,%xmm0
- DB 196,226,57,64,192 ; vpmulld %xmm0,%xmm8,%xmm0
- DB 197,249,127,68,36,80 ; vmovdqa %xmm0,0x50(%rsp)
- DB 197,249,254,172,36,160,0,0,0 ; vpaddd 0xa0(%rsp),%xmm0,%xmm5
- DB 196,193,113,254,198 ; vpaddd %xmm14,%xmm1,%xmm0
- DB 197,121,111,36,36 ; vmovdqa (%rsp),%xmm12
- DB 196,193,81,254,204 ; vpaddd %xmm12,%xmm5,%xmm1
- DB 196,194,113,64,209 ; vpmulld %xmm9,%xmm1,%xmm2
- DB 197,121,111,68,36,16 ; vmovdqa 0x10(%rsp),%xmm8
- DB 196,193,121,254,200 ; vpaddd %xmm8,%xmm0,%xmm1
- DB 196,194,113,64,241 ; vpmulld %xmm9,%xmm1,%xmm6
- DB 196,193,121,126,241 ; vmovd %xmm6,%r9d
- DB 196,195,121,22,240,1 ; vpextrd $0x1,%xmm6,%r8d
- DB 196,195,121,22,242,2 ; vpextrd $0x2,%xmm6,%r10d
- DB 196,195,121,22,243,3 ; vpextrd $0x3,%xmm6,%r11d
- DB 196,193,121,126,215 ; vmovd %xmm2,%r15d
- DB 196,195,121,22,214,1 ; vpextrd $0x1,%xmm2,%r14d
- DB 196,195,121,22,212,2 ; vpextrd $0x2,%xmm2,%r12d
- DB 196,227,121,22,211,3 ; vpextrd $0x3,%xmm2,%ebx
- DB 196,161,122,16,12,184 ; vmovss (%rax,%r15,4),%xmm1
- DB 196,163,113,33,12,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm1,%xmm1
- DB 196,163,113,33,12,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm1,%xmm1
- DB 196,227,113,33,12,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm1,%xmm1
- DB 196,161,122,16,28,136 ; vmovss (%rax,%r9,4),%xmm3
- DB 196,163,97,33,28,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- DB 196,163,97,33,28,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- DB 196,163,97,33,28,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- DB 196,99,101,24,241,1 ; vinsertf128 $0x1,%xmm1,%ymm3,%ymm14
- DB 197,225,118,219 ; vpcmpeqd %xmm3,%xmm3,%xmm3
- DB 197,201,250,203 ; vpsubd %xmm3,%xmm6,%xmm1
- DB 196,195,249,22,200,1 ; vpextrq $0x1,%xmm1,%r8
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 197,233,250,203 ; vpsubd %xmm3,%xmm2,%xmm1
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 196,225,249,126,203 ; vmovq %xmm1,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,12,152 ; vmovss (%rax,%r11,4),%xmm1
- DB 196,227,113,33,12,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- DB 196,161,122,16,28,176 ; vmovss (%rax,%r14,4),%xmm3
- DB 196,227,113,33,203,32 ; vinsertps $0x20,%xmm3,%xmm1,%xmm1
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,113,33,203,48 ; vinsertps $0x30,%xmm3,%xmm1,%xmm1
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,28,152 ; vmovss (%rax,%rbx,4),%xmm3
- DB 196,163,97,33,28,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- DB 196,161,122,16,36,144 ; vmovss (%rax,%r10,4),%xmm4
- DB 196,227,97,33,220,32 ; vinsertps $0x20,%xmm4,%xmm3,%xmm3
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,36,128 ; vmovss (%rax,%r8,4),%xmm4
- DB 196,227,97,33,220,48 ; vinsertps $0x30,%xmm4,%xmm3,%xmm3
- DB 196,227,101,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm3,%ymm1
- DB 196,193,73,254,218 ; vpaddd %xmm10,%xmm6,%xmm3
- DB 196,195,249,22,216,1 ; vpextrq $0x1,%xmm3,%r8
- DB 196,193,249,126,217 ; vmovq %xmm3,%r9
- DB 196,193,105,254,210 ; vpaddd %xmm10,%xmm2,%xmm2
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 196,225,249,126,211 ; vmovq %xmm2,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,20,152 ; vmovss (%rax,%r11,4),%xmm2
- DB 196,227,105,33,20,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- DB 196,161,122,16,28,176 ; vmovss (%rax,%r14,4),%xmm3
- DB 196,227,105,33,211,32 ; vinsertps $0x20,%xmm3,%xmm2,%xmm2
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,105,33,211,48 ; vinsertps $0x30,%xmm3,%xmm2,%xmm2
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,28,152 ; vmovss (%rax,%rbx,4),%xmm3
- DB 196,163,97,33,28,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- DB 196,161,122,16,36,144 ; vmovss (%rax,%r10,4),%xmm4
- DB 196,227,97,33,220,32 ; vinsertps $0x20,%xmm4,%xmm3,%xmm3
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,36,128 ; vmovss (%rax,%r8,4),%xmm4
- DB 196,227,97,33,220,48 ; vinsertps $0x30,%xmm4,%xmm3,%xmm3
- DB 196,227,101,24,242,1 ; vinsertf128 $0x1,%xmm2,%ymm3,%ymm6
- DB 197,249,254,68,36,32 ; vpaddd 0x20(%rsp),%xmm0,%xmm0
- DB 197,209,254,84,36,48 ; vpaddd 0x30(%rsp),%xmm5,%xmm2
- DB 196,194,105,64,209 ; vpmulld %xmm9,%xmm2,%xmm2
- DB 196,194,121,64,233 ; vpmulld %xmm9,%xmm0,%xmm5
- DB 196,193,121,126,233 ; vmovd %xmm5,%r9d
- DB 196,195,121,22,232,1 ; vpextrd $0x1,%xmm5,%r8d
- DB 196,195,121,22,234,2 ; vpextrd $0x2,%xmm5,%r10d
- DB 196,195,121,22,235,3 ; vpextrd $0x3,%xmm5,%r11d
- DB 196,193,121,126,215 ; vmovd %xmm2,%r15d
- DB 196,195,121,22,214,1 ; vpextrd $0x1,%xmm2,%r14d
- DB 196,195,121,22,212,2 ; vpextrd $0x2,%xmm2,%r12d
- DB 196,227,121,22,211,3 ; vpextrd $0x3,%xmm2,%ebx
- DB 196,161,122,16,4,184 ; vmovss (%rax,%r15,4),%xmm0
- DB 196,163,121,33,4,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- DB 196,163,121,33,4,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- DB 196,227,121,33,4,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,28,136 ; vmovss (%rax,%r9,4),%xmm3
- DB 196,163,97,33,28,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- DB 196,163,97,33,28,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- DB 196,163,97,33,28,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- DB 196,227,101,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm3,%ymm0
- DB 197,217,118,228 ; vpcmpeqd %xmm4,%xmm4,%xmm4
- DB 197,209,250,220 ; vpsubd %xmm4,%xmm5,%xmm3
- DB 196,195,249,22,216,1 ; vpextrq $0x1,%xmm3,%r8
- DB 196,193,249,126,217 ; vmovq %xmm3,%r9
- DB 197,233,250,220 ; vpsubd %xmm4,%xmm2,%xmm3
- DB 196,195,249,22,218,1 ; vpextrq $0x1,%xmm3,%r10
- DB 196,225,249,126,219 ; vmovq %xmm3,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,28,152 ; vmovss (%rax,%r11,4),%xmm3
- DB 196,227,97,33,28,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- DB 196,161,122,16,36,176 ; vmovss (%rax,%r14,4),%xmm4
- DB 196,227,97,33,220,32 ; vinsertps $0x20,%xmm4,%xmm3,%xmm3
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,36,144 ; vmovss (%rax,%r10,4),%xmm4
- DB 196,227,97,33,220,48 ; vinsertps $0x30,%xmm4,%xmm3,%xmm3
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,36,152 ; vmovss (%rax,%rbx,4),%xmm4
- DB 196,163,89,33,36,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,89,33,231,32 ; vinsertps $0x20,%xmm7,%xmm4,%xmm4
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,89,33,231,48 ; vinsertps $0x30,%xmm7,%xmm4,%xmm4
- DB 196,227,93,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm4,%ymm3
- DB 196,193,81,254,226 ; vpaddd %xmm10,%xmm5,%xmm4
- DB 196,195,249,22,224,1 ; vpextrq $0x1,%xmm4,%r8
- DB 196,193,249,126,225 ; vmovq %xmm4,%r9
- DB 196,193,105,254,210 ; vpaddd %xmm10,%xmm2,%xmm2
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 196,225,249,126,211 ; vmovq %xmm2,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,20,152 ; vmovss (%rax,%r11,4),%xmm2
- DB 196,227,105,33,20,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- DB 196,161,122,16,36,176 ; vmovss (%rax,%r14,4),%xmm4
- DB 196,227,105,33,212,32 ; vinsertps $0x20,%xmm4,%xmm2,%xmm2
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,36,144 ; vmovss (%rax,%r10,4),%xmm4
- DB 196,227,105,33,212,48 ; vinsertps $0x30,%xmm4,%xmm2,%xmm2
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,36,152 ; vmovss (%rax,%rbx,4),%xmm4
- DB 196,163,89,33,36,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4
- DB 196,161,122,16,44,144 ; vmovss (%rax,%r10,4),%xmm5
- DB 196,227,89,33,229,32 ; vinsertps $0x20,%xmm5,%xmm4,%xmm4
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,44,128 ; vmovss (%rax,%r8,4),%xmm5
- DB 196,227,89,33,229,48 ; vinsertps $0x30,%xmm5,%xmm4,%xmm4
- DB 196,227,93,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm4,%ymm2
- DB 196,193,124,92,198 ; vsubps %ymm14,%ymm0,%ymm0
- DB 197,132,89,192 ; vmulps %ymm0,%ymm15,%ymm0
- DB 197,140,88,192 ; vaddps %ymm0,%ymm14,%ymm0
- DB 197,228,92,217 ; vsubps %ymm1,%ymm3,%ymm3
- DB 197,132,89,219 ; vmulps %ymm3,%ymm15,%ymm3
- DB 197,244,88,203 ; vaddps %ymm3,%ymm1,%ymm1
- DB 197,236,92,214 ; vsubps %ymm6,%ymm2,%ymm2
- DB 197,132,89,210 ; vmulps %ymm2,%ymm15,%ymm2
- DB 197,204,88,210 ; vaddps %ymm2,%ymm6,%ymm2
- DB 197,252,91,156,36,64,1,0,0 ; vcvtdq2ps 0x140(%rsp),%ymm3
- DB 197,164,92,219 ; vsubps %ymm3,%ymm11,%ymm3
- DB 197,252,17,156,36,64,1,0,0 ; vmovups %ymm3,0x140(%rsp)
- DB 197,252,16,164,36,160,1,0,0 ; vmovups 0x1a0(%rsp),%ymm4
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,220,88,192 ; vaddps %ymm0,%ymm4,%ymm0
- DB 197,252,17,132,36,0,1,0,0 ; vmovups %ymm0,0x100(%rsp)
- DB 197,252,16,164,36,192,0,0,0 ; vmovups 0xc0(%rsp),%ymm4
- DB 197,244,92,196 ; vsubps %ymm4,%ymm1,%ymm0
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,220,88,192 ; vaddps %ymm0,%ymm4,%ymm0
- DB 197,252,17,132,36,192,0,0,0 ; vmovups %ymm0,0xc0(%rsp)
- DB 196,193,108,92,197 ; vsubps %ymm13,%ymm2,%ymm0
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,148,88,192 ; vaddps %ymm0,%ymm13,%ymm0
- DB 197,252,17,132,36,160,0,0,0 ; vmovups %ymm0,0xa0(%rsp)
- DB 197,252,16,132,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm0
- DB 197,252,88,132,36,128,1,0,0 ; vaddps 0x180(%rsp),%ymm0,%ymm0
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 196,227,125,25,193,1 ; vextractf128 $0x1,%ymm0,%xmm1
- DB 197,249,111,84,36,64 ; vmovdqa 0x40(%rsp),%xmm2
- DB 196,226,105,64,201 ; vpmulld %xmm1,%xmm2,%xmm1
- DB 197,249,127,140,36,160,1,0,0 ; vmovdqa %xmm1,0x1a0(%rsp)
- DB 196,226,105,64,192 ; vpmulld %xmm0,%xmm2,%xmm0
- DB 197,249,127,68,36,64 ; vmovdqa %xmm0,0x40(%rsp)
- DB 197,241,254,140,36,224,0,0,0 ; vpaddd 0xe0(%rsp),%xmm1,%xmm1
- DB 197,249,127,140,36,48,2,0,0 ; vmovdqa %xmm1,0x230(%rsp)
- DB 197,241,254,172,36,96,1,0,0 ; vpaddd 0x160(%rsp),%xmm1,%xmm5
- DB 196,193,81,254,204 ; vpaddd %xmm12,%xmm5,%xmm1
- DB 196,194,113,64,225 ; vpmulld %xmm9,%xmm1,%xmm4
- DB 197,121,254,180,36,64,2,0,0 ; vpaddd 0x240(%rsp),%xmm0,%xmm14
- DB 197,137,254,84,36,112 ; vpaddd 0x70(%rsp),%xmm14,%xmm2
- DB 196,193,105,254,248 ; vpaddd %xmm8,%xmm2,%xmm7
- DB 196,194,65,64,249 ; vpmulld %xmm9,%xmm7,%xmm7
- DB 196,193,121,126,249 ; vmovd %xmm7,%r9d
- DB 196,195,121,22,248,1 ; vpextrd $0x1,%xmm7,%r8d
- DB 196,195,121,22,250,2 ; vpextrd $0x2,%xmm7,%r10d
- DB 196,195,121,22,251,3 ; vpextrd $0x3,%xmm7,%r11d
- DB 196,193,121,126,231 ; vmovd %xmm4,%r15d
- DB 196,195,121,22,230,1 ; vpextrd $0x1,%xmm4,%r14d
- DB 196,195,121,22,228,2 ; vpextrd $0x2,%xmm4,%r12d
- DB 196,227,121,22,227,3 ; vpextrd $0x3,%xmm4,%ebx
- DB 196,161,122,16,28,184 ; vmovss (%rax,%r15,4),%xmm3
- DB 196,163,97,33,28,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm3,%xmm3
- DB 196,163,97,33,28,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm3,%xmm3
- DB 196,227,97,33,28,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm3,%xmm3
- DB 196,161,122,16,52,136 ; vmovss (%rax,%r9,4),%xmm6
- DB 196,163,73,33,52,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm6,%xmm6
- DB 196,163,73,33,52,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm6,%xmm6
- DB 196,163,73,33,52,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm6,%xmm6
- DB 196,227,77,24,203,1 ; vinsertf128 $0x1,%xmm3,%ymm6,%ymm1
- DB 197,249,118,192 ; vpcmpeqd %xmm0,%xmm0,%xmm0
- DB 197,193,250,216 ; vpsubd %xmm0,%xmm7,%xmm3
- DB 196,195,249,22,216,1 ; vpextrq $0x1,%xmm3,%r8
- DB 196,193,249,126,217 ; vmovq %xmm3,%r9
- DB 197,217,250,216 ; vpsubd %xmm0,%xmm4,%xmm3
- DB 196,195,249,22,218,1 ; vpextrq $0x1,%xmm3,%r10
- DB 196,225,249,126,219 ; vmovq %xmm3,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,28,152 ; vmovss (%rax,%r11,4),%xmm3
- DB 196,227,97,33,28,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- DB 196,161,122,16,52,176 ; vmovss (%rax,%r14,4),%xmm6
- DB 196,227,97,33,222,32 ; vinsertps $0x20,%xmm6,%xmm3,%xmm3
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,97,33,222,48 ; vinsertps $0x30,%xmm6,%xmm3,%xmm3
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,52,152 ; vmovss (%rax,%rbx,4),%xmm6
- DB 196,163,73,33,52,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- DB 196,161,122,16,4,144 ; vmovss (%rax,%r10,4),%xmm0
- DB 196,227,73,33,192,32 ; vinsertps $0x20,%xmm0,%xmm6,%xmm0
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,52,128 ; vmovss (%rax,%r8,4),%xmm6
- DB 196,227,121,33,198,48 ; vinsertps $0x30,%xmm6,%xmm0,%xmm0
- DB 196,99,125,24,235,1 ; vinsertf128 $0x1,%xmm3,%ymm0,%ymm13
- DB 196,193,65,254,194 ; vpaddd %xmm10,%xmm7,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 196,193,89,254,194 ; vpaddd %xmm10,%xmm4,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,28,176 ; vmovss (%rax,%r14,4),%xmm3
- DB 196,227,121,33,195,32 ; vinsertps $0x20,%xmm3,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,121,33,195,48 ; vinsertps $0x30,%xmm3,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,28,152 ; vmovss (%rax,%rbx,4),%xmm3
- DB 196,163,97,33,28,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- DB 196,161,122,16,36,144 ; vmovss (%rax,%r10,4),%xmm4
- DB 196,227,97,33,220,32 ; vinsertps $0x20,%xmm4,%xmm3,%xmm3
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,36,128 ; vmovss (%rax,%r8,4),%xmm4
- DB 196,227,97,33,220,48 ; vinsertps $0x30,%xmm4,%xmm3,%xmm3
- DB 196,99,101,24,216,1 ; vinsertf128 $0x1,%xmm0,%ymm3,%ymm11
- DB 197,121,111,100,36,32 ; vmovdqa 0x20(%rsp),%xmm12
- DB 197,153,254,194 ; vpaddd %xmm2,%xmm12,%xmm0
- DB 197,121,111,68,36,48 ; vmovdqa 0x30(%rsp),%xmm8
- DB 197,185,254,213 ; vpaddd %xmm5,%xmm8,%xmm2
- DB 196,194,105,64,225 ; vpmulld %xmm9,%xmm2,%xmm4
- DB 196,194,121,64,233 ; vpmulld %xmm9,%xmm0,%xmm5
- DB 196,193,121,126,233 ; vmovd %xmm5,%r9d
- DB 196,195,121,22,232,1 ; vpextrd $0x1,%xmm5,%r8d
- DB 196,195,121,22,234,2 ; vpextrd $0x2,%xmm5,%r10d
- DB 196,195,121,22,235,3 ; vpextrd $0x3,%xmm5,%r11d
- DB 196,193,121,126,231 ; vmovd %xmm4,%r15d
- DB 196,195,121,22,230,1 ; vpextrd $0x1,%xmm4,%r14d
- DB 196,195,121,22,228,2 ; vpextrd $0x2,%xmm4,%r12d
- DB 196,227,121,22,227,3 ; vpextrd $0x3,%xmm4,%ebx
- DB 196,161,122,16,4,184 ; vmovss (%rax,%r15,4),%xmm0
- DB 196,163,121,33,4,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- DB 196,163,121,33,4,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- DB 196,227,121,33,4,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,20,136 ; vmovss (%rax,%r9,4),%xmm2
- DB 196,163,105,33,20,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm2,%xmm2
- DB 196,163,105,33,20,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm2,%xmm2
- DB 196,163,105,33,20,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm2,%xmm2
- DB 196,227,109,24,208,1 ; vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- DB 197,225,118,219 ; vpcmpeqd %xmm3,%xmm3,%xmm3
- DB 197,209,250,195 ; vpsubd %xmm3,%xmm5,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 197,217,250,195 ; vpsubd %xmm3,%xmm4,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,28,176 ; vmovss (%rax,%r14,4),%xmm3
- DB 196,227,121,33,195,32 ; vinsertps $0x20,%xmm3,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,121,33,195,48 ; vinsertps $0x30,%xmm3,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,28,152 ; vmovss (%rax,%rbx,4),%xmm3
- DB 196,163,97,33,28,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,97,33,222,32 ; vinsertps $0x20,%xmm6,%xmm3,%xmm3
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,52,128 ; vmovss (%rax,%r8,4),%xmm6
- DB 196,227,97,33,222,48 ; vinsertps $0x30,%xmm6,%xmm3,%xmm3
- DB 196,227,101,24,248,1 ; vinsertf128 $0x1,%xmm0,%ymm3,%ymm7
- DB 196,193,81,254,194 ; vpaddd %xmm10,%xmm5,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 196,193,89,254,194 ; vpaddd %xmm10,%xmm4,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,28,176 ; vmovss (%rax,%r14,4),%xmm3
- DB 196,227,121,33,195,32 ; vinsertps $0x20,%xmm3,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,121,33,195,48 ; vinsertps $0x30,%xmm3,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,28,152 ; vmovss (%rax,%rbx,4),%xmm3
- DB 196,163,97,33,28,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- DB 196,161,122,16,36,144 ; vmovss (%rax,%r10,4),%xmm4
- DB 196,227,97,33,220,32 ; vinsertps $0x20,%xmm4,%xmm3,%xmm3
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,36,128 ; vmovss (%rax,%r8,4),%xmm4
- DB 196,227,97,33,220,48 ; vinsertps $0x30,%xmm4,%xmm3,%xmm3
- DB 196,227,101,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm3,%ymm0
- DB 197,236,92,209 ; vsubps %ymm1,%ymm2,%ymm2
- DB 197,132,89,210 ; vmulps %ymm2,%ymm15,%ymm2
- DB 197,244,88,202 ; vaddps %ymm2,%ymm1,%ymm1
- DB 197,252,17,140,36,224,0,0,0 ; vmovups %ymm1,0xe0(%rsp)
- DB 196,193,68,92,213 ; vsubps %ymm13,%ymm7,%ymm2
- DB 197,132,89,210 ; vmulps %ymm2,%ymm15,%ymm2
- DB 197,148,88,202 ; vaddps %ymm2,%ymm13,%ymm1
- DB 197,252,17,140,36,160,2,0,0 ; vmovups %ymm1,0x2a0(%rsp)
- DB 196,193,124,92,195 ; vsubps %ymm11,%ymm0,%ymm0
- DB 197,132,89,192 ; vmulps %ymm0,%ymm15,%ymm0
- DB 197,164,88,192 ; vaddps %ymm0,%ymm11,%ymm0
- DB 197,252,17,132,36,128,2,0,0 ; vmovups %ymm0,0x280(%rsp)
- DB 197,249,111,132,36,48,2,0,0 ; vmovdqa 0x230(%rsp),%xmm0
- DB 197,249,254,108,36,80 ; vpaddd 0x50(%rsp),%xmm0,%xmm5
- DB 197,137,254,100,36,96 ; vpaddd 0x60(%rsp),%xmm14,%xmm4
- DB 197,209,254,4,36 ; vpaddd (%rsp),%xmm5,%xmm0
- DB 196,66,121,64,217 ; vpmulld %xmm9,%xmm0,%xmm11
- DB 197,121,111,108,36,16 ; vmovdqa 0x10(%rsp),%xmm13
- DB 196,193,89,254,197 ; vpaddd %xmm13,%xmm4,%xmm0
- DB 196,194,121,64,209 ; vpmulld %xmm9,%xmm0,%xmm2
- DB 196,193,121,126,209 ; vmovd %xmm2,%r9d
- DB 196,195,121,22,208,1 ; vpextrd $0x1,%xmm2,%r8d
- DB 196,195,121,22,210,2 ; vpextrd $0x2,%xmm2,%r10d
- DB 196,195,121,22,211,3 ; vpextrd $0x3,%xmm2,%r11d
- DB 196,65,121,126,223 ; vmovd %xmm11,%r15d
- DB 196,67,121,22,222,1 ; vpextrd $0x1,%xmm11,%r14d
- DB 196,67,121,22,220,2 ; vpextrd $0x2,%xmm11,%r12d
- DB 196,99,121,22,219,3 ; vpextrd $0x3,%xmm11,%ebx
- DB 196,161,122,16,4,184 ; vmovss (%rax,%r15,4),%xmm0
- DB 196,163,121,33,4,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- DB 196,163,121,33,4,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- DB 196,227,121,33,4,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,12,136 ; vmovss (%rax,%r9,4),%xmm1
- DB 196,163,113,33,12,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm1,%xmm1
- DB 196,163,113,33,12,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm1,%xmm1
- DB 196,163,113,33,12,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm1,%xmm1
- DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- DB 197,225,118,219 ; vpcmpeqd %xmm3,%xmm3,%xmm3
- DB 197,233,250,203 ; vpsubd %xmm3,%xmm2,%xmm1
- DB 196,195,249,22,200,1 ; vpextrq $0x1,%xmm1,%r8
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 197,161,250,203 ; vpsubd %xmm3,%xmm11,%xmm1
- DB 197,193,118,255 ; vpcmpeqd %xmm7,%xmm7,%xmm7
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 196,225,249,126,203 ; vmovq %xmm1,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,12,152 ; vmovss (%rax,%r11,4),%xmm1
- DB 196,227,113,33,12,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- DB 196,161,122,16,28,176 ; vmovss (%rax,%r14,4),%xmm3
- DB 196,227,113,33,203,32 ; vinsertps $0x20,%xmm3,%xmm1,%xmm1
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,113,33,203,48 ; vinsertps $0x30,%xmm3,%xmm1,%xmm1
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,28,152 ; vmovss (%rax,%rbx,4),%xmm3
- DB 196,163,97,33,28,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,97,33,222,32 ; vinsertps $0x20,%xmm6,%xmm3,%xmm3
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,52,128 ; vmovss (%rax,%r8,4),%xmm6
- DB 196,227,97,33,222,48 ; vinsertps $0x30,%xmm6,%xmm3,%xmm3
- DB 196,227,101,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm3,%ymm1
- DB 196,193,105,254,210 ; vpaddd %xmm10,%xmm2,%xmm2
- DB 196,195,249,22,208,1 ; vpextrq $0x1,%xmm2,%r8
- DB 196,193,249,126,209 ; vmovq %xmm2,%r9
- DB 196,193,33,254,210 ; vpaddd %xmm10,%xmm11,%xmm2
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 196,225,249,126,211 ; vmovq %xmm2,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,20,152 ; vmovss (%rax,%r11,4),%xmm2
- DB 196,227,105,33,20,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- DB 196,161,122,16,28,176 ; vmovss (%rax,%r14,4),%xmm3
- DB 196,227,105,33,211,32 ; vinsertps $0x20,%xmm3,%xmm2,%xmm2
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,105,33,211,48 ; vinsertps $0x30,%xmm3,%xmm2,%xmm2
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,28,152 ; vmovss (%rax,%rbx,4),%xmm3
- DB 196,163,97,33,28,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,97,33,222,32 ; vinsertps $0x20,%xmm6,%xmm3,%xmm3
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,52,128 ; vmovss (%rax,%r8,4),%xmm6
- DB 196,227,97,33,222,48 ; vinsertps $0x30,%xmm6,%xmm3,%xmm3
- DB 196,99,101,24,218,1 ; vinsertf128 $0x1,%xmm2,%ymm3,%ymm11
- DB 197,153,254,212 ; vpaddd %xmm4,%xmm12,%xmm2
- DB 197,185,254,221 ; vpaddd %xmm5,%xmm8,%xmm3
- DB 196,194,97,64,225 ; vpmulld %xmm9,%xmm3,%xmm4
- DB 196,194,105,64,233 ; vpmulld %xmm9,%xmm2,%xmm5
- DB 196,193,121,126,233 ; vmovd %xmm5,%r9d
- DB 196,195,121,22,232,1 ; vpextrd $0x1,%xmm5,%r8d
- DB 196,195,121,22,234,2 ; vpextrd $0x2,%xmm5,%r10d
- DB 196,195,121,22,235,3 ; vpextrd $0x3,%xmm5,%r11d
- DB 196,193,121,126,231 ; vmovd %xmm4,%r15d
- DB 196,195,121,22,230,1 ; vpextrd $0x1,%xmm4,%r14d
- DB 196,195,121,22,228,2 ; vpextrd $0x2,%xmm4,%r12d
- DB 196,227,121,22,227,3 ; vpextrd $0x3,%xmm4,%ebx
- DB 196,161,122,16,20,184 ; vmovss (%rax,%r15,4),%xmm2
- DB 196,163,105,33,20,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm2,%xmm2
- DB 196,163,105,33,20,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm2,%xmm2
- DB 196,227,105,33,20,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm2,%xmm2
- DB 196,161,122,16,28,136 ; vmovss (%rax,%r9,4),%xmm3
- DB 196,163,97,33,28,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- DB 196,163,97,33,28,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- DB 196,163,97,33,28,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- DB 196,227,101,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm3,%ymm2
- DB 197,209,250,223 ; vpsubd %xmm7,%xmm5,%xmm3
- DB 196,195,249,22,216,1 ; vpextrq $0x1,%xmm3,%r8
- DB 196,193,249,126,217 ; vmovq %xmm3,%r9
- DB 197,217,250,223 ; vpsubd %xmm7,%xmm4,%xmm3
- DB 196,195,249,22,218,1 ; vpextrq $0x1,%xmm3,%r10
- DB 196,225,249,126,219 ; vmovq %xmm3,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,28,152 ; vmovss (%rax,%r11,4),%xmm3
- DB 196,227,97,33,28,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- DB 196,161,122,16,52,176 ; vmovss (%rax,%r14,4),%xmm6
- DB 196,227,97,33,222,32 ; vinsertps $0x20,%xmm6,%xmm3,%xmm3
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,97,33,222,48 ; vinsertps $0x30,%xmm6,%xmm3,%xmm3
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,52,152 ; vmovss (%rax,%rbx,4),%xmm6
- DB 196,163,73,33,52,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,73,33,247,32 ; vinsertps $0x20,%xmm7,%xmm6,%xmm6
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,73,33,247,48 ; vinsertps $0x30,%xmm7,%xmm6,%xmm6
- DB 196,99,77,24,243,1 ; vinsertf128 $0x1,%xmm3,%ymm6,%ymm14
- DB 196,193,81,254,218 ; vpaddd %xmm10,%xmm5,%xmm3
- DB 196,195,249,22,216,1 ; vpextrq $0x1,%xmm3,%r8
- DB 196,193,249,126,217 ; vmovq %xmm3,%r9
- DB 196,193,89,254,218 ; vpaddd %xmm10,%xmm4,%xmm3
- DB 196,195,249,22,218,1 ; vpextrq $0x1,%xmm3,%r10
- DB 196,225,249,126,219 ; vmovq %xmm3,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,28,152 ; vmovss (%rax,%r11,4),%xmm3
- DB 196,227,97,33,28,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- DB 196,161,122,16,36,176 ; vmovss (%rax,%r14,4),%xmm4
- DB 196,227,97,33,220,32 ; vinsertps $0x20,%xmm4,%xmm3,%xmm3
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,36,144 ; vmovss (%rax,%r10,4),%xmm4
- DB 196,227,97,33,220,48 ; vinsertps $0x30,%xmm4,%xmm3,%xmm3
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,36,152 ; vmovss (%rax,%rbx,4),%xmm4
- DB 196,163,89,33,36,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4
- DB 196,161,122,16,44,144 ; vmovss (%rax,%r10,4),%xmm5
- DB 196,227,89,33,229,32 ; vinsertps $0x20,%xmm5,%xmm4,%xmm4
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,44,128 ; vmovss (%rax,%r8,4),%xmm5
- DB 196,227,89,33,229,48 ; vinsertps $0x30,%xmm5,%xmm4,%xmm4
- DB 196,227,93,24,219,1 ; vinsertf128 $0x1,%xmm3,%ymm4,%ymm3
- DB 197,236,92,208 ; vsubps %ymm0,%ymm2,%ymm2
- DB 197,124,17,188,36,0,2,0,0 ; vmovups %ymm15,0x200(%rsp)
- DB 197,132,89,210 ; vmulps %ymm2,%ymm15,%ymm2
- DB 197,252,88,194 ; vaddps %ymm2,%ymm0,%ymm0
- DB 197,140,92,209 ; vsubps %ymm1,%ymm14,%ymm2
- DB 197,132,89,210 ; vmulps %ymm2,%ymm15,%ymm2
- DB 197,244,88,202 ; vaddps %ymm2,%ymm1,%ymm1
- DB 196,193,100,92,211 ; vsubps %ymm11,%ymm3,%ymm2
- DB 197,132,89,210 ; vmulps %ymm2,%ymm15,%ymm2
- DB 197,164,88,210 ; vaddps %ymm2,%ymm11,%ymm2
- DB 197,252,16,164,36,224,0,0,0 ; vmovups 0xe0(%rsp),%ymm4
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 197,252,16,156,36,64,1,0,0 ; vmovups 0x140(%rsp),%ymm3
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,220,88,192 ; vaddps %ymm0,%ymm4,%ymm0
- DB 197,252,16,164,36,160,2,0,0 ; vmovups 0x2a0(%rsp),%ymm4
- DB 197,244,92,204 ; vsubps %ymm4,%ymm1,%ymm1
- DB 197,228,89,201 ; vmulps %ymm1,%ymm3,%ymm1
- DB 197,220,88,201 ; vaddps %ymm1,%ymm4,%ymm1
- DB 197,252,16,164,36,128,2,0,0 ; vmovups 0x280(%rsp),%ymm4
- DB 197,236,92,212 ; vsubps %ymm4,%ymm2,%ymm2
- DB 197,228,89,210 ; vmulps %ymm2,%ymm3,%ymm2
- DB 197,220,88,210 ; vaddps %ymm2,%ymm4,%ymm2
- DB 197,252,91,156,36,192,1,0,0 ; vcvtdq2ps 0x1c0(%rsp),%ymm3
- DB 197,252,16,164,36,128,1,0,0 ; vmovups 0x180(%rsp),%ymm4
- DB 197,220,92,219 ; vsubps %ymm3,%ymm4,%ymm3
- DB 197,252,17,156,36,224,0,0,0 ; vmovups %ymm3,0xe0(%rsp)
- DB 197,252,16,164,36,0,1,0,0 ; vmovups 0x100(%rsp),%ymm4
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,220,88,192 ; vaddps %ymm0,%ymm4,%ymm0
- DB 197,252,17,132,36,128,1,0,0 ; vmovups %ymm0,0x180(%rsp)
- DB 197,252,16,164,36,192,0,0,0 ; vmovups 0xc0(%rsp),%ymm4
- DB 197,244,92,196 ; vsubps %ymm4,%ymm1,%ymm0
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,220,88,192 ; vaddps %ymm0,%ymm4,%ymm0
- DB 197,252,17,132,36,192,1,0,0 ; vmovups %ymm0,0x1c0(%rsp)
- DB 197,252,16,140,36,160,0,0,0 ; vmovups 0xa0(%rsp),%ymm1
- DB 197,236,92,193 ; vsubps %ymm1,%ymm2,%ymm0
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,244,88,192 ; vaddps %ymm0,%ymm1,%ymm0
- DB 197,252,17,132,36,0,1,0,0 ; vmovups %ymm0,0x100(%rsp)
- DB 197,252,16,132,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm0
- DB 197,252,88,132,36,96,2,0,0 ; vaddps 0x260(%rsp),%ymm0,%ymm0
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,254,127,132,36,192,0,0,0 ; vmovdqu %ymm0,0xc0(%rsp)
- DB 197,249,254,148,36,224,1,0,0 ; vpaddd 0x1e0(%rsp),%xmm0,%xmm2
- DB 197,249,127,148,36,128,0,0,0 ; vmovdqa %xmm2,0x80(%rsp)
- DB 196,227,125,25,192,1 ; vextractf128 $0x1,%ymm0,%xmm0
- DB 197,249,127,132,36,160,0,0,0 ; vmovdqa %xmm0,0xa0(%rsp)
- DB 197,121,254,188,36,32,1,0,0 ; vpaddd 0x120(%rsp),%xmm0,%xmm15
- DB 197,129,254,172,36,96,1,0,0 ; vpaddd 0x160(%rsp),%xmm15,%xmm5
- DB 197,249,111,36,36 ; vmovdqa (%rsp),%xmm4
- DB 197,217,254,197 ; vpaddd %xmm5,%xmm4,%xmm0
- DB 196,194,121,64,201 ; vpmulld %xmm9,%xmm0,%xmm1
- DB 197,233,254,84,36,112 ; vpaddd 0x70(%rsp),%xmm2,%xmm2
- DB 197,145,254,194 ; vpaddd %xmm2,%xmm13,%xmm0
- DB 196,194,121,64,193 ; vpmulld %xmm9,%xmm0,%xmm0
- DB 196,193,121,126,193 ; vmovd %xmm0,%r9d
- DB 196,195,121,22,192,1 ; vpextrd $0x1,%xmm0,%r8d
- DB 196,195,121,22,194,2 ; vpextrd $0x2,%xmm0,%r10d
- DB 196,195,121,22,195,3 ; vpextrd $0x3,%xmm0,%r11d
- DB 196,193,121,126,207 ; vmovd %xmm1,%r15d
- DB 196,195,121,22,206,1 ; vpextrd $0x1,%xmm1,%r14d
- DB 196,195,121,22,204,2 ; vpextrd $0x2,%xmm1,%r12d
- DB 196,227,121,22,203,3 ; vpextrd $0x3,%xmm1,%ebx
- DB 196,161,122,16,52,184 ; vmovss (%rax,%r15,4),%xmm6
- DB 196,163,73,33,52,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm6,%xmm6
- DB 196,163,73,33,52,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm6,%xmm6
- DB 196,227,73,33,52,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm6,%xmm6
- DB 196,161,122,16,60,136 ; vmovss (%rax,%r9,4),%xmm7
- DB 196,163,65,33,60,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm7,%xmm7
- DB 196,163,65,33,60,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm7,%xmm7
- DB 196,163,65,33,60,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm7,%xmm7
- DB 196,99,69,24,246,1 ; vinsertf128 $0x1,%xmm6,%ymm7,%ymm14
- DB 197,225,118,219 ; vpcmpeqd %xmm3,%xmm3,%xmm3
- DB 197,249,250,243 ; vpsubd %xmm3,%xmm0,%xmm6
- DB 196,195,249,22,240,1 ; vpextrq $0x1,%xmm6,%r8
- DB 196,193,249,126,241 ; vmovq %xmm6,%r9
- DB 197,241,250,243 ; vpsubd %xmm3,%xmm1,%xmm6
- DB 196,65,17,118,237 ; vpcmpeqd %xmm13,%xmm13,%xmm13
- DB 196,195,249,22,242,1 ; vpextrq $0x1,%xmm6,%r10
- DB 196,225,249,126,243 ; vmovq %xmm6,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,52,152 ; vmovss (%rax,%r11,4),%xmm6
- DB 196,227,73,33,52,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm6,%xmm6
- DB 196,161,122,16,60,176 ; vmovss (%rax,%r14,4),%xmm7
- DB 196,227,73,33,247,32 ; vinsertps $0x20,%xmm7,%xmm6,%xmm6
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,73,33,247,48 ; vinsertps $0x30,%xmm7,%xmm6,%xmm6
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,60,152 ; vmovss (%rax,%rbx,4),%xmm7
- DB 196,163,65,33,60,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,65,33,219,32 ; vinsertps $0x20,%xmm3,%xmm7,%xmm3
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,97,33,223,48 ; vinsertps $0x30,%xmm7,%xmm3,%xmm3
- DB 196,227,101,24,254,1 ; vinsertf128 $0x1,%xmm6,%ymm3,%ymm7
- DB 196,193,121,254,194 ; vpaddd %xmm10,%xmm0,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 196,193,113,254,194 ; vpaddd %xmm10,%xmm1,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,12,176 ; vmovss (%rax,%r14,4),%xmm1
- DB 196,227,121,33,193,32 ; vinsertps $0x20,%xmm1,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,12,144 ; vmovss (%rax,%r10,4),%xmm1
- DB 196,227,121,33,193,48 ; vinsertps $0x30,%xmm1,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,12,152 ; vmovss (%rax,%rbx,4),%xmm1
- DB 196,163,113,33,12,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,113,33,203,32 ; vinsertps $0x20,%xmm3,%xmm1,%xmm1
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,28,128 ; vmovss (%rax,%r8,4),%xmm3
- DB 196,227,113,33,203,48 ; vinsertps $0x30,%xmm3,%xmm1,%xmm1
- DB 196,99,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm8
- DB 197,121,111,100,36,32 ; vmovdqa 0x20(%rsp),%xmm12
- DB 197,153,254,194 ; vpaddd %xmm2,%xmm12,%xmm0
- DB 197,121,111,92,36,48 ; vmovdqa 0x30(%rsp),%xmm11
- DB 197,161,254,205 ; vpaddd %xmm5,%xmm11,%xmm1
- DB 196,194,113,64,201 ; vpmulld %xmm9,%xmm1,%xmm1
- DB 196,194,121,64,193 ; vpmulld %xmm9,%xmm0,%xmm0
- DB 196,193,121,126,193 ; vmovd %xmm0,%r9d
- DB 196,195,121,22,192,1 ; vpextrd $0x1,%xmm0,%r8d
- DB 196,195,121,22,194,2 ; vpextrd $0x2,%xmm0,%r10d
- DB 196,195,121,22,195,3 ; vpextrd $0x3,%xmm0,%r11d
- DB 196,193,121,126,207 ; vmovd %xmm1,%r15d
- DB 196,195,121,22,206,1 ; vpextrd $0x1,%xmm1,%r14d
- DB 196,195,121,22,204,2 ; vpextrd $0x2,%xmm1,%r12d
- DB 196,227,121,22,203,3 ; vpextrd $0x3,%xmm1,%ebx
- DB 196,161,122,16,20,184 ; vmovss (%rax,%r15,4),%xmm2
- DB 196,163,105,33,20,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm2,%xmm2
- DB 196,163,105,33,20,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm2,%xmm2
- DB 196,227,105,33,20,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm2,%xmm2
- DB 196,161,122,16,28,136 ; vmovss (%rax,%r9,4),%xmm3
- DB 196,163,97,33,28,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- DB 196,163,97,33,28,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- DB 196,163,97,33,28,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- DB 196,227,101,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm3,%ymm2
- DB 196,193,121,250,221 ; vpsubd %xmm13,%xmm0,%xmm3
- DB 196,195,249,22,216,1 ; vpextrq $0x1,%xmm3,%r8
- DB 196,193,249,126,217 ; vmovq %xmm3,%r9
- DB 196,193,113,250,221 ; vpsubd %xmm13,%xmm1,%xmm3
- DB 196,195,249,22,218,1 ; vpextrq $0x1,%xmm3,%r10
- DB 196,225,249,126,219 ; vmovq %xmm3,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,28,152 ; vmovss (%rax,%r11,4),%xmm3
- DB 196,227,97,33,28,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- DB 196,161,122,16,44,176 ; vmovss (%rax,%r14,4),%xmm5
- DB 196,227,97,33,221,32 ; vinsertps $0x20,%xmm5,%xmm3,%xmm3
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,44,144 ; vmovss (%rax,%r10,4),%xmm5
- DB 196,227,97,33,221,48 ; vinsertps $0x30,%xmm5,%xmm3,%xmm3
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,44,152 ; vmovss (%rax,%rbx,4),%xmm5
- DB 196,163,81,33,44,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm5,%xmm5
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,81,33,238,32 ; vinsertps $0x20,%xmm6,%xmm5,%xmm5
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,52,128 ; vmovss (%rax,%r8,4),%xmm6
- DB 196,227,81,33,238,48 ; vinsertps $0x30,%xmm6,%xmm5,%xmm5
- DB 196,227,85,24,235,1 ; vinsertf128 $0x1,%xmm3,%ymm5,%ymm5
- DB 196,193,121,254,194 ; vpaddd %xmm10,%xmm0,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 196,193,113,254,194 ; vpaddd %xmm10,%xmm1,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,12,176 ; vmovss (%rax,%r14,4),%xmm1
- DB 196,227,121,33,193,32 ; vinsertps $0x20,%xmm1,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,12,144 ; vmovss (%rax,%r10,4),%xmm1
- DB 196,227,121,33,193,48 ; vinsertps $0x30,%xmm1,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,12,152 ; vmovss (%rax,%rbx,4),%xmm1
- DB 196,163,113,33,12,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm1,%xmm1
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,113,33,203,32 ; vinsertps $0x20,%xmm3,%xmm1,%xmm1
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,28,128 ; vmovss (%rax,%r8,4),%xmm3
- DB 196,227,113,33,203,48 ; vinsertps $0x30,%xmm3,%xmm1,%xmm1
- DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- DB 196,193,108,92,206 ; vsubps %ymm14,%ymm2,%ymm1
- DB 197,252,16,148,36,0,2,0,0 ; vmovups 0x200(%rsp),%ymm2
- DB 197,236,89,201 ; vmulps %ymm1,%ymm2,%ymm1
- DB 197,12,88,241 ; vaddps %ymm1,%ymm14,%ymm14
- DB 197,212,92,207 ; vsubps %ymm7,%ymm5,%ymm1
- DB 197,236,89,201 ; vmulps %ymm1,%ymm2,%ymm1
- DB 197,196,88,201 ; vaddps %ymm1,%ymm7,%ymm1
- DB 197,252,17,140,36,32,1,0,0 ; vmovups %ymm1,0x120(%rsp)
- DB 196,193,124,92,192 ; vsubps %ymm8,%ymm0,%ymm0
- DB 197,236,89,192 ; vmulps %ymm0,%ymm2,%ymm0
- DB 197,60,88,192 ; vaddps %ymm0,%ymm8,%ymm8
- DB 197,129,254,68,36,80 ; vpaddd 0x50(%rsp),%xmm15,%xmm0
- DB 197,249,111,140,36,128,0,0,0 ; vmovdqa 0x80(%rsp),%xmm1
- DB 197,241,254,124,36,96 ; vpaddd 0x60(%rsp),%xmm1,%xmm7
- DB 197,249,254,204 ; vpaddd %xmm4,%xmm0,%xmm1
- DB 196,194,113,64,201 ; vpmulld %xmm9,%xmm1,%xmm1
- DB 197,121,111,124,36,16 ; vmovdqa 0x10(%rsp),%xmm15
- DB 196,193,65,254,215 ; vpaddd %xmm15,%xmm7,%xmm2
- DB 196,194,105,64,209 ; vpmulld %xmm9,%xmm2,%xmm2
- DB 196,193,121,126,209 ; vmovd %xmm2,%r9d
- DB 196,195,121,22,208,1 ; vpextrd $0x1,%xmm2,%r8d
- DB 196,195,121,22,210,2 ; vpextrd $0x2,%xmm2,%r10d
- DB 196,195,121,22,211,3 ; vpextrd $0x3,%xmm2,%r11d
- DB 196,193,121,126,207 ; vmovd %xmm1,%r15d
- DB 196,195,121,22,206,1 ; vpextrd $0x1,%xmm1,%r14d
- DB 196,195,121,22,204,2 ; vpextrd $0x2,%xmm1,%r12d
- DB 196,227,121,22,203,3 ; vpextrd $0x3,%xmm1,%ebx
- DB 196,161,122,16,28,184 ; vmovss (%rax,%r15,4),%xmm3
- DB 196,163,97,33,28,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm3,%xmm3
- DB 196,163,97,33,28,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm3,%xmm3
- DB 196,227,97,33,28,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm3,%xmm3
- DB 196,161,122,16,36,136 ; vmovss (%rax,%r9,4),%xmm4
- DB 196,163,89,33,36,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm4,%xmm4
- DB 196,163,89,33,36,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm4,%xmm4
- DB 196,163,89,33,36,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm4,%xmm4
- DB 196,227,93,24,227,1 ; vinsertf128 $0x1,%xmm3,%ymm4,%ymm4
- DB 197,209,118,237 ; vpcmpeqd %xmm5,%xmm5,%xmm5
- DB 197,233,250,221 ; vpsubd %xmm5,%xmm2,%xmm3
- DB 196,195,249,22,216,1 ; vpextrq $0x1,%xmm3,%r8
- DB 196,193,249,126,217 ; vmovq %xmm3,%r9
- DB 197,241,250,221 ; vpsubd %xmm5,%xmm1,%xmm3
- DB 196,195,249,22,218,1 ; vpextrq $0x1,%xmm3,%r10
- DB 196,225,249,126,219 ; vmovq %xmm3,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,28,152 ; vmovss (%rax,%r11,4),%xmm3
- DB 196,227,97,33,28,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- DB 196,161,122,16,44,176 ; vmovss (%rax,%r14,4),%xmm5
- DB 196,227,97,33,221,32 ; vinsertps $0x20,%xmm5,%xmm3,%xmm3
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,44,144 ; vmovss (%rax,%r10,4),%xmm5
- DB 196,227,97,33,221,48 ; vinsertps $0x30,%xmm5,%xmm3,%xmm3
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,44,152 ; vmovss (%rax,%rbx,4),%xmm5
- DB 196,163,81,33,44,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm5,%xmm5
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,81,33,238,32 ; vinsertps $0x20,%xmm6,%xmm5,%xmm5
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,52,128 ; vmovss (%rax,%r8,4),%xmm6
- DB 196,227,81,33,238,48 ; vinsertps $0x30,%xmm6,%xmm5,%xmm5
- DB 196,227,85,24,235,1 ; vinsertf128 $0x1,%xmm3,%ymm5,%ymm5
- DB 196,193,105,254,210 ; vpaddd %xmm10,%xmm2,%xmm2
- DB 196,195,249,22,208,1 ; vpextrq $0x1,%xmm2,%r8
- DB 196,193,249,126,209 ; vmovq %xmm2,%r9
- DB 196,193,113,254,202 ; vpaddd %xmm10,%xmm1,%xmm1
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 196,225,249,126,203 ; vmovq %xmm1,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,12,152 ; vmovss (%rax,%r11,4),%xmm1
- DB 196,227,113,33,12,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- DB 196,161,122,16,20,176 ; vmovss (%rax,%r14,4),%xmm2
- DB 196,227,113,33,202,32 ; vinsertps $0x20,%xmm2,%xmm1,%xmm1
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,20,144 ; vmovss (%rax,%r10,4),%xmm2
- DB 196,227,113,33,202,48 ; vinsertps $0x30,%xmm2,%xmm1,%xmm1
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,20,152 ; vmovss (%rax,%rbx,4),%xmm2
- DB 196,163,105,33,20,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,105,33,211,32 ; vinsertps $0x20,%xmm3,%xmm2,%xmm2
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,28,128 ; vmovss (%rax,%r8,4),%xmm3
- DB 196,227,105,33,211,48 ; vinsertps $0x30,%xmm3,%xmm2,%xmm2
- DB 196,99,109,24,233,1 ; vinsertf128 $0x1,%xmm1,%ymm2,%ymm13
- DB 197,153,254,215 ; vpaddd %xmm7,%xmm12,%xmm2
- DB 197,161,254,192 ; vpaddd %xmm0,%xmm11,%xmm0
- DB 196,65,121,111,227 ; vmovdqa %xmm11,%xmm12
- DB 196,194,121,64,201 ; vpmulld %xmm9,%xmm0,%xmm1
- DB 196,194,105,64,209 ; vpmulld %xmm9,%xmm2,%xmm2
- DB 196,193,121,126,209 ; vmovd %xmm2,%r9d
- DB 196,195,121,22,208,1 ; vpextrd $0x1,%xmm2,%r8d
- DB 196,195,121,22,210,2 ; vpextrd $0x2,%xmm2,%r10d
- DB 196,195,121,22,211,3 ; vpextrd $0x3,%xmm2,%r11d
- DB 196,193,121,126,207 ; vmovd %xmm1,%r15d
- DB 196,195,121,22,206,1 ; vpextrd $0x1,%xmm1,%r14d
- DB 196,195,121,22,204,2 ; vpextrd $0x2,%xmm1,%r12d
- DB 196,227,121,22,203,3 ; vpextrd $0x3,%xmm1,%ebx
- DB 196,161,122,16,4,184 ; vmovss (%rax,%r15,4),%xmm0
- DB 196,163,121,33,4,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- DB 196,163,121,33,4,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- DB 196,227,121,33,4,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,28,136 ; vmovss (%rax,%r9,4),%xmm3
- DB 196,163,97,33,28,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- DB 196,163,97,33,28,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- DB 196,163,97,33,28,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- DB 196,227,101,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm3,%ymm0
- DB 197,201,118,246 ; vpcmpeqd %xmm6,%xmm6,%xmm6
- DB 197,233,250,222 ; vpsubd %xmm6,%xmm2,%xmm3
- DB 196,195,249,22,216,1 ; vpextrq $0x1,%xmm3,%r8
- DB 196,193,249,126,217 ; vmovq %xmm3,%r9
- DB 197,241,250,222 ; vpsubd %xmm6,%xmm1,%xmm3
- DB 196,195,249,22,218,1 ; vpextrq $0x1,%xmm3,%r10
- DB 196,225,249,126,219 ; vmovq %xmm3,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,28,152 ; vmovss (%rax,%r11,4),%xmm3
- DB 196,227,97,33,28,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- DB 196,161,122,16,52,176 ; vmovss (%rax,%r14,4),%xmm6
- DB 196,227,97,33,222,32 ; vinsertps $0x20,%xmm6,%xmm3,%xmm3
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,97,33,222,48 ; vinsertps $0x30,%xmm6,%xmm3,%xmm3
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,52,152 ; vmovss (%rax,%rbx,4),%xmm6
- DB 196,163,73,33,52,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,73,33,247,32 ; vinsertps $0x20,%xmm7,%xmm6,%xmm6
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,73,33,247,48 ; vinsertps $0x30,%xmm7,%xmm6,%xmm6
- DB 196,227,77,24,243,1 ; vinsertf128 $0x1,%xmm3,%ymm6,%ymm6
- DB 196,193,105,254,210 ; vpaddd %xmm10,%xmm2,%xmm2
- DB 196,195,249,22,208,1 ; vpextrq $0x1,%xmm2,%r8
- DB 196,193,249,126,209 ; vmovq %xmm2,%r9
- DB 196,193,113,254,202 ; vpaddd %xmm10,%xmm1,%xmm1
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 196,225,249,126,203 ; vmovq %xmm1,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,12,152 ; vmovss (%rax,%r11,4),%xmm1
- DB 196,227,113,33,12,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- DB 196,161,122,16,20,176 ; vmovss (%rax,%r14,4),%xmm2
- DB 196,227,113,33,202,32 ; vinsertps $0x20,%xmm2,%xmm1,%xmm1
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,20,144 ; vmovss (%rax,%r10,4),%xmm2
- DB 196,227,113,33,202,48 ; vinsertps $0x30,%xmm2,%xmm1,%xmm1
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,20,152 ; vmovss (%rax,%rbx,4),%xmm2
- DB 196,163,105,33,20,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,105,33,211,32 ; vinsertps $0x20,%xmm3,%xmm2,%xmm2
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,28,128 ; vmovss (%rax,%r8,4),%xmm3
- DB 196,227,105,33,211,48 ; vinsertps $0x30,%xmm3,%xmm2,%xmm2
- DB 196,227,109,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm2,%ymm1
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 197,252,16,156,36,0,2,0,0 ; vmovups 0x200(%rsp),%ymm3
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,220,88,192 ; vaddps %ymm0,%ymm4,%ymm0
- DB 197,204,92,213 ; vsubps %ymm5,%ymm6,%ymm2
- DB 197,228,89,210 ; vmulps %ymm2,%ymm3,%ymm2
- DB 197,212,88,210 ; vaddps %ymm2,%ymm5,%ymm2
- DB 196,193,116,92,205 ; vsubps %ymm13,%ymm1,%ymm1
- DB 197,228,89,201 ; vmulps %ymm1,%ymm3,%ymm1
- DB 197,148,88,201 ; vaddps %ymm1,%ymm13,%ymm1
- DB 196,193,124,92,198 ; vsubps %ymm14,%ymm0,%ymm0
- DB 197,252,16,156,36,64,1,0,0 ; vmovups 0x140(%rsp),%ymm3
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,140,88,192 ; vaddps %ymm0,%ymm14,%ymm0
- DB 197,252,17,132,36,128,0,0,0 ; vmovups %ymm0,0x80(%rsp)
- DB 197,252,16,164,36,32,1,0,0 ; vmovups 0x120(%rsp),%ymm4
- DB 197,236,92,196 ; vsubps %ymm4,%ymm2,%ymm0
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,220,88,192 ; vaddps %ymm0,%ymm4,%ymm0
- DB 197,252,17,132,36,32,1,0,0 ; vmovups %ymm0,0x120(%rsp)
- DB 196,193,116,92,192 ; vsubps %ymm8,%ymm1,%ymm0
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,188,88,192 ; vaddps %ymm0,%ymm8,%ymm0
- DB 197,252,17,132,36,224,1,0,0 ; vmovups %ymm0,0x1e0(%rsp)
- DB 197,254,111,132,36,192,0,0,0 ; vmovdqu 0xc0(%rsp),%ymm0
- DB 197,121,254,116,36,64 ; vpaddd 0x40(%rsp),%xmm0,%xmm14
- DB 197,249,111,132,36,160,0,0,0 ; vmovdqa 0xa0(%rsp),%xmm0
- DB 197,121,254,172,36,160,1,0,0 ; vpaddd 0x1a0(%rsp),%xmm0,%xmm13
- DB 197,145,254,188,36,96,1,0,0 ; vpaddd 0x160(%rsp),%xmm13,%xmm7
- DB 197,137,254,108,36,112 ; vpaddd 0x70(%rsp),%xmm14,%xmm5
- DB 197,193,254,12,36 ; vpaddd (%rsp),%xmm7,%xmm1
- DB 196,194,113,64,209 ; vpmulld %xmm9,%xmm1,%xmm2
- DB 196,193,81,254,207 ; vpaddd %xmm15,%xmm5,%xmm1
- DB 196,194,113,64,225 ; vpmulld %xmm9,%xmm1,%xmm4
- DB 196,193,121,126,225 ; vmovd %xmm4,%r9d
- DB 196,195,121,22,224,1 ; vpextrd $0x1,%xmm4,%r8d
- DB 196,195,121,22,226,2 ; vpextrd $0x2,%xmm4,%r10d
- DB 196,195,121,22,227,3 ; vpextrd $0x3,%xmm4,%r11d
- DB 196,193,121,126,215 ; vmovd %xmm2,%r15d
- DB 196,195,121,22,214,1 ; vpextrd $0x1,%xmm2,%r14d
- DB 196,195,121,22,212,2 ; vpextrd $0x2,%xmm2,%r12d
- DB 196,227,121,22,211,3 ; vpextrd $0x3,%xmm2,%ebx
- DB 196,161,122,16,12,184 ; vmovss (%rax,%r15,4),%xmm1
- DB 196,163,113,33,12,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm1,%xmm1
- DB 196,163,113,33,12,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm1,%xmm1
- DB 196,227,113,33,12,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm1,%xmm1
- DB 196,161,122,16,28,136 ; vmovss (%rax,%r9,4),%xmm3
- DB 196,163,97,33,28,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- DB 196,163,97,33,28,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- DB 196,163,97,33,28,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- DB 196,227,101,24,217,1 ; vinsertf128 $0x1,%xmm1,%ymm3,%ymm3
- DB 197,249,118,192 ; vpcmpeqd %xmm0,%xmm0,%xmm0
- DB 197,217,250,200 ; vpsubd %xmm0,%xmm4,%xmm1
- DB 196,195,249,22,200,1 ; vpextrq $0x1,%xmm1,%r8
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 197,233,250,200 ; vpsubd %xmm0,%xmm2,%xmm1
- DB 196,65,1,118,255 ; vpcmpeqd %xmm15,%xmm15,%xmm15
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 196,225,249,126,203 ; vmovq %xmm1,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,12,152 ; vmovss (%rax,%r11,4),%xmm1
- DB 196,227,113,33,12,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm1,%xmm1
- DB 196,161,122,16,52,176 ; vmovss (%rax,%r14,4),%xmm6
- DB 196,227,113,33,206,32 ; vinsertps $0x20,%xmm6,%xmm1,%xmm1
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,113,33,206,48 ; vinsertps $0x30,%xmm6,%xmm1,%xmm1
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,52,152 ; vmovss (%rax,%rbx,4),%xmm6
- DB 196,163,73,33,52,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- DB 196,161,122,16,4,144 ; vmovss (%rax,%r10,4),%xmm0
- DB 196,227,73,33,192,32 ; vinsertps $0x20,%xmm0,%xmm6,%xmm0
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,52,128 ; vmovss (%rax,%r8,4),%xmm6
- DB 196,227,121,33,198,48 ; vinsertps $0x30,%xmm6,%xmm0,%xmm0
- DB 196,227,125,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm0,%ymm1
- DB 196,193,89,254,194 ; vpaddd %xmm10,%xmm4,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 196,193,105,254,194 ; vpaddd %xmm10,%xmm2,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,20,176 ; vmovss (%rax,%r14,4),%xmm2
- DB 196,227,121,33,194,32 ; vinsertps $0x20,%xmm2,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,20,144 ; vmovss (%rax,%r10,4),%xmm2
- DB 196,227,121,33,194,48 ; vinsertps $0x30,%xmm2,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,20,152 ; vmovss (%rax,%rbx,4),%xmm2
- DB 196,163,105,33,20,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm2,%xmm2
- DB 196,161,122,16,36,144 ; vmovss (%rax,%r10,4),%xmm4
- DB 196,227,105,33,212,32 ; vinsertps $0x20,%xmm4,%xmm2,%xmm2
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,36,128 ; vmovss (%rax,%r8,4),%xmm4
- DB 196,227,105,33,212,48 ; vinsertps $0x30,%xmm4,%xmm2,%xmm2
- DB 196,99,109,24,216,1 ; vinsertf128 $0x1,%xmm0,%ymm2,%ymm11
- DB 197,121,111,68,36,32 ; vmovdqa 0x20(%rsp),%xmm8
- DB 197,185,254,197 ; vpaddd %xmm5,%xmm8,%xmm0
- DB 197,153,254,215 ; vpaddd %xmm7,%xmm12,%xmm2
- DB 196,194,105,64,233 ; vpmulld %xmm9,%xmm2,%xmm5
- DB 196,194,121,64,225 ; vpmulld %xmm9,%xmm0,%xmm4
- DB 196,193,121,126,225 ; vmovd %xmm4,%r9d
- DB 196,195,121,22,224,1 ; vpextrd $0x1,%xmm4,%r8d
- DB 196,195,121,22,226,2 ; vpextrd $0x2,%xmm4,%r10d
- DB 196,195,121,22,227,3 ; vpextrd $0x3,%xmm4,%r11d
- DB 196,193,121,126,239 ; vmovd %xmm5,%r15d
- DB 196,195,121,22,238,1 ; vpextrd $0x1,%xmm5,%r14d
- DB 196,195,121,22,236,2 ; vpextrd $0x2,%xmm5,%r12d
- DB 196,227,121,22,235,3 ; vpextrd $0x3,%xmm5,%ebx
- DB 196,161,122,16,4,184 ; vmovss (%rax,%r15,4),%xmm0
- DB 196,163,121,33,4,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- DB 196,163,121,33,4,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- DB 196,227,121,33,4,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,20,136 ; vmovss (%rax,%r9,4),%xmm2
- DB 196,163,105,33,20,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm2,%xmm2
- DB 196,163,105,33,20,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm2,%xmm2
- DB 196,163,105,33,20,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm2,%xmm2
- DB 196,227,109,24,208,1 ; vinsertf128 $0x1,%xmm0,%ymm2,%ymm2
- DB 196,193,89,250,199 ; vpsubd %xmm15,%xmm4,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 196,193,81,250,199 ; vpsubd %xmm15,%xmm5,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,52,176 ; vmovss (%rax,%r14,4),%xmm6
- DB 196,227,121,33,198,32 ; vinsertps $0x20,%xmm6,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,121,33,198,48 ; vinsertps $0x30,%xmm6,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,52,152 ; vmovss (%rax,%rbx,4),%xmm6
- DB 196,163,73,33,52,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm6,%xmm6
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,73,33,247,32 ; vinsertps $0x20,%xmm7,%xmm6,%xmm6
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,73,33,247,48 ; vinsertps $0x30,%xmm7,%xmm6,%xmm6
- DB 196,227,77,24,240,1 ; vinsertf128 $0x1,%xmm0,%ymm6,%ymm6
- DB 196,193,89,254,194 ; vpaddd %xmm10,%xmm4,%xmm0
- DB 196,195,249,22,192,1 ; vpextrq $0x1,%xmm0,%r8
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 196,193,81,254,194 ; vpaddd %xmm10,%xmm5,%xmm0
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 196,225,249,126,195 ; vmovq %xmm0,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,4,152 ; vmovss (%rax,%r11,4),%xmm0
- DB 196,227,121,33,4,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,36,176 ; vmovss (%rax,%r14,4),%xmm4
- DB 196,227,121,33,196,32 ; vinsertps $0x20,%xmm4,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,36,144 ; vmovss (%rax,%r10,4),%xmm4
- DB 196,227,121,33,196,48 ; vinsertps $0x30,%xmm4,%xmm0,%xmm0
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,36,152 ; vmovss (%rax,%rbx,4),%xmm4
- DB 196,163,89,33,36,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm4,%xmm4
- DB 196,161,122,16,44,144 ; vmovss (%rax,%r10,4),%xmm5
- DB 196,227,89,33,229,32 ; vinsertps $0x20,%xmm5,%xmm4,%xmm4
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,44,128 ; vmovss (%rax,%r8,4),%xmm5
- DB 196,227,89,33,229,48 ; vinsertps $0x30,%xmm5,%xmm4,%xmm4
- DB 196,227,93,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm4,%ymm0
- DB 197,236,92,211 ; vsubps %ymm3,%ymm2,%ymm2
- DB 197,252,16,164,36,0,2,0,0 ; vmovups 0x200(%rsp),%ymm4
- DB 197,220,89,210 ; vmulps %ymm2,%ymm4,%ymm2
- DB 197,228,88,210 ; vaddps %ymm2,%ymm3,%ymm2
- DB 197,252,17,148,36,96,1,0,0 ; vmovups %ymm2,0x160(%rsp)
- DB 197,204,92,209 ; vsubps %ymm1,%ymm6,%ymm2
- DB 197,220,89,210 ; vmulps %ymm2,%ymm4,%ymm2
- DB 197,116,88,250 ; vaddps %ymm2,%ymm1,%ymm15
- DB 196,193,124,92,195 ; vsubps %ymm11,%ymm0,%ymm0
- DB 197,220,89,192 ; vmulps %ymm0,%ymm4,%ymm0
- DB 197,124,40,228 ; vmovaps %ymm4,%ymm12
- DB 197,36,88,216 ; vaddps %ymm0,%ymm11,%ymm11
- DB 197,145,254,124,36,80 ; vpaddd 0x50(%rsp),%xmm13,%xmm7
- DB 197,137,254,68,36,96 ; vpaddd 0x60(%rsp),%xmm14,%xmm0
- DB 197,249,254,76,36,16 ; vpaddd 0x10(%rsp),%xmm0,%xmm1
- DB 197,193,254,20,36 ; vpaddd (%rsp),%xmm7,%xmm2
- DB 196,66,105,64,241 ; vpmulld %xmm9,%xmm2,%xmm14
- DB 196,194,113,64,209 ; vpmulld %xmm9,%xmm1,%xmm2
- DB 196,193,121,126,209 ; vmovd %xmm2,%r9d
- DB 196,195,121,22,208,1 ; vpextrd $0x1,%xmm2,%r8d
- DB 196,195,121,22,210,2 ; vpextrd $0x2,%xmm2,%r10d
- DB 196,195,121,22,211,3 ; vpextrd $0x3,%xmm2,%r11d
- DB 196,65,121,126,247 ; vmovd %xmm14,%r15d
- DB 196,67,121,22,246,1 ; vpextrd $0x1,%xmm14,%r14d
- DB 196,67,121,22,244,2 ; vpextrd $0x2,%xmm14,%r12d
- DB 196,99,121,22,243,3 ; vpextrd $0x3,%xmm14,%ebx
- DB 196,161,122,16,12,184 ; vmovss (%rax,%r15,4),%xmm1
- DB 196,163,113,33,12,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm1,%xmm1
- DB 196,163,113,33,12,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm1,%xmm1
- DB 196,227,113,33,12,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm1,%xmm1
- DB 196,161,122,16,28,136 ; vmovss (%rax,%r9,4),%xmm3
- DB 196,163,97,33,28,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm3,%xmm3
- DB 196,163,97,33,28,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm3,%xmm3
- DB 196,163,97,33,28,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm3,%xmm3
- DB 196,227,101,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm3,%ymm1
- DB 197,217,118,228 ; vpcmpeqd %xmm4,%xmm4,%xmm4
- DB 197,233,250,220 ; vpsubd %xmm4,%xmm2,%xmm3
- DB 196,195,249,22,216,1 ; vpextrq $0x1,%xmm3,%r8
- DB 196,193,249,126,217 ; vmovq %xmm3,%r9
- DB 197,137,250,220 ; vpsubd %xmm4,%xmm14,%xmm3
- DB 197,201,118,246 ; vpcmpeqd %xmm6,%xmm6,%xmm6
- DB 196,195,249,22,218,1 ; vpextrq $0x1,%xmm3,%r10
- DB 196,225,249,126,219 ; vmovq %xmm3,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,28,152 ; vmovss (%rax,%r11,4),%xmm3
- DB 196,227,97,33,28,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm3,%xmm3
- DB 196,161,122,16,44,176 ; vmovss (%rax,%r14,4),%xmm5
- DB 196,227,97,33,221,32 ; vinsertps $0x20,%xmm5,%xmm3,%xmm3
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,44,144 ; vmovss (%rax,%r10,4),%xmm5
- DB 196,227,97,33,221,48 ; vinsertps $0x30,%xmm5,%xmm3,%xmm3
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,44,152 ; vmovss (%rax,%rbx,4),%xmm5
- DB 196,163,81,33,44,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm5,%xmm5
- DB 196,161,122,16,36,144 ; vmovss (%rax,%r10,4),%xmm4
- DB 196,227,81,33,228,32 ; vinsertps $0x20,%xmm4,%xmm5,%xmm4
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,44,128 ; vmovss (%rax,%r8,4),%xmm5
- DB 196,227,89,33,229,48 ; vinsertps $0x30,%xmm5,%xmm4,%xmm4
- DB 196,227,93,24,235,1 ; vinsertf128 $0x1,%xmm3,%ymm4,%ymm5
- DB 196,193,105,254,210 ; vpaddd %xmm10,%xmm2,%xmm2
- DB 196,195,249,22,208,1 ; vpextrq $0x1,%xmm2,%r8
- DB 196,193,249,126,209 ; vmovq %xmm2,%r9
- DB 196,193,9,254,210 ; vpaddd %xmm10,%xmm14,%xmm2
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 196,225,249,126,211 ; vmovq %xmm2,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,20,152 ; vmovss (%rax,%r11,4),%xmm2
- DB 196,227,105,33,20,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- DB 196,161,122,16,28,176 ; vmovss (%rax,%r14,4),%xmm3
- DB 196,227,105,33,211,32 ; vinsertps $0x20,%xmm3,%xmm2,%xmm2
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,105,33,211,48 ; vinsertps $0x30,%xmm3,%xmm2,%xmm2
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,28,152 ; vmovss (%rax,%rbx,4),%xmm3
- DB 196,163,97,33,28,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- DB 196,161,122,16,36,144 ; vmovss (%rax,%r10,4),%xmm4
- DB 196,227,97,33,220,32 ; vinsertps $0x20,%xmm4,%xmm3,%xmm3
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,36,128 ; vmovss (%rax,%r8,4),%xmm4
- DB 196,227,97,33,220,48 ; vinsertps $0x30,%xmm4,%xmm3,%xmm3
- DB 196,99,101,24,242,1 ; vinsertf128 $0x1,%xmm2,%ymm3,%ymm14
- DB 197,185,254,192 ; vpaddd %xmm0,%xmm8,%xmm0
- DB 197,193,254,84,36,48 ; vpaddd 0x30(%rsp),%xmm7,%xmm2
- DB 196,194,105,64,209 ; vpmulld %xmm9,%xmm2,%xmm2
- DB 196,194,121,64,217 ; vpmulld %xmm9,%xmm0,%xmm3
- DB 196,193,121,126,217 ; vmovd %xmm3,%r9d
- DB 196,195,121,22,216,1 ; vpextrd $0x1,%xmm3,%r8d
- DB 196,195,121,22,218,2 ; vpextrd $0x2,%xmm3,%r10d
- DB 196,195,121,22,219,3 ; vpextrd $0x3,%xmm3,%r11d
- DB 196,193,121,126,215 ; vmovd %xmm2,%r15d
- DB 196,195,121,22,214,1 ; vpextrd $0x1,%xmm2,%r14d
- DB 196,195,121,22,212,2 ; vpextrd $0x2,%xmm2,%r12d
- DB 196,227,121,22,211,3 ; vpextrd $0x3,%xmm2,%ebx
- DB 196,161,122,16,4,184 ; vmovss (%rax,%r15,4),%xmm0
- DB 196,163,121,33,4,176,16 ; vinsertps $0x10,(%rax,%r14,4),%xmm0,%xmm0
- DB 196,163,121,33,4,160,32 ; vinsertps $0x20,(%rax,%r12,4),%xmm0,%xmm0
- DB 196,227,121,33,4,152,48 ; vinsertps $0x30,(%rax,%rbx,4),%xmm0,%xmm0
- DB 196,161,122,16,36,136 ; vmovss (%rax,%r9,4),%xmm4
- DB 196,163,89,33,36,128,16 ; vinsertps $0x10,(%rax,%r8,4),%xmm4,%xmm4
- DB 196,163,89,33,36,144,32 ; vinsertps $0x20,(%rax,%r10,4),%xmm4,%xmm4
- DB 196,163,89,33,36,152,48 ; vinsertps $0x30,(%rax,%r11,4),%xmm4,%xmm4
- DB 196,227,93,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm4,%ymm0
- DB 197,225,250,230 ; vpsubd %xmm6,%xmm3,%xmm4
- DB 196,195,249,22,224,1 ; vpextrq $0x1,%xmm4,%r8
- DB 196,193,249,126,225 ; vmovq %xmm4,%r9
- DB 197,233,250,230 ; vpsubd %xmm6,%xmm2,%xmm4
- DB 196,195,249,22,226,1 ; vpextrq $0x1,%xmm4,%r10
- DB 196,225,249,126,227 ; vmovq %xmm4,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,36,152 ; vmovss (%rax,%r11,4),%xmm4
- DB 196,227,89,33,36,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm4,%xmm4
- DB 196,161,122,16,60,176 ; vmovss (%rax,%r14,4),%xmm7
- DB 196,227,89,33,231,32 ; vinsertps $0x20,%xmm7,%xmm4,%xmm4
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,60,144 ; vmovss (%rax,%r10,4),%xmm7
- DB 196,227,89,33,231,48 ; vinsertps $0x30,%xmm7,%xmm4,%xmm4
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,60,152 ; vmovss (%rax,%rbx,4),%xmm7
- DB 196,163,65,33,60,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm7,%xmm7
- DB 196,161,122,16,52,144 ; vmovss (%rax,%r10,4),%xmm6
- DB 196,227,65,33,246,32 ; vinsertps $0x20,%xmm6,%xmm7,%xmm6
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,60,128 ; vmovss (%rax,%r8,4),%xmm7
- DB 196,227,73,33,247,48 ; vinsertps $0x30,%xmm7,%xmm6,%xmm6
- DB 196,227,77,24,252,1 ; vinsertf128 $0x1,%xmm4,%ymm6,%ymm7
- DB 196,193,97,254,218 ; vpaddd %xmm10,%xmm3,%xmm3
- DB 196,195,249,22,216,1 ; vpextrq $0x1,%xmm3,%r8
- DB 196,193,249,126,217 ; vmovq %xmm3,%r9
- DB 196,193,105,254,210 ; vpaddd %xmm10,%xmm2,%xmm2
- DB 196,195,249,22,210,1 ; vpextrq $0x1,%xmm2,%r10
- DB 196,225,249,126,211 ; vmovq %xmm2,%rbx
- DB 65,137,219 ; mov %ebx,%r11d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,214 ; mov %r10d,%r14d
- DB 196,161,122,16,20,152 ; vmovss (%rax,%r11,4),%xmm2
- DB 196,227,105,33,20,152,16 ; vinsertps $0x10,(%rax,%rbx,4),%xmm2,%xmm2
- DB 196,161,122,16,28,176 ; vmovss (%rax,%r14,4),%xmm3
- DB 196,227,105,33,211,32 ; vinsertps $0x20,%xmm3,%xmm2,%xmm2
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,161,122,16,28,144 ; vmovss (%rax,%r10,4),%xmm3
- DB 196,227,105,33,211,48 ; vinsertps $0x30,%xmm3,%xmm2,%xmm2
- DB 68,137,203 ; mov %r9d,%ebx
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,194 ; mov %r8d,%r10d
- DB 197,250,16,28,152 ; vmovss (%rax,%rbx,4),%xmm3
- DB 196,163,97,33,28,136,16 ; vinsertps $0x10,(%rax,%r9,4),%xmm3,%xmm3
- DB 196,161,122,16,36,144 ; vmovss (%rax,%r10,4),%xmm4
- DB 196,227,97,33,220,32 ; vinsertps $0x20,%xmm4,%xmm3,%xmm3
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 196,161,122,16,36,128 ; vmovss (%rax,%r8,4),%xmm4
- DB 196,227,97,33,220,48 ; vinsertps $0x30,%xmm4,%xmm3,%xmm3
- DB 196,227,101,24,210,1 ; vinsertf128 $0x1,%xmm2,%ymm3,%ymm2
- DB 197,252,92,193 ; vsubps %ymm1,%ymm0,%ymm0
- DB 197,156,89,192 ; vmulps %ymm0,%ymm12,%ymm0
- DB 197,244,88,192 ; vaddps %ymm0,%ymm1,%ymm0
- DB 197,196,92,205 ; vsubps %ymm5,%ymm7,%ymm1
- DB 197,156,89,201 ; vmulps %ymm1,%ymm12,%ymm1
- DB 197,212,88,201 ; vaddps %ymm1,%ymm5,%ymm1
- DB 196,193,108,92,214 ; vsubps %ymm14,%ymm2,%ymm2
- DB 197,156,89,210 ; vmulps %ymm2,%ymm12,%ymm2
- DB 197,140,88,210 ; vaddps %ymm2,%ymm14,%ymm2
- DB 197,252,16,164,36,96,1,0,0 ; vmovups 0x160(%rsp),%ymm4
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 197,252,16,156,36,64,1,0,0 ; vmovups 0x140(%rsp),%ymm3
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,220,88,192 ; vaddps %ymm0,%ymm4,%ymm0
- DB 196,193,116,92,207 ; vsubps %ymm15,%ymm1,%ymm1
- DB 197,228,89,201 ; vmulps %ymm1,%ymm3,%ymm1
- DB 197,132,88,201 ; vaddps %ymm1,%ymm15,%ymm1
- DB 196,193,108,92,211 ; vsubps %ymm11,%ymm2,%ymm2
- DB 197,228,89,210 ; vmulps %ymm2,%ymm3,%ymm2
- DB 197,164,88,210 ; vaddps %ymm2,%ymm11,%ymm2
- DB 197,252,16,164,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm4
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 197,252,16,156,36,224,0,0,0 ; vmovups 0xe0(%rsp),%ymm3
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,220,88,192 ; vaddps %ymm0,%ymm4,%ymm0
- DB 197,252,16,164,36,32,1,0,0 ; vmovups 0x120(%rsp),%ymm4
- DB 197,244,92,204 ; vsubps %ymm4,%ymm1,%ymm1
- DB 197,228,89,201 ; vmulps %ymm1,%ymm3,%ymm1
- DB 197,220,88,201 ; vaddps %ymm1,%ymm4,%ymm1
- DB 197,252,16,164,36,224,1,0,0 ; vmovups 0x1e0(%rsp),%ymm4
- DB 197,236,92,212 ; vsubps %ymm4,%ymm2,%ymm2
- DB 197,228,89,210 ; vmulps %ymm2,%ymm3,%ymm2
- DB 197,220,88,210 ; vaddps %ymm2,%ymm4,%ymm2
- DB 197,252,91,156,36,64,2,0,0 ; vcvtdq2ps 0x240(%rsp),%ymm3
- DB 197,252,16,164,36,96,2,0,0 ; vmovups 0x260(%rsp),%ymm4
- DB 197,220,92,219 ; vsubps %ymm3,%ymm4,%ymm3
- DB 197,252,16,164,36,128,1,0,0 ; vmovups 0x180(%rsp),%ymm4
- DB 197,252,92,196 ; vsubps %ymm4,%ymm0,%ymm0
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 197,220,88,192 ; vaddps %ymm0,%ymm4,%ymm0
- DB 197,252,16,164,36,192,1,0,0 ; vmovups 0x1c0(%rsp),%ymm4
- DB 197,244,92,204 ; vsubps %ymm4,%ymm1,%ymm1
- DB 197,228,89,201 ; vmulps %ymm1,%ymm3,%ymm1
- DB 197,220,88,201 ; vaddps %ymm1,%ymm4,%ymm1
- DB 197,252,16,164,36,0,1,0,0 ; vmovups 0x100(%rsp),%ymm4
- DB 197,236,92,212 ; vsubps %ymm4,%ymm2,%ymm2
- DB 197,228,89,210 ; vmulps %ymm2,%ymm3,%ymm2
- DB 197,220,88,210 ; vaddps %ymm2,%ymm4,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,160,1,2,0 ; vbroadcastss 0x201a0(%rip),%ymm3 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,16,164,36,192,2,0,0 ; vmovups 0x2c0(%rsp),%ymm4
- DB 197,252,16,172,36,224,2,0,0 ; vmovups 0x2e0(%rsp),%ymm5
- DB 197,252,16,180,36,0,3,0,0 ; vmovups 0x300(%rsp),%ymm6
- DB 197,252,16,188,36,32,3,0,0 ; vmovups 0x320(%rsp),%ymm7
- DB 72,129,196,88,3,0,0 ; add $0x358,%rsp
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gauss_a_to_rgba_avx
-_sk_gauss_a_to_rgba_avx LABEL PROC
- DB 196,226,125,24,5,219,2,2,0 ; vbroadcastss 0x202db(%rip),%ymm0 # 34c40 <_sk_srcover_bgra_8888_sse2_lowp+0x428>
- DB 197,228,89,192 ; vmulps %ymm0,%ymm3,%ymm0
- DB 196,226,125,24,13,202,2,2,0 ; vbroadcastss 0x202ca(%rip),%ymm1 # 34c3c <_sk_srcover_bgra_8888_sse2_lowp+0x424>
- DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
- DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 196,226,125,24,13,193,2,2,0 ; vbroadcastss 0x202c1(%rip),%ymm1 # 34c44 <_sk_srcover_bgra_8888_sse2_lowp+0x42c>
- DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
- DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 196,226,125,24,13,180,2,2,0 ; vbroadcastss 0x202b4(%rip),%ymm1 # 34c48 <_sk_srcover_bgra_8888_sse2_lowp+0x430>
- DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
- DB 197,252,89,195 ; vmulps %ymm3,%ymm0,%ymm0
- DB 196,226,125,24,13,167,2,2,0 ; vbroadcastss 0x202a7(%rip),%ymm1 # 34c4c <_sk_srcover_bgra_8888_sse2_lowp+0x434>
- DB 197,252,88,193 ; vaddps %ymm1,%ymm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 197,252,40,208 ; vmovaps %ymm0,%ymm2
- DB 197,252,40,216 ; vmovaps %ymm0,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilerp_clamp_8888_avx
-_sk_bilerp_clamp_8888_avx LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,129,236,248,1,0,0 ; sub $0x1f8,%rsp
- DB 197,254,127,188,36,160,0,0,0 ; vmovdqu %ymm7,0xa0(%rsp)
- DB 197,252,17,180,36,128,0,0,0 ; vmovups %ymm6,0x80(%rsp)
- DB 197,252,17,108,36,96 ; vmovups %ymm5,0x60(%rsp)
- DB 197,252,17,100,36,64 ; vmovups %ymm4,0x40(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,29,212,0,2,0 ; vbroadcastss 0x200d4(%rip),%ymm3 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,252,17,132,36,192,1,0,0 ; vmovups %ymm0,0x1c0(%rsp)
- DB 197,252,88,195 ; vaddps %ymm3,%ymm0,%ymm0
- DB 196,227,125,8,208,1 ; vroundps $0x1,%ymm0,%ymm2
- DB 197,252,92,194 ; vsubps %ymm2,%ymm0,%ymm0
- DB 197,252,17,140,36,64,1,0,0 ; vmovups %ymm1,0x140(%rsp)
- DB 197,244,88,203 ; vaddps %ymm3,%ymm1,%ymm1
- DB 196,227,125,8,209,1 ; vroundps $0x1,%ymm1,%ymm2
- DB 197,244,92,210 ; vsubps %ymm2,%ymm1,%ymm2
- DB 196,226,125,24,13,161,0,2,0 ; vbroadcastss 0x200a1(%rip),%ymm1 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,252,17,132,36,160,1,0,0 ; vmovups %ymm0,0x1a0(%rsp)
- DB 197,244,92,192 ; vsubps %ymm0,%ymm1,%ymm0
- DB 197,252,17,132,36,96,1,0,0 ; vmovups %ymm0,0x160(%rsp)
- DB 197,252,17,148,36,32,1,0,0 ; vmovups %ymm2,0x120(%rsp)
- DB 197,244,92,194 ; vsubps %ymm2,%ymm1,%ymm0
- DB 197,252,17,132,36,192,0,0,0 ; vmovups %ymm0,0xc0(%rsp)
- DB 196,226,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm1
- DB 196,227,125,25,202,1 ; vextractf128 $0x1,%ymm1,%xmm2
- DB 197,225,118,219 ; vpcmpeqd %xmm3,%xmm3,%xmm3
- DB 197,233,254,211 ; vpaddd %xmm3,%xmm2,%xmm2
- DB 197,241,254,203 ; vpaddd %xmm3,%xmm1,%xmm1
- DB 196,227,117,24,194,1 ; vinsertf128 $0x1,%xmm2,%ymm1,%ymm0
- DB 197,252,17,132,36,128,1,0,0 ; vmovups %ymm0,0x180(%rsp)
- DB 196,226,125,24,72,16 ; vbroadcastss 0x10(%rax),%ymm1
- DB 196,227,125,25,202,1 ; vextractf128 $0x1,%ymm1,%xmm2
- DB 197,233,254,211 ; vpaddd %xmm3,%xmm2,%xmm2
- DB 197,241,254,203 ; vpaddd %xmm3,%xmm1,%xmm1
- DB 196,227,117,24,194,1 ; vinsertf128 $0x1,%xmm2,%ymm1,%ymm0
- DB 197,252,17,132,36,0,1,0,0 ; vmovups %ymm0,0x100(%rsp)
- DB 76,139,0 ; mov (%rax),%r8
- DB 196,226,125,24,64,8 ; vbroadcastss 0x8(%rax),%ymm0
- DB 197,252,17,132,36,224,0,0,0 ; vmovups %ymm0,0xe0(%rsp)
- DB 197,250,16,5,101,1,2,0 ; vmovss 0x20165(%rip),%xmm0 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 197,124,40,53,225,6,2,0 ; vmovaps 0x206e1(%rip),%ymm14 # 351a0 <_sk_srcover_bgra_8888_sse2_lowp+0x988>
- DB 196,98,125,24,45,120,0,2,0 ; vbroadcastss 0x20078(%rip),%ymm13 # 34b40 <_sk_srcover_bgra_8888_sse2_lowp+0x328>
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,248,40,224 ; vmovaps %xmm0,%xmm4
- DB 196,227,121,4,204,0 ; vpermilps $0x0,%xmm4,%xmm1
- DB 196,227,117,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- DB 197,244,88,140,36,64,1,0,0 ; vaddps 0x140(%rsp),%ymm1,%ymm1
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,252,95,201 ; vmaxps %ymm1,%ymm0,%ymm1
- DB 197,248,41,100,36,16 ; vmovaps %xmm4,0x10(%rsp)
- DB 197,248,46,37,71,1,2,0 ; vucomiss 0x20147(%rip),%xmm4 # 34c50 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- DB 197,252,16,132,36,32,1,0,0 ; vmovups 0x120(%rsp),%ymm0
- DB 197,252,17,68,36,32 ; vmovups %ymm0,0x20(%rsp)
- DB 119,15 ; ja 14b29 <_sk_bilerp_clamp_8888_avx+0x170>
- DB 197,252,16,132,36,192,0,0,0 ; vmovups 0xc0(%rsp),%ymm0
- DB 197,252,17,68,36,32 ; vmovups %ymm0,0x20(%rsp)
- DB 197,244,93,140,36,0,1,0,0 ; vminps 0x100(%rsp),%ymm1,%ymm1
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,227,125,25,205,1 ; vextractf128 $0x1,%ymm1,%xmm5
- DB 197,254,111,132,36,224,0,0,0 ; vmovdqu 0xe0(%rsp),%ymm0
- DB 196,227,125,25,198,1 ; vextractf128 $0x1,%ymm0,%xmm6
- DB 196,226,73,64,237 ; vpmulld %xmm5,%xmm6,%xmm5
- DB 196,226,121,64,201 ; vpmulld %xmm1,%xmm0,%xmm1
- DB 196,99,117,24,253,1 ; vinsertf128 $0x1,%xmm5,%ymm1,%ymm15
- DB 197,122,16,37,185,0,2,0 ; vmovss 0x200b9(%rip),%xmm12 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 196,195,121,4,204,0 ; vpermilps $0x0,%xmm12,%xmm1
- DB 196,227,117,24,201,1 ; vinsertf128 $0x1,%xmm1,%ymm1,%ymm1
- DB 197,244,88,140,36,192,1,0,0 ; vaddps 0x1c0(%rsp),%ymm1,%ymm1
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,252,95,201 ; vmaxps %ymm1,%ymm0,%ymm1
- DB 197,244,93,140,36,128,1,0,0 ; vminps 0x180(%rsp),%ymm1,%ymm1
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 196,227,125,25,205,1 ; vextractf128 $0x1,%ymm1,%xmm5
- DB 196,99,125,25,254,1 ; vextractf128 $0x1,%ymm15,%xmm6
- DB 197,201,254,237 ; vpaddd %xmm5,%xmm6,%xmm5
- DB 196,227,249,22,232,1 ; vpextrq $0x1,%xmm5,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 196,193,249,126,234 ; vmovq %xmm5,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 197,129,254,201 ; vpaddd %xmm1,%xmm15,%xmm1
- DB 196,227,249,22,203,1 ; vpextrq $0x1,%xmm1,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 196,193,249,126,207 ; vmovq %xmm1,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 196,129,121,110,12,160 ; vmovd (%r8,%r12,4),%xmm1
- DB 196,131,113,34,12,184,1 ; vpinsrd $0x1,(%r8,%r15,4),%xmm1,%xmm1
- DB 196,131,113,34,12,176,2 ; vpinsrd $0x2,(%r8,%r14,4),%xmm1,%xmm1
- DB 196,195,113,34,12,152,3 ; vpinsrd $0x3,(%r8,%rbx,4),%xmm1,%xmm1
- DB 196,129,121,110,44,152 ; vmovd (%r8,%r11,4),%xmm5
- DB 196,131,81,34,44,144,1 ; vpinsrd $0x1,(%r8,%r10,4),%xmm5,%xmm5
- DB 196,131,81,34,44,136,2 ; vpinsrd $0x2,(%r8,%r9,4),%xmm5,%xmm5
- DB 196,195,81,34,4,128,3 ; vpinsrd $0x3,(%r8,%rax,4),%xmm5,%xmm0
- DB 196,227,117,24,232,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm5
- DB 196,193,84,84,238 ; vandps %ymm14,%ymm5,%ymm5
- DB 197,252,91,237 ; vcvtdq2ps %ymm5,%ymm5
- DB 196,193,84,89,245 ; vmulps %ymm13,%ymm5,%ymm6
- DB 197,209,114,209,8 ; vpsrld $0x8,%xmm1,%xmm5
- DB 197,217,114,208,8 ; vpsrld $0x8,%xmm0,%xmm4
- DB 196,227,85,24,228,1 ; vinsertf128 $0x1,%xmm4,%ymm5,%ymm4
- DB 196,193,92,84,230 ; vandps %ymm14,%ymm4,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,193,92,89,237 ; vmulps %ymm13,%ymm4,%ymm5
- DB 197,217,114,209,16 ; vpsrld $0x10,%xmm1,%xmm4
- DB 197,193,114,208,16 ; vpsrld $0x10,%xmm0,%xmm7
- DB 196,227,93,24,231,1 ; vinsertf128 $0x1,%xmm7,%ymm4,%ymm4
- DB 196,193,92,84,230 ; vandps %ymm14,%ymm4,%ymm4
- DB 197,252,91,228 ; vcvtdq2ps %ymm4,%ymm4
- DB 196,65,92,89,221 ; vmulps %ymm13,%ymm4,%ymm11
- DB 197,241,114,209,24 ; vpsrld $0x18,%xmm1,%xmm1
- DB 197,249,114,208,24 ; vpsrld $0x18,%xmm0,%xmm0
- DB 196,227,117,24,192,1 ; vinsertf128 $0x1,%xmm0,%ymm1,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 196,193,124,89,205 ; vmulps %ymm13,%ymm0,%ymm1
- DB 197,120,46,37,214,255,1,0 ; vucomiss 0x1ffd6(%rip),%xmm12 # 34c50 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- DB 197,124,16,148,36,160,1,0,0 ; vmovups 0x1a0(%rsp),%ymm10
- DB 119,9 ; ja 14c8e <_sk_bilerp_clamp_8888_avx+0x2d5>
- DB 197,124,16,148,36,96,1,0,0 ; vmovups 0x160(%rsp),%ymm10
- DB 197,172,89,68,36,32 ; vmulps 0x20(%rsp),%ymm10,%ymm0
- DB 197,252,89,230 ; vmulps %ymm6,%ymm0,%ymm4
- DB 197,52,88,204 ; vaddps %ymm4,%ymm9,%ymm9
- DB 197,252,89,229 ; vmulps %ymm5,%ymm0,%ymm4
- DB 197,60,88,196 ; vaddps %ymm4,%ymm8,%ymm8
- DB 196,193,124,89,227 ; vmulps %ymm11,%ymm0,%ymm4
- DB 197,236,88,212 ; vaddps %ymm4,%ymm2,%ymm2
- DB 197,252,89,193 ; vmulps %ymm1,%ymm0,%ymm0
- DB 197,228,88,216 ; vaddps %ymm0,%ymm3,%ymm3
- DB 197,26,88,37,11,254,1,0 ; vaddss 0x1fe0b(%rip),%xmm12,%xmm12 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,250,16,5,255,253,1,0 ; vmovss 0x1fdff(%rip),%xmm0 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,193,120,46,196 ; vucomiss %xmm12,%xmm0
- DB 15,131,147,254,255,255 ; jae 14b63 <_sk_bilerp_clamp_8888_avx+0x1aa>
- DB 197,248,40,100,36,16 ; vmovaps 0x10(%rsp),%xmm4
- DB 197,218,88,37,234,253,1,0 ; vaddss 0x1fdea(%rip),%xmm4,%xmm4 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,250,16,5,222,253,1,0 ; vmovss 0x1fdde(%rip),%xmm0 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,248,46,196 ; vucomiss %xmm4,%xmm0
- DB 15,131,238,253,255,255 ; jae 14ade <_sk_bilerp_clamp_8888_avx+0x125>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,200 ; vmovaps %ymm9,%ymm0
- DB 197,124,41,193 ; vmovaps %ymm8,%ymm1
- DB 197,252,16,100,36,64 ; vmovups 0x40(%rsp),%ymm4
- DB 197,252,16,108,36,96 ; vmovups 0x60(%rsp),%ymm5
- DB 197,252,16,180,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm6
- DB 197,252,16,188,36,160,0,0,0 ; vmovups 0xa0(%rsp),%ymm7
- DB 72,129,196,248,1,0,0 ; add $0x1f8,%rsp
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_start_pipeline_sse41
-_sk_start_pipeline_sse41 LABEL PROC
- DB 85 ; push %rbp
- DB 72,137,229 ; mov %rsp,%rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 86 ; push %rsi
- DB 87 ; push %rdi
- DB 83 ; push %rbx
- DB 72,129,236,200,0,0,0 ; sub $0xc8,%rsp
- DB 68,15,41,125,176 ; movaps %xmm15,-0x50(%rbp)
- DB 68,15,41,117,160 ; movaps %xmm14,-0x60(%rbp)
- DB 68,15,41,109,144 ; movaps %xmm13,-0x70(%rbp)
- DB 68,15,41,101,128 ; movaps %xmm12,-0x80(%rbp)
- DB 68,15,41,157,112,255,255,255 ; movaps %xmm11,-0x90(%rbp)
- DB 68,15,41,149,96,255,255,255 ; movaps %xmm10,-0xa0(%rbp)
- DB 68,15,41,141,80,255,255,255 ; movaps %xmm9,-0xb0(%rbp)
- DB 68,15,41,133,64,255,255,255 ; movaps %xmm8,-0xc0(%rbp)
- DB 15,41,189,48,255,255,255 ; movaps %xmm7,-0xd0(%rbp)
- DB 15,41,181,32,255,255,255 ; movaps %xmm6,-0xe0(%rbp)
- DB 77,137,199 ; mov %r8,%r15
- DB 72,137,211 ; mov %rdx,%rbx
- DB 72,137,141,24,255,255,255 ; mov %rcx,-0xe8(%rbp)
- DB 72,139,117,48 ; mov 0x30(%rbp),%rsi
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 73,137,197 ; mov %rax,%r13
- DB 73,137,246 ; mov %rsi,%r14
- DB 76,137,141,8,255,255,255 ; mov %r9,-0xf8(%rbp)
- DB 76,57,203 ; cmp %r9,%rbx
- DB 15,131,153,0,0,0 ; jae 14e42 <_sk_start_pipeline_sse41+0x11a>
- DB 72,139,133,24,255,255,255 ; mov -0xe8(%rbp),%rax
- DB 72,141,64,4 ; lea 0x4(%rax),%rax
- DB 72,137,133,16,255,255,255 ; mov %rax,-0xf0(%rbp)
- DB 76,57,189,16,255,255,255 ; cmp %r15,-0xf0(%rbp)
- DB 72,139,149,24,255,255,255 ; mov -0xe8(%rbp),%rdx
- DB 119,62 ; ja 14e09 <_sk_start_pipeline_sse41+0xe1>
- DB 76,139,165,24,255,255,255 ; mov -0xe8(%rbp),%r12
- DB 49,255 ; xor %edi,%edi
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 76,137,246 ; mov %r14,%rsi
- DB 76,137,226 ; mov %r12,%rdx
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 73,141,84,36,4 ; lea 0x4(%r12),%rdx
- DB 73,131,196,8 ; add $0x8,%r12
- DB 77,57,252 ; cmp %r15,%r12
- DB 73,137,212 ; mov %rdx,%r12
- DB 118,201 ; jbe 14dd2 <_sk_start_pipeline_sse41+0xaa>
- DB 76,137,255 ; mov %r15,%rdi
- DB 72,41,215 ; sub %rdx,%rdi
- DB 116,33 ; je 14e32 <_sk_start_pipeline_sse41+0x10a>
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 76,137,246 ; mov %r14,%rsi
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 72,255,195 ; inc %rbx
- DB 72,59,157,8,255,255,255 ; cmp -0xf8(%rbp),%rbx
- DB 15,133,121,255,255,255 ; jne 14dbb <_sk_start_pipeline_sse41+0x93>
- DB 15,40,181,32,255,255,255 ; movaps -0xe0(%rbp),%xmm6
- DB 15,40,189,48,255,255,255 ; movaps -0xd0(%rbp),%xmm7
- DB 68,15,40,133,64,255,255,255 ; movaps -0xc0(%rbp),%xmm8
- DB 68,15,40,141,80,255,255,255 ; movaps -0xb0(%rbp),%xmm9
- DB 68,15,40,149,96,255,255,255 ; movaps -0xa0(%rbp),%xmm10
- DB 68,15,40,157,112,255,255,255 ; movaps -0x90(%rbp),%xmm11
- DB 68,15,40,101,128 ; movaps -0x80(%rbp),%xmm12
- DB 68,15,40,109,144 ; movaps -0x70(%rbp),%xmm13
- DB 68,15,40,117,160 ; movaps -0x60(%rbp),%xmm14
- DB 68,15,40,125,176 ; movaps -0x50(%rbp),%xmm15
- DB 72,129,196,200,0,0,0 ; add $0xc8,%rsp
- DB 91 ; pop %rbx
- DB 95 ; pop %rdi
- DB 94 ; pop %rsi
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 195 ; retq
-
-PUBLIC _sk_just_return_sse41
-_sk_just_return_sse41 LABEL PROC
- DB 195 ; retq
-
-PUBLIC _sk_seed_shader_sse41
-_sk_seed_shader_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,110,194 ; movd %edx,%xmm0
- DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
- DB 15,91,200 ; cvtdq2ps %xmm0,%xmm1
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 15,88,193 ; addps %xmm1,%xmm0
- DB 102,15,110,201 ; movd %ecx,%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,88,13,224,5,2,0 ; addps 0x205e0(%rip),%xmm1 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,21,231,5,2,0 ; movaps 0x205e7(%rip),%xmm2 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dither_sse41
-_sk_dither_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,68,15,110,194 ; movd %edx,%xmm8
- DB 102,69,15,112,192,0 ; pshufd $0x0,%xmm8,%xmm8
- DB 102,68,15,254,5,144,5,2,0 ; paddd 0x20590(%rip),%xmm8 # 35480 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
- DB 102,68,15,110,201 ; movd %ecx,%xmm9
- DB 102,69,15,112,201,0 ; pshufd $0x0,%xmm9,%xmm9
- DB 102,69,15,239,200 ; pxor %xmm8,%xmm9
- DB 102,68,15,111,21,183,5,2,0 ; movdqa 0x205b7(%rip),%xmm10 # 354c0 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
- DB 102,69,15,111,217 ; movdqa %xmm9,%xmm11
- DB 102,69,15,219,218 ; pand %xmm10,%xmm11
- DB 102,65,15,114,243,5 ; pslld $0x5,%xmm11
- DB 102,69,15,219,208 ; pand %xmm8,%xmm10
- DB 102,65,15,114,242,4 ; pslld $0x4,%xmm10
- DB 102,68,15,111,37,163,5,2,0 ; movdqa 0x205a3(%rip),%xmm12 # 354d0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
- DB 102,68,15,111,45,170,5,2,0 ; movdqa 0x205aa(%rip),%xmm13 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,69,15,111,241 ; movdqa %xmm9,%xmm14
- DB 102,69,15,219,245 ; pand %xmm13,%xmm14
- DB 102,65,15,114,246,2 ; pslld $0x2,%xmm14
- DB 102,69,15,235,243 ; por %xmm11,%xmm14
- DB 102,69,15,219,232 ; pand %xmm8,%xmm13
- DB 102,69,15,254,237 ; paddd %xmm13,%xmm13
- DB 102,69,15,235,234 ; por %xmm10,%xmm13
- DB 102,69,15,219,204 ; pand %xmm12,%xmm9
- DB 102,65,15,114,209,1 ; psrld $0x1,%xmm9
- DB 102,69,15,219,196 ; pand %xmm12,%xmm8
- DB 102,65,15,114,208,2 ; psrld $0x2,%xmm8
- DB 102,69,15,235,197 ; por %xmm13,%xmm8
- DB 102,69,15,235,198 ; por %xmm14,%xmm8
- DB 102,69,15,235,193 ; por %xmm9,%xmm8
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,101,5,2,0 ; mulps 0x20565(%rip),%xmm8 # 354f0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
- DB 68,15,88,5,109,5,2,0 ; addps 0x2056d(%rip),%xmm8 # 35500 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
- DB 243,68,15,16,16 ; movss (%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 69,15,89,208 ; mulps %xmm8,%xmm10
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 68,15,88,210 ; addps %xmm2,%xmm10
- DB 15,93,195 ; minps %xmm3,%xmm0
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,95,192 ; maxps %xmm0,%xmm8
- DB 15,93,203 ; minps %xmm3,%xmm1
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 68,15,95,201 ; maxps %xmm1,%xmm9
- DB 68,15,93,211 ; minps %xmm3,%xmm10
- DB 65,15,95,210 ; maxps %xmm10,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_uniform_color_sse41
-_sk_uniform_color_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,15,16,80,8 ; movss 0x8(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,88,12 ; movss 0xc(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_black_color_sse41
-_sk_black_color_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,163,4,2,0 ; movaps 0x204a3(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_white_color_sse41
-_sk_white_color_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,5,143,4,2,0 ; movaps 0x2048f(%rip),%xmm0 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_rgba_sse41
-_sk_load_rgba_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 15,16,72,16 ; movups 0x10(%rax),%xmm1
- DB 15,16,80,32 ; movups 0x20(%rax),%xmm2
- DB 15,16,88,48 ; movups 0x30(%rax),%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_rgba_sse41
-_sk_store_rgba_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,17,0 ; movups %xmm0,(%rax)
- DB 15,17,72,16 ; movups %xmm1,0x10(%rax)
- DB 15,17,80,32 ; movups %xmm2,0x20(%rax)
- DB 15,17,88,48 ; movups %xmm3,0x30(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clear_sse41
-_sk_clear_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcatop_sse41
-_sk_srcatop_sse41 LABEL PROC
- DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 68,15,40,5,63,4,2,0 ; movaps 0x2043f(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,204 ; mulps %xmm4,%xmm9
- DB 65,15,88,193 ; addps %xmm9,%xmm0
- DB 15,89,207 ; mulps %xmm7,%xmm1
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 65,15,88,201 ; addps %xmm9,%xmm1
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 65,15,88,209 ; addps %xmm9,%xmm2
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 65,15,88,216 ; addps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstatop_sse41
-_sk_dstatop_sse41 LABEL PROC
- DB 68,15,40,195 ; movaps %xmm3,%xmm8
- DB 68,15,89,196 ; mulps %xmm4,%xmm8
- DB 68,15,40,13,242,3,2,0 ; movaps 0x203f2(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,207 ; subps %xmm7,%xmm9
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 68,15,40,195 ; movaps %xmm3,%xmm8
- DB 68,15,89,197 ; mulps %xmm5,%xmm8
- DB 65,15,89,201 ; mulps %xmm9,%xmm1
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 68,15,40,195 ; movaps %xmm3,%xmm8
- DB 68,15,89,198 ; mulps %xmm6,%xmm8
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 65,15,88,208 ; addps %xmm8,%xmm2
- DB 68,15,89,203 ; mulps %xmm3,%xmm9
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 65,15,88,217 ; addps %xmm9,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcin_sse41
-_sk_srcin_sse41 LABEL PROC
- DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 15,89,207 ; mulps %xmm7,%xmm1
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstin_sse41
-_sk_dstin_sse41 LABEL PROC
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcout_sse41
-_sk_srcout_sse41 LABEL PROC
- DB 68,15,40,5,134,3,2,0 ; movaps 0x20386(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,199 ; subps %xmm7,%xmm8
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstout_sse41
-_sk_dstout_sse41 LABEL PROC
- DB 68,15,40,5,102,3,2,0 ; movaps 0x20366(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,216 ; movaps %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_sse41
-_sk_srcover_sse41 LABEL PROC
- DB 68,15,40,5,57,3,2,0 ; movaps 0x20339(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,204 ; mulps %xmm4,%xmm9
- DB 65,15,88,193 ; addps %xmm9,%xmm0
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 65,15,88,201 ; addps %xmm9,%xmm1
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 65,15,88,209 ; addps %xmm9,%xmm2
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 65,15,88,216 ; addps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstover_sse41
-_sk_dstover_sse41 LABEL PROC
- DB 68,15,40,5,253,2,2,0 ; movaps 0x202fd(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,199 ; subps %xmm7,%xmm8
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_modulate_sse41
-_sk_modulate_sse41 LABEL PROC
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_multiply_sse41
-_sk_multiply_sse41 LABEL PROC
- DB 68,15,40,5,193,2,2,0 ; movaps 0x202c1(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,92,207 ; subps %xmm7,%xmm9
- DB 69,15,40,209 ; movaps %xmm9,%xmm10
- DB 68,15,89,208 ; mulps %xmm0,%xmm10
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 68,15,89,220 ; mulps %xmm4,%xmm11
- DB 69,15,88,218 ; addps %xmm10,%xmm11
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 65,15,88,195 ; addps %xmm11,%xmm0
- DB 69,15,40,209 ; movaps %xmm9,%xmm10
- DB 68,15,89,209 ; mulps %xmm1,%xmm10
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 68,15,89,221 ; mulps %xmm5,%xmm11
- DB 69,15,88,218 ; addps %xmm10,%xmm11
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 65,15,88,203 ; addps %xmm11,%xmm1
- DB 69,15,40,209 ; movaps %xmm9,%xmm10
- DB 68,15,89,210 ; mulps %xmm2,%xmm10
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 68,15,89,222 ; mulps %xmm6,%xmm11
- DB 69,15,88,218 ; addps %xmm10,%xmm11
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 65,15,88,211 ; addps %xmm11,%xmm2
- DB 68,15,89,203 ; mulps %xmm3,%xmm9
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 69,15,88,193 ; addps %xmm9,%xmm8
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 65,15,88,216 ; addps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_plus__sse41
-_sk_plus__sse41 LABEL PROC
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 68,15,40,5,66,2,2,0 ; movaps 0x20242(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 65,15,93,208 ; minps %xmm8,%xmm2
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 65,15,93,216 ; minps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_screen_sse41
-_sk_screen_sse41 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 68,15,89,196 ; mulps %xmm4,%xmm8
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 68,15,88,197 ; addps %xmm5,%xmm8
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 68,15,92,193 ; subps %xmm1,%xmm8
- DB 68,15,40,202 ; movaps %xmm2,%xmm9
- DB 68,15,88,206 ; addps %xmm6,%xmm9
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 68,15,92,202 ; subps %xmm2,%xmm9
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 68,15,88,215 ; addps %xmm7,%xmm10
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 68,15,92,211 ; subps %xmm3,%xmm10
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 65,15,40,218 ; movaps %xmm10,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xor__sse41
-_sk_xor__sse41 LABEL PROC
- DB 68,15,40,195 ; movaps %xmm3,%xmm8
- DB 15,40,29,206,1,2,0 ; movaps 0x201ce(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,92,207 ; subps %xmm7,%xmm9
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 65,15,92,216 ; subps %xmm8,%xmm3
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 68,15,89,212 ; mulps %xmm4,%xmm10
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 65,15,89,201 ; mulps %xmm9,%xmm1
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 68,15,89,213 ; mulps %xmm5,%xmm10
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 68,15,89,214 ; mulps %xmm6,%xmm10
- DB 65,15,88,210 ; addps %xmm10,%xmm2
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 65,15,88,217 ; addps %xmm9,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_darken_sse41
-_sk_darken_sse41 LABEL PROC
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 68,15,89,207 ; mulps %xmm7,%xmm9
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 68,15,95,201 ; maxps %xmm1,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 69,15,95,193 ; maxps %xmm9,%xmm8
- DB 65,15,92,200 ; subps %xmm8,%xmm1
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 68,15,88,198 ; addps %xmm6,%xmm8
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 65,15,95,209 ; maxps %xmm9,%xmm2
- DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,41,1,2,0 ; movaps 0x20129(%rip),%xmm2 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lighten_sse41
-_sk_lighten_sse41 LABEL PROC
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 68,15,89,207 ; mulps %xmm7,%xmm9
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 68,15,93,201 ; minps %xmm1,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 69,15,93,193 ; minps %xmm9,%xmm8
- DB 65,15,92,200 ; subps %xmm8,%xmm1
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 68,15,88,198 ; addps %xmm6,%xmm8
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 65,15,93,209 ; minps %xmm9,%xmm2
- DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,190,0,2,0 ; movaps 0x200be(%rip),%xmm2 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_difference_sse41
-_sk_difference_sse41 LABEL PROC
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 68,15,89,207 ; mulps %xmm7,%xmm9
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 68,15,93,201 ; minps %xmm1,%xmm9
- DB 69,15,88,201 ; addps %xmm9,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 69,15,93,193 ; minps %xmm9,%xmm8
- DB 69,15,88,192 ; addps %xmm8,%xmm8
- DB 65,15,92,200 ; subps %xmm8,%xmm1
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 68,15,88,198 ; addps %xmm6,%xmm8
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 65,15,93,209 ; minps %xmm9,%xmm2
- DB 15,88,210 ; addps %xmm2,%xmm2
- DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,72,0,2,0 ; movaps 0x20048(%rip),%xmm2 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_exclusion_sse41
-_sk_exclusion_sse41 LABEL PROC
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 68,15,89,197 ; mulps %xmm5,%xmm8
- DB 69,15,88,192 ; addps %xmm8,%xmm8
- DB 65,15,92,200 ; subps %xmm8,%xmm1
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 68,15,88,198 ; addps %xmm6,%xmm8
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,88,210 ; addps %xmm2,%xmm2
- DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,248,255,1,0 ; movaps 0x1fff8(%rip),%xmm2 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_colorburn_sse41
-_sk_colorburn_sse41 LABEL PROC
- DB 68,15,40,29,223,255,1,0 ; movaps 0x1ffdf(%rip),%xmm11 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,227 ; movaps %xmm11,%xmm12
- DB 68,15,92,231 ; subps %xmm7,%xmm12
- DB 69,15,40,204 ; movaps %xmm12,%xmm9
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 68,15,40,199 ; movaps %xmm7,%xmm8
- DB 68,15,92,196 ; subps %xmm4,%xmm8
- DB 68,15,89,195 ; mulps %xmm3,%xmm8
- DB 68,15,83,208 ; rcpps %xmm0,%xmm10
- DB 69,15,89,208 ; mulps %xmm8,%xmm10
- DB 68,15,40,239 ; movaps %xmm7,%xmm13
- DB 69,15,93,234 ; minps %xmm10,%xmm13
- DB 68,15,40,199 ; movaps %xmm7,%xmm8
- DB 69,15,92,197 ; subps %xmm13,%xmm8
- DB 68,15,89,195 ; mulps %xmm3,%xmm8
- DB 69,15,88,193 ; addps %xmm9,%xmm8
- DB 68,15,88,204 ; addps %xmm4,%xmm9
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 68,15,92,219 ; subps %xmm3,%xmm11
- DB 69,15,40,235 ; movaps %xmm11,%xmm13
- DB 68,15,89,236 ; mulps %xmm4,%xmm13
- DB 65,15,194,194,0 ; cmpeqps %xmm10,%xmm0
- DB 69,15,88,197 ; addps %xmm13,%xmm8
- DB 102,69,15,56,20,197 ; blendvps %xmm0,%xmm13,%xmm8
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,194,199,0 ; cmpeqps %xmm7,%xmm0
- DB 102,69,15,56,20,193 ; blendvps %xmm0,%xmm9,%xmm8
- DB 69,15,40,236 ; movaps %xmm12,%xmm13
- DB 68,15,89,233 ; mulps %xmm1,%xmm13
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 68,15,83,201 ; rcpps %xmm1,%xmm9
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 65,15,93,193 ; minps %xmm9,%xmm0
- DB 68,15,40,207 ; movaps %xmm7,%xmm9
- DB 68,15,92,200 ; subps %xmm0,%xmm9
- DB 69,15,40,243 ; movaps %xmm11,%xmm14
- DB 68,15,89,245 ; mulps %xmm5,%xmm14
- DB 65,15,194,202,0 ; cmpeqps %xmm10,%xmm1
- DB 68,15,89,203 ; mulps %xmm3,%xmm9
- DB 69,15,88,205 ; addps %xmm13,%xmm9
- DB 69,15,88,206 ; addps %xmm14,%xmm9
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 102,69,15,56,20,206 ; blendvps %xmm0,%xmm14,%xmm9
- DB 68,15,88,237 ; addps %xmm5,%xmm13
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,194,199,0 ; cmpeqps %xmm7,%xmm0
- DB 102,69,15,56,20,205 ; blendvps %xmm0,%xmm13,%xmm9
- DB 68,15,89,226 ; mulps %xmm2,%xmm12
- DB 68,15,194,210,0 ; cmpeqps %xmm2,%xmm10
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 15,92,198 ; subps %xmm6,%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,83,202 ; rcpps %xmm2,%xmm1
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 15,93,193 ; minps %xmm1,%xmm0
- DB 15,40,215 ; movaps %xmm7,%xmm2
- DB 15,92,208 ; subps %xmm0,%xmm2
- DB 65,15,40,203 ; movaps %xmm11,%xmm1
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 65,15,88,212 ; addps %xmm12,%xmm2
- DB 15,88,209 ; addps %xmm1,%xmm2
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 102,15,56,20,209 ; blendvps %xmm0,%xmm1,%xmm2
- DB 68,15,88,230 ; addps %xmm6,%xmm12
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,194,199,0 ; cmpeqps %xmm7,%xmm0
- DB 102,65,15,56,20,212 ; blendvps %xmm0,%xmm12,%xmm2
- DB 68,15,89,223 ; mulps %xmm7,%xmm11
- DB 65,15,88,219 ; addps %xmm11,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_colordodge_sse41
-_sk_colordodge_sse41 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 68,15,40,21,169,254,1,0 ; movaps 0x1fea9(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,218 ; movaps %xmm10,%xmm11
- DB 68,15,92,223 ; subps %xmm7,%xmm11
- DB 69,15,40,227 ; movaps %xmm11,%xmm12
- DB 69,15,89,224 ; mulps %xmm8,%xmm12
- DB 68,15,40,235 ; movaps %xmm3,%xmm13
- DB 68,15,89,236 ; mulps %xmm4,%xmm13
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 68,15,83,200 ; rcpps %xmm0,%xmm9
- DB 69,15,89,205 ; mulps %xmm13,%xmm9
- DB 68,15,40,239 ; movaps %xmm7,%xmm13
- DB 68,15,40,247 ; movaps %xmm7,%xmm14
- DB 69,15,93,241 ; minps %xmm9,%xmm14
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,194,195,0 ; cmpeqps %xmm3,%xmm0
- DB 68,15,89,243 ; mulps %xmm3,%xmm14
- DB 69,15,88,244 ; addps %xmm12,%xmm14
- DB 102,69,15,56,20,240 ; blendvps %xmm0,%xmm8,%xmm14
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,92,211 ; subps %xmm3,%xmm10
- DB 69,15,40,194 ; movaps %xmm10,%xmm8
- DB 68,15,89,196 ; mulps %xmm4,%xmm8
- DB 69,15,88,198 ; addps %xmm14,%xmm8
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 65,15,194,193,0 ; cmpeqps %xmm9,%xmm0
- DB 102,69,15,56,20,196 ; blendvps %xmm0,%xmm12,%xmm8
- DB 68,15,40,227 ; movaps %xmm3,%xmm12
- DB 68,15,89,229 ; mulps %xmm5,%xmm12
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,83,192 ; rcpps %xmm0,%xmm0
- DB 65,15,89,196 ; mulps %xmm12,%xmm0
- DB 69,15,40,227 ; movaps %xmm11,%xmm12
- DB 68,15,89,225 ; mulps %xmm1,%xmm12
- DB 68,15,93,232 ; minps %xmm0,%xmm13
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,194,195,0 ; cmpeqps %xmm3,%xmm0
- DB 68,15,89,235 ; mulps %xmm3,%xmm13
- DB 69,15,88,236 ; addps %xmm12,%xmm13
- DB 102,68,15,56,20,233 ; blendvps %xmm0,%xmm1,%xmm13
- DB 65,15,40,202 ; movaps %xmm10,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 65,15,88,205 ; addps %xmm13,%xmm1
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 65,15,194,193,0 ; cmpeqps %xmm9,%xmm0
- DB 102,65,15,56,20,204 ; blendvps %xmm0,%xmm12,%xmm1
- DB 68,15,40,227 ; movaps %xmm3,%xmm12
- DB 68,15,89,230 ; mulps %xmm6,%xmm12
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,92,194 ; subps %xmm2,%xmm0
- DB 15,83,192 ; rcpps %xmm0,%xmm0
- DB 65,15,89,196 ; mulps %xmm12,%xmm0
- DB 68,15,40,231 ; movaps %xmm7,%xmm12
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 68,15,93,224 ; minps %xmm0,%xmm12
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,194,195,0 ; cmpeqps %xmm3,%xmm0
- DB 68,15,89,227 ; mulps %xmm3,%xmm12
- DB 69,15,88,227 ; addps %xmm11,%xmm12
- DB 102,68,15,56,20,226 ; blendvps %xmm0,%xmm2,%xmm12
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 65,15,88,212 ; addps %xmm12,%xmm2
- DB 68,15,194,206,0 ; cmpeqps %xmm6,%xmm9
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,65,15,56,20,211 ; blendvps %xmm0,%xmm11,%xmm2
- DB 68,15,89,215 ; mulps %xmm7,%xmm10
- DB 65,15,88,218 ; addps %xmm10,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hardlight_sse41
-_sk_hardlight_sse41 LABEL PROC
- DB 72,131,236,24 ; sub $0x18,%rsp
- DB 15,41,52,36 ; movaps %xmm6,(%rsp)
- DB 68,15,40,229 ; movaps %xmm5,%xmm12
- DB 15,40,244 ; movaps %xmm4,%xmm6
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 68,15,40,21,113,253,1,0 ; movaps 0x1fd71(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,40,234 ; movaps %xmm10,%xmm5
- DB 15,92,239 ; subps %xmm7,%xmm5
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 68,15,92,212 ; subps %xmm4,%xmm10
- DB 69,15,40,194 ; movaps %xmm10,%xmm8
- DB 68,15,89,198 ; mulps %xmm6,%xmm8
- DB 68,15,88,192 ; addps %xmm0,%xmm8
- DB 68,15,40,252 ; movaps %xmm4,%xmm15
- DB 69,15,92,249 ; subps %xmm9,%xmm15
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 68,15,40,239 ; movaps %xmm7,%xmm13
- DB 68,15,40,247 ; movaps %xmm7,%xmm14
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 15,92,198 ; subps %xmm6,%xmm0
- DB 65,15,89,199 ; mulps %xmm15,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 68,15,40,251 ; movaps %xmm3,%xmm15
- DB 68,15,92,248 ; subps %xmm0,%xmm15
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,194,196,2 ; cmpleps %xmm4,%xmm0
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 69,15,88,201 ; addps %xmm9,%xmm9
- DB 102,69,15,56,20,249 ; blendvps %xmm0,%xmm9,%xmm15
- DB 68,15,40,221 ; movaps %xmm5,%xmm11
- DB 68,15,89,217 ; mulps %xmm1,%xmm11
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 69,15,40,204 ; movaps %xmm12,%xmm9
- DB 69,15,92,233 ; subps %xmm9,%xmm13
- DB 68,15,89,232 ; mulps %xmm0,%xmm13
- DB 69,15,88,237 ; addps %xmm13,%xmm13
- DB 68,15,40,227 ; movaps %xmm3,%xmm12
- DB 69,15,92,229 ; subps %xmm13,%xmm12
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,194,196,2 ; cmpleps %xmm4,%xmm0
- DB 65,15,89,201 ; mulps %xmm9,%xmm1
- DB 69,15,40,233 ; movaps %xmm9,%xmm13
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 102,68,15,56,20,225 ; blendvps %xmm0,%xmm1,%xmm12
- DB 65,15,40,202 ; movaps %xmm10,%xmm1
- DB 69,15,40,202 ; movaps %xmm10,%xmm9
- DB 68,15,89,215 ; mulps %xmm7,%xmm10
- DB 69,15,88,199 ; addps %xmm15,%xmm8
- DB 65,15,89,205 ; mulps %xmm13,%xmm1
- DB 65,15,88,203 ; addps %xmm11,%xmm1
- DB 65,15,88,204 ; addps %xmm12,%xmm1
- DB 15,89,234 ; mulps %xmm2,%xmm5
- DB 68,15,40,28,36 ; movaps (%rsp),%xmm11
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 68,15,88,205 ; addps %xmm5,%xmm9
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,194,196,2 ; cmpleps %xmm4,%xmm0
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,92,234 ; subps %xmm2,%xmm5
- DB 65,15,89,211 ; mulps %xmm11,%xmm2
- DB 15,88,210 ; addps %xmm2,%xmm2
- DB 69,15,92,243 ; subps %xmm11,%xmm14
- DB 68,15,89,245 ; mulps %xmm5,%xmm14
- DB 69,15,88,246 ; addps %xmm14,%xmm14
- DB 65,15,92,222 ; subps %xmm14,%xmm3
- DB 102,15,56,20,218 ; blendvps %xmm0,%xmm2,%xmm3
- DB 68,15,88,203 ; addps %xmm3,%xmm9
- DB 65,15,88,226 ; addps %xmm10,%xmm4
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 65,15,40,237 ; movaps %xmm13,%xmm5
- DB 65,15,40,243 ; movaps %xmm11,%xmm6
- DB 72,131,196,24 ; add $0x18,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_overlay_sse41
-_sk_overlay_sse41 LABEL PROC
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 68,15,40,240 ; movaps %xmm0,%xmm14
- DB 68,15,40,21,67,252,1,0 ; movaps 0x1fc43(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,218 ; movaps %xmm10,%xmm11
- DB 68,15,92,223 ; subps %xmm7,%xmm11
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 65,15,89,198 ; mulps %xmm14,%xmm0
- DB 68,15,92,211 ; subps %xmm3,%xmm10
- DB 69,15,40,194 ; movaps %xmm10,%xmm8
- DB 68,15,89,196 ; mulps %xmm4,%xmm8
- DB 68,15,88,192 ; addps %xmm0,%xmm8
- DB 68,15,40,235 ; movaps %xmm3,%xmm13
- DB 69,15,92,238 ; subps %xmm14,%xmm13
- DB 68,15,89,244 ; mulps %xmm4,%xmm14
- DB 15,40,207 ; movaps %xmm7,%xmm1
- DB 15,92,204 ; subps %xmm4,%xmm1
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,194,199,2 ; cmpleps %xmm7,%xmm0
- DB 69,15,88,246 ; addps %xmm14,%xmm14
- DB 68,15,40,227 ; movaps %xmm3,%xmm12
- DB 68,15,89,231 ; mulps %xmm7,%xmm12
- DB 65,15,89,205 ; mulps %xmm13,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 69,15,40,236 ; movaps %xmm12,%xmm13
- DB 68,15,92,233 ; subps %xmm1,%xmm13
- DB 102,69,15,56,20,238 ; blendvps %xmm0,%xmm14,%xmm13
- DB 69,15,88,197 ; addps %xmm13,%xmm8
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 65,15,40,202 ; movaps %xmm10,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 68,15,40,235 ; movaps %xmm3,%xmm13
- DB 69,15,92,233 ; subps %xmm9,%xmm13
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 68,15,40,247 ; movaps %xmm7,%xmm14
- DB 68,15,92,245 ; subps %xmm5,%xmm14
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,194,199,2 ; cmpleps %xmm7,%xmm0
- DB 69,15,88,201 ; addps %xmm9,%xmm9
- DB 69,15,89,245 ; mulps %xmm13,%xmm14
- DB 69,15,88,246 ; addps %xmm14,%xmm14
- DB 69,15,40,236 ; movaps %xmm12,%xmm13
- DB 69,15,92,238 ; subps %xmm14,%xmm13
- DB 102,69,15,56,20,233 ; blendvps %xmm0,%xmm9,%xmm13
- DB 65,15,88,205 ; addps %xmm13,%xmm1
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 69,15,40,202 ; movaps %xmm10,%xmm9
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 69,15,88,203 ; addps %xmm11,%xmm9
- DB 68,15,40,219 ; movaps %xmm3,%xmm11
- DB 68,15,92,218 ; subps %xmm2,%xmm11
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 68,15,40,239 ; movaps %xmm7,%xmm13
- DB 68,15,92,238 ; subps %xmm6,%xmm13
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,194,199,2 ; cmpleps %xmm7,%xmm0
- DB 15,88,210 ; addps %xmm2,%xmm2
- DB 69,15,89,235 ; mulps %xmm11,%xmm13
- DB 69,15,88,237 ; addps %xmm13,%xmm13
- DB 69,15,92,229 ; subps %xmm13,%xmm12
- DB 102,68,15,56,20,226 ; blendvps %xmm0,%xmm2,%xmm12
- DB 69,15,88,204 ; addps %xmm12,%xmm9
- DB 68,15,89,215 ; mulps %xmm7,%xmm10
- DB 65,15,88,218 ; addps %xmm10,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_softlight_sse41
-_sk_softlight_sse41 LABEL PROC
- DB 72,131,236,72 ; sub $0x48,%rsp
- DB 15,41,116,36,32 ; movaps %xmm6,0x20(%rsp)
- DB 15,40,244 ; movaps %xmm4,%xmm6
- DB 15,41,84,36,48 ; movaps %xmm2,0x30(%rsp)
- DB 15,41,76,36,16 ; movaps %xmm1,0x10(%rsp)
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,194,207,1 ; cmpltps %xmm7,%xmm9
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,94,199 ; divps %xmm7,%xmm0
- DB 65,15,84,193 ; andps %xmm9,%xmm0
- DB 15,40,13,6,251,1,0 ; movaps 0x1fb06(%rip),%xmm1 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,40,209 ; movaps %xmm1,%xmm10
- DB 68,15,92,208 ; subps %xmm0,%xmm10
- DB 68,15,40,240 ; movaps %xmm0,%xmm14
- DB 68,15,40,248 ; movaps %xmm0,%xmm15
- DB 15,82,208 ; rsqrtps %xmm0,%xmm2
- DB 68,15,83,218 ; rcpps %xmm2,%xmm11
- DB 68,15,92,216 ; subps %xmm0,%xmm11
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,89,210 ; mulps %xmm2,%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 68,15,40,45,52,251,1,0 ; movaps 0x1fb34(%rip),%xmm13 # 35510 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
- DB 69,15,88,245 ; addps %xmm13,%xmm14
- DB 68,15,89,242 ; mulps %xmm2,%xmm14
- DB 68,15,40,37,52,251,1,0 ; movaps 0x1fb34(%rip),%xmm12 # 35520 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
- DB 69,15,89,252 ; mulps %xmm12,%xmm15
- DB 69,15,88,254 ; addps %xmm14,%xmm15
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,194,199,2 ; cmpleps %xmm7,%xmm0
- DB 102,69,15,56,20,223 ; blendvps %xmm0,%xmm15,%xmm11
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 68,15,89,210 ; mulps %xmm2,%xmm10
- DB 68,15,88,211 ; addps %xmm3,%xmm10
- DB 68,15,89,214 ; mulps %xmm6,%xmm10
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 68,15,88,218 ; addps %xmm2,%xmm11
- DB 15,194,195,2 ; cmpleps %xmm3,%xmm0
- DB 102,69,15,56,20,218 ; blendvps %xmm0,%xmm10,%xmm11
- DB 68,15,40,213 ; movaps %xmm5,%xmm10
- DB 68,15,94,215 ; divps %xmm7,%xmm10
- DB 69,15,84,209 ; andps %xmm9,%xmm10
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,89,210 ; mulps %xmm2,%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 65,15,88,197 ; addps %xmm13,%xmm0
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 65,15,89,212 ; mulps %xmm12,%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 65,15,82,194 ; rsqrtps %xmm10,%xmm0
- DB 68,15,83,240 ; rcpps %xmm0,%xmm14
- DB 69,15,92,242 ; subps %xmm10,%xmm14
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,194,199,2 ; cmpleps %xmm7,%xmm0
- DB 102,68,15,56,20,242 ; blendvps %xmm0,%xmm2,%xmm14
- DB 68,15,40,249 ; movaps %xmm1,%xmm15
- DB 69,15,92,250 ; subps %xmm10,%xmm15
- DB 15,40,108,36,16 ; movaps 0x10(%rsp),%xmm5
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 68,15,89,250 ; mulps %xmm2,%xmm15
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 68,15,89,242 ; mulps %xmm2,%xmm14
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,41,36,36 ; movaps %xmm4,(%rsp)
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 68,15,88,242 ; addps %xmm2,%xmm14
- DB 68,15,88,251 ; addps %xmm3,%xmm15
- DB 68,15,89,252 ; mulps %xmm4,%xmm15
- DB 15,194,195,2 ; cmpleps %xmm3,%xmm0
- DB 102,69,15,56,20,247 ; blendvps %xmm0,%xmm15,%xmm14
- DB 68,15,40,249 ; movaps %xmm1,%xmm15
- DB 15,40,100,36,32 ; movaps 0x20(%rsp),%xmm4
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,94,199 ; divps %xmm7,%xmm0
- DB 65,15,84,193 ; andps %xmm9,%xmm0
- DB 68,15,40,209 ; movaps %xmm1,%xmm10
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 68,15,88,232 ; addps %xmm0,%xmm13
- DB 68,15,89,224 ; mulps %xmm0,%xmm12
- DB 15,82,208 ; rsqrtps %xmm0,%xmm2
- DB 68,15,83,202 ; rcpps %xmm2,%xmm9
- DB 68,15,92,200 ; subps %xmm0,%xmm9
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,89,210 ; mulps %xmm2,%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 68,15,89,234 ; mulps %xmm2,%xmm13
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,194,199,2 ; cmpleps %xmm7,%xmm0
- DB 102,69,15,56,20,204 ; blendvps %xmm0,%xmm12,%xmm9
- DB 68,15,40,100,36,48 ; movaps 0x30(%rsp),%xmm12
- DB 65,15,40,196 ; movaps %xmm12,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 68,15,89,202 ; mulps %xmm2,%xmm9
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 68,15,88,202 ; addps %xmm2,%xmm9
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,194,195,2 ; cmpleps %xmm3,%xmm0
- DB 102,68,15,56,20,201 ; blendvps %xmm0,%xmm1,%xmm9
- DB 68,15,92,255 ; subps %xmm7,%xmm15
- DB 69,15,89,199 ; mulps %xmm15,%xmm8
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 65,15,89,207 ; mulps %xmm15,%xmm1
- DB 69,15,89,252 ; mulps %xmm12,%xmm15
- DB 68,15,92,211 ; subps %xmm3,%xmm10
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 68,15,88,192 ; addps %xmm0,%xmm8
- DB 69,15,88,195 ; addps %xmm11,%xmm8
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 15,40,44,36 ; movaps (%rsp),%xmm5
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 65,15,88,206 ; addps %xmm14,%xmm1
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 65,15,88,199 ; addps %xmm15,%xmm0
- DB 68,15,88,200 ; addps %xmm0,%xmm9
- DB 68,15,89,215 ; mulps %xmm7,%xmm10
- DB 65,15,88,218 ; addps %xmm10,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 15,40,242 ; movaps %xmm2,%xmm6
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 72,131,196,72 ; add $0x48,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hue_sse41
-_sk_hue_sse41 LABEL PROC
- DB 72,131,236,104 ; sub $0x68,%rsp
- DB 15,41,60,36 ; movaps %xmm7,(%rsp)
- DB 68,15,40,246 ; movaps %xmm6,%xmm14
- DB 15,40,244 ; movaps %xmm4,%xmm6
- DB 68,15,40,195 ; movaps %xmm3,%xmm8
- DB 15,41,84,36,80 ; movaps %xmm2,0x50(%rsp)
- DB 15,41,76,36,64 ; movaps %xmm1,0x40(%rsp)
- DB 68,15,40,208 ; movaps %xmm0,%xmm10
- DB 68,15,41,84,36,48 ; movaps %xmm10,0x30(%rsp)
- DB 69,15,89,208 ; mulps %xmm8,%xmm10
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 68,15,40,234 ; movaps %xmm2,%xmm13
- DB 69,15,89,232 ; mulps %xmm8,%xmm13
- DB 68,15,40,205 ; movaps %xmm5,%xmm9
- DB 68,15,40,221 ; movaps %xmm5,%xmm11
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%rsp)
- DB 69,15,95,222 ; maxps %xmm14,%xmm11
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 68,15,40,230 ; movaps %xmm6,%xmm12
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 65,15,95,211 ; maxps %xmm11,%xmm2
- DB 65,15,40,230 ; movaps %xmm14,%xmm4
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%rsp)
- DB 68,15,93,204 ; minps %xmm4,%xmm9
- DB 65,15,93,249 ; minps %xmm9,%xmm7
- DB 15,92,215 ; subps %xmm7,%xmm2
- DB 15,40,249 ; movaps %xmm1,%xmm7
- DB 65,15,93,253 ; minps %xmm13,%xmm7
- DB 65,15,40,218 ; movaps %xmm10,%xmm3
- DB 15,93,223 ; minps %xmm7,%xmm3
- DB 15,40,249 ; movaps %xmm1,%xmm7
- DB 65,15,95,253 ; maxps %xmm13,%xmm7
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 15,95,199 ; maxps %xmm7,%xmm0
- DB 15,40,253 ; movaps %xmm5,%xmm7
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,92,195 ; subps %xmm3,%xmm0
- DB 68,15,92,211 ; subps %xmm3,%xmm10
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 68,15,92,235 ; subps %xmm3,%xmm13
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 68,15,89,210 ; mulps %xmm2,%xmm10
- DB 68,15,94,208 ; divps %xmm0,%xmm10
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,94,200 ; divps %xmm0,%xmm1
- DB 68,15,89,234 ; mulps %xmm2,%xmm13
- DB 68,15,94,232 ; divps %xmm0,%xmm13
- DB 15,194,195,4 ; cmpneqps %xmm3,%xmm0
- DB 68,15,84,208 ; andps %xmm0,%xmm10
- DB 15,84,200 ; andps %xmm0,%xmm1
- DB 68,15,84,232 ; andps %xmm0,%xmm13
- DB 15,40,5,154,248,1,0 ; movaps 0x1f89a(%rip),%xmm0 # 35530 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
- DB 68,15,89,224 ; mulps %xmm0,%xmm12
- DB 15,40,21,159,248,1,0 ; movaps 0x1f89f(%rip),%xmm2 # 35540 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
- DB 15,89,250 ; mulps %xmm2,%xmm7
- DB 65,15,88,252 ; addps %xmm12,%xmm7
- DB 68,15,40,53,160,248,1,0 ; movaps 0x1f8a0(%rip),%xmm14 # 35550 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
- DB 68,15,40,252 ; movaps %xmm4,%xmm15
- DB 69,15,89,254 ; mulps %xmm14,%xmm15
- DB 68,15,88,255 ; addps %xmm7,%xmm15
- DB 65,15,40,218 ; movaps %xmm10,%xmm3
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,40,249 ; movaps %xmm1,%xmm7
- DB 15,89,250 ; mulps %xmm2,%xmm7
- DB 15,88,251 ; addps %xmm3,%xmm7
- DB 65,15,40,221 ; movaps %xmm13,%xmm3
- DB 65,15,89,222 ; mulps %xmm14,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 69,15,89,248 ; mulps %xmm8,%xmm15
- DB 68,15,92,251 ; subps %xmm3,%xmm15
- DB 69,15,88,215 ; addps %xmm15,%xmm10
- DB 65,15,88,207 ; addps %xmm15,%xmm1
- DB 69,15,88,253 ; addps %xmm13,%xmm15
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 65,15,93,223 ; minps %xmm15,%xmm3
- DB 65,15,40,250 ; movaps %xmm10,%xmm7
- DB 15,93,251 ; minps %xmm3,%xmm7
- DB 65,15,89,194 ; mulps %xmm10,%xmm0
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 69,15,89,247 ; mulps %xmm15,%xmm14
- DB 68,15,88,242 ; addps %xmm2,%xmm14
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,194,207,2 ; cmpleps %xmm7,%xmm9
- DB 65,15,40,222 ; movaps %xmm14,%xmm3
- DB 15,92,223 ; subps %xmm7,%xmm3
- DB 69,15,40,234 ; movaps %xmm10,%xmm13
- DB 69,15,92,238 ; subps %xmm14,%xmm13
- DB 69,15,89,238 ; mulps %xmm14,%xmm13
- DB 68,15,94,235 ; divps %xmm3,%xmm13
- DB 69,15,88,238 ; addps %xmm14,%xmm13
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,69,15,56,20,234 ; blendvps %xmm0,%xmm10,%xmm13
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 65,15,95,199 ; maxps %xmm15,%xmm0
- DB 68,15,95,208 ; maxps %xmm0,%xmm10
- DB 65,15,40,248 ; movaps %xmm8,%xmm7
- DB 15,40,44,36 ; movaps (%rsp),%xmm5
- DB 15,89,253 ; mulps %xmm5,%xmm7
- DB 15,40,231 ; movaps %xmm7,%xmm4
- DB 65,15,194,226,1 ; cmpltps %xmm10,%xmm4
- DB 65,15,40,213 ; movaps %xmm13,%xmm2
- DB 65,15,92,214 ; subps %xmm14,%xmm2
- DB 68,15,40,223 ; movaps %xmm7,%xmm11
- DB 69,15,92,222 ; subps %xmm14,%xmm11
- DB 65,15,89,211 ; mulps %xmm11,%xmm2
- DB 69,15,92,214 ; subps %xmm14,%xmm10
- DB 65,15,94,210 ; divps %xmm10,%xmm2
- DB 65,15,88,214 ; addps %xmm14,%xmm2
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 102,68,15,56,20,234 ; blendvps %xmm0,%xmm2,%xmm13
- DB 68,15,40,225 ; movaps %xmm1,%xmm12
- DB 69,15,92,230 ; subps %xmm14,%xmm12
- DB 69,15,89,230 ; mulps %xmm14,%xmm12
- DB 68,15,94,227 ; divps %xmm3,%xmm12
- DB 69,15,88,230 ; addps %xmm14,%xmm12
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,68,15,56,20,225 ; blendvps %xmm0,%xmm1,%xmm12
- DB 65,15,40,204 ; movaps %xmm12,%xmm1
- DB 65,15,92,206 ; subps %xmm14,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 65,15,94,202 ; divps %xmm10,%xmm1
- DB 65,15,88,206 ; addps %xmm14,%xmm1
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 102,68,15,56,20,225 ; blendvps %xmm0,%xmm1,%xmm12
- DB 65,15,40,207 ; movaps %xmm15,%xmm1
- DB 65,15,92,206 ; subps %xmm14,%xmm1
- DB 65,15,89,206 ; mulps %xmm14,%xmm1
- DB 15,94,203 ; divps %xmm3,%xmm1
- DB 65,15,88,206 ; addps %xmm14,%xmm1
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,65,15,56,20,207 ; blendvps %xmm0,%xmm15,%xmm1
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 65,15,92,214 ; subps %xmm14,%xmm2
- DB 65,15,89,211 ; mulps %xmm11,%xmm2
- DB 65,15,94,210 ; divps %xmm10,%xmm2
- DB 65,15,88,214 ; addps %xmm14,%xmm2
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 102,15,56,20,202 ; blendvps %xmm0,%xmm2,%xmm1
- DB 68,15,40,13,181,246,1,0 ; movaps 0x1f6b5(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,40,225 ; movaps %xmm9,%xmm4
- DB 15,92,229 ; subps %xmm5,%xmm4
- DB 15,40,68,36,48 ; movaps 0x30(%rsp),%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,40,92,36,64 ; movaps 0x40(%rsp),%xmm3
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 15,89,100,36,80 ; mulps 0x50(%rsp),%xmm4
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 68,15,88,197 ; addps %xmm5,%xmm8
- DB 68,15,40,213 ; movaps %xmm5,%xmm10
- DB 68,15,92,199 ; subps %xmm7,%xmm8
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 68,15,95,234 ; maxps %xmm2,%xmm13
- DB 68,15,95,226 ; maxps %xmm2,%xmm12
- DB 15,95,202 ; maxps %xmm2,%xmm1
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 65,15,88,197 ; addps %xmm13,%xmm0
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 15,40,108,36,32 ; movaps 0x20(%rsp),%xmm5
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 65,15,88,220 ; addps %xmm12,%xmm3
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,40,92,36,16 ; movaps 0x10(%rsp),%xmm3
- DB 68,15,89,203 ; mulps %xmm3,%xmm9
- DB 68,15,88,204 ; addps %xmm4,%xmm9
- DB 68,15,88,201 ; addps %xmm1,%xmm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 15,40,243 ; movaps %xmm3,%xmm6
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 65,15,40,216 ; movaps %xmm8,%xmm3
- DB 65,15,40,250 ; movaps %xmm10,%xmm7
- DB 72,131,196,104 ; add $0x68,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_saturation_sse41
-_sk_saturation_sse41 LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 68,15,40,206 ; movaps %xmm6,%xmm9
- DB 15,40,245 ; movaps %xmm5,%xmm6
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,41,76,36,48 ; movaps %xmm1,0x30(%rsp)
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%rsp)
- DB 68,15,40,212 ; movaps %xmm4,%xmm10
- DB 68,15,89,213 ; mulps %xmm5,%xmm10
- DB 68,15,40,220 ; movaps %xmm4,%xmm11
- DB 68,15,89,222 ; mulps %xmm6,%xmm11
- DB 68,15,40,196 ; movaps %xmm4,%xmm8
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 69,15,40,241 ; movaps %xmm9,%xmm14
- DB 68,15,41,116,36,16 ; movaps %xmm14,0x10(%rsp)
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 68,15,40,202 ; movaps %xmm2,%xmm9
- DB 68,15,41,76,36,64 ; movaps %xmm9,0x40(%rsp)
- DB 65,15,95,217 ; maxps %xmm9,%xmm3
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,95,211 ; maxps %xmm3,%xmm2
- DB 68,15,40,225 ; movaps %xmm1,%xmm12
- DB 69,15,93,225 ; minps %xmm9,%xmm12
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 65,15,93,220 ; minps %xmm12,%xmm3
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 68,15,40,231 ; movaps %xmm7,%xmm12
- DB 68,15,41,36,36 ; movaps %xmm12,(%rsp)
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 65,15,40,218 ; movaps %xmm10,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 65,15,95,192 ; maxps %xmm8,%xmm0
- DB 65,15,40,250 ; movaps %xmm10,%xmm7
- DB 15,95,248 ; maxps %xmm0,%xmm7
- DB 15,92,251 ; subps %xmm3,%xmm7
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 68,15,92,211 ; subps %xmm3,%xmm10
- DB 68,15,89,210 ; mulps %xmm2,%xmm10
- DB 68,15,94,215 ; divps %xmm7,%xmm10
- DB 68,15,92,219 ; subps %xmm3,%xmm11
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 68,15,94,223 ; divps %xmm7,%xmm11
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 68,15,89,194 ; mulps %xmm2,%xmm8
- DB 68,15,94,199 ; divps %xmm7,%xmm8
- DB 15,194,248,4 ; cmpneqps %xmm0,%xmm7
- DB 68,15,84,215 ; andps %xmm7,%xmm10
- DB 68,15,84,223 ; andps %xmm7,%xmm11
- DB 68,15,84,199 ; andps %xmm7,%xmm8
- DB 15,40,21,216,245,1,0 ; movaps 0x1f5d8(%rip),%xmm2 # 35530 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
- DB 15,40,221 ; movaps %xmm5,%xmm3
- DB 15,89,218 ; mulps %xmm2,%xmm3
- DB 15,40,13,219,245,1,0 ; movaps 0x1f5db(%rip),%xmm1 # 35540 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 15,88,251 ; addps %xmm3,%xmm7
- DB 68,15,40,45,218,245,1,0 ; movaps 0x1f5da(%rip),%xmm13 # 35550 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
- DB 69,15,89,245 ; mulps %xmm13,%xmm14
- DB 68,15,88,247 ; addps %xmm7,%xmm14
- DB 65,15,40,218 ; movaps %xmm10,%xmm3
- DB 15,89,218 ; mulps %xmm2,%xmm3
- DB 65,15,40,251 ; movaps %xmm11,%xmm7
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 15,88,251 ; addps %xmm3,%xmm7
- DB 65,15,40,216 ; movaps %xmm8,%xmm3
- DB 65,15,89,221 ; mulps %xmm13,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 68,15,89,244 ; mulps %xmm4,%xmm14
- DB 68,15,92,243 ; subps %xmm3,%xmm14
- DB 69,15,88,214 ; addps %xmm14,%xmm10
- DB 69,15,88,222 ; addps %xmm14,%xmm11
- DB 69,15,88,240 ; addps %xmm8,%xmm14
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 65,15,93,198 ; minps %xmm14,%xmm0
- DB 65,15,40,218 ; movaps %xmm10,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 65,15,89,210 ; mulps %xmm10,%xmm2
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 69,15,89,238 ; mulps %xmm14,%xmm13
- DB 68,15,88,233 ; addps %xmm1,%xmm13
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,194,203,2 ; cmpleps %xmm3,%xmm9
- DB 65,15,40,253 ; movaps %xmm13,%xmm7
- DB 15,92,251 ; subps %xmm3,%xmm7
- DB 69,15,40,250 ; movaps %xmm10,%xmm15
- DB 69,15,92,253 ; subps %xmm13,%xmm15
- DB 69,15,89,253 ; mulps %xmm13,%xmm15
- DB 68,15,94,255 ; divps %xmm7,%xmm15
- DB 69,15,88,253 ; addps %xmm13,%xmm15
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,69,15,56,20,250 ; blendvps %xmm0,%xmm10,%xmm15
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 65,15,95,198 ; maxps %xmm14,%xmm0
- DB 68,15,95,208 ; maxps %xmm0,%xmm10
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 65,15,89,212 ; mulps %xmm12,%xmm2
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 69,15,194,194,1 ; cmpltps %xmm10,%xmm8
- DB 65,15,40,223 ; movaps %xmm15,%xmm3
- DB 65,15,92,221 ; subps %xmm13,%xmm3
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 65,15,92,205 ; subps %xmm13,%xmm1
- DB 15,89,217 ; mulps %xmm1,%xmm3
- DB 69,15,92,213 ; subps %xmm13,%xmm10
- DB 65,15,94,218 ; divps %xmm10,%xmm3
- DB 65,15,88,221 ; addps %xmm13,%xmm3
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 102,68,15,56,20,251 ; blendvps %xmm0,%xmm3,%xmm15
- DB 69,15,40,227 ; movaps %xmm11,%xmm12
- DB 69,15,92,229 ; subps %xmm13,%xmm12
- DB 69,15,89,229 ; mulps %xmm13,%xmm12
- DB 68,15,94,231 ; divps %xmm7,%xmm12
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,69,15,56,20,227 ; blendvps %xmm0,%xmm11,%xmm12
- DB 65,15,40,220 ; movaps %xmm12,%xmm3
- DB 65,15,92,221 ; subps %xmm13,%xmm3
- DB 15,89,217 ; mulps %xmm1,%xmm3
- DB 65,15,94,218 ; divps %xmm10,%xmm3
- DB 65,15,88,221 ; addps %xmm13,%xmm3
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 102,68,15,56,20,227 ; blendvps %xmm0,%xmm3,%xmm12
- DB 69,15,40,222 ; movaps %xmm14,%xmm11
- DB 69,15,92,221 ; subps %xmm13,%xmm11
- DB 69,15,89,221 ; mulps %xmm13,%xmm11
- DB 68,15,94,223 ; divps %xmm7,%xmm11
- DB 69,15,88,221 ; addps %xmm13,%xmm11
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,69,15,56,20,222 ; blendvps %xmm0,%xmm14,%xmm11
- DB 65,15,40,251 ; movaps %xmm11,%xmm7
- DB 65,15,92,253 ; subps %xmm13,%xmm7
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 65,15,94,250 ; divps %xmm10,%xmm7
- DB 65,15,88,253 ; addps %xmm13,%xmm7
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 102,68,15,56,20,223 ; blendvps %xmm0,%xmm7,%xmm11
- DB 68,15,40,13,240,243,1,0 ; movaps 0x1f3f0(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,193 ; movaps %xmm9,%xmm8
- DB 68,15,92,204 ; subps %xmm4,%xmm9
- DB 15,40,60,36 ; movaps (%rsp),%xmm7
- DB 15,88,231 ; addps %xmm7,%xmm4
- DB 15,92,226 ; subps %xmm2,%xmm4
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 68,15,95,248 ; maxps %xmm0,%xmm15
- DB 68,15,95,224 ; maxps %xmm0,%xmm12
- DB 68,15,95,216 ; maxps %xmm0,%xmm11
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 68,15,92,199 ; subps %xmm7,%xmm8
- DB 15,40,68,36,32 ; movaps 0x20(%rsp),%xmm0
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 15,88,193 ; addps %xmm1,%xmm0
- DB 65,15,88,199 ; addps %xmm15,%xmm0
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,40,84,36,48 ; movaps 0x30(%rsp),%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,88,209 ; addps %xmm1,%xmm2
- DB 65,15,88,212 ; addps %xmm12,%xmm2
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 68,15,89,68,36,64 ; mulps 0x40(%rsp),%xmm8
- DB 15,40,84,36,16 ; movaps 0x10(%rsp),%xmm2
- DB 68,15,89,202 ; mulps %xmm2,%xmm9
- DB 69,15,88,200 ; addps %xmm8,%xmm9
- DB 69,15,88,203 ; addps %xmm11,%xmm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,40,238 ; movaps %xmm6,%xmm5
- DB 15,40,242 ; movaps %xmm2,%xmm6
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_color_sse41
-_sk_color_sse41 LABEL PROC
- DB 72,131,236,72 ; sub $0x48,%rsp
- DB 68,15,40,230 ; movaps %xmm6,%xmm12
- DB 68,15,41,100,36,16 ; movaps %xmm12,0x10(%rsp)
- DB 68,15,40,221 ; movaps %xmm5,%xmm11
- DB 68,15,41,92,36,32 ; movaps %xmm11,0x20(%rsp)
- DB 68,15,40,212 ; movaps %xmm4,%xmm10
- DB 68,15,41,84,36,48 ; movaps %xmm10,0x30(%rsp)
- DB 15,40,243 ; movaps %xmm3,%xmm6
- DB 15,41,20,36 ; movaps %xmm2,(%rsp)
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 69,15,40,240 ; movaps %xmm8,%xmm14
- DB 15,40,231 ; movaps %xmm7,%xmm4
- DB 68,15,89,244 ; mulps %xmm4,%xmm14
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 68,15,40,13,165,243,1,0 ; movaps 0x1f3a5(%rip),%xmm9 # 35530 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
- DB 65,15,40,250 ; movaps %xmm10,%xmm7
- DB 65,15,89,249 ; mulps %xmm9,%xmm7
- DB 68,15,40,21,165,243,1,0 ; movaps 0x1f3a5(%rip),%xmm10 # 35540 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
- DB 65,15,40,219 ; movaps %xmm11,%xmm3
- DB 65,15,89,218 ; mulps %xmm10,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 68,15,40,29,162,243,1,0 ; movaps 0x1f3a2(%rip),%xmm11 # 35550 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
- DB 69,15,40,236 ; movaps %xmm12,%xmm13
- DB 69,15,89,235 ; mulps %xmm11,%xmm13
- DB 68,15,88,235 ; addps %xmm3,%xmm13
- DB 65,15,40,222 ; movaps %xmm14,%xmm3
- DB 65,15,89,217 ; mulps %xmm9,%xmm3
- DB 15,40,249 ; movaps %xmm1,%xmm7
- DB 65,15,89,250 ; mulps %xmm10,%xmm7
- DB 15,88,251 ; addps %xmm3,%xmm7
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 65,15,89,219 ; mulps %xmm11,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 68,15,89,238 ; mulps %xmm6,%xmm13
- DB 68,15,92,235 ; subps %xmm3,%xmm13
- DB 69,15,88,245 ; addps %xmm13,%xmm14
- DB 65,15,88,205 ; addps %xmm13,%xmm1
- DB 68,15,88,232 ; addps %xmm0,%xmm13
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 65,15,93,197 ; minps %xmm13,%xmm0
- DB 65,15,40,222 ; movaps %xmm14,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 69,15,89,206 ; mulps %xmm14,%xmm9
- DB 68,15,89,209 ; mulps %xmm1,%xmm10
- DB 69,15,88,209 ; addps %xmm9,%xmm10
- DB 69,15,89,221 ; mulps %xmm13,%xmm11
- DB 69,15,88,218 ; addps %xmm10,%xmm11
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,194,203,2 ; cmpleps %xmm3,%xmm9
- DB 69,15,40,230 ; movaps %xmm14,%xmm12
- DB 69,15,92,227 ; subps %xmm11,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 65,15,40,251 ; movaps %xmm11,%xmm7
- DB 15,92,251 ; subps %xmm3,%xmm7
- DB 68,15,94,231 ; divps %xmm7,%xmm12
- DB 69,15,88,227 ; addps %xmm11,%xmm12
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,69,15,56,20,230 ; blendvps %xmm0,%xmm14,%xmm12
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 65,15,95,197 ; maxps %xmm13,%xmm0
- DB 65,15,40,214 ; movaps %xmm14,%xmm2
- DB 15,95,208 ; maxps %xmm0,%xmm2
- DB 15,40,222 ; movaps %xmm6,%xmm3
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 68,15,194,210,1 ; cmpltps %xmm2,%xmm10
- DB 69,15,40,244 ; movaps %xmm12,%xmm14
- DB 69,15,92,243 ; subps %xmm11,%xmm14
- DB 68,15,40,251 ; movaps %xmm3,%xmm15
- DB 69,15,92,251 ; subps %xmm11,%xmm15
- DB 69,15,89,247 ; mulps %xmm15,%xmm14
- DB 65,15,92,211 ; subps %xmm11,%xmm2
- DB 68,15,94,242 ; divps %xmm2,%xmm14
- DB 69,15,88,243 ; addps %xmm11,%xmm14
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 102,69,15,56,20,230 ; blendvps %xmm0,%xmm14,%xmm12
- DB 68,15,40,241 ; movaps %xmm1,%xmm14
- DB 69,15,92,243 ; subps %xmm11,%xmm14
- DB 69,15,89,243 ; mulps %xmm11,%xmm14
- DB 68,15,94,247 ; divps %xmm7,%xmm14
- DB 69,15,88,243 ; addps %xmm11,%xmm14
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,68,15,56,20,241 ; blendvps %xmm0,%xmm1,%xmm14
- DB 65,15,40,206 ; movaps %xmm14,%xmm1
- DB 65,15,92,203 ; subps %xmm11,%xmm1
- DB 65,15,89,207 ; mulps %xmm15,%xmm1
- DB 15,94,202 ; divps %xmm2,%xmm1
- DB 65,15,88,203 ; addps %xmm11,%xmm1
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 102,68,15,56,20,241 ; blendvps %xmm0,%xmm1,%xmm14
- DB 65,15,40,205 ; movaps %xmm13,%xmm1
- DB 65,15,92,203 ; subps %xmm11,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 15,94,207 ; divps %xmm7,%xmm1
- DB 65,15,88,203 ; addps %xmm11,%xmm1
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,65,15,56,20,205 ; blendvps %xmm0,%xmm13,%xmm1
- DB 15,40,249 ; movaps %xmm1,%xmm7
- DB 65,15,92,251 ; subps %xmm11,%xmm7
- DB 65,15,89,255 ; mulps %xmm15,%xmm7
- DB 15,94,250 ; divps %xmm2,%xmm7
- DB 65,15,88,251 ; addps %xmm11,%xmm7
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 102,15,56,20,207 ; blendvps %xmm0,%xmm7,%xmm1
- DB 68,15,40,13,174,241,1,0 ; movaps 0x1f1ae(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 15,89,232 ; mulps %xmm0,%xmm5
- DB 15,89,4,36 ; mulps (%rsp),%xmm0
- DB 68,15,92,206 ; subps %xmm6,%xmm9
- DB 15,88,244 ; addps %xmm4,%xmm6
- DB 15,40,252 ; movaps %xmm4,%xmm7
- DB 15,92,243 ; subps %xmm3,%xmm6
- DB 15,40,222 ; movaps %xmm6,%xmm3
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 68,15,95,226 ; maxps %xmm2,%xmm12
- DB 68,15,95,242 ; maxps %xmm2,%xmm14
- DB 15,95,202 ; maxps %xmm2,%xmm1
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 15,40,100,36,48 ; movaps 0x30(%rsp),%xmm4
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 68,15,88,194 ; addps %xmm2,%xmm8
- DB 69,15,88,196 ; addps %xmm12,%xmm8
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 15,40,116,36,32 ; movaps 0x20(%rsp),%xmm6
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 68,15,40,213 ; movaps %xmm5,%xmm10
- DB 68,15,88,210 ; addps %xmm2,%xmm10
- DB 69,15,88,214 ; addps %xmm14,%xmm10
- DB 15,40,84,36,16 ; movaps 0x10(%rsp),%xmm2
- DB 68,15,89,202 ; mulps %xmm2,%xmm9
- DB 68,15,88,200 ; addps %xmm0,%xmm9
- DB 68,15,88,201 ; addps %xmm1,%xmm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,238 ; movaps %xmm6,%xmm5
- DB 15,40,242 ; movaps %xmm2,%xmm6
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 65,15,40,202 ; movaps %xmm10,%xmm1
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 72,131,196,72 ; add $0x48,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_luminosity_sse41
-_sk_luminosity_sse41 LABEL PROC
- DB 72,131,236,72 ; sub $0x48,%rsp
- DB 15,41,116,36,16 ; movaps %xmm6,0x10(%rsp)
- DB 15,41,108,36,48 ; movaps %xmm5,0x30(%rsp)
- DB 68,15,40,196 ; movaps %xmm4,%xmm8
- DB 68,15,41,68,36,32 ; movaps %xmm8,0x20(%rsp)
- DB 15,41,20,36 ; movaps %xmm2,(%rsp)
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 68,15,40,219 ; movaps %xmm3,%xmm11
- DB 69,15,89,216 ; mulps %xmm8,%xmm11
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 68,15,40,5,112,241,1,0 ; movaps 0x1f170(%rip),%xmm8 # 35530 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 68,15,40,21,116,241,1,0 ; movaps 0x1f174(%rip),%xmm10 # 35540 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 65,15,89,234 ; mulps %xmm10,%xmm5
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 68,15,40,37,114,241,1,0 ; movaps 0x1f172(%rip),%xmm12 # 35550 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
- DB 68,15,40,242 ; movaps %xmm2,%xmm14
- DB 69,15,89,244 ; mulps %xmm12,%xmm14
- DB 68,15,88,245 ; addps %xmm5,%xmm14
- DB 65,15,40,235 ; movaps %xmm11,%xmm5
- DB 65,15,89,232 ; mulps %xmm8,%xmm5
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 65,15,89,210 ; mulps %xmm10,%xmm2
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 65,15,89,236 ; mulps %xmm12,%xmm5
- DB 15,88,234 ; addps %xmm2,%xmm5
- DB 68,15,89,247 ; mulps %xmm7,%xmm14
- DB 68,15,92,245 ; subps %xmm5,%xmm14
- DB 69,15,88,222 ; addps %xmm14,%xmm11
- DB 69,15,88,206 ; addps %xmm14,%xmm9
- DB 68,15,88,240 ; addps %xmm0,%xmm14
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,93,198 ; minps %xmm14,%xmm0
- DB 65,15,40,235 ; movaps %xmm11,%xmm5
- DB 15,93,232 ; minps %xmm0,%xmm5
- DB 69,15,89,195 ; mulps %xmm11,%xmm8
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,208 ; addps %xmm8,%xmm10
- DB 69,15,89,230 ; mulps %xmm14,%xmm12
- DB 69,15,88,226 ; addps %xmm10,%xmm12
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 68,15,194,213,2 ; cmpleps %xmm5,%xmm10
- DB 69,15,40,235 ; movaps %xmm11,%xmm13
- DB 69,15,92,236 ; subps %xmm12,%xmm13
- DB 69,15,89,236 ; mulps %xmm12,%xmm13
- DB 65,15,40,244 ; movaps %xmm12,%xmm6
- DB 15,92,245 ; subps %xmm5,%xmm6
- DB 68,15,94,238 ; divps %xmm6,%xmm13
- DB 69,15,88,236 ; addps %xmm12,%xmm13
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 102,69,15,56,20,235 ; blendvps %xmm0,%xmm11,%xmm13
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,95,198 ; maxps %xmm14,%xmm0
- DB 65,15,40,211 ; movaps %xmm11,%xmm2
- DB 15,95,208 ; maxps %xmm0,%xmm2
- DB 15,40,235 ; movaps %xmm3,%xmm5
- DB 15,89,239 ; mulps %xmm7,%xmm5
- DB 68,15,40,221 ; movaps %xmm5,%xmm11
- DB 68,15,194,218,1 ; cmpltps %xmm2,%xmm11
- DB 69,15,40,197 ; movaps %xmm13,%xmm8
- DB 69,15,92,196 ; subps %xmm12,%xmm8
- DB 68,15,40,253 ; movaps %xmm5,%xmm15
- DB 69,15,92,252 ; subps %xmm12,%xmm15
- DB 69,15,89,199 ; mulps %xmm15,%xmm8
- DB 65,15,92,212 ; subps %xmm12,%xmm2
- DB 68,15,94,194 ; divps %xmm2,%xmm8
- DB 69,15,88,196 ; addps %xmm12,%xmm8
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 102,69,15,56,20,232 ; blendvps %xmm0,%xmm8,%xmm13
- DB 69,15,40,193 ; movaps %xmm9,%xmm8
- DB 69,15,92,196 ; subps %xmm12,%xmm8
- DB 69,15,89,196 ; mulps %xmm12,%xmm8
- DB 68,15,94,198 ; divps %xmm6,%xmm8
- DB 69,15,88,196 ; addps %xmm12,%xmm8
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 102,69,15,56,20,193 ; blendvps %xmm0,%xmm9,%xmm8
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 69,15,92,204 ; subps %xmm12,%xmm9
- DB 69,15,89,207 ; mulps %xmm15,%xmm9
- DB 68,15,94,202 ; divps %xmm2,%xmm9
- DB 69,15,88,204 ; addps %xmm12,%xmm9
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 102,69,15,56,20,193 ; blendvps %xmm0,%xmm9,%xmm8
- DB 69,15,40,206 ; movaps %xmm14,%xmm9
- DB 69,15,92,204 ; subps %xmm12,%xmm9
- DB 69,15,89,204 ; mulps %xmm12,%xmm9
- DB 68,15,94,206 ; divps %xmm6,%xmm9
- DB 69,15,88,204 ; addps %xmm12,%xmm9
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 102,69,15,56,20,206 ; blendvps %xmm0,%xmm14,%xmm9
- DB 65,15,40,241 ; movaps %xmm9,%xmm6
- DB 65,15,92,244 ; subps %xmm12,%xmm6
- DB 65,15,89,247 ; mulps %xmm15,%xmm6
- DB 15,94,242 ; divps %xmm2,%xmm6
- DB 65,15,88,244 ; addps %xmm12,%xmm6
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 102,68,15,56,20,206 ; blendvps %xmm0,%xmm6,%xmm9
- DB 15,40,5,120,239,1,0 ; movaps 0x1ef78(%rip),%xmm0 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,92,215 ; subps %xmm7,%xmm2
- DB 15,89,226 ; mulps %xmm2,%xmm4
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,89,20,36 ; mulps (%rsp),%xmm2
- DB 15,92,195 ; subps %xmm3,%xmm0
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 15,92,221 ; subps %xmm5,%xmm3
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 68,15,95,237 ; maxps %xmm5,%xmm13
- DB 68,15,95,197 ; maxps %xmm5,%xmm8
- DB 68,15,95,205 ; maxps %xmm5,%xmm9
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 68,15,40,84,36,32 ; movaps 0x20(%rsp),%xmm10
- DB 65,15,89,234 ; mulps %xmm10,%xmm5
- DB 15,88,229 ; addps %xmm5,%xmm4
- DB 65,15,88,229 ; addps %xmm13,%xmm4
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,40,108,36,48 ; movaps 0x30(%rsp),%xmm5
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 15,40,116,36,16 ; movaps 0x10(%rsp),%xmm6
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 68,15,88,200 ; addps %xmm0,%xmm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 65,15,40,226 ; movaps %xmm10,%xmm4
- DB 72,131,196,72 ; add $0x48,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_rgba_8888_sse41
-_sk_srcover_rgba_8888_sse41 LABEL PROC
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,0,1,0,0 ; jne 166c7 <_sk_srcover_rgba_8888_sse41+0x11f>
- DB 243,65,15,111,4,144 ; movdqu (%r8,%rdx,4),%xmm0
- DB 72,133,255 ; test %rdi,%rdi
- DB 102,15,111,37,136,239,1,0 ; movdqa 0x1ef88(%rip),%xmm4 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,15,219,224 ; pand %xmm0,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,56,0,45,132,239,1,0 ; pshufb 0x1ef84(%rip),%xmm5 # 35570 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,56,0,53,132,239,1,0 ; pshufb 0x1ef84(%rip),%xmm6 # 35580 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 102,15,114,208,24 ; psrld $0x18,%xmm0
- DB 15,91,248 ; cvtdq2ps %xmm0,%xmm7
- DB 68,15,40,5,157,238,1,0 ; movaps 0x1ee9d(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 68,15,40,37,113,239,1,0 ; movaps 0x1ef71(%rip),%xmm12 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 69,15,89,204 ; mulps %xmm12,%xmm9
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 65,15,88,193 ; addps %xmm9,%xmm0
- DB 65,15,89,204 ; mulps %xmm12,%xmm1
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 68,15,88,201 ; addps %xmm1,%xmm9
- DB 65,15,89,212 ; mulps %xmm12,%xmm2
- DB 69,15,40,208 ; movaps %xmm8,%xmm10
- DB 68,15,89,214 ; mulps %xmm6,%xmm10
- DB 68,15,88,210 ; addps %xmm2,%xmm10
- DB 65,15,89,220 ; mulps %xmm12,%xmm3
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 68,15,88,195 ; addps %xmm3,%xmm8
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,95,200 ; maxps %xmm0,%xmm1
- DB 65,15,93,204 ; minps %xmm12,%xmm1
- DB 102,15,91,201 ; cvtps2dq %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 65,15,95,209 ; maxps %xmm9,%xmm2
- DB 65,15,93,212 ; minps %xmm12,%xmm2
- DB 102,15,91,210 ; cvtps2dq %xmm2,%xmm2
- DB 102,15,114,242,8 ; pslld $0x8,%xmm2
- DB 102,15,235,209 ; por %xmm1,%xmm2
- DB 102,15,87,201 ; xorpd %xmm1,%xmm1
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,93,204 ; minps %xmm12,%xmm1
- DB 102,15,91,217 ; cvtps2dq %xmm1,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 69,15,95,216 ; maxps %xmm8,%xmm11
- DB 69,15,93,220 ; minps %xmm12,%xmm11
- DB 102,65,15,91,203 ; cvtps2dq %xmm11,%xmm1
- DB 102,15,114,241,24 ; pslld $0x18,%xmm1
- DB 102,15,235,203 ; por %xmm3,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 117,75 ; jne 166fc <_sk_srcover_rgba_8888_sse41+0x154>
- DB 243,65,15,127,12,144 ; movdqu %xmm1,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 65,15,40,216 ; movaps %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,78 ; je 1671d <_sk_srcover_rgba_8888_sse41+0x175>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 60,2 ; cmp $0x2,%al
- DB 116,20 ; je 166eb <_sk_srcover_rgba_8888_sse41+0x143>
- DB 60,3 ; cmp $0x3,%al
- DB 15,133,238,254,255,255 ; jne 165cd <_sk_srcover_rgba_8888_sse41+0x25>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 243,65,15,126,36,144 ; movq (%r8,%rdx,4),%xmm4
- DB 102,15,58,14,196,15 ; pblendw $0xf,%xmm4,%xmm0
- DB 233,209,254,255,255 ; jmpq 165cd <_sk_srcover_rgba_8888_sse41+0x25>
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,36 ; je 16728 <_sk_srcover_rgba_8888_sse41+0x180>
- DB 60,2 ; cmp $0x2,%al
- DB 116,13 ; je 16715 <_sk_srcover_rgba_8888_sse41+0x16d>
- DB 60,3 ; cmp $0x3,%al
- DB 117,171 ; jne 166b7 <_sk_srcover_rgba_8888_sse41+0x10f>
- DB 102,65,15,58,22,76,144,8,2 ; pextrd $0x2,%xmm1,0x8(%r8,%rdx,4)
- DB 102,65,15,214,12,144 ; movq %xmm1,(%r8,%rdx,4)
- DB 235,154 ; jmp 166b7 <_sk_srcover_rgba_8888_sse41+0x10f>
- DB 102,65,15,110,4,144 ; movd (%r8,%rdx,4),%xmm0
- DB 233,165,254,255,255 ; jmpq 165cd <_sk_srcover_rgba_8888_sse41+0x25>
- DB 102,65,15,126,12,144 ; movd %xmm1,(%r8,%rdx,4)
- DB 235,135 ; jmp 166b7 <_sk_srcover_rgba_8888_sse41+0x10f>
-
-PUBLIC _sk_srcover_bgra_8888_sse41
-_sk_srcover_bgra_8888_sse41 LABEL PROC
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,0,1,0,0 ; jne 1684f <_sk_srcover_bgra_8888_sse41+0x11f>
- DB 243,65,15,111,4,144 ; movdqu (%r8,%rdx,4),%xmm0
- DB 72,133,255 ; test %rdi,%rdi
- DB 102,15,111,37,0,238,1,0 ; movdqa 0x1ee00(%rip),%xmm4 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,15,219,224 ; pand %xmm0,%xmm4
- DB 15,91,244 ; cvtdq2ps %xmm4,%xmm6
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,56,0,37,252,237,1,0 ; pshufb 0x1edfc(%rip),%xmm4 # 35570 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
- DB 15,91,236 ; cvtdq2ps %xmm4,%xmm5
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,56,0,37,252,237,1,0 ; pshufb 0x1edfc(%rip),%xmm4 # 35580 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 102,15,114,208,24 ; psrld $0x18,%xmm0
- DB 15,91,248 ; cvtdq2ps %xmm0,%xmm7
- DB 68,15,40,5,21,237,1,0 ; movaps 0x1ed15(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 68,15,40,37,233,237,1,0 ; movaps 0x1ede9(%rip),%xmm12 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 69,15,89,204 ; mulps %xmm12,%xmm9
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 65,15,88,193 ; addps %xmm9,%xmm0
- DB 65,15,89,204 ; mulps %xmm12,%xmm1
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 68,15,88,201 ; addps %xmm1,%xmm9
- DB 65,15,89,212 ; mulps %xmm12,%xmm2
- DB 69,15,40,208 ; movaps %xmm8,%xmm10
- DB 68,15,89,214 ; mulps %xmm6,%xmm10
- DB 68,15,88,210 ; addps %xmm2,%xmm10
- DB 65,15,89,220 ; mulps %xmm12,%xmm3
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 68,15,88,195 ; addps %xmm3,%xmm8
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,93,204 ; minps %xmm12,%xmm1
- DB 102,15,91,201 ; cvtps2dq %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 65,15,95,209 ; maxps %xmm9,%xmm2
- DB 65,15,93,212 ; minps %xmm12,%xmm2
- DB 102,15,91,210 ; cvtps2dq %xmm2,%xmm2
- DB 102,15,114,242,8 ; pslld $0x8,%xmm2
- DB 102,15,235,209 ; por %xmm1,%xmm2
- DB 102,15,87,201 ; xorpd %xmm1,%xmm1
- DB 15,95,200 ; maxps %xmm0,%xmm1
- DB 65,15,93,204 ; minps %xmm12,%xmm1
- DB 102,15,91,217 ; cvtps2dq %xmm1,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 69,15,95,216 ; maxps %xmm8,%xmm11
- DB 69,15,93,220 ; minps %xmm12,%xmm11
- DB 102,65,15,91,203 ; cvtps2dq %xmm11,%xmm1
- DB 102,15,114,241,24 ; pslld $0x18,%xmm1
- DB 102,15,235,203 ; por %xmm3,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 117,75 ; jne 16884 <_sk_srcover_bgra_8888_sse41+0x154>
- DB 243,65,15,127,12,144 ; movdqu %xmm1,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 65,15,40,216 ; movaps %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,78 ; je 168a5 <_sk_srcover_bgra_8888_sse41+0x175>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 60,2 ; cmp $0x2,%al
- DB 116,20 ; je 16873 <_sk_srcover_bgra_8888_sse41+0x143>
- DB 60,3 ; cmp $0x3,%al
- DB 15,133,238,254,255,255 ; jne 16755 <_sk_srcover_bgra_8888_sse41+0x25>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 243,65,15,126,36,144 ; movq (%r8,%rdx,4),%xmm4
- DB 102,15,58,14,196,15 ; pblendw $0xf,%xmm4,%xmm0
- DB 233,209,254,255,255 ; jmpq 16755 <_sk_srcover_bgra_8888_sse41+0x25>
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,36 ; je 168b0 <_sk_srcover_bgra_8888_sse41+0x180>
- DB 60,2 ; cmp $0x2,%al
- DB 116,13 ; je 1689d <_sk_srcover_bgra_8888_sse41+0x16d>
- DB 60,3 ; cmp $0x3,%al
- DB 117,171 ; jne 1683f <_sk_srcover_bgra_8888_sse41+0x10f>
- DB 102,65,15,58,22,76,144,8,2 ; pextrd $0x2,%xmm1,0x8(%r8,%rdx,4)
- DB 102,65,15,214,12,144 ; movq %xmm1,(%r8,%rdx,4)
- DB 235,154 ; jmp 1683f <_sk_srcover_bgra_8888_sse41+0x10f>
- DB 102,65,15,110,4,144 ; movd (%r8,%rdx,4),%xmm0
- DB 233,165,254,255,255 ; jmpq 16755 <_sk_srcover_bgra_8888_sse41+0x25>
- DB 102,65,15,126,12,144 ; movd %xmm1,(%r8,%rdx,4)
- DB 235,135 ; jmp 1683f <_sk_srcover_bgra_8888_sse41+0x10f>
-
-PUBLIC _sk_clamp_0_sse41
-_sk_clamp_0_sse41 LABEL PROC
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 65,15,95,192 ; maxps %xmm8,%xmm0
- DB 65,15,95,200 ; maxps %xmm8,%xmm1
- DB 65,15,95,208 ; maxps %xmm8,%xmm2
- DB 65,15,95,216 ; maxps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_1_sse41
-_sk_clamp_1_sse41 LABEL PROC
- DB 68,15,40,5,216,235,1,0 ; movaps 0x1ebd8(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 65,15,93,208 ; minps %xmm8,%xmm2
- DB 65,15,93,216 ; minps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_a_sse41
-_sk_clamp_a_sse41 LABEL PROC
- DB 15,93,29,189,235,1,0 ; minps 0x1ebbd(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,93,195 ; minps %xmm3,%xmm0
- DB 15,93,203 ; minps %xmm3,%xmm1
- DB 15,93,211 ; minps %xmm3,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_a_dst_sse41
-_sk_clamp_a_dst_sse41 LABEL PROC
- DB 15,93,61,169,235,1,0 ; minps 0x1eba9(%rip),%xmm7 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,93,231 ; minps %xmm7,%xmm4
- DB 15,93,239 ; minps %xmm7,%xmm5
- DB 15,93,247 ; minps %xmm7,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_set_rgb_sse41
-_sk_set_rgb_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,15,16,80,8 ; movss 0x8(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_swap_rb_sse41
-_sk_swap_rb_sse41 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_invert_sse41
-_sk_invert_sse41 LABEL PROC
- DB 68,15,40,5,101,235,1,0 ; movaps 0x1eb65(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,92,200 ; subps %xmm0,%xmm9
- DB 69,15,40,208 ; movaps %xmm8,%xmm10
- DB 68,15,92,209 ; subps %xmm1,%xmm10
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 68,15,92,218 ; subps %xmm2,%xmm11
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,40,202 ; movaps %xmm10,%xmm1
- DB 65,15,40,211 ; movaps %xmm11,%xmm2
- DB 65,15,40,216 ; movaps %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_src_dst_sse41
-_sk_move_src_dst_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,40,242 ; movaps %xmm2,%xmm6
- DB 15,40,251 ; movaps %xmm3,%xmm7
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_dst_src_sse41
-_sk_move_dst_src_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,40,223 ; movaps %xmm7,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_sse41
-_sk_premul_sse41 LABEL PROC
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_dst_sse41
-_sk_premul_dst_sse41 LABEL PROC
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,89,239 ; mulps %xmm7,%xmm5
- DB 15,89,247 ; mulps %xmm7,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_unpremul_sse41
-_sk_unpremul_sse41 LABEL PROC
- DB 68,15,40,5,243,234,1,0 ; movaps 0x1eaf3(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,94,195 ; divps %xmm3,%xmm8
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,194,13,210,235,1,0,1 ; cmpltps 0x1ebd2(%rip),%xmm9 # 355a0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
- DB 69,15,84,200 ; andps %xmm8,%xmm9
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 65,15,89,201 ; mulps %xmm9,%xmm1
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_force_opaque_sse41
-_sk_force_opaque_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,197,234,1,0 ; movaps 0x1eac5(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_force_opaque_dst_sse41
-_sk_force_opaque_dst_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,186,234,1,0 ; movaps 0x1eaba(%rip),%xmm7 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_from_srgb_sse41
-_sk_from_srgb_sse41 LABEL PROC
- DB 68,15,40,29,176,235,1,0 ; movaps 0x1ebb0(%rip),%xmm11 # 355b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 68,15,40,208 ; movaps %xmm0,%xmm10
- DB 69,15,89,210 ; mulps %xmm10,%xmm10
- DB 68,15,40,37,24,235,1,0 ; movaps 0x1eb18(%rip),%xmm12 # 35530 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 69,15,89,196 ; mulps %xmm12,%xmm8
- DB 68,15,40,45,152,235,1,0 ; movaps 0x1eb98(%rip),%xmm13 # 355c0 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
- DB 69,15,88,197 ; addps %xmm13,%xmm8
- DB 69,15,89,194 ; mulps %xmm10,%xmm8
- DB 68,15,40,53,152,235,1,0 ; movaps 0x1eb98(%rip),%xmm14 # 355d0 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
- DB 69,15,88,198 ; addps %xmm14,%xmm8
- DB 68,15,40,61,156,235,1,0 ; movaps 0x1eb9c(%rip),%xmm15 # 355e0 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
- DB 65,15,194,199,1 ; cmpltps %xmm15,%xmm0
- DB 102,69,15,56,20,193 ; blendvps %xmm0,%xmm9,%xmm8
- DB 68,15,40,209 ; movaps %xmm1,%xmm10
- DB 69,15,89,211 ; mulps %xmm11,%xmm10
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 69,15,89,204 ; mulps %xmm12,%xmm9
- DB 69,15,88,205 ; addps %xmm13,%xmm9
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 69,15,88,206 ; addps %xmm14,%xmm9
- DB 65,15,194,207,1 ; cmpltps %xmm15,%xmm1
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 102,69,15,56,20,202 ; blendvps %xmm0,%xmm10,%xmm9
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 68,15,40,210 ; movaps %xmm2,%xmm10
- DB 69,15,89,210 ; mulps %xmm10,%xmm10
- DB 68,15,89,226 ; mulps %xmm2,%xmm12
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 69,15,89,212 ; mulps %xmm12,%xmm10
- DB 69,15,88,214 ; addps %xmm14,%xmm10
- DB 65,15,194,215,1 ; cmpltps %xmm15,%xmm2
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 102,69,15,56,20,211 ; blendvps %xmm0,%xmm11,%xmm10
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_from_srgb_dst_sse41
-_sk_from_srgb_dst_sse41 LABEL PROC
- DB 68,15,40,204 ; movaps %xmm4,%xmm9
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 68,15,40,29,231,234,1,0 ; movaps 0x1eae7(%rip),%xmm11 # 355b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
- DB 69,15,40,209 ; movaps %xmm9,%xmm10
- DB 69,15,89,211 ; mulps %xmm11,%xmm10
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,40,37,80,234,1,0 ; movaps 0x1ea50(%rip),%xmm12 # 35530 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
- DB 65,15,89,228 ; mulps %xmm12,%xmm4
- DB 68,15,40,45,212,234,1,0 ; movaps 0x1ead4(%rip),%xmm13 # 355c0 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
- DB 65,15,88,229 ; addps %xmm13,%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 68,15,40,53,213,234,1,0 ; movaps 0x1ead5(%rip),%xmm14 # 355d0 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
- DB 65,15,88,230 ; addps %xmm14,%xmm4
- DB 68,15,40,61,217,234,1,0 ; movaps 0x1ead9(%rip),%xmm15 # 355e0 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
- DB 69,15,194,207,1 ; cmpltps %xmm15,%xmm9
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,65,15,56,20,226 ; blendvps %xmm0,%xmm10,%xmm4
- DB 68,15,40,213 ; movaps %xmm5,%xmm10
- DB 69,15,89,211 ; mulps %xmm11,%xmm10
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,40,205 ; movaps %xmm5,%xmm9
- DB 69,15,89,204 ; mulps %xmm12,%xmm9
- DB 69,15,88,205 ; addps %xmm13,%xmm9
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 69,15,88,206 ; addps %xmm14,%xmm9
- DB 65,15,194,239,1 ; cmpltps %xmm15,%xmm5
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 102,69,15,56,20,202 ; blendvps %xmm0,%xmm10,%xmm9
- DB 68,15,89,222 ; mulps %xmm6,%xmm11
- DB 68,15,40,214 ; movaps %xmm6,%xmm10
- DB 69,15,89,210 ; mulps %xmm10,%xmm10
- DB 68,15,89,230 ; mulps %xmm6,%xmm12
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 69,15,89,212 ; mulps %xmm12,%xmm10
- DB 69,15,88,214 ; addps %xmm14,%xmm10
- DB 65,15,194,247,1 ; cmpltps %xmm15,%xmm6
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 102,69,15,56,20,211 ; blendvps %xmm0,%xmm11,%xmm10
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 65,15,40,233 ; movaps %xmm9,%xmm5
- DB 65,15,40,242 ; movaps %xmm10,%xmm6
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_to_srgb_sse41
-_sk_to_srgb_sse41 LABEL PROC
- DB 72,131,236,24 ; sub $0x18,%rsp
- DB 15,41,60,36 ; movaps %xmm7,(%rsp)
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 15,40,245 ; movaps %xmm5,%xmm6
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 68,15,82,192 ; rsqrtps %xmm0,%xmm8
- DB 68,15,40,29,74,234,1,0 ; movaps 0x1ea4a(%rip),%xmm11 # 355f0 <_sk_srcover_bgra_8888_sse2_lowp+0xdd8>
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 68,15,40,37,74,234,1,0 ; movaps 0x1ea4a(%rip),%xmm12 # 35600 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
- DB 69,15,40,248 ; movaps %xmm8,%xmm15
- DB 69,15,89,252 ; mulps %xmm12,%xmm15
- DB 68,15,40,21,74,234,1,0 ; movaps 0x1ea4a(%rip),%xmm10 # 35610 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
- DB 69,15,88,250 ; addps %xmm10,%xmm15
- DB 69,15,89,248 ; mulps %xmm8,%xmm15
- DB 68,15,40,45,74,234,1,0 ; movaps 0x1ea4a(%rip),%xmm13 # 35620 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
- DB 69,15,88,253 ; addps %xmm13,%xmm15
- DB 68,15,40,53,78,234,1,0 ; movaps 0x1ea4e(%rip),%xmm14 # 35630 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
- DB 69,15,88,198 ; addps %xmm14,%xmm8
- DB 69,15,83,192 ; rcpps %xmm8,%xmm8
- DB 69,15,89,199 ; mulps %xmm15,%xmm8
- DB 68,15,40,61,74,234,1,0 ; movaps 0x1ea4a(%rip),%xmm15 # 35640 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
- DB 65,15,194,199,1 ; cmpltps %xmm15,%xmm0
- DB 102,69,15,56,20,193 ; blendvps %xmm0,%xmm9,%xmm8
- DB 68,15,82,202 ; rsqrtps %xmm2,%xmm9
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,89,196 ; mulps %xmm12,%xmm0
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 65,15,88,197 ; addps %xmm13,%xmm0
- DB 69,15,88,206 ; addps %xmm14,%xmm9
- DB 69,15,83,201 ; rcpps %xmm9,%xmm9
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 65,15,194,215,1 ; cmpltps %xmm15,%xmm2
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 102,68,15,56,20,201 ; blendvps %xmm0,%xmm1,%xmm9
- DB 15,82,195 ; rsqrtps %xmm3,%xmm0
- DB 68,15,89,224 ; mulps %xmm0,%xmm12
- DB 69,15,88,226 ; addps %xmm10,%xmm12
- DB 68,15,89,224 ; mulps %xmm0,%xmm12
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 65,15,88,198 ; addps %xmm14,%xmm0
- DB 68,15,83,208 ; rcpps %xmm0,%xmm10
- DB 69,15,89,212 ; mulps %xmm12,%xmm10
- DB 68,15,89,219 ; mulps %xmm3,%xmm11
- DB 65,15,194,223,1 ; cmpltps %xmm15,%xmm3
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 102,69,15,56,20,211 ; blendvps %xmm0,%xmm11,%xmm10
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,40,238 ; movaps %xmm6,%xmm5
- DB 15,40,247 ; movaps %xmm7,%xmm6
- DB 15,40,60,36 ; movaps (%rsp),%xmm7
- DB 72,131,196,24 ; add $0x18,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_rgb_to_hsl_sse41
-_sk_rgb_to_hsl_sse41 LABEL PROC
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 15,95,194 ; maxps %xmm2,%xmm0
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 68,15,95,216 ; maxps %xmm0,%xmm11
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 15,93,194 ; minps %xmm2,%xmm0
- DB 69,15,40,224 ; movaps %xmm8,%xmm12
- DB 68,15,93,224 ; minps %xmm0,%xmm12
- DB 65,15,40,203 ; movaps %xmm11,%xmm1
- DB 65,15,92,204 ; subps %xmm12,%xmm1
- DB 68,15,40,53,238,231,1,0 ; movaps 0x1e7ee(%rip),%xmm14 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,94,241 ; divps %xmm1,%xmm14
- DB 69,15,40,211 ; movaps %xmm11,%xmm10
- DB 69,15,194,208,0 ; cmpeqps %xmm8,%xmm10
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 15,92,194 ; subps %xmm2,%xmm0
- DB 65,15,89,198 ; mulps %xmm14,%xmm0
- DB 69,15,40,249 ; movaps %xmm9,%xmm15
- DB 68,15,194,250,1 ; cmpltps %xmm2,%xmm15
- DB 68,15,84,61,101,233,1,0 ; andps 0x1e965(%rip),%xmm15 # 35650 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
- DB 68,15,88,248 ; addps %xmm0,%xmm15
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 65,15,194,193,0 ; cmpeqps %xmm9,%xmm0
- DB 65,15,92,208 ; subps %xmm8,%xmm2
- DB 65,15,89,214 ; mulps %xmm14,%xmm2
- DB 68,15,40,45,88,233,1,0 ; movaps 0x1e958(%rip),%xmm13 # 35660 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
- DB 65,15,88,213 ; addps %xmm13,%xmm2
- DB 69,15,92,193 ; subps %xmm9,%xmm8
- DB 69,15,89,198 ; mulps %xmm14,%xmm8
- DB 68,15,88,5,84,233,1,0 ; addps 0x1e954(%rip),%xmm8 # 35670 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
- DB 102,68,15,56,20,194 ; blendvps %xmm0,%xmm2,%xmm8
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 102,69,15,56,20,199 ; blendvps %xmm0,%xmm15,%xmm8
- DB 68,15,89,5,76,233,1,0 ; mulps 0x1e94c(%rip),%xmm8 # 35680 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
- DB 69,15,40,203 ; movaps %xmm11,%xmm9
- DB 69,15,194,204,4 ; cmpneqps %xmm12,%xmm9
- DB 69,15,84,193 ; andps %xmm9,%xmm8
- DB 69,15,92,235 ; subps %xmm11,%xmm13
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 15,40,5,80,231,1,0 ; movaps 0x1e750(%rip),%xmm0 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 65,15,40,211 ; movaps %xmm11,%xmm2
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,194,194,1 ; cmpltps %xmm2,%xmm0
- DB 69,15,92,236 ; subps %xmm12,%xmm13
- DB 102,69,15,56,20,221 ; blendvps %xmm0,%xmm13,%xmm11
- DB 65,15,94,203 ; divps %xmm11,%xmm1
- DB 65,15,84,201 ; andps %xmm9,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hsl_to_rgb_sse41
-_sk_hsl_to_rgb_sse41 LABEL PROC
- DB 72,131,236,104 ; sub $0x68,%rsp
- DB 15,41,124,36,80 ; movaps %xmm7,0x50(%rsp)
- DB 15,41,116,36,64 ; movaps %xmm6,0x40(%rsp)
- DB 15,41,108,36,48 ; movaps %xmm5,0x30(%rsp)
- DB 15,41,100,36,32 ; movaps %xmm4,0x20(%rsp)
- DB 15,41,92,36,16 ; movaps %xmm3,0x10(%rsp)
- DB 68,15,40,208 ; movaps %xmm0,%xmm10
- DB 68,15,40,13,2,231,1,0 ; movaps 0x1e702(%rip),%xmm9 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 15,194,194,2 ; cmpleps %xmm2,%xmm0
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,89,234 ; mulps %xmm2,%xmm5
- DB 15,92,221 ; subps %xmm5,%xmm3
- DB 102,15,56,20,235 ; blendvps %xmm0,%xmm3,%xmm5
- DB 15,88,234 ; addps %xmm2,%xmm5
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 15,41,20,36 ; movaps %xmm2,(%rsp)
- DB 69,15,88,192 ; addps %xmm8,%xmm8
- DB 68,15,92,197 ; subps %xmm5,%xmm8
- DB 68,15,40,53,190,232,1,0 ; movaps 0x1e8be(%rip),%xmm14 # 35690 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
- DB 69,15,88,242 ; addps %xmm10,%xmm14
- DB 102,65,15,58,8,198,1 ; roundps $0x1,%xmm14,%xmm0
- DB 68,15,92,240 ; subps %xmm0,%xmm14
- DB 68,15,40,29,183,232,1,0 ; movaps 0x1e8b7(%rip),%xmm11 # 356a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 65,15,194,198,2 ; cmpleps %xmm14,%xmm0
- DB 15,40,245 ; movaps %xmm5,%xmm6
- DB 65,15,92,240 ; subps %xmm8,%xmm6
- DB 15,40,61,80,232,1,0 ; movaps 0x1e850(%rip),%xmm7 # 35650 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
- DB 69,15,40,238 ; movaps %xmm14,%xmm13
- DB 68,15,89,239 ; mulps %xmm7,%xmm13
- DB 15,40,29,97,232,1,0 ; movaps 0x1e861(%rip),%xmm3 # 35670 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
- DB 68,15,40,227 ; movaps %xmm3,%xmm12
- DB 69,15,92,229 ; subps %xmm13,%xmm12
- DB 68,15,89,230 ; mulps %xmm6,%xmm12
- DB 69,15,88,224 ; addps %xmm8,%xmm12
- DB 102,69,15,56,20,224 ; blendvps %xmm0,%xmm8,%xmm12
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,194,198,2 ; cmpleps %xmm14,%xmm0
- DB 68,15,40,253 ; movaps %xmm5,%xmm15
- DB 102,69,15,56,20,252 ; blendvps %xmm0,%xmm12,%xmm15
- DB 68,15,40,37,64,232,1,0 ; movaps 0x1e840(%rip),%xmm12 # 35680 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
- DB 65,15,40,196 ; movaps %xmm12,%xmm0
- DB 65,15,194,198,2 ; cmpleps %xmm14,%xmm0
- DB 68,15,89,238 ; mulps %xmm6,%xmm13
- DB 69,15,88,232 ; addps %xmm8,%xmm13
- DB 102,69,15,56,20,239 ; blendvps %xmm0,%xmm15,%xmm13
- DB 69,15,87,246 ; xorps %xmm14,%xmm14
- DB 68,15,194,241,0 ; cmpeqps %xmm1,%xmm14
- DB 65,15,40,198 ; movaps %xmm14,%xmm0
- DB 102,68,15,56,20,234 ; blendvps %xmm0,%xmm2,%xmm13
- DB 102,65,15,58,8,194,1 ; roundps $0x1,%xmm10,%xmm0
- DB 69,15,40,250 ; movaps %xmm10,%xmm15
- DB 68,15,92,248 ; subps %xmm0,%xmm15
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 65,15,194,199,2 ; cmpleps %xmm15,%xmm0
- DB 65,15,40,207 ; movaps %xmm15,%xmm1
- DB 15,89,207 ; mulps %xmm7,%xmm1
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,92,209 ; subps %xmm1,%xmm2
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 65,15,88,208 ; addps %xmm8,%xmm2
- DB 102,65,15,56,20,208 ; blendvps %xmm0,%xmm8,%xmm2
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,194,199,2 ; cmpleps %xmm15,%xmm0
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 102,15,56,20,226 ; blendvps %xmm0,%xmm2,%xmm4
- DB 65,15,40,196 ; movaps %xmm12,%xmm0
- DB 65,15,194,199,2 ; cmpleps %xmm15,%xmm0
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 102,15,56,20,204 ; blendvps %xmm0,%xmm4,%xmm1
- DB 65,15,40,198 ; movaps %xmm14,%xmm0
- DB 15,40,20,36 ; movaps (%rsp),%xmm2
- DB 102,15,56,20,202 ; blendvps %xmm0,%xmm2,%xmm1
- DB 68,15,88,21,217,231,1,0 ; addps 0x1e7d9(%rip),%xmm10 # 356b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- DB 102,65,15,58,8,194,1 ; roundps $0x1,%xmm10,%xmm0
- DB 68,15,92,208 ; subps %xmm0,%xmm10
- DB 69,15,194,218,2 ; cmpleps %xmm10,%xmm11
- DB 65,15,89,250 ; mulps %xmm10,%xmm7
- DB 15,92,223 ; subps %xmm7,%xmm3
- DB 15,89,222 ; mulps %xmm6,%xmm3
- DB 65,15,88,216 ; addps %xmm8,%xmm3
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 102,65,15,56,20,216 ; blendvps %xmm0,%xmm8,%xmm3
- DB 69,15,194,202,2 ; cmpleps %xmm10,%xmm9
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,15,56,20,235 ; blendvps %xmm0,%xmm3,%xmm5
- DB 69,15,194,226,2 ; cmpleps %xmm10,%xmm12
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 68,15,88,199 ; addps %xmm7,%xmm8
- DB 65,15,40,196 ; movaps %xmm12,%xmm0
- DB 102,68,15,56,20,197 ; blendvps %xmm0,%xmm5,%xmm8
- DB 65,15,40,198 ; movaps %xmm14,%xmm0
- DB 102,68,15,56,20,194 ; blendvps %xmm0,%xmm2,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,197 ; movaps %xmm13,%xmm0
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 15,40,92,36,16 ; movaps 0x10(%rsp),%xmm3
- DB 15,40,100,36,32 ; movaps 0x20(%rsp),%xmm4
- DB 15,40,108,36,48 ; movaps 0x30(%rsp),%xmm5
- DB 15,40,116,36,64 ; movaps 0x40(%rsp),%xmm6
- DB 15,40,124,36,80 ; movaps 0x50(%rsp),%xmm7
- DB 72,131,196,104 ; add $0x68,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_1_float_sse41
-_sk_scale_1_float_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_u8_sse41
-_sk_scale_u8_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,52 ; jne 16fbc <_sk_scale_u8_sse41+0x46>
- DB 102,69,15,56,49,4,16 ; pmovzxbd (%r8,%rdx,1),%xmm8
- DB 102,68,15,219,5,200,229,1,0 ; pand 0x1e5c8(%rip),%xmm8 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,28,231,1,0 ; mulps 0x1e71c(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 68,15,89,195 ; mulps %xmm3,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,216 ; movaps %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,55 ; je 16ffb <_sk_scale_u8_sse41+0x85>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 60,2 ; cmp $0x2,%al
- DB 116,21 ; je 16fe2 <_sk_scale_u8_sse41+0x6c>
- DB 60,3 ; cmp $0x3,%al
- DB 117,190 ; jne 16f8f <_sk_scale_u8_sse41+0x19>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,112,192,69 ; pshufd $0x45,%xmm8,%xmm8
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,68,15,110,200 ; movd %eax,%xmm9
- DB 102,69,15,56,49,201 ; pmovzxbd %xmm9,%xmm9
- DB 102,69,15,58,14,193,15 ; pblendw $0xf,%xmm9,%xmm8
- DB 235,148 ; jmp 16f8f <_sk_scale_u8_sse41+0x19>
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 235,136 ; jmp 16f8f <_sk_scale_u8_sse41+0x19>
-
-PUBLIC _sk_scale_565_sse41
-_sk_scale_565_sse41 LABEL PROC
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,159,0,0,0 ; jne 170c4 <_sk_scale_565_sse41+0xbd>
- DB 102,69,15,56,51,28,80 ; pmovzxwd (%r8,%rdx,2),%xmm11
- DB 102,15,111,5,156,230,1,0 ; movdqa 0x1e69c(%rip),%xmm0 # 356d0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- DB 102,65,15,219,195 ; pand %xmm11,%xmm0
- DB 68,15,91,200 ; cvtdq2ps %xmm0,%xmm9
- DB 68,15,89,13,155,230,1,0 ; mulps 0x1e69b(%rip),%xmm9 # 356e0 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- DB 102,15,111,5,163,230,1,0 ; movdqa 0x1e6a3(%rip),%xmm0 # 356f0 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- DB 102,65,15,219,195 ; pand %xmm11,%xmm0
- DB 68,15,91,208 ; cvtdq2ps %xmm0,%xmm10
- DB 68,15,89,21,162,230,1,0 ; mulps 0x1e6a2(%rip),%xmm10 # 35700 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- DB 102,68,15,219,29,169,230,1,0 ; pand 0x1e6a9(%rip),%xmm11 # 35710 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- DB 69,15,91,219 ; cvtdq2ps %xmm11,%xmm11
- DB 68,15,89,29,173,230,1,0 ; mulps 0x1e6ad(%rip),%xmm11 # 35720 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,194,199,1 ; cmpltps %xmm7,%xmm0
- DB 69,15,40,226 ; movaps %xmm10,%xmm12
- DB 69,15,93,227 ; minps %xmm11,%xmm12
- DB 69,15,40,233 ; movaps %xmm9,%xmm13
- DB 69,15,93,236 ; minps %xmm12,%xmm13
- DB 69,15,40,242 ; movaps %xmm10,%xmm14
- DB 69,15,95,243 ; maxps %xmm11,%xmm14
- DB 69,15,40,225 ; movaps %xmm9,%xmm12
- DB 69,15,95,230 ; maxps %xmm14,%xmm12
- DB 102,69,15,56,20,229 ; blendvps %xmm0,%xmm13,%xmm12
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 68,15,89,209 ; mulps %xmm1,%xmm10
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 68,15,89,227 ; mulps %xmm3,%xmm12
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,40,202 ; movaps %xmm10,%xmm1
- DB 65,15,40,211 ; movaps %xmm11,%xmm2
- DB 65,15,40,220 ; movaps %xmm12,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,56 ; je 17104 <_sk_scale_565_sse41+0xfd>
- DB 102,69,15,239,219 ; pxor %xmm11,%xmm11
- DB 60,2 ; cmp $0x2,%al
- DB 116,24 ; je 170ed <_sk_scale_565_sse41+0xe6>
- DB 60,3 ; cmp $0x3,%al
- DB 15,133,79,255,255,255 ; jne 1702c <_sk_scale_565_sse41+0x25>
- DB 65,15,183,68,80,4 ; movzwl 0x4(%r8,%rdx,2),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,68,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm11
- DB 102,65,15,110,4,80 ; movd (%r8,%rdx,2),%xmm0
- DB 102,15,56,51,192 ; pmovzxwd %xmm0,%xmm0
- DB 102,68,15,58,14,216,15 ; pblendw $0xf,%xmm0,%xmm11
- DB 233,40,255,255,255 ; jmpq 1702c <_sk_scale_565_sse41+0x25>
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,68,15,110,216 ; movd %eax,%xmm11
- DB 233,25,255,255,255 ; jmpq 1702c <_sk_scale_565_sse41+0x25>
-
-PUBLIC _sk_lerp_1_float_sse41
-_sk_lerp_1_float_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 15,92,214 ; subps %xmm6,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 15,92,223 ; subps %xmm7,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lerp_u8_sse41
-_sk_lerp_u8_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,72 ; jne 171a5 <_sk_lerp_u8_sse41+0x5a>
- DB 102,69,15,56,49,4,16 ; pmovzxbd (%r8,%rdx,1),%xmm8
- DB 102,68,15,219,5,243,227,1,0 ; pand 0x1e3f3(%rip),%xmm8 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,71,229,1,0 ; mulps 0x1e547(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 15,92,214 ; subps %xmm6,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 15,92,223 ; subps %xmm7,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,55 ; je 171e4 <_sk_lerp_u8_sse41+0x99>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 60,2 ; cmp $0x2,%al
- DB 116,21 ; je 171cb <_sk_lerp_u8_sse41+0x80>
- DB 60,3 ; cmp $0x3,%al
- DB 117,170 ; jne 17164 <_sk_lerp_u8_sse41+0x19>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,112,192,69 ; pshufd $0x45,%xmm8,%xmm8
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,68,15,110,200 ; movd %eax,%xmm9
- DB 102,69,15,56,49,201 ; pmovzxbd %xmm9,%xmm9
- DB 102,69,15,58,14,193,15 ; pblendw $0xf,%xmm9,%xmm8
- DB 235,128 ; jmp 17164 <_sk_lerp_u8_sse41+0x19>
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 233,113,255,255,255 ; jmpq 17164 <_sk_lerp_u8_sse41+0x19>
-
-PUBLIC _sk_lerp_565_sse41
-_sk_lerp_565_sse41 LABEL PROC
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,165,0,0,0 ; jne 172b6 <_sk_lerp_565_sse41+0xc3>
- DB 102,69,15,56,51,20,80 ; pmovzxwd (%r8,%rdx,2),%xmm10
- DB 102,15,111,5,176,228,1,0 ; movdqa 0x1e4b0(%rip),%xmm0 # 356d0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- DB 102,65,15,219,194 ; pand %xmm10,%xmm0
- DB 68,15,91,200 ; cvtdq2ps %xmm0,%xmm9
- DB 68,15,89,13,175,228,1,0 ; mulps 0x1e4af(%rip),%xmm9 # 356e0 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- DB 102,15,111,5,183,228,1,0 ; movdqa 0x1e4b7(%rip),%xmm0 # 356f0 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- DB 102,65,15,219,194 ; pand %xmm10,%xmm0
- DB 68,15,91,216 ; cvtdq2ps %xmm0,%xmm11
- DB 68,15,89,29,182,228,1,0 ; mulps 0x1e4b6(%rip),%xmm11 # 35700 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- DB 102,68,15,219,21,189,228,1,0 ; pand 0x1e4bd(%rip),%xmm10 # 35710 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- DB 69,15,91,210 ; cvtdq2ps %xmm10,%xmm10
- DB 68,15,89,21,193,228,1,0 ; mulps 0x1e4c1(%rip),%xmm10 # 35720 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,194,199,1 ; cmpltps %xmm7,%xmm0
- DB 69,15,40,227 ; movaps %xmm11,%xmm12
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 69,15,93,218 ; minps %xmm10,%xmm11
- DB 69,15,40,233 ; movaps %xmm9,%xmm13
- DB 68,15,92,196 ; subps %xmm4,%xmm8
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 69,15,93,203 ; minps %xmm11,%xmm9
- DB 69,15,95,226 ; maxps %xmm10,%xmm12
- DB 69,15,95,236 ; maxps %xmm12,%xmm13
- DB 102,69,15,56,20,233 ; blendvps %xmm0,%xmm9,%xmm13
- DB 68,15,88,196 ; addps %xmm4,%xmm8
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 15,92,214 ; subps %xmm6,%xmm2
- DB 65,15,89,210 ; mulps %xmm10,%xmm2
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 15,92,223 ; subps %xmm7,%xmm3
- DB 65,15,89,221 ; mulps %xmm13,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,56 ; je 172f6 <_sk_lerp_565_sse41+0x103>
- DB 102,69,15,239,210 ; pxor %xmm10,%xmm10
- DB 60,2 ; cmp $0x2,%al
- DB 116,24 ; je 172df <_sk_lerp_565_sse41+0xec>
- DB 60,3 ; cmp $0x3,%al
- DB 15,133,73,255,255,255 ; jne 17218 <_sk_lerp_565_sse41+0x25>
- DB 65,15,183,68,80,4 ; movzwl 0x4(%r8,%rdx,2),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,68,15,112,208,69 ; pshufd $0x45,%xmm0,%xmm10
- DB 102,65,15,110,4,80 ; movd (%r8,%rdx,2),%xmm0
- DB 102,15,56,51,192 ; pmovzxwd %xmm0,%xmm0
- DB 102,68,15,58,14,208,15 ; pblendw $0xf,%xmm0,%xmm10
- DB 233,34,255,255,255 ; jmpq 17218 <_sk_lerp_565_sse41+0x25>
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,68,15,110,208 ; movd %eax,%xmm10
- DB 233,19,255,255,255 ; jmpq 17218 <_sk_lerp_565_sse41+0x25>
-
-PUBLIC _sk_load_tables_sse41
-_sk_load_tables_sse41 LABEL PROC
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,17,1,0,0 ; jne 17427 <_sk_load_tables_sse41+0x122>
- DB 243,69,15,111,4,144 ; movdqu (%r8,%rdx,4),%xmm8
- DB 102,15,111,5,60,226,1,0 ; movdqa 0x1e23c(%rip),%xmm0 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,65,15,219,192 ; pand %xmm8,%xmm0
- DB 102,73,15,58,22,192,1 ; pextrq $0x1,%xmm0,%r8
- DB 102,73,15,126,193 ; movq %xmm0,%r9
- DB 69,15,182,209 ; movzbl %r9b,%r10d
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 69,15,182,216 ; movzbl %r8b,%r11d
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 72,139,88,8 ; mov 0x8(%rax),%rbx
- DB 76,139,112,16 ; mov 0x10(%rax),%r14
- DB 243,66,15,16,4,147 ; movss (%rbx,%r10,4),%xmm0
- DB 102,66,15,58,33,4,11,16 ; insertps $0x10,(%rbx,%r9,1),%xmm0
- DB 102,66,15,58,33,4,155,32 ; insertps $0x20,(%rbx,%r11,4),%xmm0
- DB 102,66,15,58,33,4,3,48 ; insertps $0x30,(%rbx,%r8,1),%xmm0
- DB 102,65,15,111,200 ; movdqa %xmm8,%xmm1
- DB 102,15,56,0,13,247,225,1,0 ; pshufb 0x1e1f7(%rip),%xmm1 # 35570 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
- DB 102,73,15,58,22,200,1 ; pextrq $0x1,%xmm1,%r8
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 68,15,182,203 ; movzbl %bl,%r9d
- DB 72,193,235,30 ; shr $0x1e,%rbx
- DB 69,15,182,208 ; movzbl %r8b,%r10d
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 243,67,15,16,12,142 ; movss (%r14,%r9,4),%xmm1
- DB 102,65,15,58,33,12,30,16 ; insertps $0x10,(%r14,%rbx,1),%xmm1
- DB 243,67,15,16,20,150 ; movss (%r14,%r10,4),%xmm2
- DB 102,15,58,33,202,32 ; insertps $0x20,%xmm2,%xmm1
- DB 243,67,15,16,20,6 ; movss (%r14,%r8,1),%xmm2
- DB 102,15,58,33,202,48 ; insertps $0x30,%xmm2,%xmm1
- DB 76,139,64,24 ; mov 0x18(%rax),%r8
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 102,15,56,0,21,179,225,1,0 ; pshufb 0x1e1b3(%rip),%xmm2 # 35580 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
- DB 102,72,15,58,22,211,1 ; pextrq $0x1,%xmm2,%rbx
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 68,15,182,200 ; movzbl %al,%r9d
- DB 72,193,232,30 ; shr $0x1e,%rax
- DB 68,15,182,211 ; movzbl %bl,%r10d
- DB 72,193,235,30 ; shr $0x1e,%rbx
- DB 243,67,15,16,20,136 ; movss (%r8,%r9,4),%xmm2
- DB 102,65,15,58,33,20,0,16 ; insertps $0x10,(%r8,%rax,1),%xmm2
- DB 243,67,15,16,28,144 ; movss (%r8,%r10,4),%xmm3
- DB 102,15,58,33,211,32 ; insertps $0x20,%xmm3,%xmm2
- DB 243,65,15,16,28,24 ; movss (%r8,%rbx,1),%xmm3
- DB 102,15,58,33,211,48 ; insertps $0x30,%xmm3,%xmm2
- DB 102,65,15,114,208,24 ; psrld $0x18,%xmm8
- DB 65,15,91,216 ; cvtdq2ps %xmm8,%xmm3
- DB 15,89,29,160,226,1,0 ; mulps 0x1e2a0(%rip),%xmm3 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,3 ; and $0x3,%r9b
- DB 65,128,249,1 ; cmp $0x1,%r9b
- DB 116,52 ; je 17468 <_sk_load_tables_sse41+0x163>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 65,128,249,2 ; cmp $0x2,%r9b
- DB 116,23 ; je 17456 <_sk_load_tables_sse41+0x151>
- DB 65,128,249,3 ; cmp $0x3,%r9b
- DB 15,133,211,254,255,255 ; jne 1731c <_sk_load_tables_sse41+0x17>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
- DB 243,65,15,126,4,144 ; movq (%r8,%rdx,4),%xmm0
- DB 102,68,15,58,14,192,15 ; pblendw $0xf,%xmm0,%xmm8
- DB 233,180,254,255,255 ; jmpq 1731c <_sk_load_tables_sse41+0x17>
- DB 102,69,15,110,4,144 ; movd (%r8,%rdx,4),%xmm8
- DB 233,169,254,255,255 ; jmpq 1731c <_sk_load_tables_sse41+0x17>
-
-PUBLIC _sk_load_tables_u16_be_sse41
-_sk_load_tables_u16_be_sse41 LABEL PROC
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 76,141,12,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,92,1,0,0 ; jne 175e8 <_sk_load_tables_u16_be_sse41+0x175>
- DB 102,67,15,16,4,72 ; movupd (%r8,%r9,2),%xmm0
- DB 243,67,15,111,76,72,16 ; movdqu 0x10(%r8,%r9,2),%xmm1
- DB 102,68,15,40,200 ; movapd %xmm0,%xmm9
- DB 102,68,15,97,201 ; punpcklwd %xmm1,%xmm9
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 102,68,15,105,200 ; punpckhwd %xmm0,%xmm9
- DB 102,68,15,111,5,114,226,1,0 ; movdqa 0x1e272(%rip),%xmm8 # 35730 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,65,15,219,192 ; pand %xmm8,%xmm0
- DB 102,15,56,51,192 ; pmovzxwd %xmm0,%xmm0
- DB 102,73,15,58,22,192,1 ; pextrq $0x1,%xmm0,%r8
- DB 102,73,15,126,193 ; movq %xmm0,%r9
- DB 69,15,182,209 ; movzbl %r9b,%r10d
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 69,15,182,216 ; movzbl %r8b,%r11d
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 72,139,88,8 ; mov 0x8(%rax),%rbx
- DB 76,139,112,16 ; mov 0x10(%rax),%r14
- DB 243,66,15,16,4,147 ; movss (%rbx,%r10,4),%xmm0
- DB 102,66,15,58,33,4,11,16 ; insertps $0x10,(%rbx,%r9,1),%xmm0
- DB 243,66,15,16,20,155 ; movss (%rbx,%r11,4),%xmm2
- DB 102,15,58,33,194,32 ; insertps $0x20,%xmm2,%xmm0
- DB 243,66,15,16,20,3 ; movss (%rbx,%r8,1),%xmm2
- DB 102,15,58,33,194,48 ; insertps $0x30,%xmm2,%xmm0
- DB 102,15,56,0,13,33,226,1,0 ; pshufb 0x1e221(%rip),%xmm1 # 35740 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
- DB 102,15,56,51,201 ; pmovzxwd %xmm1,%xmm1
- DB 102,73,15,58,22,200,1 ; pextrq $0x1,%xmm1,%r8
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 68,15,182,203 ; movzbl %bl,%r9d
- DB 72,193,235,30 ; shr $0x1e,%rbx
- DB 69,15,182,208 ; movzbl %r8b,%r10d
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 243,67,15,16,12,142 ; movss (%r14,%r9,4),%xmm1
- DB 102,65,15,58,33,12,30,16 ; insertps $0x10,(%r14,%rbx,1),%xmm1
- DB 243,67,15,16,20,150 ; movss (%r14,%r10,4),%xmm2
- DB 102,15,58,33,202,32 ; insertps $0x20,%xmm2,%xmm1
- DB 243,67,15,16,20,6 ; movss (%r14,%r8,1),%xmm2
- DB 102,15,58,33,202,48 ; insertps $0x30,%xmm2,%xmm1
- DB 76,139,64,24 ; mov 0x18(%rax),%r8
- DB 102,69,15,219,193 ; pand %xmm9,%xmm8
- DB 102,65,15,56,51,208 ; pmovzxwd %xmm8,%xmm2
- DB 102,72,15,58,22,211,1 ; pextrq $0x1,%xmm2,%rbx
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 68,15,182,200 ; movzbl %al,%r9d
- DB 72,193,232,30 ; shr $0x1e,%rax
- DB 68,15,182,211 ; movzbl %bl,%r10d
- DB 72,193,235,30 ; shr $0x1e,%rbx
- DB 243,67,15,16,20,136 ; movss (%r8,%r9,4),%xmm2
- DB 102,65,15,58,33,20,0,16 ; insertps $0x10,(%r8,%rax,1),%xmm2
- DB 243,67,15,16,28,144 ; movss (%r8,%r10,4),%xmm3
- DB 102,15,58,33,211,32 ; insertps $0x20,%xmm3,%xmm2
- DB 243,65,15,16,28,24 ; movss (%r8,%rbx,1),%xmm3
- DB 102,15,58,33,211,48 ; insertps $0x30,%xmm3,%xmm2
- DB 102,65,15,112,217,78 ; pshufd $0x4e,%xmm9,%xmm3
- DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,65,15,113,240,8 ; psllw $0x8,%xmm8
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,65,15,235,216 ; por %xmm8,%xmm3
- DB 102,15,56,51,219 ; pmovzxwd %xmm3,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,29,111,225,1,0 ; mulps 0x1e16f(%rip),%xmm3 # 35750 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 255,224 ; jmpq *%rax
- DB 242,67,15,16,4,72 ; movsd (%r8,%r9,2),%xmm0
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,13 ; jne 17601 <_sk_load_tables_u16_be_sse41+0x18e>
- DB 243,15,126,192 ; movq %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 233,152,254,255,255 ; jmpq 17499 <_sk_load_tables_u16_be_sse41+0x26>
- DB 102,67,15,22,68,72,8 ; movhpd 0x8(%r8,%r9,2),%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 15,130,131,254,255,255 ; jb 17499 <_sk_load_tables_u16_be_sse41+0x26>
- DB 243,67,15,126,76,72,16 ; movq 0x10(%r8,%r9,2),%xmm1
- DB 233,119,254,255,255 ; jmpq 17499 <_sk_load_tables_u16_be_sse41+0x26>
-
-PUBLIC _sk_load_tables_rgb_u16_be_sse41
-_sk_load_tables_rgb_u16_be_sse41 LABEL PROC
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 76,141,12,82 ; lea (%rdx,%rdx,2),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,76,1,0,0 ; jne 17783 <_sk_load_tables_rgb_u16_be_sse41+0x161>
- DB 243,67,15,111,20,72 ; movdqu (%r8,%r9,2),%xmm2
- DB 243,67,15,111,76,72,8 ; movdqu 0x8(%r8,%r9,2),%xmm1
- DB 102,15,115,217,4 ; psrldq $0x4,%xmm1
- DB 102,68,15,111,202 ; movdqa %xmm2,%xmm9
- DB 102,65,15,115,217,6 ; psrldq $0x6,%xmm9
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,115,216,6 ; psrldq $0x6,%xmm0
- DB 102,68,15,97,200 ; punpcklwd %xmm0,%xmm9
- DB 102,15,97,209 ; punpcklwd %xmm1,%xmm2
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,65,15,97,201 ; punpcklwd %xmm9,%xmm1
- DB 102,68,15,111,5,184,224,1,0 ; movdqa 0x1e0b8(%rip),%xmm8 # 35730 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,65,15,219,192 ; pand %xmm8,%xmm0
- DB 102,15,56,51,192 ; pmovzxwd %xmm0,%xmm0
- DB 102,73,15,58,22,192,1 ; pextrq $0x1,%xmm0,%r8
- DB 102,73,15,126,193 ; movq %xmm0,%r9
- DB 69,15,182,209 ; movzbl %r9b,%r10d
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 69,15,182,216 ; movzbl %r8b,%r11d
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 72,139,88,8 ; mov 0x8(%rax),%rbx
- DB 76,139,112,16 ; mov 0x10(%rax),%r14
- DB 243,66,15,16,4,147 ; movss (%rbx,%r10,4),%xmm0
- DB 102,66,15,58,33,4,11,16 ; insertps $0x10,(%rbx,%r9,1),%xmm0
- DB 243,66,15,16,28,155 ; movss (%rbx,%r11,4),%xmm3
- DB 102,15,58,33,195,32 ; insertps $0x20,%xmm3,%xmm0
- DB 243,66,15,16,28,3 ; movss (%rbx,%r8,1),%xmm3
- DB 102,15,58,33,195,48 ; insertps $0x30,%xmm3,%xmm0
- DB 102,15,56,0,13,103,224,1,0 ; pshufb 0x1e067(%rip),%xmm1 # 35740 <_sk_srcover_bgra_8888_sse2_lowp+0xf28>
- DB 102,15,56,51,201 ; pmovzxwd %xmm1,%xmm1
- DB 102,73,15,58,22,200,1 ; pextrq $0x1,%xmm1,%r8
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 68,15,182,203 ; movzbl %bl,%r9d
- DB 72,193,235,30 ; shr $0x1e,%rbx
- DB 69,15,182,208 ; movzbl %r8b,%r10d
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 243,67,15,16,12,142 ; movss (%r14,%r9,4),%xmm1
- DB 102,65,15,58,33,12,30,16 ; insertps $0x10,(%r14,%rbx,1),%xmm1
- DB 243,67,15,16,28,150 ; movss (%r14,%r10,4),%xmm3
- DB 102,15,58,33,203,32 ; insertps $0x20,%xmm3,%xmm1
- DB 243,67,15,16,28,6 ; movss (%r14,%r8,1),%xmm3
- DB 102,15,58,33,203,48 ; insertps $0x30,%xmm3,%xmm1
- DB 76,139,64,24 ; mov 0x18(%rax),%r8
- DB 102,65,15,105,209 ; punpckhwd %xmm9,%xmm2
- DB 102,65,15,219,208 ; pand %xmm8,%xmm2
- DB 102,15,56,51,210 ; pmovzxwd %xmm2,%xmm2
- DB 102,72,15,58,22,211,1 ; pextrq $0x1,%xmm2,%rbx
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 68,15,182,200 ; movzbl %al,%r9d
- DB 72,193,232,30 ; shr $0x1e,%rax
- DB 68,15,182,211 ; movzbl %bl,%r10d
- DB 72,193,235,30 ; shr $0x1e,%rbx
- DB 243,67,15,16,20,136 ; movss (%r8,%r9,4),%xmm2
- DB 102,65,15,58,33,20,0,16 ; insertps $0x10,(%r8,%rax,1),%xmm2
- DB 243,67,15,16,28,144 ; movss (%r8,%r10,4),%xmm3
- DB 102,15,58,33,211,32 ; insertps $0x20,%xmm3,%xmm2
- DB 243,65,15,16,28,24 ; movss (%r8,%rbx,1),%xmm3
- DB 102,15,58,33,211,48 ; insertps $0x30,%xmm3,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,50,221,1,0 ; movaps 0x1dd32(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 255,224 ; jmpq *%rax
- DB 102,67,15,110,20,72 ; movd (%r8,%r9,2),%xmm2
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,67,15,196,84,72,4,2 ; pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,14 ; jne 177a9 <_sk_load_tables_rgb_u16_be_sse41+0x187>
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 233,180,254,255,255 ; jmpq 1765d <_sk_load_tables_rgb_u16_be_sse41+0x3b>
- DB 102,71,15,110,76,72,6 ; movd 0x6(%r8,%r9,2),%xmm9
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,71,15,196,76,72,10,2 ; pinsrw $0x2,0xa(%r8,%r9,2),%xmm9
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,24 ; jb 177da <_sk_load_tables_rgb_u16_be_sse41+0x1b8>
- DB 102,67,15,110,76,72,12 ; movd 0xc(%r8,%r9,2),%xmm1
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,67,15,196,76,72,16,2 ; pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- DB 233,131,254,255,255 ; jmpq 1765d <_sk_load_tables_rgb_u16_be_sse41+0x3b>
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 233,122,254,255,255 ; jmpq 1765d <_sk_load_tables_rgb_u16_be_sse41+0x3b>
-
-PUBLIC _sk_byte_tables_sse41
-_sk_byte_tables_sse41 LABEL PROC
- DB 85 ; push %rbp
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 68,15,95,216 ; maxps %xmm0,%xmm11
- DB 68,15,40,13,179,220,1,0 ; movaps 0x1dcb3(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,217 ; minps %xmm9,%xmm11
- DB 68,15,40,21,135,221,1,0 ; movaps 0x1dd87(%rip),%xmm10 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 69,15,89,218 ; mulps %xmm10,%xmm11
- DB 102,65,15,91,195 ; cvtps2dq %xmm11,%xmm0
- DB 102,73,15,58,22,192,1 ; pextrq $0x1,%xmm0,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 77,137,194 ; mov %r8,%r10
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,73,15,126,192 ; movq %xmm0,%r8
- DB 69,137,195 ; mov %r8d,%r11d
- DB 77,137,198 ; mov %r8,%r14
- DB 73,193,238,32 ; shr $0x20,%r14
- DB 72,139,24 ; mov (%rax),%rbx
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 70,15,182,52,51 ; movzbl (%rbx,%r14,1),%r14d
- DB 66,15,182,44,27 ; movzbl (%rbx,%r11,1),%ebp
- DB 102,15,110,197 ; movd %ebp,%xmm0
- DB 102,65,15,58,32,198,1 ; pinsrb $0x1,%r14d,%xmm0
- DB 66,15,182,44,11 ; movzbl (%rbx,%r9,1),%ebp
- DB 102,15,58,32,197,2 ; pinsrb $0x2,%ebp,%xmm0
- DB 66,15,182,44,19 ; movzbl (%rbx,%r10,1),%ebp
- DB 102,15,58,32,197,3 ; pinsrb $0x3,%ebp,%xmm0
- DB 102,15,56,49,192 ; pmovzxbd %xmm0,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,29,76,222,1,0 ; movaps 0x1de4c(%rip),%xmm11 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,195 ; mulps %xmm11,%xmm0
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,225 ; minps %xmm9,%xmm12
- DB 69,15,89,226 ; mulps %xmm10,%xmm12
- DB 102,65,15,91,204 ; cvtps2dq %xmm12,%xmm1
- DB 102,72,15,58,22,205,1 ; pextrq $0x1,%xmm1,%rbp
- DB 65,137,233 ; mov %ebp,%r9d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 65,137,218 ; mov %ebx,%r10d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,15,182,28,24 ; movzbl (%r8,%rbx,1),%r11d
- DB 67,15,182,28,16 ; movzbl (%r8,%r10,1),%ebx
- DB 102,15,110,203 ; movd %ebx,%xmm1
- DB 102,65,15,58,32,203,1 ; pinsrb $0x1,%r11d,%xmm1
- DB 67,15,182,28,8 ; movzbl (%r8,%r9,1),%ebx
- DB 102,15,58,32,203,2 ; pinsrb $0x2,%ebx,%xmm1
- DB 65,15,182,44,40 ; movzbl (%r8,%rbp,1),%ebp
- DB 102,15,58,32,205,3 ; pinsrb $0x3,%ebp,%xmm1
- DB 102,15,56,49,201 ; pmovzxbd %xmm1,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 76,139,72,16 ; mov 0x10(%rax),%r9
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,226 ; maxps %xmm2,%xmm12
- DB 69,15,93,225 ; minps %xmm9,%xmm12
- DB 69,15,89,226 ; mulps %xmm10,%xmm12
- DB 102,65,15,91,212 ; cvtps2dq %xmm12,%xmm2
- DB 102,72,15,58,22,211,1 ; pextrq $0x1,%xmm2,%rbx
- DB 65,137,216 ; mov %ebx,%r8d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,72,15,126,213 ; movq %xmm2,%rbp
- DB 65,137,234 ; mov %ebp,%r10d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 69,15,182,28,41 ; movzbl (%r9,%rbp,1),%r11d
- DB 67,15,182,44,17 ; movzbl (%r9,%r10,1),%ebp
- DB 102,15,110,213 ; movd %ebp,%xmm2
- DB 102,65,15,58,32,211,1 ; pinsrb $0x1,%r11d,%xmm2
- DB 67,15,182,44,1 ; movzbl (%r9,%r8,1),%ebp
- DB 102,15,58,32,213,2 ; pinsrb $0x2,%ebp,%xmm2
- DB 65,15,182,44,25 ; movzbl (%r9,%rbx,1),%ebp
- DB 102,15,58,32,213,3 ; pinsrb $0x3,%ebp,%xmm2
- DB 102,15,56,49,210 ; pmovzxbd %xmm2,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 65,15,89,211 ; mulps %xmm11,%xmm2
- DB 72,139,64,24 ; mov 0x18(%rax),%rax
- DB 68,15,95,195 ; maxps %xmm3,%xmm8
- DB 69,15,93,193 ; minps %xmm9,%xmm8
- DB 69,15,89,194 ; mulps %xmm10,%xmm8
- DB 102,65,15,91,216 ; cvtps2dq %xmm8,%xmm3
- DB 102,72,15,58,22,221,1 ; pextrq $0x1,%xmm3,%rbp
- DB 65,137,232 ; mov %ebp,%r8d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 102,72,15,126,219 ; movq %xmm3,%rbx
- DB 65,137,217 ; mov %ebx,%r9d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 68,15,182,20,24 ; movzbl (%rax,%rbx,1),%r10d
- DB 66,15,182,28,8 ; movzbl (%rax,%r9,1),%ebx
- DB 102,15,110,219 ; movd %ebx,%xmm3
- DB 102,65,15,58,32,218,1 ; pinsrb $0x1,%r10d,%xmm3
- DB 66,15,182,28,0 ; movzbl (%rax,%r8,1),%ebx
- DB 102,15,58,32,219,2 ; pinsrb $0x2,%ebx,%xmm3
- DB 15,182,4,40 ; movzbl (%rax,%rbp,1),%eax
- DB 102,15,58,32,216,3 ; pinsrb $0x3,%eax,%xmm3
- DB 102,15,56,49,219 ; pmovzxbd %xmm3,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 65,15,89,219 ; mulps %xmm11,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_byte_tables_rgb_sse41
-_sk_byte_tables_rgb_sse41 LABEL PROC
- DB 85 ; push %rbp
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,139,64,24 ; mov 0x18(%rax),%r8d
- DB 65,255,200 ; dec %r8d
- DB 102,69,15,110,192 ; movd %r8d,%xmm8
- DB 102,69,15,112,192,0 ; pshufd $0x0,%xmm8,%xmm8
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 68,15,95,216 ; maxps %xmm0,%xmm11
- DB 68,15,40,21,203,218,1,0 ; movaps 0x1dacb(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,218 ; minps %xmm10,%xmm11
- DB 69,15,89,216 ; mulps %xmm8,%xmm11
- DB 102,65,15,91,195 ; cvtps2dq %xmm11,%xmm0
- DB 102,73,15,58,22,192,1 ; pextrq $0x1,%xmm0,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 77,137,194 ; mov %r8,%r10
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,73,15,126,192 ; movq %xmm0,%r8
- DB 69,137,195 ; mov %r8d,%r11d
- DB 77,137,198 ; mov %r8,%r14
- DB 73,193,238,32 ; shr $0x20,%r14
- DB 72,139,24 ; mov (%rax),%rbx
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 70,15,182,52,51 ; movzbl (%rbx,%r14,1),%r14d
- DB 66,15,182,44,27 ; movzbl (%rbx,%r11,1),%ebp
- DB 102,15,110,197 ; movd %ebp,%xmm0
- DB 102,65,15,58,32,198,1 ; pinsrb $0x1,%r14d,%xmm0
- DB 66,15,182,44,11 ; movzbl (%rbx,%r9,1),%ebp
- DB 102,15,58,32,197,2 ; pinsrb $0x2,%ebp,%xmm0
- DB 66,15,182,44,19 ; movzbl (%rbx,%r10,1),%ebp
- DB 102,15,58,32,197,3 ; pinsrb $0x3,%ebp,%xmm0
- DB 102,15,56,49,192 ; pmovzxbd %xmm0,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,29,108,220,1,0 ; movaps 0x1dc6c(%rip),%xmm11 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,195 ; mulps %xmm11,%xmm0
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,224 ; mulps %xmm8,%xmm12
- DB 102,65,15,91,204 ; cvtps2dq %xmm12,%xmm1
- DB 102,72,15,58,22,205,1 ; pextrq $0x1,%xmm1,%rbp
- DB 65,137,233 ; mov %ebp,%r9d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 65,137,218 ; mov %ebx,%r10d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,15,182,28,24 ; movzbl (%r8,%rbx,1),%r11d
- DB 67,15,182,28,16 ; movzbl (%r8,%r10,1),%ebx
- DB 102,15,110,203 ; movd %ebx,%xmm1
- DB 102,65,15,58,32,203,1 ; pinsrb $0x1,%r11d,%xmm1
- DB 67,15,182,28,8 ; movzbl (%r8,%r9,1),%ebx
- DB 102,15,58,32,203,2 ; pinsrb $0x2,%ebx,%xmm1
- DB 65,15,182,44,40 ; movzbl (%r8,%rbp,1),%ebp
- DB 102,15,58,32,205,3 ; pinsrb $0x3,%ebp,%xmm1
- DB 102,15,56,49,201 ; pmovzxbd %xmm1,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 72,139,64,16 ; mov 0x10(%rax),%rax
- DB 68,15,95,202 ; maxps %xmm2,%xmm9
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 102,65,15,91,209 ; cvtps2dq %xmm9,%xmm2
- DB 102,72,15,58,22,213,1 ; pextrq $0x1,%xmm2,%rbp
- DB 65,137,232 ; mov %ebp,%r8d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 102,72,15,126,211 ; movq %xmm2,%rbx
- DB 65,137,217 ; mov %ebx,%r9d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 68,15,182,20,24 ; movzbl (%rax,%rbx,1),%r10d
- DB 66,15,182,28,8 ; movzbl (%rax,%r9,1),%ebx
- DB 102,15,110,211 ; movd %ebx,%xmm2
- DB 102,65,15,58,32,210,1 ; pinsrb $0x1,%r10d,%xmm2
- DB 66,15,182,28,0 ; movzbl (%rax,%r8,1),%ebx
- DB 102,15,58,32,211,2 ; pinsrb $0x2,%ebx,%xmm2
- DB 15,182,4,40 ; movzbl (%rax,%rbp,1),%eax
- DB 102,15,58,32,208,3 ; pinsrb $0x3,%eax,%xmm2
- DB 102,15,56,49,210 ; pmovzxbd %xmm2,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 65,15,89,211 ; mulps %xmm11,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_r_sse41
-_sk_table_r_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,112,192,0 ; pshufd $0x0,%xmm8,%xmm8
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,93,13,92,217,1,0 ; minps 0x1d95c(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 102,65,15,91,193 ; cvtps2dq %xmm9,%xmm0
- DB 102,72,15,58,22,192,1 ; pextrq $0x1,%xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,194 ; movq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 243,67,15,16,4,152 ; movss (%r8,%r11,4),%xmm0
- DB 102,67,15,58,33,4,144,16 ; insertps $0x10,(%r8,%r10,4),%xmm0
- DB 243,71,15,16,4,136 ; movss (%r8,%r9,4),%xmm8
- DB 102,65,15,58,33,192,32 ; insertps $0x20,%xmm8,%xmm0
- DB 243,69,15,16,4,128 ; movss (%r8,%rax,4),%xmm8
- DB 102,65,15,58,33,192,48 ; insertps $0x30,%xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_g_sse41
-_sk_table_g_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,112,192,0 ; pshufd $0x0,%xmm8,%xmm8
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,201 ; maxps %xmm1,%xmm9
- DB 68,15,93,13,228,216,1,0 ; minps 0x1d8e4(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 102,65,15,91,201 ; cvtps2dq %xmm9,%xmm1
- DB 102,72,15,58,22,200,1 ; pextrq $0x1,%xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 243,67,15,16,12,152 ; movss (%r8,%r11,4),%xmm1
- DB 102,67,15,58,33,12,144,16 ; insertps $0x10,(%r8,%r10,4),%xmm1
- DB 243,71,15,16,4,136 ; movss (%r8,%r9,4),%xmm8
- DB 102,65,15,58,33,200,32 ; insertps $0x20,%xmm8,%xmm1
- DB 243,69,15,16,4,128 ; movss (%r8,%rax,4),%xmm8
- DB 102,65,15,58,33,200,48 ; insertps $0x30,%xmm8,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_b_sse41
-_sk_table_b_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,112,192,0 ; pshufd $0x0,%xmm8,%xmm8
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,202 ; maxps %xmm2,%xmm9
- DB 68,15,93,13,108,216,1,0 ; minps 0x1d86c(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 102,65,15,91,209 ; cvtps2dq %xmm9,%xmm2
- DB 102,72,15,58,22,208,1 ; pextrq $0x1,%xmm2,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,210 ; movq %xmm2,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 243,67,15,16,20,152 ; movss (%r8,%r11,4),%xmm2
- DB 102,67,15,58,33,20,144,16 ; insertps $0x10,(%r8,%r10,4),%xmm2
- DB 243,71,15,16,4,136 ; movss (%r8,%r9,4),%xmm8
- DB 102,65,15,58,33,208,32 ; insertps $0x20,%xmm8,%xmm2
- DB 243,69,15,16,4,128 ; movss (%r8,%rax,4),%xmm8
- DB 102,65,15,58,33,208,48 ; insertps $0x30,%xmm8,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_a_sse41
-_sk_table_a_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,112,192,0 ; pshufd $0x0,%xmm8,%xmm8
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,203 ; maxps %xmm3,%xmm9
- DB 68,15,93,13,244,215,1,0 ; minps 0x1d7f4(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 102,65,15,91,217 ; cvtps2dq %xmm9,%xmm3
- DB 102,72,15,58,22,216,1 ; pextrq $0x1,%xmm3,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,218 ; movq %xmm3,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 243,67,15,16,28,152 ; movss (%r8,%r11,4),%xmm3
- DB 102,67,15,58,33,28,144,16 ; insertps $0x10,(%r8,%r10,4),%xmm3
- DB 243,71,15,16,4,136 ; movss (%r8,%r9,4),%xmm8
- DB 102,65,15,58,33,216,32 ; insertps $0x20,%xmm8,%xmm3
- DB 243,69,15,16,4,128 ; movss (%r8,%rax,4),%xmm8
- DB 102,65,15,58,33,216,48 ; insertps $0x30,%xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_r_sse41
-_sk_parametric_r_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,16 ; movss 0x10(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 243,68,15,16,72,12 ; movss 0xc(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 243,68,15,16,80,4 ; movss 0x4(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 68,15,89,208 ; mulps %xmm0,%xmm10
- DB 65,15,194,192,2 ; cmpleps %xmm8,%xmm0
- DB 243,68,15,16,64,24 ; movss 0x18(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 69,15,88,200 ; addps %xmm8,%xmm9
- DB 243,68,15,16,32 ; movss (%rax),%xmm12
- DB 243,68,15,16,64,8 ; movss 0x8(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 69,15,88,208 ; addps %xmm8,%xmm10
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 69,15,91,194 ; cvtdq2ps %xmm10,%xmm8
- DB 68,15,89,5,237,217,1,0 ; mulps 0x1d9ed(%rip),%xmm8 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 68,15,40,45,245,217,1,0 ; movaps 0x1d9f5(%rip),%xmm13 # 35770 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
- DB 69,15,84,234 ; andps %xmm10,%xmm13
- DB 68,15,86,45,25,215,1,0 ; orps 0x1d719(%rip),%xmm13 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,88,5,241,217,1,0 ; addps 0x1d9f1(%rip),%xmm8 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 68,15,40,53,249,217,1,0 ; movaps 0x1d9f9(%rip),%xmm14 # 35790 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- DB 69,15,89,245 ; mulps %xmm13,%xmm14
- DB 69,15,92,198 ; subps %xmm14,%xmm8
- DB 68,15,88,45,249,217,1,0 ; addps 0x1d9f9(%rip),%xmm13 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 68,15,40,53,1,218,1,0 ; movaps 0x1da01(%rip),%xmm14 # 357b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
- DB 69,15,94,245 ; divps %xmm13,%xmm14
- DB 69,15,92,198 ; subps %xmm14,%xmm8
- DB 69,15,89,196 ; mulps %xmm12,%xmm8
- DB 102,69,15,58,8,224,1 ; roundps $0x1,%xmm8,%xmm12
- DB 69,15,40,232 ; movaps %xmm8,%xmm13
- DB 69,15,92,236 ; subps %xmm12,%xmm13
- DB 68,15,88,5,238,217,1,0 ; addps 0x1d9ee(%rip),%xmm8 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 68,15,40,37,246,217,1,0 ; movaps 0x1d9f6(%rip),%xmm12 # 357d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
- DB 69,15,89,229 ; mulps %xmm13,%xmm12
- DB 69,15,92,196 ; subps %xmm12,%xmm8
- DB 68,15,40,37,246,217,1,0 ; movaps 0x1d9f6(%rip),%xmm12 # 357e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
- DB 69,15,92,229 ; subps %xmm13,%xmm12
- DB 68,15,40,45,250,217,1,0 ; movaps 0x1d9fa(%rip),%xmm13 # 357f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
- DB 69,15,94,236 ; divps %xmm12,%xmm13
- DB 69,15,88,232 ; addps %xmm8,%xmm13
- DB 68,15,89,45,250,217,1,0 ; mulps 0x1d9fa(%rip),%xmm13 # 35800 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
- DB 102,69,15,91,197 ; cvtps2dq %xmm13,%xmm8
- DB 69,15,194,211,4 ; cmpneqps %xmm11,%xmm10
- DB 69,15,84,208 ; andps %xmm8,%xmm10
- DB 243,68,15,16,64,20 ; movss 0x14(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 69,15,88,194 ; addps %xmm10,%xmm8
- DB 102,69,15,56,20,193 ; blendvps %xmm0,%xmm9,%xmm8
- DB 69,15,95,195 ; maxps %xmm11,%xmm8
- DB 68,15,93,5,123,214,1,0 ; minps 0x1d67b(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_g_sse41
-_sk_parametric_g_sse41 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,88,16 ; movss 0x10(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,72,12 ; movss 0xc(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 243,68,15,16,80,4 ; movss 0x4(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 68,15,89,209 ; mulps %xmm1,%xmm10
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 65,15,194,195,2 ; cmpleps %xmm11,%xmm0
- DB 243,15,16,72,24 ; movss 0x18(%rax),%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 68,15,88,201 ; addps %xmm1,%xmm9
- DB 243,68,15,16,32 ; movss (%rax),%xmm12
- DB 243,15,16,72,8 ; movss 0x8(%rax),%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 68,15,88,209 ; addps %xmm1,%xmm10
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 69,15,91,242 ; cvtdq2ps %xmm10,%xmm14
- DB 68,15,89,53,184,216,1,0 ; mulps 0x1d8b8(%rip),%xmm14 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 68,15,40,45,192,216,1,0 ; movaps 0x1d8c0(%rip),%xmm13 # 35770 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
- DB 69,15,84,234 ; andps %xmm10,%xmm13
- DB 68,15,86,45,228,213,1,0 ; orps 0x1d5e4(%rip),%xmm13 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,88,53,188,216,1,0 ; addps 0x1d8bc(%rip),%xmm14 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 15,40,13,197,216,1,0 ; movaps 0x1d8c5(%rip),%xmm1 # 35790 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- DB 65,15,89,205 ; mulps %xmm13,%xmm1
- DB 68,15,92,241 ; subps %xmm1,%xmm14
- DB 68,15,88,45,197,216,1,0 ; addps 0x1d8c5(%rip),%xmm13 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 15,40,13,206,216,1,0 ; movaps 0x1d8ce(%rip),%xmm1 # 357b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
- DB 65,15,94,205 ; divps %xmm13,%xmm1
- DB 68,15,92,241 ; subps %xmm1,%xmm14
- DB 69,15,89,244 ; mulps %xmm12,%xmm14
- DB 102,69,15,58,8,230,1 ; roundps $0x1,%xmm14,%xmm12
- DB 69,15,40,238 ; movaps %xmm14,%xmm13
- DB 69,15,92,236 ; subps %xmm12,%xmm13
- DB 68,15,88,53,187,216,1,0 ; addps 0x1d8bb(%rip),%xmm14 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 15,40,13,196,216,1,0 ; movaps 0x1d8c4(%rip),%xmm1 # 357d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
- DB 65,15,89,205 ; mulps %xmm13,%xmm1
- DB 68,15,92,241 ; subps %xmm1,%xmm14
- DB 68,15,40,37,196,216,1,0 ; movaps 0x1d8c4(%rip),%xmm12 # 357e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
- DB 69,15,92,229 ; subps %xmm13,%xmm12
- DB 15,40,13,201,216,1,0 ; movaps 0x1d8c9(%rip),%xmm1 # 357f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
- DB 65,15,94,204 ; divps %xmm12,%xmm1
- DB 65,15,88,206 ; addps %xmm14,%xmm1
- DB 15,89,13,202,216,1,0 ; mulps 0x1d8ca(%rip),%xmm1 # 35800 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
- DB 102,15,91,201 ; cvtps2dq %xmm1,%xmm1
- DB 69,15,194,211,4 ; cmpneqps %xmm11,%xmm10
- DB 68,15,84,209 ; andps %xmm1,%xmm10
- DB 243,15,16,72,20 ; movss 0x14(%rax),%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 102,65,15,56,20,201 ; blendvps %xmm0,%xmm9,%xmm1
- DB 65,15,95,203 ; maxps %xmm11,%xmm1
- DB 15,93,13,79,213,1,0 ; minps 0x1d54f(%rip),%xmm1 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_b_sse41
-_sk_parametric_b_sse41 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,88,16 ; movss 0x10(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,72,12 ; movss 0xc(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,202 ; mulps %xmm2,%xmm9
- DB 243,68,15,16,80,4 ; movss 0x4(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 68,15,89,210 ; mulps %xmm2,%xmm10
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 65,15,194,195,2 ; cmpleps %xmm11,%xmm0
- DB 243,15,16,80,24 ; movss 0x18(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 68,15,88,202 ; addps %xmm2,%xmm9
- DB 243,68,15,16,32 ; movss (%rax),%xmm12
- DB 243,15,16,80,8 ; movss 0x8(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 68,15,88,210 ; addps %xmm2,%xmm10
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 69,15,91,242 ; cvtdq2ps %xmm10,%xmm14
- DB 68,15,89,53,140,215,1,0 ; mulps 0x1d78c(%rip),%xmm14 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 68,15,40,45,148,215,1,0 ; movaps 0x1d794(%rip),%xmm13 # 35770 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
- DB 69,15,84,234 ; andps %xmm10,%xmm13
- DB 68,15,86,45,184,212,1,0 ; orps 0x1d4b8(%rip),%xmm13 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,88,53,144,215,1,0 ; addps 0x1d790(%rip),%xmm14 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 15,40,21,153,215,1,0 ; movaps 0x1d799(%rip),%xmm2 # 35790 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- DB 65,15,89,213 ; mulps %xmm13,%xmm2
- DB 68,15,92,242 ; subps %xmm2,%xmm14
- DB 68,15,88,45,153,215,1,0 ; addps 0x1d799(%rip),%xmm13 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 15,40,21,162,215,1,0 ; movaps 0x1d7a2(%rip),%xmm2 # 357b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
- DB 65,15,94,213 ; divps %xmm13,%xmm2
- DB 68,15,92,242 ; subps %xmm2,%xmm14
- DB 69,15,89,244 ; mulps %xmm12,%xmm14
- DB 102,69,15,58,8,230,1 ; roundps $0x1,%xmm14,%xmm12
- DB 69,15,40,238 ; movaps %xmm14,%xmm13
- DB 69,15,92,236 ; subps %xmm12,%xmm13
- DB 68,15,88,53,143,215,1,0 ; addps 0x1d78f(%rip),%xmm14 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 15,40,21,152,215,1,0 ; movaps 0x1d798(%rip),%xmm2 # 357d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
- DB 65,15,89,213 ; mulps %xmm13,%xmm2
- DB 68,15,92,242 ; subps %xmm2,%xmm14
- DB 68,15,40,37,152,215,1,0 ; movaps 0x1d798(%rip),%xmm12 # 357e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
- DB 69,15,92,229 ; subps %xmm13,%xmm12
- DB 15,40,21,157,215,1,0 ; movaps 0x1d79d(%rip),%xmm2 # 357f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
- DB 65,15,94,212 ; divps %xmm12,%xmm2
- DB 65,15,88,214 ; addps %xmm14,%xmm2
- DB 15,89,21,158,215,1,0 ; mulps 0x1d79e(%rip),%xmm2 # 35800 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
- DB 102,15,91,210 ; cvtps2dq %xmm2,%xmm2
- DB 69,15,194,211,4 ; cmpneqps %xmm11,%xmm10
- DB 68,15,84,210 ; andps %xmm2,%xmm10
- DB 243,15,16,80,20 ; movss 0x14(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 65,15,88,210 ; addps %xmm10,%xmm2
- DB 102,65,15,56,20,209 ; blendvps %xmm0,%xmm9,%xmm2
- DB 65,15,95,211 ; maxps %xmm11,%xmm2
- DB 15,93,21,35,212,1,0 ; minps 0x1d423(%rip),%xmm2 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_a_sse41
-_sk_parametric_a_sse41 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,88,16 ; movss 0x10(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,72,12 ; movss 0xc(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,203 ; mulps %xmm3,%xmm9
- DB 243,68,15,16,80,4 ; movss 0x4(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 68,15,89,211 ; mulps %xmm3,%xmm10
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 65,15,194,195,2 ; cmpleps %xmm11,%xmm0
- DB 243,15,16,88,24 ; movss 0x18(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 68,15,88,203 ; addps %xmm3,%xmm9
- DB 243,68,15,16,32 ; movss (%rax),%xmm12
- DB 243,15,16,88,8 ; movss 0x8(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 68,15,88,211 ; addps %xmm3,%xmm10
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 69,15,91,242 ; cvtdq2ps %xmm10,%xmm14
- DB 68,15,89,53,96,214,1,0 ; mulps 0x1d660(%rip),%xmm14 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 68,15,40,45,104,214,1,0 ; movaps 0x1d668(%rip),%xmm13 # 35770 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
- DB 69,15,84,234 ; andps %xmm10,%xmm13
- DB 68,15,86,45,140,211,1,0 ; orps 0x1d38c(%rip),%xmm13 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,88,53,100,214,1,0 ; addps 0x1d664(%rip),%xmm14 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 15,40,29,109,214,1,0 ; movaps 0x1d66d(%rip),%xmm3 # 35790 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- DB 65,15,89,221 ; mulps %xmm13,%xmm3
- DB 68,15,92,243 ; subps %xmm3,%xmm14
- DB 68,15,88,45,109,214,1,0 ; addps 0x1d66d(%rip),%xmm13 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 15,40,29,118,214,1,0 ; movaps 0x1d676(%rip),%xmm3 # 357b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
- DB 65,15,94,221 ; divps %xmm13,%xmm3
- DB 68,15,92,243 ; subps %xmm3,%xmm14
- DB 69,15,89,244 ; mulps %xmm12,%xmm14
- DB 102,69,15,58,8,230,1 ; roundps $0x1,%xmm14,%xmm12
- DB 69,15,40,238 ; movaps %xmm14,%xmm13
- DB 69,15,92,236 ; subps %xmm12,%xmm13
- DB 68,15,88,53,99,214,1,0 ; addps 0x1d663(%rip),%xmm14 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 15,40,29,108,214,1,0 ; movaps 0x1d66c(%rip),%xmm3 # 357d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
- DB 65,15,89,221 ; mulps %xmm13,%xmm3
- DB 68,15,92,243 ; subps %xmm3,%xmm14
- DB 68,15,40,37,108,214,1,0 ; movaps 0x1d66c(%rip),%xmm12 # 357e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
- DB 69,15,92,229 ; subps %xmm13,%xmm12
- DB 15,40,29,113,214,1,0 ; movaps 0x1d671(%rip),%xmm3 # 357f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
- DB 65,15,94,220 ; divps %xmm12,%xmm3
- DB 65,15,88,222 ; addps %xmm14,%xmm3
- DB 15,89,29,114,214,1,0 ; mulps 0x1d672(%rip),%xmm3 # 35800 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
- DB 102,15,91,219 ; cvtps2dq %xmm3,%xmm3
- DB 69,15,194,211,4 ; cmpneqps %xmm11,%xmm10
- DB 68,15,84,211 ; andps %xmm3,%xmm10
- DB 243,15,16,88,20 ; movss 0x14(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 65,15,88,218 ; addps %xmm10,%xmm3
- DB 102,65,15,56,20,217 ; blendvps %xmm0,%xmm9,%xmm3
- DB 65,15,95,219 ; maxps %xmm11,%xmm3
- DB 15,93,29,247,210,1,0 ; minps 0x1d2f7(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gamma_sse41
-_sk_gamma_sse41 LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%rsp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%rsp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%rsp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%rsp)
- DB 15,41,28,36 ; movaps %xmm3,(%rsp)
- DB 68,15,40,226 ; movaps %xmm2,%xmm12
- DB 68,15,40,209 ; movaps %xmm1,%xmm10
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,91,244 ; cvtdq2ps %xmm4,%xmm6
- DB 15,40,5,110,213,1,0 ; movaps 0x1d56e(%rip),%xmm0 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 15,89,240 ; mulps %xmm0,%xmm6
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 68,15,40,5,112,213,1,0 ; movaps 0x1d570(%rip),%xmm8 # 35770 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 15,86,5,146,210,1,0 ; orps 0x1d292(%rip),%xmm0 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,88,53,107,213,1,0 ; addps 0x1d56b(%rip),%xmm6 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 68,15,40,29,115,213,1,0 ; movaps 0x1d573(%rip),%xmm11 # 35790 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 15,92,241 ; subps %xmm1,%xmm6
- DB 68,15,40,61,113,213,1,0 ; movaps 0x1d571(%rip),%xmm15 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 65,15,88,199 ; addps %xmm15,%xmm0
- DB 68,15,40,53,117,213,1,0 ; movaps 0x1d575(%rip),%xmm14 # 357b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
- DB 65,15,40,206 ; movaps %xmm14,%xmm1
- DB 15,94,200 ; divps %xmm0,%xmm1
- DB 15,92,241 ; subps %xmm1,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,16 ; movss (%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,89,242 ; mulps %xmm2,%xmm6
- DB 102,15,58,8,198,1 ; roundps $0x1,%xmm6,%xmm0
- DB 15,40,206 ; movaps %xmm6,%xmm1
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,88,53,91,213,1,0 ; addps 0x1d55b(%rip),%xmm6 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 15,40,29,116,213,1,0 ; movaps 0x1d574(%rip),%xmm3 # 357e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,92,201 ; subps %xmm1,%xmm9
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,40,13,82,213,1,0 ; movaps 0x1d552(%rip),%xmm1 # 357d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,92,240 ; subps %xmm0,%xmm6
- DB 68,15,40,45,100,213,1,0 ; movaps 0x1d564(%rip),%xmm13 # 357f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
- DB 65,15,40,197 ; movaps %xmm13,%xmm0
- DB 65,15,94,193 ; divps %xmm9,%xmm0
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 68,15,40,13,97,213,1,0 ; movaps 0x1d561(%rip),%xmm9 # 35800 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,194,230,4 ; cmpneqps %xmm6,%xmm4
- DB 15,84,224 ; andps %xmm0,%xmm4
- DB 65,15,91,194 ; cvtdq2ps %xmm10,%xmm0
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 65,15,40,250 ; movaps %xmm10,%xmm7
- DB 65,15,84,248 ; andps %xmm8,%xmm7
- DB 15,40,53,217,209,1,0 ; movaps 0x1d1d9(%rip),%xmm6 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,86,254 ; orps %xmm6,%xmm7
- DB 15,88,5,175,212,1,0 ; addps 0x1d4af(%rip),%xmm0 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 15,40,239 ; movaps %xmm7,%xmm5
- DB 65,15,89,235 ; mulps %xmm11,%xmm5
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 65,15,88,255 ; addps %xmm15,%xmm7
- DB 65,15,40,238 ; movaps %xmm14,%xmm5
- DB 15,94,239 ; divps %xmm7,%xmm5
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 102,15,58,8,232,1 ; roundps $0x1,%xmm0,%xmm5
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,92,253 ; subps %xmm5,%xmm7
- DB 68,15,40,61,192,212,1,0 ; movaps 0x1d4c0(%rip),%xmm15 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 65,15,88,199 ; addps %xmm15,%xmm0
- DB 15,40,235 ; movaps %xmm3,%xmm5
- DB 15,92,239 ; subps %xmm7,%xmm5
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 15,92,199 ; subps %xmm7,%xmm0
- DB 65,15,40,253 ; movaps %xmm13,%xmm7
- DB 15,94,253 ; divps %xmm5,%xmm7
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 65,15,89,249 ; mulps %xmm9,%xmm7
- DB 102,15,91,199 ; cvtps2dq %xmm7,%xmm0
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 68,15,194,215,4 ; cmpneqps %xmm7,%xmm10
- DB 68,15,84,208 ; andps %xmm0,%xmm10
- DB 65,15,91,196 ; cvtdq2ps %xmm12,%xmm0
- DB 15,89,5,39,212,1,0 ; mulps 0x1d427(%rip),%xmm0 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 69,15,84,196 ; andps %xmm12,%xmm8
- DB 68,15,86,198 ; orps %xmm6,%xmm8
- DB 15,88,5,56,212,1,0 ; addps 0x1d438(%rip),%xmm0 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 69,15,89,216 ; mulps %xmm8,%xmm11
- DB 65,15,92,195 ; subps %xmm11,%xmm0
- DB 68,15,88,5,72,212,1,0 ; addps 0x1d448(%rip),%xmm8 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 69,15,94,240 ; divps %xmm8,%xmm14
- DB 65,15,92,198 ; subps %xmm14,%xmm0
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 102,15,58,8,208,1 ; roundps $0x1,%xmm0,%xmm2
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 15,92,234 ; subps %xmm2,%xmm5
- DB 65,15,88,199 ; addps %xmm15,%xmm0
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,92,221 ; subps %xmm5,%xmm3
- DB 68,15,94,235 ; divps %xmm3,%xmm13
- DB 68,15,88,232 ; addps %xmm0,%xmm13
- DB 69,15,89,233 ; mulps %xmm9,%xmm13
- DB 68,15,194,231,4 ; cmpneqps %xmm7,%xmm12
- DB 102,65,15,91,197 ; cvtps2dq %xmm13,%xmm0
- DB 68,15,84,224 ; andps %xmm0,%xmm12
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 65,15,40,202 ; movaps %xmm10,%xmm1
- DB 65,15,40,212 ; movaps %xmm12,%xmm2
- DB 15,40,28,36 ; movaps (%rsp),%xmm3
- DB 15,40,100,36,16 ; movaps 0x10(%rsp),%xmm4
- DB 15,40,108,36,32 ; movaps 0x20(%rsp),%xmm5
- DB 15,40,116,36,48 ; movaps 0x30(%rsp),%xmm6
- DB 15,40,124,36,64 ; movaps 0x40(%rsp),%xmm7
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gamma_dst_sse41
-_sk_gamma_dst_sse41 LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%rsp)
- DB 68,15,40,230 ; movaps %xmm6,%xmm12
- DB 68,15,40,213 ; movaps %xmm5,%xmm10
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,41,92,36,48 ; movaps %xmm3,0x30(%rsp)
- DB 15,41,84,36,32 ; movaps %xmm2,0x20(%rsp)
- DB 15,41,76,36,16 ; movaps %xmm1,0x10(%rsp)
- DB 15,41,4,36 ; movaps %xmm0,(%rsp)
- DB 15,91,221 ; cvtdq2ps %xmm5,%xmm3
- DB 15,40,5,110,211,1,0 ; movaps 0x1d36e(%rip),%xmm0 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 68,15,40,5,112,211,1,0 ; movaps 0x1d370(%rip),%xmm8 # 35770 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 15,86,5,146,208,1,0 ; orps 0x1d092(%rip),%xmm0 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,88,29,107,211,1,0 ; addps 0x1d36b(%rip),%xmm3 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 68,15,40,29,115,211,1,0 ; movaps 0x1d373(%rip),%xmm11 # 35790 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 15,92,217 ; subps %xmm1,%xmm3
- DB 68,15,40,61,113,211,1,0 ; movaps 0x1d371(%rip),%xmm15 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 65,15,88,199 ; addps %xmm15,%xmm0
- DB 68,15,40,53,117,211,1,0 ; movaps 0x1d375(%rip),%xmm14 # 357b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
- DB 65,15,40,206 ; movaps %xmm14,%xmm1
- DB 15,94,200 ; divps %xmm0,%xmm1
- DB 15,92,217 ; subps %xmm1,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,16 ; movss (%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,89,218 ; mulps %xmm2,%xmm3
- DB 102,15,58,8,195,1 ; roundps $0x1,%xmm3,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,88,29,91,211,1,0 ; addps 0x1d35b(%rip),%xmm3 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 15,40,37,116,211,1,0 ; movaps 0x1d374(%rip),%xmm4 # 357e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
- DB 68,15,40,204 ; movaps %xmm4,%xmm9
- DB 68,15,92,201 ; subps %xmm1,%xmm9
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,40,13,82,211,1,0 ; movaps 0x1d352(%rip),%xmm1 # 357d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,92,216 ; subps %xmm0,%xmm3
- DB 68,15,40,45,100,211,1,0 ; movaps 0x1d364(%rip),%xmm13 # 357f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
- DB 65,15,40,197 ; movaps %xmm13,%xmm0
- DB 65,15,94,193 ; divps %xmm9,%xmm0
- DB 15,88,195 ; addps %xmm3,%xmm0
- DB 68,15,40,13,97,211,1,0 ; movaps 0x1d361(%rip),%xmm9 # 35800 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,194,235,4 ; cmpneqps %xmm3,%xmm5
- DB 15,84,232 ; andps %xmm0,%xmm5
- DB 65,15,91,194 ; cvtdq2ps %xmm10,%xmm0
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 65,15,40,250 ; movaps %xmm10,%xmm7
- DB 65,15,84,248 ; andps %xmm8,%xmm7
- DB 15,40,29,217,207,1,0 ; movaps 0x1cfd9(%rip),%xmm3 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,86,251 ; orps %xmm3,%xmm7
- DB 15,88,5,175,210,1,0 ; addps 0x1d2af(%rip),%xmm0 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 15,40,247 ; movaps %xmm7,%xmm6
- DB 65,15,89,243 ; mulps %xmm11,%xmm6
- DB 15,92,198 ; subps %xmm6,%xmm0
- DB 65,15,88,255 ; addps %xmm15,%xmm7
- DB 65,15,40,246 ; movaps %xmm14,%xmm6
- DB 15,94,247 ; divps %xmm7,%xmm6
- DB 15,92,198 ; subps %xmm6,%xmm0
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 102,15,58,8,240,1 ; roundps $0x1,%xmm0,%xmm6
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,92,254 ; subps %xmm6,%xmm7
- DB 68,15,40,61,192,210,1,0 ; movaps 0x1d2c0(%rip),%xmm15 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 65,15,88,199 ; addps %xmm15,%xmm0
- DB 15,40,244 ; movaps %xmm4,%xmm6
- DB 15,92,247 ; subps %xmm7,%xmm6
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 15,92,199 ; subps %xmm7,%xmm0
- DB 65,15,40,253 ; movaps %xmm13,%xmm7
- DB 15,94,254 ; divps %xmm6,%xmm7
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 65,15,89,249 ; mulps %xmm9,%xmm7
- DB 102,15,91,199 ; cvtps2dq %xmm7,%xmm0
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 68,15,194,215,4 ; cmpneqps %xmm7,%xmm10
- DB 68,15,84,208 ; andps %xmm0,%xmm10
- DB 65,15,91,196 ; cvtdq2ps %xmm12,%xmm0
- DB 15,89,5,39,210,1,0 ; mulps 0x1d227(%rip),%xmm0 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 69,15,84,196 ; andps %xmm12,%xmm8
- DB 68,15,86,195 ; orps %xmm3,%xmm8
- DB 15,88,5,56,210,1,0 ; addps 0x1d238(%rip),%xmm0 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 69,15,89,216 ; mulps %xmm8,%xmm11
- DB 65,15,92,195 ; subps %xmm11,%xmm0
- DB 68,15,88,5,72,210,1,0 ; addps 0x1d248(%rip),%xmm8 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 69,15,94,240 ; divps %xmm8,%xmm14
- DB 65,15,92,198 ; subps %xmm14,%xmm0
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 102,15,58,8,208,1 ; roundps $0x1,%xmm0,%xmm2
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,92,242 ; subps %xmm2,%xmm6
- DB 65,15,88,199 ; addps %xmm15,%xmm0
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,92,230 ; subps %xmm6,%xmm4
- DB 68,15,94,236 ; divps %xmm4,%xmm13
- DB 68,15,88,232 ; addps %xmm0,%xmm13
- DB 69,15,89,233 ; mulps %xmm9,%xmm13
- DB 68,15,194,231,4 ; cmpneqps %xmm7,%xmm12
- DB 102,65,15,91,197 ; cvtps2dq %xmm13,%xmm0
- DB 68,15,84,224 ; andps %xmm0,%xmm12
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,4,36 ; movaps (%rsp),%xmm0
- DB 15,40,76,36,16 ; movaps 0x10(%rsp),%xmm1
- DB 15,40,84,36,32 ; movaps 0x20(%rsp),%xmm2
- DB 15,40,92,36,48 ; movaps 0x30(%rsp),%xmm3
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 65,15,40,234 ; movaps %xmm10,%xmm5
- DB 65,15,40,244 ; movaps %xmm12,%xmm6
- DB 15,40,124,36,64 ; movaps 0x40(%rsp),%xmm7
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lab_to_xyz_sse41
-_sk_lab_to_xyz_sse41 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 68,15,89,5,67,210,1,0 ; mulps 0x1d243(%rip),%xmm8 # 35810 <_sk_srcover_bgra_8888_sse2_lowp+0xff8>
- DB 68,15,40,13,187,207,1,0 ; movaps 0x1cfbb(%rip),%xmm9 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 65,15,89,201 ; mulps %xmm9,%xmm1
- DB 15,40,5,64,210,1,0 ; movaps 0x1d240(%rip),%xmm0 # 35820 <_sk_srcover_bgra_8888_sse2_lowp+0x1008>
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 68,15,88,5,62,210,1,0 ; addps 0x1d23e(%rip),%xmm8 # 35830 <_sk_srcover_bgra_8888_sse2_lowp+0x1018>
- DB 68,15,89,5,70,210,1,0 ; mulps 0x1d246(%rip),%xmm8 # 35840 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
- DB 15,89,13,79,210,1,0 ; mulps 0x1d24f(%rip),%xmm1 # 35850 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 15,89,21,84,210,1,0 ; mulps 0x1d254(%rip),%xmm2 # 35860 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
- DB 69,15,40,208 ; movaps %xmm8,%xmm10
- DB 68,15,92,210 ; subps %xmm2,%xmm10
- DB 68,15,40,217 ; movaps %xmm1,%xmm11
- DB 69,15,89,219 ; mulps %xmm11,%xmm11
- DB 68,15,89,217 ; mulps %xmm1,%xmm11
- DB 68,15,40,13,72,210,1,0 ; movaps 0x1d248(%rip),%xmm9 # 35870 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,194,195,1 ; cmpltps %xmm11,%xmm0
- DB 15,40,21,72,210,1,0 ; movaps 0x1d248(%rip),%xmm2 # 35880 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 68,15,40,37,77,210,1,0 ; movaps 0x1d24d(%rip),%xmm12 # 35890 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
- DB 65,15,89,204 ; mulps %xmm12,%xmm1
- DB 102,65,15,56,20,203 ; blendvps %xmm0,%xmm11,%xmm1
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 69,15,89,219 ; mulps %xmm11,%xmm11
- DB 69,15,89,216 ; mulps %xmm8,%xmm11
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,194,195,1 ; cmpltps %xmm11,%xmm0
- DB 68,15,88,194 ; addps %xmm2,%xmm8
- DB 69,15,89,196 ; mulps %xmm12,%xmm8
- DB 102,69,15,56,20,195 ; blendvps %xmm0,%xmm11,%xmm8
- DB 69,15,40,218 ; movaps %xmm10,%xmm11
- DB 69,15,89,219 ; mulps %xmm11,%xmm11
- DB 69,15,89,218 ; mulps %xmm10,%xmm11
- DB 69,15,194,203,1 ; cmpltps %xmm11,%xmm9
- DB 65,15,88,210 ; addps %xmm10,%xmm2
- DB 65,15,89,212 ; mulps %xmm12,%xmm2
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,65,15,56,20,211 ; blendvps %xmm0,%xmm11,%xmm2
- DB 15,89,13,6,210,1,0 ; mulps 0x1d206(%rip),%xmm1 # 358a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
- DB 15,89,21,15,210,1,0 ; mulps 0x1d20f(%rip),%xmm2 # 358b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_a8_sse41
-_sk_load_a8_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,39 ; jne 186e5 <_sk_load_a8_sse41+0x39>
- DB 102,65,15,56,49,4,16 ; pmovzxbd (%r8,%rdx,1),%xmm0
- DB 102,15,219,5,147,206,1,0 ; pand 0x1ce93(%rip),%xmm0 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 15,91,216 ; cvtdq2ps %xmm0,%xmm3
- DB 15,89,29,233,207,1,0 ; mulps 0x1cfe9(%rip),%xmm3 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,49 ; je 1871e <_sk_load_a8_sse41+0x72>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 18708 <_sk_load_a8_sse41+0x5c>
- DB 60,3 ; cmp $0x3,%al
- DB 117,204 ; jne 186c5 <_sk_load_a8_sse41+0x19>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,200 ; movd %eax,%xmm1
- DB 102,15,56,49,201 ; pmovzxbd %xmm1,%xmm1
- DB 102,15,58,14,193,15 ; pblendw $0xf,%xmm1,%xmm0
- DB 235,167 ; jmp 186c5 <_sk_load_a8_sse41+0x19>
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 235,156 ; jmp 186c5 <_sk_load_a8_sse41+0x19>
-
-PUBLIC _sk_load_a8_dst_sse41
-_sk_load_a8_dst_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,39 ; jne 18762 <_sk_load_a8_dst_sse41+0x39>
- DB 102,65,15,56,49,36,16 ; pmovzxbd (%r8,%rdx,1),%xmm4
- DB 102,15,219,37,22,206,1,0 ; pand 0x1ce16(%rip),%xmm4 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 15,91,252 ; cvtdq2ps %xmm4,%xmm7
- DB 15,89,61,108,207,1,0 ; mulps 0x1cf6c(%rip),%xmm7 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,49 ; je 1879b <_sk_load_a8_dst_sse41+0x72>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 18785 <_sk_load_a8_dst_sse41+0x5c>
- DB 60,3 ; cmp $0x3,%al
- DB 117,204 ; jne 18742 <_sk_load_a8_dst_sse41+0x19>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,112,228,69 ; pshufd $0x45,%xmm4,%xmm4
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,232 ; movd %eax,%xmm5
- DB 102,15,56,49,237 ; pmovzxbd %xmm5,%xmm5
- DB 102,15,58,14,229,15 ; pblendw $0xf,%xmm5,%xmm4
- DB 235,167 ; jmp 18742 <_sk_load_a8_dst_sse41+0x19>
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 235,156 ; jmp 18742 <_sk_load_a8_dst_sse41+0x19>
-
-PUBLIC _sk_gather_a8_sse41
-_sk_gather_a8_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,80,12 ; movss 0xc(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,65,15,254,208 ; paddd %xmm8,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,93,202 ; minps %xmm2,%xmm9
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,192 ; paddd %xmm8,%xmm0
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,56,64,200 ; pmulld %xmm0,%xmm1
- DB 243,65,15,91,193 ; cvttps2dq %xmm9,%xmm0
- DB 102,15,254,193 ; paddd %xmm1,%xmm0
- DB 102,72,15,58,22,192,1 ; pextrq $0x1,%xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,194 ; movq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 71,15,182,28,24 ; movzbl (%r8,%r11,1),%r11d
- DB 102,65,15,110,195 ; movd %r11d,%xmm0
- DB 102,65,15,58,32,194,1 ; pinsrb $0x1,%r10d,%xmm0
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 102,65,15,58,32,193,2 ; pinsrb $0x2,%r9d,%xmm0
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 102,15,58,32,192,3 ; pinsrb $0x3,%eax,%xmm0
- DB 102,15,56,49,192 ; pmovzxbd %xmm0,%xmm0
- DB 15,91,216 ; cvtdq2ps %xmm0,%xmm3
- DB 15,89,29,109,206,1,0 ; mulps 0x1ce6d(%rip),%xmm3 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_a8_sse41
-_sk_store_a8_sse41 LABEL PROC
- DB 72,131,236,4 ; sub $0x4,%rsp
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,95,195 ; maxps %xmm3,%xmm8
- DB 68,15,93,5,46,204,1,0 ; minps 0x1cc2e(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,89,5,6,205,1,0 ; mulps 0x1cd06(%rip),%xmm8 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
- DB 102,68,15,56,43,192 ; packusdw %xmm0,%xmm8
- DB 102,68,15,103,192 ; packuswb %xmm0,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,17 ; jne 188b0 <_sk_store_a8_sse41+0x4f>
- DB 102,68,15,126,192 ; movd %xmm8,%eax
- DB 65,137,4,16 ; mov %eax,(%r8,%rdx,1)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,131,196,4 ; add $0x4,%rsp
- DB 255,224 ; jmpq *%rax
- DB 102,69,15,56,49,192 ; pmovzxbd %xmm8,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,37 ; je 188e3 <_sk_store_a8_sse41+0x82>
- DB 60,2 ; cmp $0x2,%al
- DB 116,13 ; je 188cf <_sk_store_a8_sse41+0x6e>
- DB 60,3 ; cmp $0x3,%al
- DB 117,226 ; jne 188a8 <_sk_store_a8_sse41+0x47>
- DB 102,69,15,58,20,68,16,2,8 ; pextrb $0x8,%xmm8,0x2(%r8,%rdx,1)
- DB 102,68,15,56,0,5,231,207,1,0 ; pshufb 0x1cfe7(%rip),%xmm8 # 358c0 <_sk_srcover_bgra_8888_sse2_lowp+0x10a8>
- DB 102,69,15,58,21,4,16,0 ; pextrw $0x0,%xmm8,(%r8,%rdx,1)
- DB 235,197 ; jmp 188a8 <_sk_store_a8_sse41+0x47>
- DB 102,69,15,58,20,4,16,0 ; pextrb $0x0,%xmm8,(%r8,%rdx,1)
- DB 235,187 ; jmp 188a8 <_sk_store_a8_sse41+0x47>
-
-PUBLIC _sk_load_g8_sse41
-_sk_load_g8_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,42 ; jne 18929 <_sk_load_g8_sse41+0x3c>
- DB 102,65,15,56,49,4,16 ; pmovzxbd (%r8,%rdx,1),%xmm0
- DB 102,15,219,5,82,204,1,0 ; pand 0x1cc52(%rip),%xmm0 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,168,205,1,0 ; mulps 0x1cda8(%rip),%xmm0 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,143,203,1,0 ; movaps 0x1cb8f(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,49 ; je 18962 <_sk_load_g8_sse41+0x75>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 1894c <_sk_load_g8_sse41+0x5f>
- DB 60,3 ; cmp $0x3,%al
- DB 117,201 ; jne 18906 <_sk_load_g8_sse41+0x19>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,200 ; movd %eax,%xmm1
- DB 102,15,56,49,201 ; pmovzxbd %xmm1,%xmm1
- DB 102,15,58,14,193,15 ; pblendw $0xf,%xmm1,%xmm0
- DB 235,164 ; jmp 18906 <_sk_load_g8_sse41+0x19>
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 235,153 ; jmp 18906 <_sk_load_g8_sse41+0x19>
-
-PUBLIC _sk_load_g8_dst_sse41
-_sk_load_g8_dst_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,42 ; jne 189a9 <_sk_load_g8_dst_sse41+0x3c>
- DB 102,65,15,56,49,36,16 ; pmovzxbd (%r8,%rdx,1),%xmm4
- DB 102,15,219,37,210,203,1,0 ; pand 0x1cbd2(%rip),%xmm4 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,37,40,205,1,0 ; mulps 0x1cd28(%rip),%xmm4 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,15,203,1,0 ; movaps 0x1cb0f(%rip),%xmm7 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,40,244 ; movaps %xmm4,%xmm6
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,49 ; je 189e2 <_sk_load_g8_dst_sse41+0x75>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 189cc <_sk_load_g8_dst_sse41+0x5f>
- DB 60,3 ; cmp $0x3,%al
- DB 117,201 ; jne 18986 <_sk_load_g8_dst_sse41+0x19>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,112,228,69 ; pshufd $0x45,%xmm4,%xmm4
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,232 ; movd %eax,%xmm5
- DB 102,15,56,49,237 ; pmovzxbd %xmm5,%xmm5
- DB 102,15,58,14,229,15 ; pblendw $0xf,%xmm5,%xmm4
- DB 235,164 ; jmp 18986 <_sk_load_g8_dst_sse41+0x19>
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 235,153 ; jmp 18986 <_sk_load_g8_dst_sse41+0x19>
-
-PUBLIC _sk_gather_g8_sse41
-_sk_gather_g8_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,80,12 ; movss 0xc(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,65,15,254,208 ; paddd %xmm8,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,93,202 ; minps %xmm2,%xmm9
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,192 ; paddd %xmm8,%xmm0
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,56,64,200 ; pmulld %xmm0,%xmm1
- DB 243,65,15,91,193 ; cvttps2dq %xmm9,%xmm0
- DB 102,15,254,193 ; paddd %xmm1,%xmm0
- DB 102,72,15,58,22,192,1 ; pextrq $0x1,%xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,194 ; movq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 71,15,182,28,24 ; movzbl (%r8,%r11,1),%r11d
- DB 102,65,15,110,195 ; movd %r11d,%xmm0
- DB 102,65,15,58,32,194,1 ; pinsrb $0x1,%r10d,%xmm0
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 102,65,15,58,32,193,2 ; pinsrb $0x2,%r9d,%xmm0
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 102,15,58,32,192,3 ; pinsrb $0x3,%eax,%xmm0
- DB 102,15,56,49,192 ; pmovzxbd %xmm0,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,38,204,1,0 ; mulps 0x1cc26(%rip),%xmm0 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,13,202,1,0 ; movaps 0x1ca0d(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_565_sse41
-_sk_load_565_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,80 ; jne 18b10 <_sk_load_565_sse41+0x65>
- DB 102,65,15,56,51,20,80 ; pmovzxwd (%r8,%rdx,2),%xmm2
- DB 102,15,111,5,1,204,1,0 ; movdqa 0x1cc01(%rip),%xmm0 # 356d0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,3,204,1,0 ; mulps 0x1cc03(%rip),%xmm0 # 356e0 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- DB 102,15,111,13,11,204,1,0 ; movdqa 0x1cc0b(%rip),%xmm1 # 356f0 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,13,204,1,0 ; mulps 0x1cc0d(%rip),%xmm1 # 35700 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- DB 102,15,219,21,21,204,1,0 ; pand 0x1cc15(%rip),%xmm2 # 35710 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,27,204,1,0 ; mulps 0x1cc1b(%rip),%xmm2 # 35720 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,162,201,1,0 ; movaps 0x1c9a2(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,46 ; je 18b46 <_sk_load_565_sse41+0x9b>
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 18b33 <_sk_load_565_sse41+0x88>
- DB 60,3 ; cmp $0x3,%al
- DB 117,163 ; jne 18ac7 <_sk_load_565_sse41+0x1c>
- DB 65,15,183,68,80,4 ; movzwl 0x4(%r8,%rdx,2),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,15,112,208,69 ; pshufd $0x45,%xmm0,%xmm2
- DB 102,65,15,110,4,80 ; movd (%r8,%rdx,2),%xmm0
- DB 102,15,56,51,192 ; pmovzxwd %xmm0,%xmm0
- DB 102,15,58,14,208,15 ; pblendw $0xf,%xmm0,%xmm2
- DB 235,129 ; jmp 18ac7 <_sk_load_565_sse41+0x1c>
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 233,115,255,255,255 ; jmpq 18ac7 <_sk_load_565_sse41+0x1c>
-
-PUBLIC _sk_load_565_dst_sse41
-_sk_load_565_dst_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,80 ; jne 18bb9 <_sk_load_565_dst_sse41+0x65>
- DB 102,65,15,56,51,52,80 ; pmovzxwd (%r8,%rdx,2),%xmm6
- DB 102,15,111,37,88,203,1,0 ; movdqa 0x1cb58(%rip),%xmm4 # 356d0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- DB 102,15,219,230 ; pand %xmm6,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,37,90,203,1,0 ; mulps 0x1cb5a(%rip),%xmm4 # 356e0 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- DB 102,15,111,45,98,203,1,0 ; movdqa 0x1cb62(%rip),%xmm5 # 356f0 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- DB 102,15,219,238 ; pand %xmm6,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,45,100,203,1,0 ; mulps 0x1cb64(%rip),%xmm5 # 35700 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- DB 102,15,219,53,108,203,1,0 ; pand 0x1cb6c(%rip),%xmm6 # 35710 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,53,114,203,1,0 ; mulps 0x1cb72(%rip),%xmm6 # 35720 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,249,200,1,0 ; movaps 0x1c8f9(%rip),%xmm7 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,46 ; je 18bef <_sk_load_565_dst_sse41+0x9b>
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 18bdc <_sk_load_565_dst_sse41+0x88>
- DB 60,3 ; cmp $0x3,%al
- DB 117,163 ; jne 18b70 <_sk_load_565_dst_sse41+0x1c>
- DB 65,15,183,68,80,4 ; movzwl 0x4(%r8,%rdx,2),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,112,244,69 ; pshufd $0x45,%xmm4,%xmm6
- DB 102,65,15,110,36,80 ; movd (%r8,%rdx,2),%xmm4
- DB 102,15,56,51,228 ; pmovzxwd %xmm4,%xmm4
- DB 102,15,58,14,244,15 ; pblendw $0xf,%xmm4,%xmm6
- DB 235,129 ; jmp 18b70 <_sk_load_565_dst_sse41+0x1c>
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,15,110,240 ; movd %eax,%xmm6
- DB 233,115,255,255,255 ; jmpq 18b70 <_sk_load_565_dst_sse41+0x1c>
-
-PUBLIC _sk_gather_565_sse41
-_sk_gather_565_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,80,12 ; movss 0xc(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,65,15,254,208 ; paddd %xmm8,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,93,202 ; minps %xmm2,%xmm9
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,192 ; paddd %xmm8,%xmm0
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,56,64,200 ; pmulld %xmm0,%xmm1
- DB 243,65,15,91,193 ; cvttps2dq %xmm9,%xmm0
- DB 102,15,254,193 ; paddd %xmm1,%xmm0
- DB 102,72,15,58,22,192,1 ; pextrq $0x1,%xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,194 ; movq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 71,15,183,20,80 ; movzwl (%r8,%r10,2),%r10d
- DB 71,15,183,28,88 ; movzwl (%r8,%r11,2),%r11d
- DB 102,65,15,110,195 ; movd %r11d,%xmm0
- DB 102,65,15,196,194,1 ; pinsrw $0x1,%r10d,%xmm0
- DB 71,15,183,12,72 ; movzwl (%r8,%r9,2),%r9d
- DB 102,65,15,196,193,2 ; pinsrw $0x2,%r9d,%xmm0
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 102,15,196,192,3 ; pinsrw $0x3,%eax,%xmm0
- DB 102,15,56,51,208 ; pmovzxwd %xmm0,%xmm2
- DB 102,15,111,5,43,202,1,0 ; movdqa 0x1ca2b(%rip),%xmm0 # 356d0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,45,202,1,0 ; mulps 0x1ca2d(%rip),%xmm0 # 356e0 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- DB 102,15,111,13,53,202,1,0 ; movdqa 0x1ca35(%rip),%xmm1 # 356f0 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,55,202,1,0 ; mulps 0x1ca37(%rip),%xmm1 # 35700 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- DB 102,15,219,21,63,202,1,0 ; pand 0x1ca3f(%rip),%xmm2 # 35710 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,69,202,1,0 ; mulps 0x1ca45(%rip),%xmm2 # 35720 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,204,199,1,0 ; movaps 0x1c7cc(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_565_sse41
-_sk_store_565_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,40,21,166,199,1,0 ; movaps 0x1c7a6(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 68,15,40,29,186,203,1,0 ; movaps 0x1cbba(%rip),%xmm11 # 358d0 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 102,65,15,114,241,11 ; pslld $0xb,%xmm9
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 68,15,89,37,167,203,1,0 ; mulps 0x1cba7(%rip),%xmm12 # 358e0 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
- DB 102,69,15,91,228 ; cvtps2dq %xmm12,%xmm12
- DB 102,65,15,114,244,5 ; pslld $0x5,%xmm12
- DB 68,15,95,194 ; maxps %xmm2,%xmm8
- DB 69,15,93,194 ; minps %xmm10,%xmm8
- DB 69,15,89,195 ; mulps %xmm11,%xmm8
- DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
- DB 102,69,15,86,193 ; orpd %xmm9,%xmm8
- DB 102,69,15,86,196 ; orpd %xmm12,%xmm8
- DB 102,68,15,56,43,192 ; packusdw %xmm0,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 18d74 <_sk_store_565_sse41+0x8e>
- DB 102,69,15,214,4,80 ; movq %xmm8,(%r8,%rdx,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,69,15,56,51,192 ; pmovzxwd %xmm8,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,31 ; je 18da1 <_sk_store_565_sse41+0xbb>
- DB 60,2 ; cmp $0x2,%al
- DB 116,13 ; je 18d93 <_sk_store_565_sse41+0xad>
- DB 60,3 ; cmp $0x3,%al
- DB 117,230 ; jne 18d70 <_sk_store_565_sse41+0x8a>
- DB 102,69,15,58,21,68,80,4,4 ; pextrw $0x4,%xmm8,0x4(%r8,%rdx,2)
- DB 242,69,15,112,192,232 ; pshuflw $0xe8,%xmm8,%xmm8
- DB 102,69,15,126,4,80 ; movd %xmm8,(%r8,%rdx,2)
- DB 235,207 ; jmp 18d70 <_sk_store_565_sse41+0x8a>
- DB 102,69,15,58,21,4,80,0 ; pextrw $0x0,%xmm8,(%r8,%rdx,2)
- DB 235,197 ; jmp 18d70 <_sk_store_565_sse41+0x8a>
-
-PUBLIC _sk_load_4444_sse41
-_sk_load_4444_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,95 ; jne 18e1f <_sk_load_4444_sse41+0x74>
- DB 102,65,15,56,51,28,80 ; pmovzxwd (%r8,%rdx,2),%xmm3
- DB 102,15,111,5,33,203,1,0 ; movdqa 0x1cb21(%rip),%xmm0 # 358f0 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,35,203,1,0 ; mulps 0x1cb23(%rip),%xmm0 # 35900 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
- DB 102,15,111,13,43,203,1,0 ; movdqa 0x1cb2b(%rip),%xmm1 # 35910 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
- DB 102,15,219,203 ; pand %xmm3,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,45,203,1,0 ; mulps 0x1cb2d(%rip),%xmm1 # 35920 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
- DB 102,15,111,21,53,203,1,0 ; movdqa 0x1cb35(%rip),%xmm2 # 35930 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
- DB 102,15,219,211 ; pand %xmm3,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,55,203,1,0 ; mulps 0x1cb37(%rip),%xmm2 # 35940 <_sk_srcover_bgra_8888_sse2_lowp+0x1128>
- DB 102,15,219,29,63,203,1,0 ; pand 0x1cb3f(%rip),%xmm3 # 35950 <_sk_srcover_bgra_8888_sse2_lowp+0x1138>
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,29,69,203,1,0 ; mulps 0x1cb45(%rip),%xmm3 # 35960 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,49 ; je 18e58 <_sk_load_4444_sse41+0xad>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 18e42 <_sk_load_4444_sse41+0x97>
- DB 60,3 ; cmp $0x3,%al
- DB 117,148 ; jne 18dc7 <_sk_load_4444_sse41+0x1c>
- DB 65,15,183,68,80,4 ; movzwl 0x4(%r8,%rdx,2),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
- DB 102,65,15,110,4,80 ; movd (%r8,%rdx,2),%xmm0
- DB 102,15,56,51,192 ; pmovzxwd %xmm0,%xmm0
- DB 102,15,58,14,216,15 ; pblendw $0xf,%xmm0,%xmm3
- DB 233,111,255,255,255 ; jmpq 18dc7 <_sk_load_4444_sse41+0x1c>
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,15,110,216 ; movd %eax,%xmm3
- DB 233,97,255,255,255 ; jmpq 18dc7 <_sk_load_4444_sse41+0x1c>
-
-PUBLIC _sk_load_4444_dst_sse41
-_sk_load_4444_dst_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,95 ; jne 18eda <_sk_load_4444_dst_sse41+0x74>
- DB 102,65,15,56,51,60,80 ; pmovzxwd (%r8,%rdx,2),%xmm7
- DB 102,15,111,37,102,202,1,0 ; movdqa 0x1ca66(%rip),%xmm4 # 358f0 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
- DB 102,15,219,231 ; pand %xmm7,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,37,104,202,1,0 ; mulps 0x1ca68(%rip),%xmm4 # 35900 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
- DB 102,15,111,45,112,202,1,0 ; movdqa 0x1ca70(%rip),%xmm5 # 35910 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
- DB 102,15,219,239 ; pand %xmm7,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,45,114,202,1,0 ; mulps 0x1ca72(%rip),%xmm5 # 35920 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
- DB 102,15,111,53,122,202,1,0 ; movdqa 0x1ca7a(%rip),%xmm6 # 35930 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
- DB 102,15,219,247 ; pand %xmm7,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,53,124,202,1,0 ; mulps 0x1ca7c(%rip),%xmm6 # 35940 <_sk_srcover_bgra_8888_sse2_lowp+0x1128>
- DB 102,15,219,61,132,202,1,0 ; pand 0x1ca84(%rip),%xmm7 # 35950 <_sk_srcover_bgra_8888_sse2_lowp+0x1138>
- DB 15,91,255 ; cvtdq2ps %xmm7,%xmm7
- DB 15,89,61,138,202,1,0 ; mulps 0x1ca8a(%rip),%xmm7 # 35960 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,49 ; je 18f13 <_sk_load_4444_dst_sse41+0xad>
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 18efd <_sk_load_4444_dst_sse41+0x97>
- DB 60,3 ; cmp $0x3,%al
- DB 117,148 ; jne 18e82 <_sk_load_4444_dst_sse41+0x1c>
- DB 65,15,183,68,80,4 ; movzwl 0x4(%r8,%rdx,2),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,112,252,69 ; pshufd $0x45,%xmm4,%xmm7
- DB 102,65,15,110,36,80 ; movd (%r8,%rdx,2),%xmm4
- DB 102,15,56,51,228 ; pmovzxwd %xmm4,%xmm4
- DB 102,15,58,14,252,15 ; pblendw $0xf,%xmm4,%xmm7
- DB 233,111,255,255,255 ; jmpq 18e82 <_sk_load_4444_dst_sse41+0x1c>
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,15,110,248 ; movd %eax,%xmm7
- DB 233,97,255,255,255 ; jmpq 18e82 <_sk_load_4444_dst_sse41+0x1c>
-
-PUBLIC _sk_gather_4444_sse41
-_sk_gather_4444_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,80,12 ; movss 0xc(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,65,15,254,208 ; paddd %xmm8,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,93,202 ; minps %xmm2,%xmm9
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,192 ; paddd %xmm8,%xmm0
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,56,64,200 ; pmulld %xmm0,%xmm1
- DB 243,65,15,91,193 ; cvttps2dq %xmm9,%xmm0
- DB 102,15,254,193 ; paddd %xmm1,%xmm0
- DB 102,72,15,58,22,192,1 ; pextrq $0x1,%xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,194 ; movq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 71,15,183,20,80 ; movzwl (%r8,%r10,2),%r10d
- DB 71,15,183,28,88 ; movzwl (%r8,%r11,2),%r11d
- DB 102,65,15,110,195 ; movd %r11d,%xmm0
- DB 102,65,15,196,194,1 ; pinsrw $0x1,%r10d,%xmm0
- DB 71,15,183,12,72 ; movzwl (%r8,%r9,2),%r9d
- DB 102,65,15,196,193,2 ; pinsrw $0x2,%r9d,%xmm0
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 102,15,196,192,3 ; pinsrw $0x3,%eax,%xmm0
- DB 102,15,56,51,216 ; pmovzxwd %xmm0,%xmm3
- DB 102,15,111,5,39,201,1,0 ; movdqa 0x1c927(%rip),%xmm0 # 358f0 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,41,201,1,0 ; mulps 0x1c929(%rip),%xmm0 # 35900 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
- DB 102,15,111,13,49,201,1,0 ; movdqa 0x1c931(%rip),%xmm1 # 35910 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
- DB 102,15,219,203 ; pand %xmm3,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,51,201,1,0 ; mulps 0x1c933(%rip),%xmm1 # 35920 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
- DB 102,15,111,21,59,201,1,0 ; movdqa 0x1c93b(%rip),%xmm2 # 35930 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
- DB 102,15,219,211 ; pand %xmm3,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,61,201,1,0 ; mulps 0x1c93d(%rip),%xmm2 # 35940 <_sk_srcover_bgra_8888_sse2_lowp+0x1128>
- DB 102,15,219,29,69,201,1,0 ; pand 0x1c945(%rip),%xmm3 # 35950 <_sk_srcover_bgra_8888_sse2_lowp+0x1138>
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,29,75,201,1,0 ; mulps 0x1c94b(%rip),%xmm3 # 35960 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_4444_sse41
-_sk_store_4444_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,40,21,115,196,1,0 ; movaps 0x1c473(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 68,15,40,29,39,201,1,0 ; movaps 0x1c927(%rip),%xmm11 # 35970 <_sk_srcover_bgra_8888_sse2_lowp+0x1158>
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 102,65,15,114,241,12 ; pslld $0xc,%xmm9
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 102,69,15,91,228 ; cvtps2dq %xmm12,%xmm12
- DB 102,65,15,114,244,8 ; pslld $0x8,%xmm12
- DB 102,69,15,235,225 ; por %xmm9,%xmm12
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 68,15,95,202 ; maxps %xmm2,%xmm9
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 102,65,15,114,241,4 ; pslld $0x4,%xmm9
- DB 68,15,95,195 ; maxps %xmm3,%xmm8
- DB 69,15,93,194 ; minps %xmm10,%xmm8
- DB 69,15,89,195 ; mulps %xmm11,%xmm8
- DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
- DB 102,69,15,86,193 ; orpd %xmm9,%xmm8
- DB 102,69,15,86,196 ; orpd %xmm12,%xmm8
- DB 102,68,15,56,43,192 ; packusdw %xmm0,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 190c4 <_sk_store_4444_sse41+0xab>
- DB 102,69,15,214,4,80 ; movq %xmm8,(%r8,%rdx,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,69,15,56,51,192 ; pmovzxwd %xmm8,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,31 ; je 190f1 <_sk_store_4444_sse41+0xd8>
- DB 60,2 ; cmp $0x2,%al
- DB 116,13 ; je 190e3 <_sk_store_4444_sse41+0xca>
- DB 60,3 ; cmp $0x3,%al
- DB 117,230 ; jne 190c0 <_sk_store_4444_sse41+0xa7>
- DB 102,69,15,58,21,68,80,4,4 ; pextrw $0x4,%xmm8,0x4(%r8,%rdx,2)
- DB 242,69,15,112,192,232 ; pshuflw $0xe8,%xmm8,%xmm8
- DB 102,69,15,126,4,80 ; movd %xmm8,(%r8,%rdx,2)
- DB 235,207 ; jmp 190c0 <_sk_store_4444_sse41+0xa7>
- DB 102,69,15,58,21,4,80,0 ; pextrw $0x0,%xmm8,(%r8,%rdx,2)
- DB 235,197 ; jmp 190c0 <_sk_store_4444_sse41+0xa7>
-
-PUBLIC _sk_load_8888_sse41
-_sk_load_8888_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,89 ; jne 1916a <_sk_load_8888_sse41+0x6f>
- DB 243,65,15,111,28,144 ; movdqu (%r8,%rdx,4),%xmm3
- DB 102,15,111,5,65,196,1,0 ; movdqa 0x1c441(%rip),%xmm0 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,146,197,1,0 ; movaps 0x1c592(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,56,0,13,49,196,1,0 ; pshufb 0x1c431(%rip),%xmm1 # 35570 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,56,0,21,45,196,1,0 ; pshufb 0x1c42d(%rip),%xmm2 # 35580 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,41 ; je 1919b <_sk_load_8888_sse41+0xa0>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 60,2 ; cmp $0x2,%al
- DB 116,16 ; je 1918a <_sk_load_8888_sse41+0x8f>
- DB 60,3 ; cmp $0x3,%al
- DB 117,153 ; jne 19117 <_sk_load_8888_sse41+0x1c>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
- DB 243,65,15,126,4,144 ; movq (%r8,%rdx,4),%xmm0
- DB 102,15,58,14,216,15 ; pblendw $0xf,%xmm0,%xmm3
- DB 233,124,255,255,255 ; jmpq 19117 <_sk_load_8888_sse41+0x1c>
- DB 102,65,15,110,28,144 ; movd (%r8,%rdx,4),%xmm3
- DB 233,113,255,255,255 ; jmpq 19117 <_sk_load_8888_sse41+0x1c>
-
-PUBLIC _sk_load_8888_dst_sse41
-_sk_load_8888_dst_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,89 ; jne 19215 <_sk_load_8888_dst_sse41+0x6f>
- DB 243,65,15,111,60,144 ; movdqu (%r8,%rdx,4),%xmm7
- DB 102,15,111,37,150,195,1,0 ; movdqa 0x1c396(%rip),%xmm4 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,15,219,231 ; pand %xmm7,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 68,15,40,5,231,196,1,0 ; movaps 0x1c4e7(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,224 ; mulps %xmm8,%xmm4
- DB 102,15,111,239 ; movdqa %xmm7,%xmm5
- DB 102,15,56,0,45,134,195,1,0 ; pshufb 0x1c386(%rip),%xmm5 # 35570 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 65,15,89,232 ; mulps %xmm8,%xmm5
- DB 102,15,111,247 ; movdqa %xmm7,%xmm6
- DB 102,15,56,0,53,130,195,1,0 ; pshufb 0x1c382(%rip),%xmm6 # 35580 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 65,15,89,240 ; mulps %xmm8,%xmm6
- DB 102,15,114,215,24 ; psrld $0x18,%xmm7
- DB 15,91,255 ; cvtdq2ps %xmm7,%xmm7
- DB 65,15,89,248 ; mulps %xmm8,%xmm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,41 ; je 19246 <_sk_load_8888_dst_sse41+0xa0>
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 60,2 ; cmp $0x2,%al
- DB 116,16 ; je 19235 <_sk_load_8888_dst_sse41+0x8f>
- DB 60,3 ; cmp $0x3,%al
- DB 117,153 ; jne 191c2 <_sk_load_8888_dst_sse41+0x1c>
- DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
- DB 102,15,112,252,69 ; pshufd $0x45,%xmm4,%xmm7
- DB 243,65,15,126,36,144 ; movq (%r8,%rdx,4),%xmm4
- DB 102,15,58,14,252,15 ; pblendw $0xf,%xmm4,%xmm7
- DB 233,124,255,255,255 ; jmpq 191c2 <_sk_load_8888_dst_sse41+0x1c>
- DB 102,65,15,110,60,144 ; movd (%r8,%rdx,4),%xmm7
- DB 233,113,255,255,255 ; jmpq 191c2 <_sk_load_8888_dst_sse41+0x1c>
-
-PUBLIC _sk_gather_8888_sse41
-_sk_gather_8888_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,80,12 ; movss 0xc(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,65,15,254,208 ; paddd %xmm8,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,93,202 ; minps %xmm2,%xmm9
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,192 ; paddd %xmm8,%xmm0
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,56,64,200 ; pmulld %xmm0,%xmm1
- DB 243,65,15,91,193 ; cvttps2dq %xmm9,%xmm0
- DB 102,15,254,193 ; paddd %xmm1,%xmm0
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,58,22,194,1 ; pextrq $0x1,%xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,67,15,110,28,136 ; movd (%r8,%r9,4),%xmm3
- DB 102,65,15,58,34,28,128,1 ; pinsrd $0x1,(%r8,%rax,4),%xmm3
- DB 102,67,15,58,34,28,152,2 ; pinsrd $0x2,(%r8,%r11,4),%xmm3
- DB 102,67,15,58,34,28,144,3 ; pinsrd $0x3,(%r8,%r10,4),%xmm3
- DB 102,15,111,5,120,194,1,0 ; movdqa 0x1c278(%rip),%xmm0 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,201,195,1,0 ; movaps 0x1c3c9(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,56,0,13,104,194,1,0 ; pshufb 0x1c268(%rip),%xmm1 # 35570 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,56,0,21,100,194,1,0 ; pshufb 0x1c264(%rip),%xmm2 # 35580 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_8888_sse41
-_sk_store_8888_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,40,21,88,193,1,0 ; movaps 0x1c158(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 68,15,40,29,44,194,1,0 ; movaps 0x1c22c(%rip),%xmm11 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 102,69,15,91,228 ; cvtps2dq %xmm12,%xmm12
- DB 102,65,15,114,244,8 ; pslld $0x8,%xmm12
- DB 102,69,15,235,225 ; por %xmm9,%xmm12
- DB 102,69,15,87,201 ; xorpd %xmm9,%xmm9
- DB 68,15,95,202 ; maxps %xmm2,%xmm9
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 102,65,15,114,241,16 ; pslld $0x10,%xmm9
- DB 68,15,95,195 ; maxps %xmm3,%xmm8
- DB 69,15,93,194 ; minps %xmm10,%xmm8
- DB 69,15,89,195 ; mulps %xmm11,%xmm8
- DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
- DB 102,65,15,114,240,24 ; pslld $0x18,%xmm8
- DB 102,69,15,235,193 ; por %xmm9,%xmm8
- DB 102,69,15,235,196 ; por %xmm12,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 193d9 <_sk_store_8888_sse41+0xa6>
- DB 243,69,15,127,4,144 ; movdqu %xmm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,25 ; je 193fa <_sk_store_8888_sse41+0xc7>
- DB 60,2 ; cmp $0x2,%al
- DB 116,13 ; je 193f2 <_sk_store_8888_sse41+0xbf>
- DB 60,3 ; cmp $0x3,%al
- DB 117,236 ; jne 193d5 <_sk_store_8888_sse41+0xa2>
- DB 102,69,15,58,22,68,144,8,2 ; pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 102,69,15,214,4,144 ; movq %xmm8,(%r8,%rdx,4)
- DB 235,219 ; jmp 193d5 <_sk_store_8888_sse41+0xa2>
- DB 102,69,15,126,4,144 ; movd %xmm8,(%r8,%rdx,4)
- DB 235,211 ; jmp 193d5 <_sk_store_8888_sse41+0xa2>
-
-PUBLIC _sk_load_bgra_sse41
-_sk_load_bgra_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,89 ; jne 19471 <_sk_load_bgra_sse41+0x6f>
- DB 243,65,15,111,28,144 ; movdqu (%r8,%rdx,4),%xmm3
- DB 102,15,111,5,58,193,1,0 ; movdqa 0x1c13a(%rip),%xmm0 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 15,91,208 ; cvtdq2ps %xmm0,%xmm2
- DB 68,15,40,5,139,194,1,0 ; movaps 0x1c28b(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,56,0,5,42,193,1,0 ; pshufb 0x1c12a(%rip),%xmm0 # 35570 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
- DB 15,91,200 ; cvtdq2ps %xmm0,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,56,0,5,38,193,1,0 ; pshufb 0x1c126(%rip),%xmm0 # 35580 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,41 ; je 194a2 <_sk_load_bgra_sse41+0xa0>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 60,2 ; cmp $0x2,%al
- DB 116,16 ; je 19491 <_sk_load_bgra_sse41+0x8f>
- DB 60,3 ; cmp $0x3,%al
- DB 117,153 ; jne 1941e <_sk_load_bgra_sse41+0x1c>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
- DB 243,65,15,126,4,144 ; movq (%r8,%rdx,4),%xmm0
- DB 102,15,58,14,216,15 ; pblendw $0xf,%xmm0,%xmm3
- DB 233,124,255,255,255 ; jmpq 1941e <_sk_load_bgra_sse41+0x1c>
- DB 102,65,15,110,28,144 ; movd (%r8,%rdx,4),%xmm3
- DB 233,113,255,255,255 ; jmpq 1941e <_sk_load_bgra_sse41+0x1c>
-
-PUBLIC _sk_load_bgra_dst_sse41
-_sk_load_bgra_dst_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,89 ; jne 1951c <_sk_load_bgra_dst_sse41+0x6f>
- DB 243,65,15,111,60,144 ; movdqu (%r8,%rdx,4),%xmm7
- DB 102,15,111,37,143,192,1,0 ; movdqa 0x1c08f(%rip),%xmm4 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,15,219,231 ; pand %xmm7,%xmm4
- DB 15,91,244 ; cvtdq2ps %xmm4,%xmm6
- DB 68,15,40,5,224,193,1,0 ; movaps 0x1c1e0(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,240 ; mulps %xmm8,%xmm6
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,56,0,37,127,192,1,0 ; pshufb 0x1c07f(%rip),%xmm4 # 35570 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
- DB 15,91,236 ; cvtdq2ps %xmm4,%xmm5
- DB 65,15,89,232 ; mulps %xmm8,%xmm5
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,56,0,37,123,192,1,0 ; pshufb 0x1c07b(%rip),%xmm4 # 35580 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 65,15,89,224 ; mulps %xmm8,%xmm4
- DB 102,15,114,215,24 ; psrld $0x18,%xmm7
- DB 15,91,255 ; cvtdq2ps %xmm7,%xmm7
- DB 65,15,89,248 ; mulps %xmm8,%xmm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,41 ; je 1954d <_sk_load_bgra_dst_sse41+0xa0>
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 60,2 ; cmp $0x2,%al
- DB 116,16 ; je 1953c <_sk_load_bgra_dst_sse41+0x8f>
- DB 60,3 ; cmp $0x3,%al
- DB 117,153 ; jne 194c9 <_sk_load_bgra_dst_sse41+0x1c>
- DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
- DB 102,15,112,252,69 ; pshufd $0x45,%xmm4,%xmm7
- DB 243,65,15,126,36,144 ; movq (%r8,%rdx,4),%xmm4
- DB 102,15,58,14,252,15 ; pblendw $0xf,%xmm4,%xmm7
- DB 233,124,255,255,255 ; jmpq 194c9 <_sk_load_bgra_dst_sse41+0x1c>
- DB 102,65,15,110,60,144 ; movd (%r8,%rdx,4),%xmm7
- DB 233,113,255,255,255 ; jmpq 194c9 <_sk_load_bgra_dst_sse41+0x1c>
-
-PUBLIC _sk_gather_bgra_sse41
-_sk_gather_bgra_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,80,12 ; movss 0xc(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,65,15,254,208 ; paddd %xmm8,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,93,202 ; minps %xmm2,%xmm9
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,192 ; paddd %xmm8,%xmm0
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,56,64,200 ; pmulld %xmm0,%xmm1
- DB 243,65,15,91,193 ; cvttps2dq %xmm9,%xmm0
- DB 102,15,254,193 ; paddd %xmm1,%xmm0
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,58,22,194,1 ; pextrq $0x1,%xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,67,15,110,28,136 ; movd (%r8,%r9,4),%xmm3
- DB 102,65,15,58,34,28,128,1 ; pinsrd $0x1,(%r8,%rax,4),%xmm3
- DB 102,67,15,58,34,28,152,2 ; pinsrd $0x2,(%r8,%r11,4),%xmm3
- DB 102,67,15,58,34,28,144,3 ; pinsrd $0x3,(%r8,%r10,4),%xmm3
- DB 102,15,111,5,113,191,1,0 ; movdqa 0x1bf71(%rip),%xmm0 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 15,91,208 ; cvtdq2ps %xmm0,%xmm2
- DB 68,15,40,5,194,192,1,0 ; movaps 0x1c0c2(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,56,0,5,97,191,1,0 ; pshufb 0x1bf61(%rip),%xmm0 # 35570 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
- DB 15,91,200 ; cvtdq2ps %xmm0,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,56,0,5,93,191,1,0 ; pshufb 0x1bf5d(%rip),%xmm0 # 35580 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_bgra_sse41
-_sk_store_bgra_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,202 ; maxps %xmm2,%xmm9
- DB 68,15,40,21,81,190,1,0 ; movaps 0x1be51(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 68,15,40,29,37,191,1,0 ; movaps 0x1bf25(%rip),%xmm11 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 102,69,15,91,228 ; cvtps2dq %xmm12,%xmm12
- DB 102,65,15,114,244,8 ; pslld $0x8,%xmm12
- DB 102,69,15,235,225 ; por %xmm9,%xmm12
- DB 102,69,15,87,201 ; xorpd %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 102,65,15,114,241,16 ; pslld $0x10,%xmm9
- DB 68,15,95,195 ; maxps %xmm3,%xmm8
- DB 69,15,93,194 ; minps %xmm10,%xmm8
- DB 69,15,89,195 ; mulps %xmm11,%xmm8
- DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
- DB 102,65,15,114,240,24 ; pslld $0x18,%xmm8
- DB 102,69,15,235,193 ; por %xmm9,%xmm8
- DB 102,69,15,235,196 ; por %xmm12,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 196e0 <_sk_store_bgra_sse41+0xa6>
- DB 243,69,15,127,4,144 ; movdqu %xmm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,25 ; je 19701 <_sk_store_bgra_sse41+0xc7>
- DB 60,2 ; cmp $0x2,%al
- DB 116,13 ; je 196f9 <_sk_store_bgra_sse41+0xbf>
- DB 60,3 ; cmp $0x3,%al
- DB 117,236 ; jne 196dc <_sk_store_bgra_sse41+0xa2>
- DB 102,69,15,58,22,68,144,8,2 ; pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 102,69,15,214,4,144 ; movq %xmm8,(%r8,%rdx,4)
- DB 235,219 ; jmp 196dc <_sk_store_bgra_sse41+0xa2>
- DB 102,69,15,126,4,144 ; movd %xmm8,(%r8,%rdx,4)
- DB 235,211 ; jmp 196dc <_sk_store_bgra_sse41+0xa2>
-
-PUBLIC _sk_load_1010102_sse41
-_sk_load_1010102_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,101 ; jne 19784 <_sk_load_1010102_sse41+0x7b>
- DB 243,69,15,111,12,144 ; movdqu (%r8,%rdx,4),%xmm9
- DB 102,15,111,21,83,194,1,0 ; movdqa 0x1c253(%rip),%xmm2 # 35980 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,79,194,1,0 ; movaps 0x1c24f(%rip),%xmm8 # 35990 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,15,114,209,10 ; psrld $0xa,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,15,114,211,20 ; psrld $0x14,%xmm3
- DB 102,15,219,218 ; pand %xmm2,%xmm3
- DB 15,91,211 ; cvtdq2ps %xmm3,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 102,65,15,114,209,30 ; psrld $0x1e,%xmm9
- DB 65,15,91,217 ; cvtdq2ps %xmm9,%xmm3
- DB 15,89,29,16,191,1,0 ; mulps 0x1bf10(%rip),%xmm3 # 35690 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,44 ; je 197b8 <_sk_load_1010102_sse41+0xaf>
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 60,2 ; cmp $0x2,%al
- DB 116,17 ; je 197a6 <_sk_load_1010102_sse41+0x9d>
- DB 60,3 ; cmp $0x3,%al
- DB 117,140 ; jne 19725 <_sk_load_1010102_sse41+0x1c>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,68,15,112,200,69 ; pshufd $0x45,%xmm0,%xmm9
- DB 243,65,15,126,4,144 ; movq (%r8,%rdx,4),%xmm0
- DB 102,68,15,58,14,200,15 ; pblendw $0xf,%xmm0,%xmm9
- DB 233,109,255,255,255 ; jmpq 19725 <_sk_load_1010102_sse41+0x1c>
- DB 102,69,15,110,12,144 ; movd (%r8,%rdx,4),%xmm9
- DB 233,98,255,255,255 ; jmpq 19725 <_sk_load_1010102_sse41+0x1c>
-
-PUBLIC _sk_load_1010102_dst_sse41
-_sk_load_1010102_dst_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,101 ; jne 1983e <_sk_load_1010102_dst_sse41+0x7b>
- DB 243,69,15,111,12,144 ; movdqu (%r8,%rdx,4),%xmm9
- DB 102,15,111,53,153,193,1,0 ; movdqa 0x1c199(%rip),%xmm6 # 35980 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
- DB 102,65,15,111,225 ; movdqa %xmm9,%xmm4
- DB 102,15,219,230 ; pand %xmm6,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 68,15,40,5,149,193,1,0 ; movaps 0x1c195(%rip),%xmm8 # 35990 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
- DB 65,15,89,224 ; mulps %xmm8,%xmm4
- DB 102,65,15,111,233 ; movdqa %xmm9,%xmm5
- DB 102,15,114,213,10 ; psrld $0xa,%xmm5
- DB 102,15,219,238 ; pand %xmm6,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 65,15,89,232 ; mulps %xmm8,%xmm5
- DB 102,65,15,111,249 ; movdqa %xmm9,%xmm7
- DB 102,15,114,215,20 ; psrld $0x14,%xmm7
- DB 102,15,219,254 ; pand %xmm6,%xmm7
- DB 15,91,247 ; cvtdq2ps %xmm7,%xmm6
- DB 65,15,89,240 ; mulps %xmm8,%xmm6
- DB 102,65,15,114,209,30 ; psrld $0x1e,%xmm9
- DB 65,15,91,249 ; cvtdq2ps %xmm9,%xmm7
- DB 15,89,61,86,190,1,0 ; mulps 0x1be56(%rip),%xmm7 # 35690 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,44 ; je 19872 <_sk_load_1010102_dst_sse41+0xaf>
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 60,2 ; cmp $0x2,%al
- DB 116,17 ; je 19860 <_sk_load_1010102_dst_sse41+0x9d>
- DB 60,3 ; cmp $0x3,%al
- DB 117,140 ; jne 197df <_sk_load_1010102_dst_sse41+0x1c>
- DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,204,69 ; pshufd $0x45,%xmm4,%xmm9
- DB 243,65,15,126,36,144 ; movq (%r8,%rdx,4),%xmm4
- DB 102,68,15,58,14,204,15 ; pblendw $0xf,%xmm4,%xmm9
- DB 233,109,255,255,255 ; jmpq 197df <_sk_load_1010102_dst_sse41+0x1c>
- DB 102,69,15,110,12,144 ; movd (%r8,%rdx,4),%xmm9
- DB 233,98,255,255,255 ; jmpq 197df <_sk_load_1010102_dst_sse41+0x1c>
-
-PUBLIC _sk_gather_1010102_sse41
-_sk_gather_1010102_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,80,12 ; movss 0xc(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,65,15,254,208 ; paddd %xmm8,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,93,202 ; minps %xmm2,%xmm9
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,192 ; paddd %xmm8,%xmm0
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,56,64,200 ; pmulld %xmm0,%xmm1
- DB 243,65,15,91,193 ; cvttps2dq %xmm9,%xmm0
- DB 102,15,254,193 ; paddd %xmm1,%xmm0
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,58,22,194,1 ; pextrq $0x1,%xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,71,15,110,12,136 ; movd (%r8,%r9,4),%xmm9
- DB 102,69,15,58,34,12,128,1 ; pinsrd $0x1,(%r8,%rax,4),%xmm9
- DB 102,71,15,58,34,12,152,2 ; pinsrd $0x2,(%r8,%r11,4),%xmm9
- DB 102,71,15,58,34,12,144,3 ; pinsrd $0x3,(%r8,%r10,4),%xmm9
- DB 102,15,111,21,108,192,1,0 ; movdqa 0x1c06c(%rip),%xmm2 # 35980 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,104,192,1,0 ; movaps 0x1c068(%rip),%xmm8 # 35990 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,15,114,209,10 ; psrld $0xa,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,15,114,211,20 ; psrld $0x14,%xmm3
- DB 102,15,219,218 ; pand %xmm2,%xmm3
- DB 15,91,211 ; cvtdq2ps %xmm3,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 102,65,15,114,209,30 ; psrld $0x1e,%xmm9
- DB 65,15,91,217 ; cvtdq2ps %xmm9,%xmm3
- DB 15,89,29,41,189,1,0 ; mulps 0x1bd29(%rip),%xmm3 # 35690 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_1010102_sse41
-_sk_store_1010102_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,40,21,32,187,1,0 ; movaps 0x1bb20(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 68,15,40,29,4,192,1,0 ; movaps 0x1c004(%rip),%xmm11 # 359a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 102,69,15,91,228 ; cvtps2dq %xmm12,%xmm12
- DB 102,65,15,114,244,10 ; pslld $0xa,%xmm12
- DB 102,69,15,235,225 ; por %xmm9,%xmm12
- DB 102,69,15,87,201 ; xorpd %xmm9,%xmm9
- DB 68,15,95,202 ; maxps %xmm2,%xmm9
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 102,65,15,114,241,20 ; pslld $0x14,%xmm9
- DB 102,69,15,235,204 ; por %xmm12,%xmm9
- DB 68,15,95,195 ; maxps %xmm3,%xmm8
- DB 69,15,93,194 ; minps %xmm10,%xmm8
- DB 68,15,89,5,186,191,1,0 ; mulps 0x1bfba(%rip),%xmm8 # 359b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
- DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
- DB 102,65,15,114,240,30 ; pslld $0x1e,%xmm8
- DB 102,69,15,235,193 ; por %xmm9,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 19a15 <_sk_store_1010102_sse41+0xaa>
- DB 243,69,15,127,4,144 ; movdqu %xmm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,25 ; je 19a36 <_sk_store_1010102_sse41+0xcb>
- DB 60,2 ; cmp $0x2,%al
- DB 116,13 ; je 19a2e <_sk_store_1010102_sse41+0xc3>
- DB 60,3 ; cmp $0x3,%al
- DB 117,236 ; jne 19a11 <_sk_store_1010102_sse41+0xa6>
- DB 102,69,15,58,22,68,144,8,2 ; pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 102,69,15,214,4,144 ; movq %xmm8,(%r8,%rdx,4)
- DB 235,219 ; jmp 19a11 <_sk_store_1010102_sse41+0xa6>
- DB 102,69,15,126,4,144 ; movd %xmm8,(%r8,%rdx,4)
- DB 235,211 ; jmp 19a11 <_sk_store_1010102_sse41+0xa6>
-
-PUBLIC _sk_load_f16_sse41
-_sk_load_f16_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,3 ; shl $0x3,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,68,1,0,0 ; jne 19b9c <_sk_load_f16_sse41+0x15e>
- DB 102,65,15,16,4,208 ; movupd (%r8,%rdx,8),%xmm0
- DB 243,65,15,111,76,208,16 ; movdqu 0x10(%r8,%rdx,8),%xmm1
- DB 102,68,15,40,200 ; movapd %xmm0,%xmm9
- DB 102,68,15,97,201 ; punpcklwd %xmm1,%xmm9
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,69,15,111,225 ; movdqa %xmm9,%xmm12
- DB 102,68,15,97,224 ; punpcklwd %xmm0,%xmm12
- DB 102,68,15,105,200 ; punpckhwd %xmm0,%xmm9
- DB 102,65,15,56,51,212 ; pmovzxwd %xmm12,%xmm2
- DB 102,68,15,111,5,47,191,1,0 ; movdqa 0x1bf2f(%rip),%xmm8 # 359c0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,65,15,219,200 ; pand %xmm8,%xmm1
- DB 102,68,15,111,21,45,191,1,0 ; movdqa 0x1bf2d(%rip),%xmm10 # 359d0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
- DB 102,65,15,219,210 ; pand %xmm10,%xmm2
- DB 102,15,111,29,48,191,1,0 ; movdqa 0x1bf30(%rip),%xmm3 # 359e0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
- DB 102,15,114,241,16 ; pslld $0x10,%xmm1
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,56,63,195 ; pmaxud %xmm3,%xmm0
- DB 102,15,118,194 ; pcmpeqd %xmm2,%xmm0
- DB 102,15,114,242,13 ; pslld $0xd,%xmm2
- DB 102,15,235,209 ; por %xmm1,%xmm2
- DB 102,68,15,111,29,28,191,1,0 ; movdqa 0x1bf1c(%rip),%xmm11 # 359f0 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
- DB 102,65,15,254,211 ; paddd %xmm11,%xmm2
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 102,65,15,112,204,238 ; pshufd $0xee,%xmm12,%xmm1
- DB 102,15,56,51,209 ; pmovzxwd %xmm1,%xmm2
- DB 102,68,15,111,226 ; movdqa %xmm2,%xmm12
- DB 102,69,15,219,224 ; pand %xmm8,%xmm12
- DB 102,65,15,219,210 ; pand %xmm10,%xmm2
- DB 102,65,15,114,244,16 ; pslld $0x10,%xmm12
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,56,63,203 ; pmaxud %xmm3,%xmm1
- DB 102,15,118,202 ; pcmpeqd %xmm2,%xmm1
- DB 102,15,114,242,13 ; pslld $0xd,%xmm2
- DB 102,65,15,235,212 ; por %xmm12,%xmm2
- DB 102,65,15,254,211 ; paddd %xmm11,%xmm2
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 102,69,15,56,51,225 ; pmovzxwd %xmm9,%xmm12
- DB 102,69,15,111,236 ; movdqa %xmm12,%xmm13
- DB 102,69,15,219,232 ; pand %xmm8,%xmm13
- DB 102,69,15,219,226 ; pand %xmm10,%xmm12
- DB 102,65,15,114,245,16 ; pslld $0x10,%xmm13
- DB 102,65,15,111,212 ; movdqa %xmm12,%xmm2
- DB 102,15,56,63,211 ; pmaxud %xmm3,%xmm2
- DB 102,65,15,118,212 ; pcmpeqd %xmm12,%xmm2
- DB 102,65,15,114,244,13 ; pslld $0xd,%xmm12
- DB 102,69,15,235,229 ; por %xmm13,%xmm12
- DB 102,69,15,254,227 ; paddd %xmm11,%xmm12
- DB 102,65,15,219,212 ; pand %xmm12,%xmm2
- DB 102,69,15,112,201,238 ; pshufd $0xee,%xmm9,%xmm9
- DB 102,69,15,56,51,201 ; pmovzxwd %xmm9,%xmm9
- DB 102,69,15,219,193 ; pand %xmm9,%xmm8
- DB 102,69,15,219,202 ; pand %xmm10,%xmm9
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,56,63,217 ; pmaxud %xmm9,%xmm3
- DB 102,65,15,118,217 ; pcmpeqd %xmm9,%xmm3
- DB 102,65,15,114,241,13 ; pslld $0xd,%xmm9
- DB 102,69,15,235,200 ; por %xmm8,%xmm9
- DB 102,69,15,254,203 ; paddd %xmm11,%xmm9
- DB 102,65,15,219,217 ; pand %xmm9,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 242,65,15,16,4,208 ; movsd (%r8,%rdx,8),%xmm0
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,13 ; jne 19bb5 <_sk_load_f16_sse41+0x177>
- DB 243,15,126,192 ; movq %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 233,176,254,255,255 ; jmpq 19a65 <_sk_load_f16_sse41+0x27>
- DB 102,65,15,22,68,208,8 ; movhpd 0x8(%r8,%rdx,8),%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 15,130,155,254,255,255 ; jb 19a65 <_sk_load_f16_sse41+0x27>
- DB 243,65,15,126,76,208,16 ; movq 0x10(%r8,%rdx,8),%xmm1
- DB 233,143,254,255,255 ; jmpq 19a65 <_sk_load_f16_sse41+0x27>
-
-PUBLIC _sk_load_f16_dst_sse41
-_sk_load_f16_dst_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,3 ; shl $0x3,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,68,1,0,0 ; jne 19d34 <_sk_load_f16_dst_sse41+0x15e>
- DB 102,65,15,16,36,208 ; movupd (%r8,%rdx,8),%xmm4
- DB 243,65,15,111,108,208,16 ; movdqu 0x10(%r8,%rdx,8),%xmm5
- DB 102,68,15,40,204 ; movapd %xmm4,%xmm9
- DB 102,68,15,97,205 ; punpcklwd %xmm5,%xmm9
- DB 102,15,105,229 ; punpckhwd %xmm5,%xmm4
- DB 102,69,15,111,225 ; movdqa %xmm9,%xmm12
- DB 102,68,15,97,228 ; punpcklwd %xmm4,%xmm12
- DB 102,68,15,105,204 ; punpckhwd %xmm4,%xmm9
- DB 102,65,15,56,51,244 ; pmovzxwd %xmm12,%xmm6
- DB 102,68,15,111,5,151,189,1,0 ; movdqa 0x1bd97(%rip),%xmm8 # 359c0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,65,15,219,232 ; pand %xmm8,%xmm5
- DB 102,68,15,111,21,149,189,1,0 ; movdqa 0x1bd95(%rip),%xmm10 # 359d0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
- DB 102,65,15,219,242 ; pand %xmm10,%xmm6
- DB 102,15,111,61,152,189,1,0 ; movdqa 0x1bd98(%rip),%xmm7 # 359e0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,111,230 ; movdqa %xmm6,%xmm4
- DB 102,15,56,63,231 ; pmaxud %xmm7,%xmm4
- DB 102,15,118,230 ; pcmpeqd %xmm6,%xmm4
- DB 102,15,114,246,13 ; pslld $0xd,%xmm6
- DB 102,15,235,245 ; por %xmm5,%xmm6
- DB 102,68,15,111,29,132,189,1,0 ; movdqa 0x1bd84(%rip),%xmm11 # 359f0 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
- DB 102,65,15,254,243 ; paddd %xmm11,%xmm6
- DB 102,15,219,230 ; pand %xmm6,%xmm4
- DB 102,65,15,112,236,238 ; pshufd $0xee,%xmm12,%xmm5
- DB 102,15,56,51,245 ; pmovzxwd %xmm5,%xmm6
- DB 102,68,15,111,230 ; movdqa %xmm6,%xmm12
- DB 102,69,15,219,224 ; pand %xmm8,%xmm12
- DB 102,65,15,219,242 ; pand %xmm10,%xmm6
- DB 102,65,15,114,244,16 ; pslld $0x10,%xmm12
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,15,56,63,239 ; pmaxud %xmm7,%xmm5
- DB 102,15,118,238 ; pcmpeqd %xmm6,%xmm5
- DB 102,15,114,246,13 ; pslld $0xd,%xmm6
- DB 102,65,15,235,244 ; por %xmm12,%xmm6
- DB 102,65,15,254,243 ; paddd %xmm11,%xmm6
- DB 102,15,219,238 ; pand %xmm6,%xmm5
- DB 102,69,15,56,51,225 ; pmovzxwd %xmm9,%xmm12
- DB 102,69,15,111,236 ; movdqa %xmm12,%xmm13
- DB 102,69,15,219,232 ; pand %xmm8,%xmm13
- DB 102,69,15,219,226 ; pand %xmm10,%xmm12
- DB 102,65,15,114,245,16 ; pslld $0x10,%xmm13
- DB 102,65,15,111,244 ; movdqa %xmm12,%xmm6
- DB 102,15,56,63,247 ; pmaxud %xmm7,%xmm6
- DB 102,65,15,118,244 ; pcmpeqd %xmm12,%xmm6
- DB 102,65,15,114,244,13 ; pslld $0xd,%xmm12
- DB 102,69,15,235,229 ; por %xmm13,%xmm12
- DB 102,69,15,254,227 ; paddd %xmm11,%xmm12
- DB 102,65,15,219,244 ; pand %xmm12,%xmm6
- DB 102,69,15,112,201,238 ; pshufd $0xee,%xmm9,%xmm9
- DB 102,69,15,56,51,201 ; pmovzxwd %xmm9,%xmm9
- DB 102,69,15,219,193 ; pand %xmm9,%xmm8
- DB 102,69,15,219,202 ; pand %xmm10,%xmm9
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,56,63,249 ; pmaxud %xmm9,%xmm7
- DB 102,65,15,118,249 ; pcmpeqd %xmm9,%xmm7
- DB 102,65,15,114,241,13 ; pslld $0xd,%xmm9
- DB 102,69,15,235,200 ; por %xmm8,%xmm9
- DB 102,69,15,254,203 ; paddd %xmm11,%xmm9
- DB 102,65,15,219,249 ; pand %xmm9,%xmm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 242,65,15,16,36,208 ; movsd (%r8,%rdx,8),%xmm4
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,13 ; jne 19d4d <_sk_load_f16_dst_sse41+0x177>
- DB 243,15,126,228 ; movq %xmm4,%xmm4
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 233,176,254,255,255 ; jmpq 19bfd <_sk_load_f16_dst_sse41+0x27>
- DB 102,65,15,22,100,208,8 ; movhpd 0x8(%r8,%rdx,8),%xmm4
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 15,130,155,254,255,255 ; jb 19bfd <_sk_load_f16_dst_sse41+0x27>
- DB 243,65,15,126,108,208,16 ; movq 0x10(%r8,%rdx,8),%xmm5
- DB 233,143,254,255,255 ; jmpq 19bfd <_sk_load_f16_dst_sse41+0x27>
-
-PUBLIC _sk_gather_f16_sse41
-_sk_gather_f16_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,80,12 ; movss 0xc(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,65,15,254,208 ; paddd %xmm8,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,93,202 ; minps %xmm2,%xmm9
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,192 ; paddd %xmm8,%xmm0
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,56,64,200 ; pmulld %xmm0,%xmm1
- DB 243,65,15,91,193 ; cvttps2dq %xmm9,%xmm0
- DB 102,15,254,193 ; paddd %xmm1,%xmm0
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,58,22,194,1 ; pextrq $0x1,%xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 243,67,15,126,4,208 ; movq (%r8,%r10,8),%xmm0
- DB 243,67,15,126,12,216 ; movq (%r8,%r11,8),%xmm1
- DB 102,15,108,200 ; punpcklqdq %xmm0,%xmm1
- DB 243,65,15,126,4,192 ; movq (%r8,%rax,8),%xmm0
- DB 243,67,15,126,20,200 ; movq (%r8,%r9,8),%xmm2
- DB 102,15,108,208 ; punpcklqdq %xmm0,%xmm2
- DB 102,68,15,111,202 ; movdqa %xmm2,%xmm9
- DB 102,68,15,97,201 ; punpcklwd %xmm1,%xmm9
- DB 102,15,105,209 ; punpckhwd %xmm1,%xmm2
- DB 102,69,15,111,225 ; movdqa %xmm9,%xmm12
- DB 102,68,15,97,226 ; punpcklwd %xmm2,%xmm12
- DB 102,68,15,105,202 ; punpckhwd %xmm2,%xmm9
- DB 102,65,15,56,51,212 ; pmovzxwd %xmm12,%xmm2
- DB 102,68,15,111,5,149,187,1,0 ; movdqa 0x1bb95(%rip),%xmm8 # 359c0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,65,15,219,200 ; pand %xmm8,%xmm1
- DB 102,68,15,111,21,147,187,1,0 ; movdqa 0x1bb93(%rip),%xmm10 # 359d0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
- DB 102,65,15,219,210 ; pand %xmm10,%xmm2
- DB 102,15,111,29,150,187,1,0 ; movdqa 0x1bb96(%rip),%xmm3 # 359e0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
- DB 102,15,114,241,16 ; pslld $0x10,%xmm1
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,56,63,195 ; pmaxud %xmm3,%xmm0
- DB 102,15,118,194 ; pcmpeqd %xmm2,%xmm0
- DB 102,15,114,242,13 ; pslld $0xd,%xmm2
- DB 102,15,235,209 ; por %xmm1,%xmm2
- DB 102,68,15,111,29,130,187,1,0 ; movdqa 0x1bb82(%rip),%xmm11 # 359f0 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
- DB 102,65,15,254,211 ; paddd %xmm11,%xmm2
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 102,65,15,112,204,238 ; pshufd $0xee,%xmm12,%xmm1
- DB 102,15,56,51,209 ; pmovzxwd %xmm1,%xmm2
- DB 102,68,15,111,226 ; movdqa %xmm2,%xmm12
- DB 102,69,15,219,224 ; pand %xmm8,%xmm12
- DB 102,65,15,219,210 ; pand %xmm10,%xmm2
- DB 102,65,15,114,244,16 ; pslld $0x10,%xmm12
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,56,63,203 ; pmaxud %xmm3,%xmm1
- DB 102,15,118,202 ; pcmpeqd %xmm2,%xmm1
- DB 102,15,114,242,13 ; pslld $0xd,%xmm2
- DB 102,65,15,235,212 ; por %xmm12,%xmm2
- DB 102,65,15,254,211 ; paddd %xmm11,%xmm2
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 102,69,15,56,51,225 ; pmovzxwd %xmm9,%xmm12
- DB 102,69,15,111,236 ; movdqa %xmm12,%xmm13
- DB 102,69,15,219,232 ; pand %xmm8,%xmm13
- DB 102,69,15,219,226 ; pand %xmm10,%xmm12
- DB 102,65,15,114,245,16 ; pslld $0x10,%xmm13
- DB 102,65,15,111,212 ; movdqa %xmm12,%xmm2
- DB 102,15,56,63,211 ; pmaxud %xmm3,%xmm2
- DB 102,65,15,118,212 ; pcmpeqd %xmm12,%xmm2
- DB 102,65,15,114,244,13 ; pslld $0xd,%xmm12
- DB 102,69,15,235,229 ; por %xmm13,%xmm12
- DB 102,69,15,254,227 ; paddd %xmm11,%xmm12
- DB 102,65,15,219,212 ; pand %xmm12,%xmm2
- DB 102,69,15,112,201,238 ; pshufd $0xee,%xmm9,%xmm9
- DB 102,69,15,56,51,201 ; pmovzxwd %xmm9,%xmm9
- DB 102,69,15,219,193 ; pand %xmm9,%xmm8
- DB 102,69,15,219,202 ; pand %xmm10,%xmm9
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,56,63,217 ; pmaxud %xmm9,%xmm3
- DB 102,65,15,118,217 ; pcmpeqd %xmm9,%xmm3
- DB 102,65,15,114,241,13 ; pslld $0xd,%xmm9
- DB 102,69,15,235,200 ; por %xmm8,%xmm9
- DB 102,69,15,254,203 ; paddd %xmm11,%xmm9
- DB 102,65,15,219,217 ; pand %xmm9,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_f16_sse41
-_sk_store_f16_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,3 ; shl $0x3,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 102,68,15,111,13,176,186,1,0 ; movdqa 0x1bab0(%rip),%xmm9 # 35a00 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
- DB 102,68,15,111,224 ; movdqa %xmm0,%xmm12
- DB 102,69,15,219,225 ; pand %xmm9,%xmm12
- DB 102,68,15,111,29,173,186,1,0 ; movdqa 0x1baad(%rip),%xmm11 # 35a10 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- DB 102,68,15,111,232 ; movdqa %xmm0,%xmm13
- DB 102,69,15,219,235 ; pand %xmm11,%xmm13
- DB 102,68,15,111,21,170,186,1,0 ; movdqa 0x1baaa(%rip),%xmm10 # 35a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
- DB 102,65,15,114,212,16 ; psrld $0x10,%xmm12
- DB 102,69,15,111,197 ; movdqa %xmm13,%xmm8
- DB 102,69,15,56,63,194 ; pmaxud %xmm10,%xmm8
- DB 102,69,15,118,197 ; pcmpeqd %xmm13,%xmm8
- DB 102,65,15,114,213,13 ; psrld $0xd,%xmm13
- DB 102,69,15,254,236 ; paddd %xmm12,%xmm13
- DB 102,68,15,111,37,144,186,1,0 ; movdqa 0x1ba90(%rip),%xmm12 # 35a30 <_sk_srcover_bgra_8888_sse2_lowp+0x1218>
- DB 102,69,15,254,236 ; paddd %xmm12,%xmm13
- DB 102,69,15,219,197 ; pand %xmm13,%xmm8
- DB 102,68,15,56,43,192 ; packusdw %xmm0,%xmm8
- DB 102,68,15,111,233 ; movdqa %xmm1,%xmm13
- DB 102,69,15,219,233 ; pand %xmm9,%xmm13
- DB 102,68,15,111,241 ; movdqa %xmm1,%xmm14
- DB 102,69,15,219,243 ; pand %xmm11,%xmm14
- DB 102,65,15,114,213,16 ; psrld $0x10,%xmm13
- DB 102,69,15,111,254 ; movdqa %xmm14,%xmm15
- DB 102,69,15,56,63,250 ; pmaxud %xmm10,%xmm15
- DB 102,69,15,118,254 ; pcmpeqd %xmm14,%xmm15
- DB 102,65,15,114,214,13 ; psrld $0xd,%xmm14
- DB 102,69,15,254,245 ; paddd %xmm13,%xmm14
- DB 102,69,15,254,244 ; paddd %xmm12,%xmm14
- DB 102,69,15,219,254 ; pand %xmm14,%xmm15
- DB 102,68,15,56,43,248 ; packusdw %xmm0,%xmm15
- DB 102,69,15,97,199 ; punpcklwd %xmm15,%xmm8
- DB 102,68,15,111,242 ; movdqa %xmm2,%xmm14
- DB 102,69,15,219,241 ; pand %xmm9,%xmm14
- DB 102,68,15,111,250 ; movdqa %xmm2,%xmm15
- DB 102,69,15,219,251 ; pand %xmm11,%xmm15
- DB 102,65,15,114,214,16 ; psrld $0x10,%xmm14
- DB 102,69,15,111,239 ; movdqa %xmm15,%xmm13
- DB 102,69,15,56,63,234 ; pmaxud %xmm10,%xmm13
- DB 102,69,15,118,239 ; pcmpeqd %xmm15,%xmm13
- DB 102,65,15,114,215,13 ; psrld $0xd,%xmm15
- DB 102,69,15,254,254 ; paddd %xmm14,%xmm15
- DB 102,69,15,254,252 ; paddd %xmm12,%xmm15
- DB 102,69,15,219,239 ; pand %xmm15,%xmm13
- DB 102,68,15,56,43,232 ; packusdw %xmm0,%xmm13
- DB 102,68,15,219,203 ; pand %xmm3,%xmm9
- DB 102,68,15,219,219 ; pand %xmm3,%xmm11
- DB 102,65,15,114,209,16 ; psrld $0x10,%xmm9
- DB 102,69,15,56,63,211 ; pmaxud %xmm11,%xmm10
- DB 102,69,15,118,211 ; pcmpeqd %xmm11,%xmm10
- DB 102,65,15,114,211,13 ; psrld $0xd,%xmm11
- DB 102,69,15,254,217 ; paddd %xmm9,%xmm11
- DB 102,69,15,254,220 ; paddd %xmm12,%xmm11
- DB 102,69,15,219,211 ; pand %xmm11,%xmm10
- DB 102,68,15,56,43,208 ; packusdw %xmm0,%xmm10
- DB 102,69,15,97,234 ; punpcklwd %xmm10,%xmm13
- DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
- DB 102,69,15,98,205 ; punpckldq %xmm13,%xmm9
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,21 ; jne 1a09e <_sk_store_f16_sse41+0x168>
- DB 69,15,17,12,208 ; movups %xmm9,(%r8,%rdx,8)
- DB 102,69,15,106,197 ; punpckhdq %xmm13,%xmm8
- DB 243,69,15,127,68,208,16 ; movdqu %xmm8,0x10(%r8,%rdx,8)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,69,15,214,12,208 ; movq %xmm9,(%r8,%rdx,8)
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,240 ; je 1a09a <_sk_store_f16_sse41+0x164>
- DB 102,69,15,23,76,208,8 ; movhpd %xmm9,0x8(%r8,%rdx,8)
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,227 ; jb 1a09a <_sk_store_f16_sse41+0x164>
- DB 102,69,15,106,197 ; punpckhdq %xmm13,%xmm8
- DB 102,69,15,214,68,208,16 ; movq %xmm8,0x10(%r8,%rdx,8)
- DB 235,213 ; jmp 1a09a <_sk_store_f16_sse41+0x164>
-
-PUBLIC _sk_load_u16_be_sse41
-_sk_load_u16_be_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 77,1,201 ; add %r9,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,185,0,0,0 ; jne 1a19f <_sk_load_u16_be_sse41+0xda>
- DB 102,67,15,16,4,65 ; movupd (%r9,%r8,2),%xmm0
- DB 243,67,15,111,76,65,16 ; movdqu 0x10(%r9,%r8,2),%xmm1
- DB 102,15,40,208 ; movapd %xmm0,%xmm2
- DB 102,15,97,209 ; punpcklwd %xmm1,%xmm2
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 102,15,105,208 ; punpckhwd %xmm0,%xmm2
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,113,240,8 ; psllw $0x8,%xmm0
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,235,200 ; por %xmm0,%xmm1
- DB 102,15,56,51,193 ; pmovzxwd %xmm1,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,30,182,1,0 ; movaps 0x1b61e(%rip),%xmm8 # 35750 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,113,241,8 ; psllw $0x8,%xmm1
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,235,217 ; por %xmm1,%xmm3
- DB 102,15,56,51,203 ; pmovzxwd %xmm3,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,68,15,111,202 ; movdqa %xmm2,%xmm9
- DB 102,65,15,113,241,8 ; psllw $0x8,%xmm9
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,65,15,235,209 ; por %xmm9,%xmm2
- DB 102,15,56,51,210 ; pmovzxwd %xmm2,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 102,68,15,111,203 ; movdqa %xmm3,%xmm9
- DB 102,65,15,113,241,8 ; psllw $0x8,%xmm9
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,65,15,235,217 ; por %xmm9,%xmm3
- DB 102,15,56,51,219 ; pmovzxwd %xmm3,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 242,67,15,16,4,65 ; movsd (%r9,%r8,2),%xmm0
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,13 ; jne 1a1b8 <_sk_load_u16_be_sse41+0xf3>
- DB 243,15,126,192 ; movq %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 233,59,255,255,255 ; jmpq 1a0f3 <_sk_load_u16_be_sse41+0x2e>
- DB 102,67,15,22,68,65,8 ; movhpd 0x8(%r9,%r8,2),%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 15,130,38,255,255,255 ; jb 1a0f3 <_sk_load_u16_be_sse41+0x2e>
- DB 243,67,15,126,76,65,16 ; movq 0x10(%r9,%r8,2),%xmm1
- DB 233,26,255,255,255 ; jmpq 1a0f3 <_sk_load_u16_be_sse41+0x2e>
-
-PUBLIC _sk_load_rgb_u16_be_sse41
-_sk_load_rgb_u16_be_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,82 ; lea (%rdx,%rdx,2),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 77,1,201 ; add %r9,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,170,0,0,0 ; jne 1a2a0 <_sk_load_rgb_u16_be_sse41+0xc7>
- DB 243,67,15,111,20,65 ; movdqu (%r9,%r8,2),%xmm2
- DB 243,67,15,111,92,65,8 ; movdqu 0x8(%r9,%r8,2),%xmm3
- DB 102,15,115,219,4 ; psrldq $0x4,%xmm3
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,115,216,6 ; psrldq $0x6,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,115,217,6 ; psrldq $0x6,%xmm1
- DB 102,15,97,193 ; punpcklwd %xmm1,%xmm0
- DB 102,15,97,211 ; punpcklwd %xmm3,%xmm2
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,15,105,208 ; punpckhwd %xmm0,%xmm2
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,113,240,8 ; psllw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,235,200 ; por %xmm0,%xmm1
- DB 102,15,56,51,193 ; pmovzxwd %xmm1,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,251,180,1,0 ; movaps 0x1b4fb(%rip),%xmm8 # 35750 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,113,241,8 ; psllw $0x8,%xmm1
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,235,217 ; por %xmm1,%xmm3
- DB 102,15,56,51,203 ; pmovzxwd %xmm3,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,113,243,8 ; psllw $0x8,%xmm3
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,235,211 ; por %xmm3,%xmm2
- DB 102,15,56,51,210 ; pmovzxwd %xmm2,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,18,178,1,0 ; movaps 0x1b212(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 255,224 ; jmpq *%rax
- DB 102,67,15,110,20,65 ; movd (%r9,%r8,2),%xmm2
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,67,15,196,84,65,4,2 ; pinsrw $0x2,0x4(%r9,%r8,2),%xmm2
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,13 ; jne 1a2c5 <_sk_load_rgb_u16_be_sse41+0xec>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 233,85,255,255,255 ; jmpq 1a21a <_sk_load_rgb_u16_be_sse41+0x41>
- DB 102,67,15,110,68,65,6 ; movd 0x6(%r9,%r8,2),%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,67,15,196,68,65,10,2 ; pinsrw $0x2,0xa(%r9,%r8,2),%xmm0
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,24 ; jb 1a2f6 <_sk_load_rgb_u16_be_sse41+0x11d>
- DB 102,67,15,110,92,65,12 ; movd 0xc(%r9,%r8,2),%xmm3
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,67,15,196,92,65,16,2 ; pinsrw $0x2,0x10(%r9,%r8,2),%xmm3
- DB 233,36,255,255,255 ; jmpq 1a21a <_sk_load_rgb_u16_be_sse41+0x41>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 233,27,255,255,255 ; jmpq 1a21a <_sk_load_rgb_u16_be_sse41+0x41>
-
-PUBLIC _sk_store_u16_be_sse41
-_sk_store_u16_be_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 77,1,201 ; add %r9,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,95,192 ; maxps %xmm0,%xmm8
- DB 68,15,40,21,133,177,1,0 ; movaps 0x1b185(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,194 ; minps %xmm10,%xmm8
- DB 68,15,40,29,9,183,1,0 ; movaps 0x1b709(%rip),%xmm11 # 35a40 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
- DB 69,15,89,195 ; mulps %xmm11,%xmm8
- DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
- DB 102,68,15,56,43,192 ; packusdw %xmm0,%xmm8
- DB 102,69,15,111,224 ; movdqa %xmm8,%xmm12
- DB 102,65,15,113,244,8 ; psllw $0x8,%xmm12
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,69,15,235,196 ; por %xmm12,%xmm8
- DB 102,69,15,239,228 ; pxor %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 102,69,15,91,228 ; cvtps2dq %xmm12,%xmm12
- DB 102,68,15,56,43,224 ; packusdw %xmm0,%xmm12
- DB 102,69,15,111,236 ; movdqa %xmm12,%xmm13
- DB 102,65,15,113,245,8 ; psllw $0x8,%xmm13
- DB 102,65,15,113,212,8 ; psrlw $0x8,%xmm12
- DB 102,69,15,235,229 ; por %xmm13,%xmm12
- DB 102,69,15,97,196 ; punpcklwd %xmm12,%xmm8
- DB 102,69,15,239,228 ; pxor %xmm12,%xmm12
- DB 68,15,95,226 ; maxps %xmm2,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 102,69,15,91,228 ; cvtps2dq %xmm12,%xmm12
- DB 102,68,15,56,43,224 ; packusdw %xmm0,%xmm12
- DB 102,69,15,111,236 ; movdqa %xmm12,%xmm13
- DB 102,65,15,113,245,8 ; psllw $0x8,%xmm13
- DB 102,65,15,113,212,8 ; psrlw $0x8,%xmm12
- DB 102,69,15,235,229 ; por %xmm13,%xmm12
- DB 68,15,95,203 ; maxps %xmm3,%xmm9
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 102,68,15,56,43,200 ; packusdw %xmm0,%xmm9
- DB 102,69,15,111,209 ; movdqa %xmm9,%xmm10
- DB 102,65,15,113,242,8 ; psllw $0x8,%xmm10
- DB 102,65,15,113,209,8 ; psrlw $0x8,%xmm9
- DB 102,69,15,235,202 ; por %xmm10,%xmm9
- DB 102,69,15,97,225 ; punpcklwd %xmm9,%xmm12
- DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
- DB 102,69,15,98,204 ; punpckldq %xmm12,%xmm9
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,21 ; jne 1a41b <_sk_store_u16_be_sse41+0x11c>
- DB 71,15,17,12,65 ; movups %xmm9,(%r9,%r8,2)
- DB 102,69,15,106,196 ; punpckhdq %xmm12,%xmm8
- DB 243,71,15,127,68,65,16 ; movdqu %xmm8,0x10(%r9,%r8,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,71,15,214,12,65 ; movq %xmm9,(%r9,%r8,2)
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,240 ; je 1a417 <_sk_store_u16_be_sse41+0x118>
- DB 102,71,15,23,76,65,8 ; movhpd %xmm9,0x8(%r9,%r8,2)
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,227 ; jb 1a417 <_sk_store_u16_be_sse41+0x118>
- DB 102,69,15,106,196 ; punpckhdq %xmm12,%xmm8
- DB 102,71,15,214,68,65,16 ; movq %xmm8,0x10(%r9,%r8,2)
- DB 235,213 ; jmp 1a417 <_sk_store_u16_be_sse41+0x118>
-
-PUBLIC _sk_load_f32_sse41
-_sk_load_f32_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 73,193,225,2 ; shl $0x2,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,137,208 ; mov %rdx,%rax
- DB 72,193,224,4 ; shl $0x4,%rax
- DB 70,15,16,4,8 ; movups (%rax,%r9,1),%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,66 ; jne 1a4ae <_sk_load_f32_sse41+0x6c>
- DB 67,15,16,68,129,16 ; movups 0x10(%r9,%r8,4),%xmm0
- DB 67,15,16,92,129,32 ; movups 0x20(%r9,%r8,4),%xmm3
- DB 71,15,16,76,129,48 ; movups 0x30(%r9,%r8,4),%xmm9
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 15,20,208 ; unpcklps %xmm0,%xmm2
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 65,15,20,201 ; unpcklps %xmm9,%xmm1
- DB 68,15,21,192 ; unpckhps %xmm0,%xmm8
- DB 65,15,21,217 ; unpckhps %xmm9,%xmm3
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
- DB 15,18,202 ; movhlps %xmm2,%xmm1
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 65,15,18,216 ; movhlps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,8 ; jne 1a4c0 <_sk_load_f32_sse41+0x7e>
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 235,190 ; jmp 1a47e <_sk_load_f32_sse41+0x3c>
- DB 67,15,16,68,129,16 ; movups 0x10(%r9,%r8,4),%xmm0
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,8 ; jb 1a4d4 <_sk_load_f32_sse41+0x92>
- DB 67,15,16,92,129,32 ; movups 0x20(%r9,%r8,4),%xmm3
- DB 235,170 ; jmp 1a47e <_sk_load_f32_sse41+0x3c>
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 235,165 ; jmp 1a47e <_sk_load_f32_sse41+0x3c>
-
-PUBLIC _sk_load_f32_dst_sse41
-_sk_load_f32_dst_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 73,193,225,2 ; shl $0x2,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,137,208 ; mov %rdx,%rax
- DB 72,193,224,4 ; shl $0x4,%rax
- DB 70,15,16,4,8 ; movups (%rax,%r9,1),%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,66 ; jne 1a545 <_sk_load_f32_dst_sse41+0x6c>
- DB 67,15,16,100,129,16 ; movups 0x10(%r9,%r8,4),%xmm4
- DB 67,15,16,124,129,32 ; movups 0x20(%r9,%r8,4),%xmm7
- DB 71,15,16,76,129,48 ; movups 0x30(%r9,%r8,4),%xmm9
- DB 65,15,40,240 ; movaps %xmm8,%xmm6
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 15,40,239 ; movaps %xmm7,%xmm5
- DB 65,15,20,233 ; unpcklps %xmm9,%xmm5
- DB 68,15,21,196 ; unpckhps %xmm4,%xmm8
- DB 65,15,21,249 ; unpckhps %xmm9,%xmm7
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 102,15,20,229 ; unpcklpd %xmm5,%xmm4
- DB 15,18,238 ; movhlps %xmm6,%xmm5
- DB 65,15,40,240 ; movaps %xmm8,%xmm6
- DB 102,15,20,247 ; unpcklpd %xmm7,%xmm6
- DB 65,15,18,248 ; movhlps %xmm8,%xmm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,8 ; jne 1a557 <_sk_load_f32_dst_sse41+0x7e>
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 235,190 ; jmp 1a515 <_sk_load_f32_dst_sse41+0x3c>
- DB 67,15,16,100,129,16 ; movups 0x10(%r9,%r8,4),%xmm4
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,8 ; jb 1a56b <_sk_load_f32_dst_sse41+0x92>
- DB 67,15,16,124,129,32 ; movups 0x20(%r9,%r8,4),%xmm7
- DB 235,170 ; jmp 1a515 <_sk_load_f32_dst_sse41+0x3c>
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 235,165 ; jmp 1a515 <_sk_load_f32_dst_sse41+0x3c>
-
-PUBLIC _sk_store_f32_sse41
-_sk_store_f32_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 73,193,225,2 ; shl $0x2,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,137,208 ; mov %rdx,%rax
- DB 72,193,224,4 ; shl $0x4,%rax
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 68,15,20,201 ; unpcklps %xmm1,%xmm9
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 68,15,20,195 ; unpcklps %xmm3,%xmm8
- DB 68,15,40,208 ; movaps %xmm0,%xmm10
- DB 68,15,21,209 ; unpckhps %xmm1,%xmm10
- DB 68,15,40,218 ; movaps %xmm2,%xmm11
- DB 68,15,21,219 ; unpckhps %xmm3,%xmm11
- DB 69,15,40,225 ; movaps %xmm9,%xmm12
- DB 102,69,15,20,224 ; unpcklpd %xmm8,%xmm12
- DB 69,15,18,193 ; movhlps %xmm9,%xmm8
- DB 69,15,40,202 ; movaps %xmm10,%xmm9
- DB 102,69,15,20,203 ; unpcklpd %xmm11,%xmm9
- DB 102,70,15,17,36,8 ; movupd %xmm12,(%rax,%r9,1)
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,29 ; jne 1a5ee <_sk_store_f32_sse41+0x7e>
- DB 102,69,15,21,211 ; unpckhpd %xmm11,%xmm10
- DB 71,15,17,68,129,16 ; movups %xmm8,0x10(%r9,%r8,4)
- DB 102,71,15,17,76,129,32 ; movupd %xmm9,0x20(%r9,%r8,4)
- DB 102,71,15,17,84,129,48 ; movupd %xmm10,0x30(%r9,%r8,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,246 ; je 1a5ea <_sk_store_f32_sse41+0x7a>
- DB 71,15,17,68,129,16 ; movups %xmm8,0x10(%r9,%r8,4)
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,234 ; jb 1a5ea <_sk_store_f32_sse41+0x7a>
- DB 102,71,15,17,76,129,32 ; movupd %xmm9,0x20(%r9,%r8,4)
- DB 235,225 ; jmp 1a5ea <_sk_store_f32_sse41+0x7a>
-
-PUBLIC _sk_repeat_x_sse41
-_sk_repeat_x_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 102,69,15,58,8,201,1 ; roundps $0x1,%xmm9,%xmm9
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_repeat_y_sse41
-_sk_repeat_y_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 102,69,15,58,8,201,1 ; roundps $0x1,%xmm9,%xmm9
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 65,15,92,200 ; subps %xmm8,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_x_sse41
-_sk_mirror_x_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,40,208 ; movaps %xmm8,%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 65,15,92,194 ; subps %xmm10,%xmm0
- DB 243,69,15,88,192 ; addss %xmm8,%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 243,68,15,89,13,50,164,1,0 ; mulss 0x1a432(%rip),%xmm9 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 102,69,15,58,8,201,1 ; roundps $0x1,%xmm9,%xmm9
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 65,15,92,194 ; subps %xmm10,%xmm0
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,92,192 ; subps %xmm0,%xmm8
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_y_sse41
-_sk_mirror_y_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,40,208 ; movaps %xmm8,%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 65,15,92,202 ; subps %xmm10,%xmm1
- DB 243,69,15,88,192 ; addss %xmm8,%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 243,68,15,89,13,217,163,1,0 ; mulss 0x1a3d9(%rip),%xmm9 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 102,69,15,58,8,201,1 ; roundps $0x1,%xmm9,%xmm9
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 65,15,92,201 ; subps %xmm9,%xmm1
- DB 65,15,92,202 ; subps %xmm10,%xmm1
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,92,193 ; subps %xmm1,%xmm8
- DB 65,15,84,200 ; andps %xmm8,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_x_1_sse41
-_sk_clamp_x_1_sse41 LABEL PROC
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,95,192 ; maxps %xmm0,%xmm8
- DB 68,15,93,5,137,173,1,0 ; minps 0x1ad89(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_repeat_x_1_sse41
-_sk_repeat_x_1_sse41 LABEL PROC
- DB 102,68,15,58,8,192,1 ; roundps $0x1,%xmm0,%xmm8
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,95,192 ; maxps %xmm0,%xmm8
- DB 68,15,93,5,102,173,1,0 ; minps 0x1ad66(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_x_1_sse41
-_sk_mirror_x_1_sse41 LABEL PROC
- DB 68,15,40,5,182,173,1,0 ; movaps 0x1adb6(%rip),%xmm8 # 35510 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 68,15,40,13,58,173,1,0 ; movaps 0x1ad3a(%rip),%xmm9 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 102,69,15,58,8,201,1 ; roundps $0x1,%xmm9,%xmm9
- DB 69,15,88,201 ; addps %xmm9,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,92,200 ; subps %xmm0,%xmm9
- DB 68,15,84,200 ; andps %xmm0,%xmm9
- DB 69,15,95,193 ; maxps %xmm9,%xmm8
- DB 68,15,93,5,23,173,1,0 ; minps 0x1ad17(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_x_sse41
-_sk_decal_x_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,194,192,2 ; cmpleps %xmm0,%xmm8
- DB 243,68,15,16,72,64 ; movss 0x40(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,40,208 ; movaps %xmm0,%xmm10
- DB 69,15,194,209,1 ; cmpltps %xmm9,%xmm10
- DB 69,15,84,208 ; andps %xmm8,%xmm10
- DB 68,15,17,16 ; movups %xmm10,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_y_sse41
-_sk_decal_y_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,194,193,2 ; cmpleps %xmm1,%xmm8
- DB 243,68,15,16,72,68 ; movss 0x44(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,40,209 ; movaps %xmm1,%xmm10
- DB 69,15,194,209,1 ; cmpltps %xmm9,%xmm10
- DB 69,15,84,208 ; andps %xmm8,%xmm10
- DB 68,15,17,16 ; movups %xmm10,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_x_and_y_sse41
-_sk_decal_x_and_y_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,194,200,2 ; cmpleps %xmm0,%xmm9
- DB 243,68,15,16,80,64 ; movss 0x40(%rax),%xmm10
- DB 243,68,15,16,88,68 ; movss 0x44(%rax),%xmm11
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 68,15,40,224 ; movaps %xmm0,%xmm12
- DB 69,15,194,226,1 ; cmpltps %xmm10,%xmm12
- DB 68,15,194,193,2 ; cmpleps %xmm1,%xmm8
- DB 69,15,84,193 ; andps %xmm9,%xmm8
- DB 69,15,84,196 ; andps %xmm12,%xmm8
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 69,15,194,203,1 ; cmpltps %xmm11,%xmm9
- DB 69,15,84,200 ; andps %xmm8,%xmm9
- DB 68,15,17,8 ; movups %xmm9,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_check_decal_mask_sse41
-_sk_check_decal_mask_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,16,0 ; movups (%rax),%xmm8
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 65,15,84,200 ; andps %xmm8,%xmm1
- DB 65,15,84,208 ; andps %xmm8,%xmm2
- DB 65,15,84,216 ; andps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_luminance_to_alpha_sse41
-_sk_luminance_to_alpha_sse41 LABEL PROC
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,89,5,229,177,1,0 ; mulps 0x1b1e5(%rip),%xmm0 # 35a50 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
- DB 15,89,13,238,177,1,0 ; mulps 0x1b1ee(%rip),%xmm1 # 35a60 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,89,29,244,177,1,0 ; mulps 0x1b1f4(%rip),%xmm3 # 35a70 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_translate_sse41
-_sk_matrix_translate_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 65,15,88,201 ; addps %xmm9,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_scale_translate_sse41
-_sk_matrix_scale_translate_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 65,15,89,201 ; mulps %xmm9,%xmm1
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_2x3_sse41
-_sk_matrix_2x3_sse41 LABEL PROC
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,16 ; movss 0x10(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,68,15,16,80,12 ; movss 0xc(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,20 ; movss 0x14(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_3x4_sse41
-_sk_matrix_3x4_sse41 LABEL PROC
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,68,15,16,80,12 ; movss 0xc(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,24 ; movss 0x18(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,36 ; movss 0x24(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,68,15,16,80,16 ; movss 0x10(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,28 ; movss 0x1c(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,40 ; movss 0x28(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,20 ; movss 0x14(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,32 ; movss 0x20(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 243,68,15,16,104,44 ; movss 0x2c(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 68,15,89,226 ; mulps %xmm2,%xmm12
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 69,15,89,217 ; mulps %xmm9,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 69,15,89,208 ; mulps %xmm8,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_4x5_sse41
-_sk_matrix_4x5_sse41 LABEL PROC
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,68,15,16,80,16 ; movss 0x10(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,32 ; movss 0x20(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,48 ; movss 0x30(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 243,68,15,16,104,64 ; movss 0x40(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 68,15,89,227 ; mulps %xmm3,%xmm12
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,68,15,16,80,20 ; movss 0x14(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,36 ; movss 0x24(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,52 ; movss 0x34(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 243,68,15,16,104,68 ; movss 0x44(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 68,15,89,227 ; mulps %xmm3,%xmm12
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,24 ; movss 0x18(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,40 ; movss 0x28(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 243,68,15,16,104,56 ; movss 0x38(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 243,68,15,16,112,72 ; movss 0x48(%rax),%xmm14
- DB 69,15,198,246,0 ; shufps $0x0,%xmm14,%xmm14
- DB 68,15,89,235 ; mulps %xmm3,%xmm13
- DB 69,15,88,238 ; addps %xmm14,%xmm13
- DB 68,15,89,226 ; mulps %xmm2,%xmm12
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 69,15,89,217 ; mulps %xmm9,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 69,15,89,208 ; mulps %xmm8,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 243,68,15,16,88,12 ; movss 0xc(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,28 ; movss 0x1c(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 243,68,15,16,104,44 ; movss 0x2c(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 243,68,15,16,112,60 ; movss 0x3c(%rax),%xmm14
- DB 69,15,198,246,0 ; shufps $0x0,%xmm14,%xmm14
- DB 243,68,15,16,120,76 ; movss 0x4c(%rax),%xmm15
- DB 69,15,198,255,0 ; shufps $0x0,%xmm15,%xmm15
- DB 68,15,89,243 ; mulps %xmm3,%xmm14
- DB 69,15,88,247 ; addps %xmm15,%xmm14
- DB 68,15,89,234 ; mulps %xmm2,%xmm13
- DB 69,15,88,238 ; addps %xmm14,%xmm13
- DB 69,15,89,225 ; mulps %xmm9,%xmm12
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 69,15,89,216 ; mulps %xmm8,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 65,15,40,219 ; movaps %xmm11,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_4x3_sse41
-_sk_matrix_4x3_sse41 LABEL PROC
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,15,16,80,16 ; movss 0x10(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,88,32 ; movss 0x20(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,15,16,80,20 ; movss 0x14(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,88,36 ; movss 0x24(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 243,15,16,80,8 ; movss 0x8(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,88,24 ; movss 0x18(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 243,68,15,16,80,40 ; movss 0x28(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 65,15,89,217 ; mulps %xmm9,%xmm3
- DB 65,15,88,218 ; addps %xmm10,%xmm3
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 243,15,16,88,12 ; movss 0xc(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 243,68,15,16,80,28 ; movss 0x1c(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,44 ; movss 0x2c(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 65,15,88,218 ; addps %xmm10,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_perspective_sse41
-_sk_matrix_perspective_sse41 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,88,193 ; addps %xmm9,%xmm0
- DB 243,68,15,16,72,12 ; movss 0xc(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 243,68,15,16,80,16 ; movss 0x10(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,20 ; movss 0x14(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 68,15,89,209 ; mulps %xmm1,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 243,68,15,16,80,24 ; movss 0x18(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,28 ; movss 0x1c(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,32 ; movss 0x20(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 68,15,89,217 ; mulps %xmm1,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 69,15,89,208 ; mulps %xmm8,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,83,202 ; rcpps %xmm10,%xmm1
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_evenly_spaced_gradient_sse41
-_sk_evenly_spaced_gradient_sse41 LABEL PROC
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,139,24 ; mov (%rax),%rbx
- DB 76,139,112,8 ; mov 0x8(%rax),%r14
- DB 72,255,203 ; dec %rbx
- DB 120,7 ; js 1ad1c <_sk_evenly_spaced_gradient_sse41+0x18>
- DB 243,72,15,42,203 ; cvtsi2ss %rbx,%xmm1
- DB 235,21 ; jmp 1ad31 <_sk_evenly_spaced_gradient_sse41+0x2d>
- DB 73,137,216 ; mov %rbx,%r8
- DB 73,209,232 ; shr %r8
- DB 131,227,1 ; and $0x1,%ebx
- DB 76,9,195 ; or %r8,%rbx
- DB 243,72,15,42,203 ; cvtsi2ss %rbx,%xmm1
- DB 243,15,88,201 ; addss %xmm1,%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,73,15,58,22,200,1 ; pextrq $0x1,%xmm1,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 243,71,15,16,4,158 ; movss (%r14,%r11,4),%xmm8
- DB 102,71,15,58,33,4,150,16 ; insertps $0x10,(%r14,%r10,4),%xmm8
- DB 243,67,15,16,12,142 ; movss (%r14,%r9,4),%xmm1
- DB 102,68,15,58,33,193,32 ; insertps $0x20,%xmm1,%xmm8
- DB 243,67,15,16,12,134 ; movss (%r14,%r8,4),%xmm1
- DB 102,68,15,58,33,193,48 ; insertps $0x30,%xmm1,%xmm8
- DB 72,139,88,40 ; mov 0x28(%rax),%rbx
- DB 243,70,15,16,12,155 ; movss (%rbx,%r11,4),%xmm9
- DB 102,70,15,58,33,12,147,16 ; insertps $0x10,(%rbx,%r10,4),%xmm9
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 102,68,15,58,33,201,32 ; insertps $0x20,%xmm1,%xmm9
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 102,68,15,58,33,201,48 ; insertps $0x30,%xmm1,%xmm9
- DB 72,139,88,16 ; mov 0x10(%rax),%rbx
- DB 243,66,15,16,12,155 ; movss (%rbx,%r11,4),%xmm1
- DB 102,66,15,58,33,12,147,16 ; insertps $0x10,(%rbx,%r10,4),%xmm1
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 102,15,58,33,202,32 ; insertps $0x20,%xmm2,%xmm1
- DB 243,66,15,16,20,131 ; movss (%rbx,%r8,4),%xmm2
- DB 102,15,58,33,202,48 ; insertps $0x30,%xmm2,%xmm1
- DB 72,139,88,48 ; mov 0x30(%rax),%rbx
- DB 243,70,15,16,20,155 ; movss (%rbx,%r11,4),%xmm10
- DB 102,70,15,58,33,20,147,16 ; insertps $0x10,(%rbx,%r10,4),%xmm10
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 102,68,15,58,33,210,32 ; insertps $0x20,%xmm2,%xmm10
- DB 243,66,15,16,20,131 ; movss (%rbx,%r8,4),%xmm2
- DB 102,68,15,58,33,210,48 ; insertps $0x30,%xmm2,%xmm10
- DB 72,139,88,24 ; mov 0x18(%rax),%rbx
- DB 243,66,15,16,20,155 ; movss (%rbx,%r11,4),%xmm2
- DB 102,66,15,58,33,20,147,16 ; insertps $0x10,(%rbx,%r10,4),%xmm2
- DB 243,66,15,16,28,139 ; movss (%rbx,%r9,4),%xmm3
- DB 102,15,58,33,211,32 ; insertps $0x20,%xmm3,%xmm2
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 102,15,58,33,211,48 ; insertps $0x30,%xmm3,%xmm2
- DB 72,139,88,56 ; mov 0x38(%rax),%rbx
- DB 243,70,15,16,28,155 ; movss (%rbx,%r11,4),%xmm11
- DB 102,70,15,58,33,28,147,16 ; insertps $0x10,(%rbx,%r10,4),%xmm11
- DB 243,66,15,16,28,139 ; movss (%rbx,%r9,4),%xmm3
- DB 102,68,15,58,33,219,32 ; insertps $0x20,%xmm3,%xmm11
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 102,68,15,58,33,219,48 ; insertps $0x30,%xmm3,%xmm11
- DB 72,139,88,32 ; mov 0x20(%rax),%rbx
- DB 243,66,15,16,28,155 ; movss (%rbx,%r11,4),%xmm3
- DB 102,66,15,58,33,28,147,16 ; insertps $0x10,(%rbx,%r10,4),%xmm3
- DB 243,70,15,16,36,139 ; movss (%rbx,%r9,4),%xmm12
- DB 102,65,15,58,33,220,32 ; insertps $0x20,%xmm12,%xmm3
- DB 243,70,15,16,36,131 ; movss (%rbx,%r8,4),%xmm12
- DB 102,65,15,58,33,220,48 ; insertps $0x30,%xmm12,%xmm3
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 243,70,15,16,36,152 ; movss (%rax,%r11,4),%xmm12
- DB 102,70,15,58,33,36,144,16 ; insertps $0x10,(%rax,%r10,4),%xmm12
- DB 243,70,15,16,44,136 ; movss (%rax,%r9,4),%xmm13
- DB 102,69,15,58,33,229,32 ; insertps $0x20,%xmm13,%xmm12
- DB 243,70,15,16,44,128 ; movss (%rax,%r8,4),%xmm13
- DB 102,69,15,58,33,229,48 ; insertps $0x30,%xmm13,%xmm12
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 69,15,88,193 ; addps %xmm9,%xmm8
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 65,15,88,211 ; addps %xmm11,%xmm2
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 65,15,88,220 ; addps %xmm12,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gradient_sse41
-_sk_gradient_sse41 LABEL PROC
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 73,131,248,2 ; cmp $0x2,%r8
- DB 114,41 ; jb 1af11 <_sk_gradient_sse41+0x3b>
- DB 76,139,72,72 ; mov 0x48(%rax),%r9
- DB 73,255,200 ; dec %r8
- DB 73,131,193,4 ; add $0x4,%r9
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 243,65,15,16,17 ; movss (%r9),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,194,208,2 ; cmpleps %xmm0,%xmm2
- DB 102,15,250,202 ; psubd %xmm2,%xmm1
- DB 73,131,193,4 ; add $0x4,%r9
- DB 73,255,200 ; dec %r8
- DB 117,230 ; jne 1aef7 <_sk_gradient_sse41+0x21>
- DB 102,73,15,58,22,200,1 ; pextrq $0x1,%xmm1,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 72,139,88,8 ; mov 0x8(%rax),%rbx
- DB 76,139,112,16 ; mov 0x10(%rax),%r14
- DB 243,70,15,16,4,155 ; movss (%rbx,%r11,4),%xmm8
- DB 102,70,15,58,33,4,147,16 ; insertps $0x10,(%rbx,%r10,4),%xmm8
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 102,68,15,58,33,193,32 ; insertps $0x20,%xmm1,%xmm8
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 102,68,15,58,33,193,48 ; insertps $0x30,%xmm1,%xmm8
- DB 72,139,88,40 ; mov 0x28(%rax),%rbx
- DB 243,70,15,16,12,155 ; movss (%rbx,%r11,4),%xmm9
- DB 102,70,15,58,33,12,147,16 ; insertps $0x10,(%rbx,%r10,4),%xmm9
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 102,68,15,58,33,201,32 ; insertps $0x20,%xmm1,%xmm9
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 102,68,15,58,33,201,48 ; insertps $0x30,%xmm1,%xmm9
- DB 243,67,15,16,12,158 ; movss (%r14,%r11,4),%xmm1
- DB 102,67,15,58,33,12,150,16 ; insertps $0x10,(%r14,%r10,4),%xmm1
- DB 243,67,15,16,20,142 ; movss (%r14,%r9,4),%xmm2
- DB 102,15,58,33,202,32 ; insertps $0x20,%xmm2,%xmm1
- DB 243,67,15,16,20,134 ; movss (%r14,%r8,4),%xmm2
- DB 102,15,58,33,202,48 ; insertps $0x30,%xmm2,%xmm1
- DB 72,139,88,48 ; mov 0x30(%rax),%rbx
- DB 243,70,15,16,20,155 ; movss (%rbx,%r11,4),%xmm10
- DB 102,70,15,58,33,20,147,16 ; insertps $0x10,(%rbx,%r10,4),%xmm10
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 102,68,15,58,33,210,32 ; insertps $0x20,%xmm2,%xmm10
- DB 243,66,15,16,20,131 ; movss (%rbx,%r8,4),%xmm2
- DB 102,68,15,58,33,210,48 ; insertps $0x30,%xmm2,%xmm10
- DB 72,139,88,24 ; mov 0x18(%rax),%rbx
- DB 243,66,15,16,20,155 ; movss (%rbx,%r11,4),%xmm2
- DB 102,66,15,58,33,20,147,16 ; insertps $0x10,(%rbx,%r10,4),%xmm2
- DB 243,66,15,16,28,139 ; movss (%rbx,%r9,4),%xmm3
- DB 102,15,58,33,211,32 ; insertps $0x20,%xmm3,%xmm2
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 102,15,58,33,211,48 ; insertps $0x30,%xmm3,%xmm2
- DB 72,139,88,56 ; mov 0x38(%rax),%rbx
- DB 243,70,15,16,28,155 ; movss (%rbx,%r11,4),%xmm11
- DB 102,70,15,58,33,28,147,16 ; insertps $0x10,(%rbx,%r10,4),%xmm11
- DB 243,66,15,16,28,139 ; movss (%rbx,%r9,4),%xmm3
- DB 102,68,15,58,33,219,32 ; insertps $0x20,%xmm3,%xmm11
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 102,68,15,58,33,219,48 ; insertps $0x30,%xmm3,%xmm11
- DB 72,139,88,32 ; mov 0x20(%rax),%rbx
- DB 243,66,15,16,28,155 ; movss (%rbx,%r11,4),%xmm3
- DB 102,66,15,58,33,28,147,16 ; insertps $0x10,(%rbx,%r10,4),%xmm3
- DB 243,70,15,16,36,139 ; movss (%rbx,%r9,4),%xmm12
- DB 102,65,15,58,33,220,32 ; insertps $0x20,%xmm12,%xmm3
- DB 243,70,15,16,36,131 ; movss (%rbx,%r8,4),%xmm12
- DB 102,65,15,58,33,220,48 ; insertps $0x30,%xmm12,%xmm3
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 243,70,15,16,36,152 ; movss (%rax,%r11,4),%xmm12
- DB 102,70,15,58,33,36,144,16 ; insertps $0x10,(%rax,%r10,4),%xmm12
- DB 243,70,15,16,44,136 ; movss (%rax,%r9,4),%xmm13
- DB 102,69,15,58,33,229,32 ; insertps $0x20,%xmm13,%xmm12
- DB 243,70,15,16,44,128 ; movss (%rax,%r8,4),%xmm13
- DB 102,69,15,58,33,229,48 ; insertps $0x30,%xmm13,%xmm12
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 69,15,88,193 ; addps %xmm9,%xmm8
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 65,15,88,211 ; addps %xmm11,%xmm2
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 65,15,88,220 ; addps %xmm12,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_evenly_spaced_2_stop_gradient_sse41
-_sk_evenly_spaced_2_stop_gradient_sse41 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,15,16,80,16 ; movss 0x10(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,15,16,80,20 ; movss 0x14(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 243,15,16,80,8 ; movss 0x8(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,88,24 ; movss 0x18(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 243,15,16,88,12 ; movss 0xc(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 243,68,15,16,72,28 ; movss 0x1c(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 65,15,88,217 ; addps %xmm9,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_unit_angle_sse41
-_sk_xy_to_unit_angle_sse41 LABEL PROC
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 65,15,84,193 ; andps %xmm9,%xmm0
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 68,15,92,217 ; subps %xmm1,%xmm11
- DB 68,15,84,217 ; andps %xmm1,%xmm11
- DB 68,15,40,224 ; movaps %xmm0,%xmm12
- DB 69,15,93,227 ; minps %xmm11,%xmm12
- DB 68,15,40,208 ; movaps %xmm0,%xmm10
- DB 69,15,95,211 ; maxps %xmm11,%xmm10
- DB 69,15,94,226 ; divps %xmm10,%xmm12
- DB 69,15,40,236 ; movaps %xmm12,%xmm13
- DB 69,15,89,237 ; mulps %xmm13,%xmm13
- DB 68,15,40,21,30,169,1,0 ; movaps 0x1a91e(%rip),%xmm10 # 35a80 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
- DB 69,15,89,213 ; mulps %xmm13,%xmm10
- DB 68,15,88,21,34,169,1,0 ; addps 0x1a922(%rip),%xmm10 # 35a90 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
- DB 69,15,89,213 ; mulps %xmm13,%xmm10
- DB 68,15,88,21,38,169,1,0 ; addps 0x1a926(%rip),%xmm10 # 35aa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1288>
- DB 69,15,89,213 ; mulps %xmm13,%xmm10
- DB 68,15,88,21,42,169,1,0 ; addps 0x1a92a(%rip),%xmm10 # 35ab0 <_sk_srcover_bgra_8888_sse2_lowp+0x1298>
- DB 69,15,89,212 ; mulps %xmm12,%xmm10
- DB 65,15,194,195,1 ; cmpltps %xmm11,%xmm0
- DB 68,15,40,29,41,169,1,0 ; movaps 0x1a929(%rip),%xmm11 # 35ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8>
- DB 69,15,92,218 ; subps %xmm10,%xmm11
- DB 102,69,15,56,20,211 ; blendvps %xmm0,%xmm11,%xmm10
- DB 69,15,194,200,1 ; cmpltps %xmm8,%xmm9
- DB 68,15,40,29,242,162,1,0 ; movaps 0x1a2f2(%rip),%xmm11 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 69,15,92,218 ; subps %xmm10,%xmm11
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,69,15,56,20,211 ; blendvps %xmm0,%xmm11,%xmm10
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 65,15,194,192,1 ; cmpltps %xmm8,%xmm0
- DB 68,15,40,13,228,162,1,0 ; movaps 0x1a2e4(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,202 ; subps %xmm10,%xmm9
- DB 102,69,15,56,20,209 ; blendvps %xmm0,%xmm9,%xmm10
- DB 69,15,194,194,7 ; cmpordps %xmm10,%xmm8
- DB 69,15,84,194 ; andps %xmm10,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_radius_sse41
-_sk_xy_to_radius_sse41 LABEL PROC
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 69,15,89,192 ; mulps %xmm8,%xmm8
- DB 68,15,88,192 ; addps %xmm0,%xmm8
- DB 65,15,81,192 ; sqrtps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_negate_x_sse41
-_sk_negate_x_sse41 LABEL PROC
- DB 15,87,5,251,167,1,0 ; xorps 0x1a7fb(%rip),%xmm0 # 35a00 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_strip_sse41
-_sk_xy_to_2pt_conical_strip_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,64 ; movss 0x40(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 69,15,92,193 ; subps %xmm9,%xmm8
- DB 69,15,81,192 ; sqrtps %xmm8,%xmm8
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_focal_on_circle_sse41
-_sk_xy_to_2pt_conical_focal_on_circle_sse41 LABEL PROC
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 69,15,89,192 ; mulps %xmm8,%xmm8
- DB 68,15,94,192 ; divps %xmm0,%xmm8
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_well_behaved_sse41
-_sk_xy_to_2pt_conical_well_behaved_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,64 ; movss 0x40(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 68,15,88,200 ; addps %xmm0,%xmm9
- DB 65,15,81,193 ; sqrtps %xmm9,%xmm0
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_greater_sse41
-_sk_xy_to_2pt_conical_greater_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,64 ; movss 0x40(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 15,81,192 ; sqrtps %xmm0,%xmm0
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_smaller_sse41
-_sk_xy_to_2pt_conical_smaller_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,64 ; movss 0x40(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 15,81,192 ; sqrtps %xmm0,%xmm0
- DB 15,87,5,61,167,1,0 ; xorps 0x1a73d(%rip),%xmm0 # 35a00 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_alter_2pt_conical_compensate_focal_sse41
-_sk_alter_2pt_conical_compensate_focal_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,68 ; movss 0x44(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_alter_2pt_conical_unswap_sse41
-_sk_alter_2pt_conical_unswap_sse41 LABEL PROC
- DB 68,15,40,5,200,161,1,0 ; movaps 0x1a1c8(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,192 ; subps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mask_2pt_conical_nan_sse41
-_sk_mask_2pt_conical_nan_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,194,192,7 ; cmpordps %xmm0,%xmm8
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 68,15,17,0 ; movups %xmm8,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mask_2pt_conical_degenerates_sse41
-_sk_mask_2pt_conical_degenerates_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 69,15,95,193 ; maxps %xmm9,%xmm8
- DB 68,15,194,200,1 ; cmpltps %xmm0,%xmm9
- DB 68,15,17,8 ; movups %xmm9,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_apply_vector_mask_sse41
-_sk_apply_vector_mask_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,16,0 ; movups (%rax),%xmm8
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 65,15,84,200 ; andps %xmm8,%xmm1
- DB 65,15,84,208 ; andps %xmm8,%xmm2
- DB 65,15,84,216 ; andps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_save_xy_sse41
-_sk_save_xy_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,40,5,82,161,1,0 ; movaps 0x1a152(%rip),%xmm8 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,17,0 ; movups %xmm0,(%rax)
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 69,15,88,200 ; addps %xmm8,%xmm9
- DB 102,69,15,58,8,209,1 ; roundps $0x1,%xmm9,%xmm10
- DB 69,15,92,202 ; subps %xmm10,%xmm9
- DB 68,15,88,193 ; addps %xmm1,%xmm8
- DB 102,69,15,58,8,208,1 ; roundps $0x1,%xmm8,%xmm10
- DB 69,15,92,194 ; subps %xmm10,%xmm8
- DB 15,17,72,64 ; movups %xmm1,0x40(%rax)
- DB 68,15,17,136,128,0,0,0 ; movups %xmm9,0x80(%rax)
- DB 68,15,17,128,192,0,0,0 ; movups %xmm8,0xc0(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_accumulate_sse41
-_sk_accumulate_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,16,128,0,1,0,0 ; movups 0x100(%rax),%xmm8
- DB 68,15,16,136,64,1,0,0 ; movups 0x140(%rax),%xmm9
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 69,15,40,193 ; movaps %xmm9,%xmm8
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 65,15,88,224 ; addps %xmm8,%xmm4
- DB 69,15,40,193 ; movaps %xmm9,%xmm8
- DB 68,15,89,193 ; mulps %xmm1,%xmm8
- DB 65,15,88,232 ; addps %xmm8,%xmm5
- DB 69,15,40,193 ; movaps %xmm9,%xmm8
- DB 68,15,89,194 ; mulps %xmm2,%xmm8
- DB 65,15,88,240 ; addps %xmm8,%xmm6
- DB 68,15,89,203 ; mulps %xmm3,%xmm9
- DB 65,15,88,249 ; addps %xmm9,%xmm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_nx_sse41
-_sk_bilinear_nx_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 68,15,16,128,128,0,0,0 ; movups 0x80(%rax),%xmm8
- DB 15,88,5,235,166,1,0 ; addps 0x1a6eb(%rip),%xmm0 # 35ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
- DB 68,15,40,13,195,160,1,0 ; movaps 0x1a0c3(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 68,15,17,136,0,1,0,0 ; movups %xmm9,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_px_sse41
-_sk_bilinear_px_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 68,15,16,128,128,0,0,0 ; movups 0x80(%rax),%xmm8
- DB 15,88,5,143,160,1,0 ; addps 0x1a08f(%rip),%xmm0 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,17,128,0,1,0,0 ; movups %xmm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_ny_sse41
-_sk_bilinear_ny_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,72,64 ; movups 0x40(%rax),%xmm1
- DB 68,15,16,128,192,0,0,0 ; movups 0xc0(%rax),%xmm8
- DB 15,88,13,158,166,1,0 ; addps 0x1a69e(%rip),%xmm1 # 35ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
- DB 68,15,40,13,118,160,1,0 ; movaps 0x1a076(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 68,15,17,136,64,1,0,0 ; movups %xmm9,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_py_sse41
-_sk_bilinear_py_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,72,64 ; movups 0x40(%rax),%xmm1
- DB 68,15,16,128,192,0,0,0 ; movups 0xc0(%rax),%xmm8
- DB 15,88,13,65,160,1,0 ; addps 0x1a041(%rip),%xmm1 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,17,128,64,1,0,0 ; movups %xmm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n3x_sse41
-_sk_bicubic_n3x_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 68,15,16,128,128,0,0,0 ; movups 0x80(%rax),%xmm8
- DB 15,88,5,97,166,1,0 ; addps 0x1a661(%rip),%xmm0 # 35ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c8>
- DB 68,15,40,13,41,160,1,0 ; movaps 0x1a029(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 69,15,40,193 ; movaps %xmm9,%xmm8
- DB 69,15,89,192 ; mulps %xmm8,%xmm8
- DB 68,15,89,13,85,166,1,0 ; mulps 0x1a655(%rip),%xmm9 # 35af0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
- DB 68,15,88,13,13,162,1,0 ; addps 0x1a20d(%rip),%xmm9 # 356b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 68,15,17,136,0,1,0,0 ; movups %xmm9,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n1x_sse41
-_sk_bicubic_n1x_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 68,15,16,128,128,0,0,0 ; movups 0x80(%rax),%xmm8
- DB 15,88,5,9,166,1,0 ; addps 0x1a609(%rip),%xmm0 # 35ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
- DB 68,15,40,13,225,159,1,0 ; movaps 0x19fe1(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 68,15,40,5,37,166,1,0 ; movaps 0x1a625(%rip),%xmm8 # 35b00 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,41,166,1,0 ; addps 0x1a629(%rip),%xmm8 # 35b10 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,173,159,1,0 ; addps 0x19fad(%rip),%xmm8 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,33,166,1,0 ; addps 0x1a621(%rip),%xmm8 # 35b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
- DB 68,15,17,128,0,1,0,0 ; movups %xmm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p1x_sse41
-_sk_bicubic_p1x_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,40,5,139,159,1,0 ; movaps 0x19f8b(%rip),%xmm8 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 68,15,16,136,128,0,0,0 ; movups 0x80(%rax),%xmm9
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 68,15,40,21,212,165,1,0 ; movaps 0x1a5d4(%rip),%xmm10 # 35b00 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,216,165,1,0 ; addps 0x1a5d8(%rip),%xmm10 # 35b10 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,208 ; addps %xmm8,%xmm10
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,212,165,1,0 ; addps 0x1a5d4(%rip),%xmm10 # 35b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
- DB 68,15,17,144,0,1,0,0 ; movups %xmm10,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p3x_sse41
-_sk_bicubic_p3x_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 68,15,16,128,128,0,0,0 ; movups 0x80(%rax),%xmm8
- DB 15,88,5,164,165,1,0 ; addps 0x1a5a4(%rip),%xmm0 # 35b10 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 68,15,89,5,116,165,1,0 ; mulps 0x1a574(%rip),%xmm8 # 35af0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
- DB 68,15,88,5,44,161,1,0 ; addps 0x1a12c(%rip),%xmm8 # 356b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,17,128,0,1,0,0 ; movups %xmm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n3y_sse41
-_sk_bicubic_n3y_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,72,64 ; movups 0x40(%rax),%xmm1
- DB 68,15,16,128,192,0,0,0 ; movups 0xc0(%rax),%xmm8
- DB 15,88,13,55,165,1,0 ; addps 0x1a537(%rip),%xmm1 # 35ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c8>
- DB 68,15,40,13,255,158,1,0 ; movaps 0x19eff(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 69,15,40,193 ; movaps %xmm9,%xmm8
- DB 69,15,89,192 ; mulps %xmm8,%xmm8
- DB 68,15,89,13,43,165,1,0 ; mulps 0x1a52b(%rip),%xmm9 # 35af0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
- DB 68,15,88,13,227,160,1,0 ; addps 0x1a0e3(%rip),%xmm9 # 356b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 68,15,17,136,64,1,0,0 ; movups %xmm9,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n1y_sse41
-_sk_bicubic_n1y_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,72,64 ; movups 0x40(%rax),%xmm1
- DB 68,15,16,128,192,0,0,0 ; movups 0xc0(%rax),%xmm8
- DB 15,88,13,222,164,1,0 ; addps 0x1a4de(%rip),%xmm1 # 35ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
- DB 68,15,40,13,182,158,1,0 ; movaps 0x19eb6(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 68,15,40,5,250,164,1,0 ; movaps 0x1a4fa(%rip),%xmm8 # 35b00 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,254,164,1,0 ; addps 0x1a4fe(%rip),%xmm8 # 35b10 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,130,158,1,0 ; addps 0x19e82(%rip),%xmm8 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,246,164,1,0 ; addps 0x1a4f6(%rip),%xmm8 # 35b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
- DB 68,15,17,128,64,1,0,0 ; movups %xmm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p1y_sse41
-_sk_bicubic_p1y_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,40,5,96,158,1,0 ; movaps 0x19e60(%rip),%xmm8 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,16,72,64 ; movups 0x40(%rax),%xmm1
- DB 68,15,16,136,192,0,0,0 ; movups 0xc0(%rax),%xmm9
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 68,15,40,21,168,164,1,0 ; movaps 0x1a4a8(%rip),%xmm10 # 35b00 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,172,164,1,0 ; addps 0x1a4ac(%rip),%xmm10 # 35b10 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,208 ; addps %xmm8,%xmm10
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,168,164,1,0 ; addps 0x1a4a8(%rip),%xmm10 # 35b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
- DB 68,15,17,144,64,1,0,0 ; movups %xmm10,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p3y_sse41
-_sk_bicubic_p3y_sse41 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,72,64 ; movups 0x40(%rax),%xmm1
- DB 68,15,16,128,192,0,0,0 ; movups 0xc0(%rax),%xmm8
- DB 15,88,13,119,164,1,0 ; addps 0x1a477(%rip),%xmm1 # 35b10 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 68,15,89,5,71,164,1,0 ; mulps 0x1a447(%rip),%xmm8 # 35af0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
- DB 68,15,88,5,255,159,1,0 ; addps 0x19fff(%rip),%xmm8 # 356b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,17,128,64,1,0,0 ; movups %xmm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_callback_sse41
-_sk_callback_sse41 LABEL PROC
- DB 85 ; push %rbp
- DB 72,137,229 ; mov %rsp,%rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,131,236,40 ; sub $0x28,%rsp
- DB 68,15,40,197 ; movaps %xmm5,%xmm8
- DB 68,15,40,204 ; movaps %xmm4,%xmm9
- DB 73,137,206 ; mov %rcx,%r14
- DB 73,137,215 ; mov %rdx,%r15
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,137,195 ; mov %rax,%rbx
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,20,225 ; unpcklps %xmm1,%xmm4
- DB 15,40,234 ; movaps %xmm2,%xmm5
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 15,21,193 ; unpckhps %xmm1,%xmm0
- DB 15,21,211 ; unpckhps %xmm3,%xmm2
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 102,15,20,205 ; unpcklpd %xmm5,%xmm1
- DB 15,18,236 ; movhlps %xmm4,%xmm5
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 102,15,20,218 ; unpcklpd %xmm2,%xmm3
- DB 102,15,17,75,8 ; movupd %xmm1,0x8(%rbx)
- DB 15,18,208 ; movhlps %xmm0,%xmm2
- DB 15,17,107,24 ; movups %xmm5,0x18(%rbx)
- DB 102,15,17,91,40 ; movupd %xmm3,0x28(%rbx)
- DB 15,17,83,56 ; movups %xmm2,0x38(%rbx)
- DB 72,133,255 ; test %rdi,%rdi
- DB 186,4,0,0,0 ; mov $0x4,%edx
- DB 15,69,215 ; cmovne %edi,%edx
- DB 72,137,217 ; mov %rbx,%rcx
- DB 255,19 ; callq *(%rbx)
- DB 72,139,131,8,1,0,0 ; mov 0x108(%rbx),%rax
- DB 15,16,32 ; movups (%rax),%xmm4
- DB 15,16,64,16 ; movups 0x10(%rax),%xmm0
- DB 15,16,88,32 ; movups 0x20(%rax),%xmm3
- DB 15,16,80,48 ; movups 0x30(%rax),%xmm2
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,20,202 ; unpcklps %xmm2,%xmm1
- DB 15,21,224 ; unpckhps %xmm0,%xmm4
- DB 15,21,218 ; unpckhps %xmm2,%xmm3
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
- DB 15,18,205 ; movhlps %xmm5,%xmm1
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 15,18,220 ; movhlps %xmm4,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,137,250 ; mov %r15,%rdx
- DB 76,137,241 ; mov %r14,%rcx
- DB 65,15,40,225 ; movaps %xmm9,%xmm4
- DB 65,15,40,232 ; movaps %xmm8,%xmm5
- DB 72,131,196,40 ; add $0x28,%rsp
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clut_3D_sse41
-_sk_clut_3D_sse41 LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,129,236,184,0,0,0 ; sub $0xb8,%rsp
- DB 15,41,188,36,160,0,0,0 ; movaps %xmm7,0xa0(%rsp)
- DB 15,41,180,36,144,0,0,0 ; movaps %xmm6,0x90(%rsp)
- DB 15,41,172,36,128,0,0,0 ; movaps %xmm5,0x80(%rsp)
- DB 15,41,100,36,112 ; movaps %xmm4,0x70(%rsp)
- DB 15,41,92,36,96 ; movaps %xmm3,0x60(%rsp)
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 72,137,76,36,8 ; mov %rcx,0x8(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,139,64,16 ; mov 0x10(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 102,65,15,110,193 ; movd %r9d,%xmm0
- DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 15,41,68,36,80 ; movaps %xmm0,0x50(%rsp)
- DB 243,15,91,240 ; cvttps2dq %xmm0,%xmm6
- DB 15,40,37,74,163,1,0 ; movaps 0x1a34a(%rip),%xmm4 # 35b30 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,41,68,36,48 ; movaps %xmm0,0x30(%rsp)
- DB 102,65,15,110,208 ; movd %r8d,%xmm2
- DB 102,68,15,112,202,0 ; pshufd $0x0,%xmm2,%xmm9
- DB 68,139,64,12 ; mov 0xc(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 102,65,15,110,233 ; movd %r9d,%xmm5
- DB 102,15,112,237,0 ; pshufd $0x0,%xmm5,%xmm5
- DB 15,91,253 ; cvtdq2ps %xmm5,%xmm7
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 15,41,124,36,16 ; movaps %xmm7,0x10(%rsp)
- DB 243,15,91,239 ; cvttps2dq %xmm7,%xmm5
- DB 102,15,127,108,36,32 ; movdqa %xmm5,0x20(%rsp)
- DB 15,40,207 ; movaps %xmm7,%xmm1
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 243,68,15,91,209 ; cvttps2dq %xmm1,%xmm10
- DB 102,69,15,56,64,209 ; pmulld %xmm9,%xmm10
- DB 102,68,15,56,64,205 ; pmulld %xmm5,%xmm9
- DB 102,65,15,110,192 ; movd %r8d,%xmm0
- DB 102,15,56,64,194 ; pmulld %xmm2,%xmm0
- DB 68,139,64,8 ; mov 0x8(%rax),%r8d
- DB 65,255,200 ; dec %r8d
- DB 102,65,15,110,200 ; movd %r8d,%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 68,15,91,217 ; cvtdq2ps %xmm1,%xmm11
- DB 68,15,89,219 ; mulps %xmm3,%xmm11
- DB 102,65,15,111,209 ; movdqa %xmm9,%xmm2
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,15,127,108,36,64 ; movdqa %xmm5,0x40(%rsp)
- DB 102,15,254,213 ; paddd %xmm5,%xmm2
- DB 102,68,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm8
- DB 65,15,88,227 ; addps %xmm11,%xmm4
- DB 243,68,15,91,244 ; cvttps2dq %xmm4,%xmm14
- DB 102,69,15,56,64,240 ; pmulld %xmm8,%xmm14
- DB 243,65,15,91,195 ; cvttps2dq %xmm11,%xmm0
- DB 102,68,15,56,64,192 ; pmulld %xmm0,%xmm8
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,254,218 ; paddd %xmm2,%xmm3
- DB 102,68,15,111,37,161,162,1,0 ; movdqa 0x1a2a1(%rip),%xmm12 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,65,15,56,64,220 ; pmulld %xmm12,%xmm3
- DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,250,204 ; psubd %xmm4,%xmm1
- DB 102,69,15,118,237 ; pcmpeqd %xmm13,%xmm13
- DB 102,73,15,58,22,200,1 ; pextrq $0x1,%xmm1,%r8
- DB 102,73,15,126,201 ; movq %xmm1,%r9
- DB 72,139,0 ; mov (%rax),%rax
- DB 69,137,202 ; mov %r9d,%r10d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,195 ; mov %r8d,%r11d
- DB 243,66,15,16,12,144 ; movss (%rax,%r10,4),%xmm1
- DB 102,66,15,58,33,12,136,16 ; insertps $0x10,(%rax,%r9,4),%xmm1
- DB 243,66,15,16,36,152 ; movss (%rax,%r11,4),%xmm4
- DB 102,15,58,33,204,32 ; insertps $0x20,%xmm4,%xmm1
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,36,128 ; movss (%rax,%r8,4),%xmm4
- DB 102,15,58,33,204,48 ; insertps $0x30,%xmm4,%xmm1
- DB 102,65,15,126,216 ; movd %xmm3,%r8d
- DB 102,65,15,58,22,217,1 ; pextrd $0x1,%xmm3,%r9d
- DB 102,65,15,58,22,218,2 ; pextrd $0x2,%xmm3,%r10d
- DB 102,65,15,58,22,219,3 ; pextrd $0x3,%xmm3,%r11d
- DB 102,15,111,37,197,155,1,0 ; movdqa 0x19bc5(%rip),%xmm4 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,15,254,220 ; paddd %xmm4,%xmm3
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,73,15,58,22,222,1 ; pextrq $0x1,%xmm3,%r14
- DB 102,72,15,126,219 ; movq %xmm3,%rbx
- DB 65,137,223 ; mov %ebx,%r15d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,244 ; mov %r14d,%r12d
- DB 243,66,15,16,36,184 ; movss (%rax,%r15,4),%xmm4
- DB 102,15,58,33,36,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm4
- DB 243,66,15,16,28,160 ; movss (%rax,%r12,4),%xmm3
- DB 102,15,58,33,227,32 ; insertps $0x20,%xmm3,%xmm4
- DB 73,193,238,32 ; shr $0x20,%r14
- DB 243,66,15,16,28,176 ; movss (%rax,%r14,4),%xmm3
- DB 102,15,58,33,227,48 ; insertps $0x30,%xmm3,%xmm4
- DB 102,65,15,254,214 ; paddd %xmm14,%xmm2
- DB 102,65,15,56,64,212 ; pmulld %xmm12,%xmm2
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,65,15,250,221 ; psubd %xmm13,%xmm3
- DB 102,69,15,118,255 ; pcmpeqd %xmm15,%xmm15
- DB 102,73,15,58,22,222,1 ; pextrq $0x1,%xmm3,%r14
- DB 102,72,15,126,219 ; movq %xmm3,%rbx
- DB 65,137,223 ; mov %ebx,%r15d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,244 ; mov %r14d,%r12d
- DB 243,66,15,16,28,184 ; movss (%rax,%r15,4),%xmm3
- DB 102,15,58,33,28,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm3
- DB 243,66,15,16,52,160 ; movss (%rax,%r12,4),%xmm6
- DB 102,15,58,33,222,32 ; insertps $0x20,%xmm6,%xmm3
- DB 73,193,238,32 ; shr $0x20,%r14
- DB 243,66,15,16,52,176 ; movss (%rax,%r14,4),%xmm6
- DB 102,15,58,33,222,48 ; insertps $0x30,%xmm6,%xmm3
- DB 102,65,15,126,213 ; movd %xmm2,%r13d
- DB 102,65,15,58,22,214,1 ; pextrd $0x1,%xmm2,%r14d
- DB 102,65,15,58,22,215,2 ; pextrd $0x2,%xmm2,%r15d
- DB 102,65,15,58,22,212,3 ; pextrd $0x3,%xmm2,%r12d
- DB 102,15,254,215 ; paddd %xmm7,%xmm2
- DB 102,68,15,111,239 ; movdqa %xmm7,%xmm13
- DB 102,72,15,58,22,211,1 ; pextrq $0x1,%xmm2,%rbx
- DB 102,72,15,126,213 ; movq %xmm2,%rbp
- DB 137,233 ; mov %ebp,%ecx
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 243,15,16,60,136 ; movss (%rax,%rcx,4),%xmm7
- DB 102,15,58,33,60,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm7
- DB 137,217 ; mov %ebx,%ecx
- DB 243,15,16,20,136 ; movss (%rax,%rcx,4),%xmm2
- DB 102,15,58,33,250,32 ; insertps $0x20,%xmm2,%xmm7
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 243,15,16,20,152 ; movss (%rax,%rbx,4),%xmm2
- DB 102,15,58,33,250,48 ; insertps $0x30,%xmm2,%xmm7
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,92,216 ; subps %xmm0,%xmm11
- DB 243,66,15,16,20,128 ; movss (%rax,%r8,4),%xmm2
- DB 102,66,15,58,33,20,136,16 ; insertps $0x10,(%rax,%r9,4),%xmm2
- DB 102,66,15,58,33,20,144,32 ; insertps $0x20,(%rax,%r10,4),%xmm2
- DB 102,66,15,58,33,20,152,48 ; insertps $0x30,(%rax,%r11,4),%xmm2
- DB 243,66,15,16,4,168 ; movss (%rax,%r13,4),%xmm0
- DB 102,66,15,58,33,4,176,16 ; insertps $0x10,(%rax,%r14,4),%xmm0
- DB 102,66,15,58,33,4,184,32 ; insertps $0x20,(%rax,%r15,4),%xmm0
- DB 102,66,15,58,33,4,160,48 ; insertps $0x30,(%rax,%r12,4),%xmm0
- DB 15,92,194 ; subps %xmm2,%xmm0
- DB 65,15,89,195 ; mulps %xmm11,%xmm0
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,92,217 ; subps %xmm1,%xmm3
- DB 65,15,89,219 ; mulps %xmm11,%xmm3
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 15,92,252 ; subps %xmm4,%xmm7
- DB 65,15,89,251 ; mulps %xmm11,%xmm7
- DB 15,88,252 ; addps %xmm4,%xmm7
- DB 102,65,15,111,226 ; movdqa %xmm10,%xmm4
- DB 102,15,254,229 ; paddd %xmm5,%xmm4
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,65,15,254,200 ; paddd %xmm8,%xmm1
- DB 102,65,15,56,64,204 ; pmulld %xmm12,%xmm1
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 102,15,58,22,205,1 ; pextrd $0x1,%xmm1,%ebp
- DB 102,65,15,58,22,200,2 ; pextrd $0x2,%xmm1,%r8d
- DB 102,15,58,22,203,3 ; pextrd $0x3,%xmm1,%ebx
- DB 243,15,16,20,136 ; movss (%rax,%rcx,4),%xmm2
- DB 102,15,58,33,20,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm2
- DB 102,66,15,58,33,20,128,32 ; insertps $0x20,(%rax,%r8,4),%xmm2
- DB 243,15,16,52,152 ; movss (%rax,%rbx,4),%xmm6
- DB 102,15,58,33,214,48 ; insertps $0x30,%xmm6,%xmm2
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,65,15,250,247 ; psubd %xmm15,%xmm6
- DB 102,69,15,118,255 ; pcmpeqd %xmm15,%xmm15
- DB 102,72,15,58,22,241,1 ; pextrq $0x1,%xmm6,%rcx
- DB 102,72,15,126,245 ; movq %xmm6,%rbp
- DB 65,137,232 ; mov %ebp,%r8d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 137,203 ; mov %ecx,%ebx
- DB 243,66,15,16,52,128 ; movss (%rax,%r8,4),%xmm6
- DB 102,15,58,33,52,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm6
- DB 243,15,16,44,152 ; movss (%rax,%rbx,4),%xmm5
- DB 102,15,58,33,245,32 ; insertps $0x20,%xmm5,%xmm6
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,44,136 ; movss (%rax,%rcx,4),%xmm5
- DB 102,15,58,33,245,48 ; insertps $0x30,%xmm5,%xmm6
- DB 102,65,15,254,205 ; paddd %xmm13,%xmm1
- DB 102,72,15,58,22,201,1 ; pextrq $0x1,%xmm1,%rcx
- DB 102,72,15,126,205 ; movq %xmm1,%rbp
- DB 65,137,232 ; mov %ebp,%r8d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 137,203 ; mov %ecx,%ebx
- DB 243,66,15,16,12,128 ; movss (%rax,%r8,4),%xmm1
- DB 102,15,58,33,12,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm1
- DB 243,15,16,44,152 ; movss (%rax,%rbx,4),%xmm5
- DB 102,15,58,33,205,32 ; insertps $0x20,%xmm5,%xmm1
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,44,136 ; movss (%rax,%rcx,4),%xmm5
- DB 102,15,58,33,205,48 ; insertps $0x30,%xmm5,%xmm1
- DB 102,65,15,254,230 ; paddd %xmm14,%xmm4
- DB 102,65,15,56,64,228 ; pmulld %xmm12,%xmm4
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,65,15,250,239 ; psubd %xmm15,%xmm5
- DB 102,72,15,58,22,233,1 ; pextrq $0x1,%xmm5,%rcx
- DB 102,72,15,126,237 ; movq %xmm5,%rbp
- DB 65,137,232 ; mov %ebp,%r8d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 137,203 ; mov %ecx,%ebx
- DB 243,70,15,16,36,128 ; movss (%rax,%r8,4),%xmm12
- DB 102,68,15,58,33,36,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm12
- DB 243,15,16,44,152 ; movss (%rax,%rbx,4),%xmm5
- DB 102,68,15,58,33,229,32 ; insertps $0x20,%xmm5,%xmm12
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,44,136 ; movss (%rax,%rcx,4),%xmm5
- DB 102,68,15,58,33,229,48 ; insertps $0x30,%xmm5,%xmm12
- DB 102,65,15,126,224 ; movd %xmm4,%r8d
- DB 102,65,15,58,22,227,1 ; pextrd $0x1,%xmm4,%r11d
- DB 102,65,15,58,22,226,2 ; pextrd $0x2,%xmm4,%r10d
- DB 102,65,15,58,22,225,3 ; pextrd $0x3,%xmm4,%r9d
- DB 102,65,15,254,229 ; paddd %xmm13,%xmm4
- DB 102,72,15,58,22,225,1 ; pextrq $0x1,%xmm4,%rcx
- DB 102,72,15,126,227 ; movq %xmm4,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 137,205 ; mov %ecx,%ebp
- DB 243,70,15,16,60,176 ; movss (%rax,%r14,4),%xmm15
- DB 102,68,15,58,33,60,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm15
- DB 243,15,16,36,168 ; movss (%rax,%rbp,4),%xmm4
- DB 102,68,15,58,33,252,32 ; insertps $0x20,%xmm4,%xmm15
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,36,136 ; movss (%rax,%rcx,4),%xmm4
- DB 102,68,15,58,33,252,48 ; insertps $0x30,%xmm4,%xmm15
- DB 243,66,15,16,36,128 ; movss (%rax,%r8,4),%xmm4
- DB 102,66,15,58,33,36,152,16 ; insertps $0x10,(%rax,%r11,4),%xmm4
- DB 102,66,15,58,33,36,144,32 ; insertps $0x20,(%rax,%r10,4),%xmm4
- DB 102,66,15,58,33,36,136,48 ; insertps $0x30,(%rax,%r9,4),%xmm4
- DB 15,92,226 ; subps %xmm2,%xmm4
- DB 65,15,89,227 ; mulps %xmm11,%xmm4
- DB 15,88,226 ; addps %xmm2,%xmm4
- DB 68,15,92,230 ; subps %xmm6,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 68,15,88,230 ; addps %xmm6,%xmm12
- DB 68,15,92,249 ; subps %xmm1,%xmm15
- DB 69,15,89,251 ; mulps %xmm11,%xmm15
- DB 68,15,88,249 ; addps %xmm1,%xmm15
- DB 15,91,76,36,32 ; cvtdq2ps 0x20(%rsp),%xmm1
- DB 68,15,40,108,36,16 ; movaps 0x10(%rsp),%xmm13
- DB 68,15,92,233 ; subps %xmm1,%xmm13
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 65,15,89,229 ; mulps %xmm13,%xmm4
- DB 15,88,224 ; addps %xmm0,%xmm4
- DB 68,15,92,227 ; subps %xmm3,%xmm12
- DB 69,15,89,229 ; mulps %xmm13,%xmm12
- DB 68,15,88,227 ; addps %xmm3,%xmm12
- DB 68,15,92,255 ; subps %xmm7,%xmm15
- DB 69,15,89,253 ; mulps %xmm13,%xmm15
- DB 68,15,88,255 ; addps %xmm7,%xmm15
- DB 243,15,91,84,36,48 ; cvttps2dq 0x30(%rsp),%xmm2
- DB 102,68,15,254,202 ; paddd %xmm2,%xmm9
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,65,15,254,193 ; paddd %xmm9,%xmm0
- DB 102,15,111,45,176,158,1,0 ; movdqa 0x19eb0(%rip),%xmm5 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,15,56,64,197 ; pmulld %xmm5,%xmm0
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,118,246 ; pcmpeqd %xmm6,%xmm6
- DB 102,15,250,206 ; psubd %xmm6,%xmm1
- DB 102,72,15,58,22,201,1 ; pextrq $0x1,%xmm1,%rcx
- DB 102,72,15,126,205 ; movq %xmm1,%rbp
- DB 137,235 ; mov %ebp,%ebx
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 65,137,200 ; mov %ecx,%r8d
- DB 243,15,16,12,152 ; movss (%rax,%rbx,4),%xmm1
- DB 102,15,58,33,12,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm1
- DB 243,66,15,16,28,128 ; movss (%rax,%r8,4),%xmm3
- DB 102,15,58,33,203,32 ; insertps $0x20,%xmm3,%xmm1
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,28,136 ; movss (%rax,%rcx,4),%xmm3
- DB 102,15,58,33,203,48 ; insertps $0x30,%xmm3,%xmm1
- DB 102,65,15,126,192 ; movd %xmm0,%r8d
- DB 102,65,15,58,22,193,1 ; pextrd $0x1,%xmm0,%r9d
- DB 102,65,15,58,22,194,2 ; pextrd $0x2,%xmm0,%r10d
- DB 102,65,15,58,22,195,3 ; pextrd $0x3,%xmm0,%r11d
- DB 102,15,111,61,225,151,1,0 ; movdqa 0x197e1(%rip),%xmm7 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,15,254,199 ; paddd %xmm7,%xmm0
- DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
- DB 102,72,15,126,195 ; movq %xmm0,%rbx
- DB 137,221 ; mov %ebx,%ebp
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 65,137,206 ; mov %ecx,%r14d
- DB 243,15,16,4,168 ; movss (%rax,%rbp,4),%xmm0
- DB 102,15,58,33,4,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm0
- DB 243,66,15,16,28,176 ; movss (%rax,%r14,4),%xmm3
- DB 102,15,58,33,195,32 ; insertps $0x20,%xmm3,%xmm0
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,28,136 ; movss (%rax,%rcx,4),%xmm3
- DB 102,15,58,33,195,48 ; insertps $0x30,%xmm3,%xmm0
- DB 102,69,15,254,206 ; paddd %xmm14,%xmm9
- DB 102,68,15,56,64,205 ; pmulld %xmm5,%xmm9
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,15,250,222 ; psubd %xmm6,%xmm3
- DB 102,72,15,58,22,217,1 ; pextrq $0x1,%xmm3,%rcx
- DB 102,72,15,126,219 ; movq %xmm3,%rbx
- DB 137,221 ; mov %ebx,%ebp
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 65,137,206 ; mov %ecx,%r14d
- DB 243,15,16,52,168 ; movss (%rax,%rbp,4),%xmm6
- DB 102,15,58,33,52,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm6
- DB 243,66,15,16,28,176 ; movss (%rax,%r14,4),%xmm3
- DB 102,15,58,33,243,32 ; insertps $0x20,%xmm3,%xmm6
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,28,136 ; movss (%rax,%rcx,4),%xmm3
- DB 102,15,58,33,243,48 ; insertps $0x30,%xmm3,%xmm6
- DB 102,69,15,126,205 ; movd %xmm9,%r13d
- DB 102,69,15,58,22,207,1 ; pextrd $0x1,%xmm9,%r15d
- DB 102,69,15,58,22,204,2 ; pextrd $0x2,%xmm9,%r12d
- DB 102,69,15,58,22,206,3 ; pextrd $0x3,%xmm9,%r14d
- DB 102,68,15,254,207 ; paddd %xmm7,%xmm9
- DB 102,76,15,58,22,203,1 ; pextrq $0x1,%xmm9,%rbx
- DB 102,76,15,126,205 ; movq %xmm9,%rbp
- DB 137,233 ; mov %ebp,%ecx
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 243,15,16,60,136 ; movss (%rax,%rcx,4),%xmm7
- DB 102,15,58,33,60,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm7
- DB 137,217 ; mov %ebx,%ecx
- DB 243,15,16,28,136 ; movss (%rax,%rcx,4),%xmm3
- DB 102,15,58,33,251,32 ; insertps $0x20,%xmm3,%xmm7
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 243,15,16,28,152 ; movss (%rax,%rbx,4),%xmm3
- DB 102,15,58,33,251,48 ; insertps $0x30,%xmm3,%xmm7
- DB 243,66,15,16,44,128 ; movss (%rax,%r8,4),%xmm5
- DB 102,66,15,58,33,44,136,16 ; insertps $0x10,(%rax,%r9,4),%xmm5
- DB 102,66,15,58,33,44,144,32 ; insertps $0x20,(%rax,%r10,4),%xmm5
- DB 102,66,15,58,33,44,152,48 ; insertps $0x30,(%rax,%r11,4),%xmm5
- DB 243,66,15,16,28,168 ; movss (%rax,%r13,4),%xmm3
- DB 102,66,15,58,33,28,184,16 ; insertps $0x10,(%rax,%r15,4),%xmm3
- DB 102,66,15,58,33,28,160,32 ; insertps $0x20,(%rax,%r12,4),%xmm3
- DB 102,66,15,58,33,28,176,48 ; insertps $0x30,(%rax,%r14,4),%xmm3
- DB 15,92,221 ; subps %xmm5,%xmm3
- DB 65,15,89,219 ; mulps %xmm11,%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 15,92,241 ; subps %xmm1,%xmm6
- DB 65,15,89,243 ; mulps %xmm11,%xmm6
- DB 15,88,241 ; addps %xmm1,%xmm6
- DB 15,92,248 ; subps %xmm0,%xmm7
- DB 65,15,89,251 ; mulps %xmm11,%xmm7
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 102,68,15,254,210 ; paddd %xmm2,%xmm10
- DB 102,69,15,254,194 ; paddd %xmm10,%xmm8
- DB 102,15,111,13,236,156,1,0 ; movdqa 0x19cec(%rip),%xmm1 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,68,15,56,64,193 ; pmulld %xmm1,%xmm8
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,15,118,237 ; pcmpeqd %xmm5,%xmm5
- DB 102,15,250,197 ; psubd %xmm5,%xmm0
- DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
- DB 102,72,15,126,197 ; movq %xmm0,%rbp
- DB 137,235 ; mov %ebp,%ebx
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 65,137,200 ; mov %ecx,%r8d
- DB 243,68,15,16,12,152 ; movss (%rax,%rbx,4),%xmm9
- DB 102,68,15,58,33,12,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm9
- DB 243,66,15,16,4,128 ; movss (%rax,%r8,4),%xmm0
- DB 102,68,15,58,33,200,32 ; insertps $0x20,%xmm0,%xmm9
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,4,136 ; movss (%rax,%rcx,4),%xmm0
- DB 102,68,15,58,33,200,48 ; insertps $0x30,%xmm0,%xmm9
- DB 102,69,15,126,192 ; movd %xmm8,%r8d
- DB 102,69,15,58,22,193,1 ; pextrd $0x1,%xmm8,%r9d
- DB 102,69,15,58,22,194,2 ; pextrd $0x2,%xmm8,%r10d
- DB 102,69,15,58,22,195,3 ; pextrd $0x3,%xmm8,%r11d
- DB 102,15,111,21,23,150,1,0 ; movdqa 0x19617(%rip),%xmm2 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,68,15,254,194 ; paddd %xmm2,%xmm8
- DB 102,76,15,58,22,193,1 ; pextrq $0x1,%xmm8,%rcx
- DB 102,76,15,126,195 ; movq %xmm8,%rbx
- DB 137,221 ; mov %ebx,%ebp
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 65,137,206 ; mov %ecx,%r14d
- DB 243,68,15,16,4,168 ; movss (%rax,%rbp,4),%xmm8
- DB 102,68,15,58,33,4,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm8
- DB 243,66,15,16,4,176 ; movss (%rax,%r14,4),%xmm0
- DB 102,68,15,58,33,192,32 ; insertps $0x20,%xmm0,%xmm8
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,4,136 ; movss (%rax,%rcx,4),%xmm0
- DB 102,68,15,58,33,192,48 ; insertps $0x30,%xmm0,%xmm8
- DB 102,69,15,254,214 ; paddd %xmm14,%xmm10
- DB 102,68,15,56,64,209 ; pmulld %xmm1,%xmm10
- DB 102,65,15,111,194 ; movdqa %xmm10,%xmm0
- DB 102,15,250,197 ; psubd %xmm5,%xmm0
- DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
- DB 102,72,15,126,195 ; movq %xmm0,%rbx
- DB 137,221 ; mov %ebx,%ebp
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 65,137,206 ; mov %ecx,%r14d
- DB 243,15,16,12,168 ; movss (%rax,%rbp,4),%xmm1
- DB 102,15,58,33,12,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm1
- DB 243,66,15,16,4,176 ; movss (%rax,%r14,4),%xmm0
- DB 102,15,58,33,200,32 ; insertps $0x20,%xmm0,%xmm1
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,4,136 ; movss (%rax,%rcx,4),%xmm0
- DB 102,15,58,33,200,48 ; insertps $0x30,%xmm0,%xmm1
- DB 102,69,15,126,213 ; movd %xmm10,%r13d
- DB 102,69,15,58,22,215,1 ; pextrd $0x1,%xmm10,%r15d
- DB 102,69,15,58,22,212,2 ; pextrd $0x2,%xmm10,%r12d
- DB 102,69,15,58,22,214,3 ; pextrd $0x3,%xmm10,%r14d
- DB 102,68,15,254,210 ; paddd %xmm2,%xmm10
- DB 102,76,15,58,22,211,1 ; pextrq $0x1,%xmm10,%rbx
- DB 102,76,15,126,213 ; movq %xmm10,%rbp
- DB 137,233 ; mov %ebp,%ecx
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 243,15,16,20,136 ; movss (%rax,%rcx,4),%xmm2
- DB 102,15,58,33,20,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm2
- DB 137,217 ; mov %ebx,%ecx
- DB 243,15,16,4,136 ; movss (%rax,%rcx,4),%xmm0
- DB 102,15,58,33,208,32 ; insertps $0x20,%xmm0,%xmm2
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 243,15,16,4,152 ; movss (%rax,%rbx,4),%xmm0
- DB 102,15,58,33,208,48 ; insertps $0x30,%xmm0,%xmm2
- DB 243,66,15,16,44,128 ; movss (%rax,%r8,4),%xmm5
- DB 102,66,15,58,33,44,136,16 ; insertps $0x10,(%rax,%r9,4),%xmm5
- DB 102,66,15,58,33,44,144,32 ; insertps $0x20,(%rax,%r10,4),%xmm5
- DB 102,66,15,58,33,44,152,48 ; insertps $0x30,(%rax,%r11,4),%xmm5
- DB 243,66,15,16,4,168 ; movss (%rax,%r13,4),%xmm0
- DB 102,66,15,58,33,4,184,16 ; insertps $0x10,(%rax,%r15,4),%xmm0
- DB 102,66,15,58,33,4,160,32 ; insertps $0x20,(%rax,%r12,4),%xmm0
- DB 102,66,15,58,33,4,176,48 ; insertps $0x30,(%rax,%r14,4),%xmm0
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 65,15,89,195 ; mulps %xmm11,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 65,15,92,201 ; subps %xmm9,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 65,15,88,201 ; addps %xmm9,%xmm1
- DB 65,15,92,208 ; subps %xmm8,%xmm2
- DB 65,15,89,211 ; mulps %xmm11,%xmm2
- DB 65,15,88,208 ; addps %xmm8,%xmm2
- DB 15,92,195 ; subps %xmm3,%xmm0
- DB 65,15,89,197 ; mulps %xmm13,%xmm0
- DB 15,88,195 ; addps %xmm3,%xmm0
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 65,15,89,205 ; mulps %xmm13,%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,92,215 ; subps %xmm7,%xmm2
- DB 65,15,89,213 ; mulps %xmm13,%xmm2
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 15,91,92,36,64 ; cvtdq2ps 0x40(%rsp),%xmm3
- DB 15,40,108,36,80 ; movaps 0x50(%rsp),%xmm5
- DB 15,92,235 ; subps %xmm3,%xmm5
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 65,15,92,204 ; subps %xmm12,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 65,15,88,204 ; addps %xmm12,%xmm1
- DB 65,15,92,215 ; subps %xmm15,%xmm2
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 65,15,88,215 ; addps %xmm15,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,139,76,36,8 ; mov 0x8(%rsp),%rcx
- DB 15,40,92,36,96 ; movaps 0x60(%rsp),%xmm3
- DB 15,40,100,36,112 ; movaps 0x70(%rsp),%xmm4
- DB 15,40,172,36,128,0,0,0 ; movaps 0x80(%rsp),%xmm5
- DB 15,40,180,36,144,0,0,0 ; movaps 0x90(%rsp),%xmm6
- DB 15,40,188,36,160,0,0,0 ; movaps 0xa0(%rsp),%xmm7
- DB 72,129,196,184,0,0,0 ; add $0xb8,%rsp
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clut_4D_sse41
-_sk_clut_4D_sse41 LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,129,236,8,1,0,0 ; sub $0x108,%rsp
- DB 15,41,188,36,240,0,0,0 ; movaps %xmm7,0xf0(%rsp)
- DB 15,41,180,36,224,0,0,0 ; movaps %xmm6,0xe0(%rsp)
- DB 15,41,172,36,208,0,0,0 ; movaps %xmm5,0xd0(%rsp)
- DB 15,41,164,36,192,0,0,0 ; movaps %xmm4,0xc0(%rsp)
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 72,137,76,36,120 ; mov %rcx,0x78(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,139,64,20 ; mov 0x14(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 102,65,15,110,201 ; movd %r9d,%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,41,140,36,176,0,0,0 ; movaps %xmm1,0xb0(%rsp)
- DB 243,15,91,249 ; cvttps2dq %xmm1,%xmm7
- DB 15,40,29,46,154,1,0 ; movaps 0x19a2e(%rip),%xmm3 # 35b30 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 15,41,76,36,32 ; movaps %xmm1,0x20(%rsp)
- DB 102,65,15,110,232 ; movd %r8d,%xmm5
- DB 102,68,15,112,237,0 ; pshufd $0x0,%xmm5,%xmm13
- DB 68,139,64,16 ; mov 0x10(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 102,65,15,110,201 ; movd %r9d,%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,41,76,36,96 ; movaps %xmm1,0x60(%rsp)
- DB 243,15,91,209 ; cvttps2dq %xmm1,%xmm2
- DB 102,15,127,148,36,160,0,0,0 ; movdqa %xmm2,0xa0(%rsp)
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,65,15,56,64,205 ; pmulld %xmm13,%xmm1
- DB 102,15,127,76,36,16 ; movdqa %xmm1,0x10(%rsp)
- DB 102,68,15,56,64,234 ; pmulld %xmm2,%xmm13
- DB 102,65,15,110,240 ; movd %r8d,%xmm6
- DB 102,15,56,64,245 ; pmulld %xmm5,%xmm6
- DB 68,139,64,12 ; mov 0xc(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 102,65,15,110,201 ; movd %r9d,%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 15,91,209 ; cvtdq2ps %xmm1,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 68,139,72,8 ; mov 0x8(%rax),%r9d
- DB 65,255,201 ; dec %r9d
- DB 102,65,15,110,201 ; movd %r9d,%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 68,15,91,225 ; cvtdq2ps %xmm1,%xmm12
- DB 68,15,89,224 ; mulps %xmm0,%xmm12
- DB 102,65,15,111,229 ; movdqa %xmm13,%xmm4
- DB 102,15,127,188,36,144,0,0,0 ; movdqa %xmm7,0x90(%rsp)
- DB 102,15,254,231 ; paddd %xmm7,%xmm4
- DB 102,65,15,110,232 ; movd %r8d,%xmm5
- DB 102,15,56,64,238 ; pmulld %xmm6,%xmm5
- DB 102,68,15,112,246,0 ; pshufd $0x0,%xmm6,%xmm14
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,88,195 ; addps %xmm3,%xmm0
- DB 243,68,15,91,192 ; cvttps2dq %xmm0,%xmm8
- DB 102,69,15,56,64,198 ; pmulld %xmm14,%xmm8
- DB 102,68,15,127,68,36,80 ; movdqa %xmm8,0x50(%rsp)
- DB 243,15,91,194 ; cvttps2dq %xmm2,%xmm0
- DB 102,15,127,4,36 ; movdqa %xmm0,(%rsp)
- DB 102,68,15,56,64,240 ; pmulld %xmm0,%xmm14
- DB 102,65,15,111,206 ; movdqa %xmm14,%xmm1
- DB 102,15,254,204 ; paddd %xmm4,%xmm1
- DB 102,68,15,112,253,0 ; pshufd $0x0,%xmm5,%xmm15
- DB 65,15,88,220 ; addps %xmm12,%xmm3
- DB 243,68,15,91,203 ; cvttps2dq %xmm3,%xmm9
- DB 102,69,15,56,64,207 ; pmulld %xmm15,%xmm9
- DB 243,65,15,91,236 ; cvttps2dq %xmm12,%xmm5
- DB 102,68,15,56,64,253 ; pmulld %xmm5,%xmm15
- DB 102,65,15,111,223 ; movdqa %xmm15,%xmm3
- DB 102,15,254,217 ; paddd %xmm1,%xmm3
- DB 102,68,15,111,29,40,153,1,0 ; movdqa 0x19928(%rip),%xmm11 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,65,15,56,64,219 ; pmulld %xmm11,%xmm3
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,15,250,240 ; psubd %xmm0,%xmm6
- DB 102,73,15,58,22,240,1 ; pextrq $0x1,%xmm6,%r8
- DB 102,73,15,126,241 ; movq %xmm6,%r9
- DB 72,139,0 ; mov (%rax),%rax
- DB 69,137,202 ; mov %r9d,%r10d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 69,137,195 ; mov %r8d,%r11d
- DB 243,66,15,16,60,144 ; movss (%rax,%r10,4),%xmm7
- DB 102,66,15,58,33,60,136,16 ; insertps $0x10,(%rax,%r9,4),%xmm7
- DB 243,66,15,16,52,152 ; movss (%rax,%r11,4),%xmm6
- DB 102,15,58,33,254,32 ; insertps $0x20,%xmm6,%xmm7
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,52,128 ; movss (%rax,%r8,4),%xmm6
- DB 102,15,58,33,254,48 ; insertps $0x30,%xmm6,%xmm7
- DB 102,65,15,126,216 ; movd %xmm3,%r8d
- DB 102,65,15,58,22,217,1 ; pextrd $0x1,%xmm3,%r9d
- DB 102,65,15,58,22,218,2 ; pextrd $0x2,%xmm3,%r10d
- DB 102,65,15,58,22,219,3 ; pextrd $0x3,%xmm3,%r11d
- DB 102,68,15,111,21,80,146,1,0 ; movdqa 0x19250(%rip),%xmm10 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,65,15,254,218 ; paddd %xmm10,%xmm3
- DB 102,73,15,58,22,222,1 ; pextrq $0x1,%xmm3,%r14
- DB 102,72,15,126,219 ; movq %xmm3,%rbx
- DB 65,137,223 ; mov %ebx,%r15d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,244 ; mov %r14d,%r12d
- DB 243,66,15,16,4,184 ; movss (%rax,%r15,4),%xmm0
- DB 102,15,58,33,4,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm0
- DB 243,66,15,16,28,160 ; movss (%rax,%r12,4),%xmm3
- DB 102,15,58,33,195,32 ; insertps $0x20,%xmm3,%xmm0
- DB 73,193,238,32 ; shr $0x20,%r14
- DB 243,66,15,16,28,176 ; movss (%rax,%r14,4),%xmm3
- DB 102,15,58,33,195,48 ; insertps $0x30,%xmm3,%xmm0
- DB 102,68,15,127,76,36,48 ; movdqa %xmm9,0x30(%rsp)
- DB 102,65,15,254,201 ; paddd %xmm9,%xmm1
- DB 102,65,15,56,64,203 ; pmulld %xmm11,%xmm1
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,250,29,94,152,1,0 ; psubd 0x1985e(%rip),%xmm3 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,73,15,58,22,222,1 ; pextrq $0x1,%xmm3,%r14
- DB 102,72,15,126,219 ; movq %xmm3,%rbx
- DB 65,137,223 ; mov %ebx,%r15d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 69,137,244 ; mov %r14d,%r12d
- DB 243,66,15,16,28,184 ; movss (%rax,%r15,4),%xmm3
- DB 102,15,58,33,28,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm3
- DB 243,66,15,16,52,160 ; movss (%rax,%r12,4),%xmm6
- DB 102,15,58,33,222,32 ; insertps $0x20,%xmm6,%xmm3
- DB 73,193,238,32 ; shr $0x20,%r14
- DB 243,66,15,16,52,176 ; movss (%rax,%r14,4),%xmm6
- DB 102,15,58,33,222,48 ; insertps $0x30,%xmm6,%xmm3
- DB 102,65,15,126,205 ; movd %xmm1,%r13d
- DB 102,65,15,58,22,206,1 ; pextrd $0x1,%xmm1,%r14d
- DB 102,65,15,58,22,207,2 ; pextrd $0x2,%xmm1,%r15d
- DB 102,65,15,58,22,204,3 ; pextrd $0x3,%xmm1,%r12d
- DB 102,65,15,254,202 ; paddd %xmm10,%xmm1
- DB 102,72,15,58,22,203,1 ; pextrq $0x1,%xmm1,%rbx
- DB 102,72,15,126,205 ; movq %xmm1,%rbp
- DB 137,233 ; mov %ebp,%ecx
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 243,15,16,12,136 ; movss (%rax,%rcx,4),%xmm1
- DB 102,15,58,33,12,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm1
- DB 137,217 ; mov %ebx,%ecx
- DB 243,15,16,52,136 ; movss (%rax,%rcx,4),%xmm6
- DB 102,15,58,33,206,32 ; insertps $0x20,%xmm6,%xmm1
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 243,15,16,52,152 ; movss (%rax,%rbx,4),%xmm6
- DB 102,15,58,33,206,48 ; insertps $0x30,%xmm6,%xmm1
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 68,15,92,229 ; subps %xmm5,%xmm12
- DB 243,66,15,16,44,128 ; movss (%rax,%r8,4),%xmm5
- DB 102,66,15,58,33,44,136,16 ; insertps $0x10,(%rax,%r9,4),%xmm5
- DB 102,66,15,58,33,44,144,32 ; insertps $0x20,(%rax,%r10,4),%xmm5
- DB 102,66,15,58,33,44,152,48 ; insertps $0x30,(%rax,%r11,4),%xmm5
- DB 243,66,15,16,52,168 ; movss (%rax,%r13,4),%xmm6
- DB 102,66,15,58,33,52,176,16 ; insertps $0x10,(%rax,%r14,4),%xmm6
- DB 102,66,15,58,33,52,184,32 ; insertps $0x20,(%rax,%r15,4),%xmm6
- DB 102,66,15,58,33,52,160,48 ; insertps $0x30,(%rax,%r12,4),%xmm6
- DB 15,92,245 ; subps %xmm5,%xmm6
- DB 65,15,89,244 ; mulps %xmm12,%xmm6
- DB 15,88,245 ; addps %xmm5,%xmm6
- DB 15,92,223 ; subps %xmm7,%xmm3
- DB 65,15,89,220 ; mulps %xmm12,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 65,15,89,204 ; mulps %xmm12,%xmm1
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 102,65,15,254,224 ; paddd %xmm8,%xmm4
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,68,15,127,124,36,64 ; movdqa %xmm15,0x40(%rsp)
- DB 102,65,15,254,199 ; paddd %xmm15,%xmm0
- DB 102,65,15,56,64,195 ; pmulld %xmm11,%xmm0
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,250,45,62,151,1,0 ; psubd 0x1973e(%rip),%xmm5 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,72,15,58,22,233,1 ; pextrq $0x1,%xmm5,%rcx
- DB 102,72,15,126,237 ; movq %xmm5,%rbp
- DB 65,137,232 ; mov %ebp,%r8d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 137,203 ; mov %ecx,%ebx
- DB 243,66,15,16,60,128 ; movss (%rax,%r8,4),%xmm7
- DB 102,15,58,33,60,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm7
- DB 243,15,16,44,152 ; movss (%rax,%rbx,4),%xmm5
- DB 102,15,58,33,253,32 ; insertps $0x20,%xmm5,%xmm7
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,44,136 ; movss (%rax,%rcx,4),%xmm5
- DB 102,15,58,33,253,48 ; insertps $0x30,%xmm5,%xmm7
- DB 102,65,15,126,193 ; movd %xmm0,%r9d
- DB 102,65,15,58,22,195,1 ; pextrd $0x1,%xmm0,%r11d
- DB 102,65,15,58,22,194,2 ; pextrd $0x2,%xmm0,%r10d
- DB 102,65,15,58,22,192,3 ; pextrd $0x3,%xmm0,%r8d
- DB 102,65,15,254,194 ; paddd %xmm10,%xmm0
- DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
- DB 102,72,15,126,195 ; movq %xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 137,205 ; mov %ecx,%ebp
- DB 243,66,15,16,4,176 ; movss (%rax,%r14,4),%xmm0
- DB 102,15,58,33,4,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm0
- DB 243,15,16,44,168 ; movss (%rax,%rbp,4),%xmm5
- DB 102,15,58,33,197,32 ; insertps $0x20,%xmm5,%xmm0
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,44,136 ; movss (%rax,%rcx,4),%xmm5
- DB 102,15,58,33,197,48 ; insertps $0x30,%xmm5,%xmm0
- DB 102,65,15,254,225 ; paddd %xmm9,%xmm4
- DB 102,65,15,56,64,227 ; pmulld %xmm11,%xmm4
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,65,15,250,232 ; psubd %xmm8,%xmm5
- DB 102,72,15,58,22,233,1 ; pextrq $0x1,%xmm5,%rcx
- DB 102,72,15,126,235 ; movq %xmm5,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 137,205 ; mov %ecx,%ebp
- DB 243,70,15,16,4,176 ; movss (%rax,%r14,4),%xmm8
- DB 102,68,15,58,33,4,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm8
- DB 243,15,16,44,168 ; movss (%rax,%rbp,4),%xmm5
- DB 102,68,15,58,33,197,32 ; insertps $0x20,%xmm5,%xmm8
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,44,136 ; movss (%rax,%rcx,4),%xmm5
- DB 102,68,15,58,33,197,48 ; insertps $0x30,%xmm5,%xmm8
- DB 102,65,15,126,231 ; movd %xmm4,%r15d
- DB 102,65,15,58,22,228,1 ; pextrd $0x1,%xmm4,%r12d
- DB 102,65,15,58,22,229,2 ; pextrd $0x2,%xmm4,%r13d
- DB 102,65,15,58,22,230,3 ; pextrd $0x3,%xmm4,%r14d
- DB 102,65,15,254,226 ; paddd %xmm10,%xmm4
- DB 102,72,15,58,22,225,1 ; pextrq $0x1,%xmm4,%rcx
- DB 102,72,15,126,227 ; movq %xmm4,%rbx
- DB 137,221 ; mov %ebx,%ebp
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 243,68,15,16,12,168 ; movss (%rax,%rbp,4),%xmm9
- DB 102,68,15,58,33,12,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm9
- DB 137,203 ; mov %ecx,%ebx
- DB 243,15,16,36,152 ; movss (%rax,%rbx,4),%xmm4
- DB 102,68,15,58,33,204,32 ; insertps $0x20,%xmm4,%xmm9
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,36,136 ; movss (%rax,%rcx,4),%xmm4
- DB 102,68,15,58,33,204,48 ; insertps $0x30,%xmm4,%xmm9
- DB 243,66,15,16,36,136 ; movss (%rax,%r9,4),%xmm4
- DB 102,66,15,58,33,36,152,16 ; insertps $0x10,(%rax,%r11,4),%xmm4
- DB 102,66,15,58,33,36,144,32 ; insertps $0x20,(%rax,%r10,4),%xmm4
- DB 102,66,15,58,33,36,128,48 ; insertps $0x30,(%rax,%r8,4),%xmm4
- DB 243,66,15,16,44,184 ; movss (%rax,%r15,4),%xmm5
- DB 102,66,15,58,33,44,160,16 ; insertps $0x10,(%rax,%r12,4),%xmm5
- DB 102,66,15,58,33,44,168,32 ; insertps $0x20,(%rax,%r13,4),%xmm5
- DB 102,66,15,58,33,44,176,48 ; insertps $0x30,(%rax,%r14,4),%xmm5
- DB 15,92,236 ; subps %xmm4,%xmm5
- DB 65,15,89,236 ; mulps %xmm12,%xmm5
- DB 15,88,236 ; addps %xmm4,%xmm5
- DB 68,15,92,199 ; subps %xmm7,%xmm8
- DB 69,15,89,196 ; mulps %xmm12,%xmm8
- DB 68,15,88,199 ; addps %xmm7,%xmm8
- DB 68,15,92,200 ; subps %xmm0,%xmm9
- DB 69,15,89,204 ; mulps %xmm12,%xmm9
- DB 68,15,88,200 ; addps %xmm0,%xmm9
- DB 15,91,4,36 ; cvtdq2ps (%rsp),%xmm0
- DB 15,92,208 ; subps %xmm0,%xmm2
- DB 15,41,20,36 ; movaps %xmm2,(%rsp)
- DB 15,92,238 ; subps %xmm6,%xmm5
- DB 15,89,234 ; mulps %xmm2,%xmm5
- DB 15,88,238 ; addps %xmm6,%xmm5
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 68,15,89,194 ; mulps %xmm2,%xmm8
- DB 68,15,88,195 ; addps %xmm3,%xmm8
- DB 68,15,92,201 ; subps %xmm1,%xmm9
- DB 68,15,89,202 ; mulps %xmm2,%xmm9
- DB 68,15,88,201 ; addps %xmm1,%xmm9
- DB 102,15,111,68,36,16 ; movdqa 0x10(%rsp),%xmm0
- DB 102,15,254,132,36,144,0,0,0 ; paddd 0x90(%rsp),%xmm0
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,65,15,254,206 ; paddd %xmm14,%xmm1
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,65,15,254,223 ; paddd %xmm15,%xmm3
- DB 102,65,15,111,211 ; movdqa %xmm11,%xmm2
- DB 102,15,56,64,218 ; pmulld %xmm2,%xmm3
- DB 102,15,126,217 ; movd %xmm3,%ecx
- DB 102,15,58,22,221,1 ; pextrd $0x1,%xmm3,%ebp
- DB 102,65,15,58,22,216,2 ; pextrd $0x2,%xmm3,%r8d
- DB 102,15,58,22,219,3 ; pextrd $0x3,%xmm3,%ebx
- DB 243,68,15,16,20,136 ; movss (%rax,%rcx,4),%xmm10
- DB 102,68,15,58,33,20,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm10
- DB 102,70,15,58,33,20,128,32 ; insertps $0x20,(%rax,%r8,4),%xmm10
- DB 243,15,16,36,152 ; movss (%rax,%rbx,4),%xmm4
- DB 102,68,15,58,33,212,48 ; insertps $0x30,%xmm4,%xmm10
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,15,118,246 ; pcmpeqd %xmm6,%xmm6
- DB 102,15,250,230 ; psubd %xmm6,%xmm4
- DB 102,72,15,58,22,225,1 ; pextrq $0x1,%xmm4,%rcx
- DB 102,72,15,126,229 ; movq %xmm4,%rbp
- DB 65,137,232 ; mov %ebp,%r8d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 137,203 ; mov %ecx,%ebx
- DB 243,70,15,16,28,128 ; movss (%rax,%r8,4),%xmm11
- DB 102,68,15,58,33,28,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm11
- DB 243,15,16,36,152 ; movss (%rax,%rbx,4),%xmm4
- DB 102,68,15,58,33,220,32 ; insertps $0x20,%xmm4,%xmm11
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,36,136 ; movss (%rax,%rcx,4),%xmm4
- DB 102,68,15,58,33,220,48 ; insertps $0x30,%xmm4,%xmm11
- DB 102,15,111,61,65,142,1,0 ; movdqa 0x18e41(%rip),%xmm7 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,15,254,223 ; paddd %xmm7,%xmm3
- DB 102,72,15,58,22,217,1 ; pextrq $0x1,%xmm3,%rcx
- DB 102,72,15,126,221 ; movq %xmm3,%rbp
- DB 65,137,232 ; mov %ebp,%r8d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 137,203 ; mov %ecx,%ebx
- DB 243,66,15,16,36,128 ; movss (%rax,%r8,4),%xmm4
- DB 102,15,58,33,36,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm4
- DB 243,15,16,28,152 ; movss (%rax,%rbx,4),%xmm3
- DB 102,15,58,33,227,32 ; insertps $0x20,%xmm3,%xmm4
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,28,136 ; movss (%rax,%rcx,4),%xmm3
- DB 102,15,58,33,227,48 ; insertps $0x30,%xmm3,%xmm4
- DB 102,68,15,111,124,36,48 ; movdqa 0x30(%rsp),%xmm15
- DB 102,65,15,254,207 ; paddd %xmm15,%xmm1
- DB 102,15,56,64,202 ; pmulld %xmm2,%xmm1
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,250,222 ; psubd %xmm6,%xmm3
- DB 102,72,15,58,22,217,1 ; pextrq $0x1,%xmm3,%rcx
- DB 102,72,15,126,221 ; movq %xmm3,%rbp
- DB 65,137,232 ; mov %ebp,%r8d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 137,203 ; mov %ecx,%ebx
- DB 243,66,15,16,52,128 ; movss (%rax,%r8,4),%xmm6
- DB 102,15,58,33,52,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm6
- DB 243,15,16,28,152 ; movss (%rax,%rbx,4),%xmm3
- DB 102,15,58,33,243,32 ; insertps $0x20,%xmm3,%xmm6
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,28,136 ; movss (%rax,%rcx,4),%xmm3
- DB 102,15,58,33,243,48 ; insertps $0x30,%xmm3,%xmm6
- DB 102,65,15,126,201 ; movd %xmm1,%r9d
- DB 102,65,15,58,22,203,1 ; pextrd $0x1,%xmm1,%r11d
- DB 102,65,15,58,22,202,2 ; pextrd $0x2,%xmm1,%r10d
- DB 102,65,15,58,22,200,3 ; pextrd $0x3,%xmm1,%r8d
- DB 102,15,254,207 ; paddd %xmm7,%xmm1
- DB 102,72,15,58,22,201,1 ; pextrq $0x1,%xmm1,%rcx
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 137,205 ; mov %ecx,%ebp
- DB 243,66,15,16,60,176 ; movss (%rax,%r14,4),%xmm7
- DB 102,15,58,33,60,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm7
- DB 243,15,16,12,168 ; movss (%rax,%rbp,4),%xmm1
- DB 102,15,58,33,249,32 ; insertps $0x20,%xmm1,%xmm7
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,12,136 ; movss (%rax,%rcx,4),%xmm1
- DB 102,15,58,33,249,48 ; insertps $0x30,%xmm1,%xmm7
- DB 243,66,15,16,28,136 ; movss (%rax,%r9,4),%xmm3
- DB 102,66,15,58,33,28,152,16 ; insertps $0x10,(%rax,%r11,4),%xmm3
- DB 102,66,15,58,33,28,144,32 ; insertps $0x20,(%rax,%r10,4),%xmm3
- DB 102,66,15,58,33,28,128,48 ; insertps $0x30,(%rax,%r8,4),%xmm3
- DB 65,15,92,218 ; subps %xmm10,%xmm3
- DB 68,15,41,164,36,128,0,0,0 ; movaps %xmm12,0x80(%rsp)
- DB 65,15,89,220 ; mulps %xmm12,%xmm3
- DB 65,15,88,218 ; addps %xmm10,%xmm3
- DB 65,15,92,243 ; subps %xmm11,%xmm6
- DB 65,15,89,244 ; mulps %xmm12,%xmm6
- DB 65,15,88,243 ; addps %xmm11,%xmm6
- DB 15,92,252 ; subps %xmm4,%xmm7
- DB 65,15,89,252 ; mulps %xmm12,%xmm7
- DB 15,88,252 ; addps %xmm4,%xmm7
- DB 102,15,254,68,36,80 ; paddd 0x50(%rsp),%xmm0
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,254,76,36,64 ; paddd 0x40(%rsp),%xmm1
- DB 102,68,15,111,218 ; movdqa %xmm2,%xmm11
- DB 102,65,15,56,64,203 ; pmulld %xmm11,%xmm1
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,69,15,118,228 ; pcmpeqd %xmm12,%xmm12
- DB 102,65,15,250,228 ; psubd %xmm12,%xmm4
- DB 102,72,15,58,22,225,1 ; pextrq $0x1,%xmm4,%rcx
- DB 102,72,15,126,229 ; movq %xmm4,%rbp
- DB 65,137,232 ; mov %ebp,%r8d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 137,203 ; mov %ecx,%ebx
- DB 243,66,15,16,36,128 ; movss (%rax,%r8,4),%xmm4
- DB 102,15,58,33,36,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm4
- DB 243,15,16,20,152 ; movss (%rax,%rbx,4),%xmm2
- DB 102,15,58,33,226,32 ; insertps $0x20,%xmm2,%xmm4
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,20,136 ; movss (%rax,%rcx,4),%xmm2
- DB 102,15,58,33,226,48 ; insertps $0x30,%xmm2,%xmm4
- DB 102,65,15,126,200 ; movd %xmm1,%r8d
- DB 102,65,15,58,22,201,1 ; pextrd $0x1,%xmm1,%r9d
- DB 102,65,15,58,22,202,2 ; pextrd $0x2,%xmm1,%r10d
- DB 102,65,15,58,22,203,3 ; pextrd $0x3,%xmm1,%r11d
- DB 102,68,15,111,21,129,140,1,0 ; movdqa 0x18c81(%rip),%xmm10 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,65,15,254,202 ; paddd %xmm10,%xmm1
- DB 102,72,15,58,22,201,1 ; pextrq $0x1,%xmm1,%rcx
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 137,205 ; mov %ecx,%ebp
- DB 243,66,15,16,12,176 ; movss (%rax,%r14,4),%xmm1
- DB 102,15,58,33,12,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm1
- DB 243,15,16,20,168 ; movss (%rax,%rbp,4),%xmm2
- DB 102,15,58,33,202,32 ; insertps $0x20,%xmm2,%xmm1
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,20,136 ; movss (%rax,%rcx,4),%xmm2
- DB 102,15,58,33,202,48 ; insertps $0x30,%xmm2,%xmm1
- DB 102,65,15,254,199 ; paddd %xmm15,%xmm0
- DB 102,65,15,56,64,195 ; pmulld %xmm11,%xmm0
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,65,15,250,212 ; psubd %xmm12,%xmm2
- DB 102,72,15,58,22,209,1 ; pextrq $0x1,%xmm2,%rcx
- DB 102,72,15,126,211 ; movq %xmm2,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 137,205 ; mov %ecx,%ebp
- DB 243,70,15,16,60,176 ; movss (%rax,%r14,4),%xmm15
- DB 102,68,15,58,33,60,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm15
- DB 243,15,16,20,168 ; movss (%rax,%rbp,4),%xmm2
- DB 102,68,15,58,33,250,32 ; insertps $0x20,%xmm2,%xmm15
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,20,136 ; movss (%rax,%rcx,4),%xmm2
- DB 102,68,15,58,33,250,48 ; insertps $0x30,%xmm2,%xmm15
- DB 102,65,15,126,199 ; movd %xmm0,%r15d
- DB 102,65,15,58,22,196,1 ; pextrd $0x1,%xmm0,%r12d
- DB 102,65,15,58,22,197,2 ; pextrd $0x2,%xmm0,%r13d
- DB 102,65,15,58,22,198,3 ; pextrd $0x3,%xmm0,%r14d
- DB 102,65,15,254,194 ; paddd %xmm10,%xmm0
- DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
- DB 102,72,15,126,195 ; movq %xmm0,%rbx
- DB 137,221 ; mov %ebx,%ebp
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 243,68,15,16,28,168 ; movss (%rax,%rbp,4),%xmm11
- DB 102,68,15,58,33,28,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm11
- DB 137,203 ; mov %ecx,%ebx
- DB 243,15,16,4,152 ; movss (%rax,%rbx,4),%xmm0
- DB 102,68,15,58,33,216,32 ; insertps $0x20,%xmm0,%xmm11
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,4,136 ; movss (%rax,%rcx,4),%xmm0
- DB 102,68,15,58,33,216,48 ; insertps $0x30,%xmm0,%xmm11
- DB 243,66,15,16,4,128 ; movss (%rax,%r8,4),%xmm0
- DB 102,66,15,58,33,4,136,16 ; insertps $0x10,(%rax,%r9,4),%xmm0
- DB 102,66,15,58,33,4,144,32 ; insertps $0x20,(%rax,%r10,4),%xmm0
- DB 102,66,15,58,33,4,152,48 ; insertps $0x30,(%rax,%r11,4),%xmm0
- DB 243,70,15,16,20,184 ; movss (%rax,%r15,4),%xmm10
- DB 102,70,15,58,33,20,160,16 ; insertps $0x10,(%rax,%r12,4),%xmm10
- DB 102,70,15,58,33,20,168,32 ; insertps $0x20,(%rax,%r13,4),%xmm10
- DB 102,70,15,58,33,20,176,48 ; insertps $0x30,(%rax,%r14,4),%xmm10
- DB 68,15,92,208 ; subps %xmm0,%xmm10
- DB 68,15,40,164,36,128,0,0,0 ; movaps 0x80(%rsp),%xmm12
- DB 69,15,89,212 ; mulps %xmm12,%xmm10
- DB 68,15,88,208 ; addps %xmm0,%xmm10
- DB 68,15,92,252 ; subps %xmm4,%xmm15
- DB 69,15,89,252 ; mulps %xmm12,%xmm15
- DB 68,15,88,252 ; addps %xmm4,%xmm15
- DB 68,15,92,217 ; subps %xmm1,%xmm11
- DB 69,15,89,220 ; mulps %xmm12,%xmm11
- DB 68,15,88,217 ; addps %xmm1,%xmm11
- DB 68,15,92,211 ; subps %xmm3,%xmm10
- DB 15,40,4,36 ; movaps (%rsp),%xmm0
- DB 68,15,89,208 ; mulps %xmm0,%xmm10
- DB 68,15,88,211 ; addps %xmm3,%xmm10
- DB 68,15,92,254 ; subps %xmm6,%xmm15
- DB 68,15,89,248 ; mulps %xmm0,%xmm15
- DB 68,15,88,254 ; addps %xmm6,%xmm15
- DB 68,15,92,223 ; subps %xmm7,%xmm11
- DB 68,15,89,216 ; mulps %xmm0,%xmm11
- DB 68,15,88,223 ; addps %xmm7,%xmm11
- DB 15,91,132,36,160,0,0,0 ; cvtdq2ps 0xa0(%rsp),%xmm0
- DB 15,40,76,36,96 ; movaps 0x60(%rsp),%xmm1
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,41,76,36,96 ; movaps %xmm1,0x60(%rsp)
- DB 68,15,92,213 ; subps %xmm5,%xmm10
- DB 68,15,89,209 ; mulps %xmm1,%xmm10
- DB 68,15,88,213 ; addps %xmm5,%xmm10
- DB 69,15,92,248 ; subps %xmm8,%xmm15
- DB 68,15,89,249 ; mulps %xmm1,%xmm15
- DB 69,15,88,248 ; addps %xmm8,%xmm15
- DB 69,15,92,217 ; subps %xmm9,%xmm11
- DB 68,15,89,217 ; mulps %xmm1,%xmm11
- DB 69,15,88,217 ; addps %xmm9,%xmm11
- DB 243,15,91,68,36,32 ; cvttps2dq 0x20(%rsp),%xmm0
- DB 102,15,127,68,36,32 ; movdqa %xmm0,0x20(%rsp)
- DB 102,68,15,254,232 ; paddd %xmm0,%xmm13
- DB 102,65,15,111,222 ; movdqa %xmm14,%xmm3
- DB 102,65,15,254,221 ; paddd %xmm13,%xmm3
- DB 102,15,111,124,36,64 ; movdqa 0x40(%rsp),%xmm7
- DB 102,15,111,199 ; movdqa %xmm7,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 102,15,111,21,245,144,1,0 ; movdqa 0x190f5(%rip),%xmm2 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,15,56,64,194 ; pmulld %xmm2,%xmm0
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,65,15,250,200 ; psubd %xmm8,%xmm1
- DB 102,72,15,58,22,201,1 ; pextrq $0x1,%xmm1,%rcx
- DB 102,72,15,126,205 ; movq %xmm1,%rbp
- DB 137,235 ; mov %ebp,%ebx
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 65,137,200 ; mov %ecx,%r8d
- DB 243,15,16,44,152 ; movss (%rax,%rbx,4),%xmm5
- DB 102,15,58,33,44,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm5
- DB 243,66,15,16,12,128 ; movss (%rax,%r8,4),%xmm1
- DB 102,15,58,33,233,32 ; insertps $0x20,%xmm1,%xmm5
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,12,136 ; movss (%rax,%rcx,4),%xmm1
- DB 102,15,58,33,233,48 ; insertps $0x30,%xmm1,%xmm5
- DB 102,65,15,126,192 ; movd %xmm0,%r8d
- DB 102,65,15,58,22,193,1 ; pextrd $0x1,%xmm0,%r9d
- DB 102,65,15,58,22,194,2 ; pextrd $0x2,%xmm0,%r10d
- DB 102,65,15,58,22,195,3 ; pextrd $0x3,%xmm0,%r11d
- DB 102,15,111,37,36,138,1,0 ; movdqa 0x18a24(%rip),%xmm4 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,15,254,196 ; paddd %xmm4,%xmm0
- DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
- DB 102,72,15,126,195 ; movq %xmm0,%rbx
- DB 137,221 ; mov %ebx,%ebp
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 65,137,206 ; mov %ecx,%r14d
- DB 243,15,16,52,168 ; movss (%rax,%rbp,4),%xmm6
- DB 102,15,58,33,52,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm6
- DB 243,66,15,16,4,176 ; movss (%rax,%r14,4),%xmm0
- DB 102,15,58,33,240,32 ; insertps $0x20,%xmm0,%xmm6
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,4,136 ; movss (%rax,%rcx,4),%xmm0
- DB 102,15,58,33,240,48 ; insertps $0x30,%xmm0,%xmm6
- DB 102,68,15,111,76,36,48 ; movdqa 0x30(%rsp),%xmm9
- DB 102,65,15,254,217 ; paddd %xmm9,%xmm3
- DB 102,15,56,64,218 ; pmulld %xmm2,%xmm3
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,65,15,250,192 ; psubd %xmm8,%xmm0
- DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
- DB 102,72,15,126,195 ; movq %xmm0,%rbx
- DB 137,221 ; mov %ebx,%ebp
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 65,137,206 ; mov %ecx,%r14d
- DB 243,15,16,4,168 ; movss (%rax,%rbp,4),%xmm0
- DB 102,15,58,33,4,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm0
- DB 243,66,15,16,12,176 ; movss (%rax,%r14,4),%xmm1
- DB 102,15,58,33,193,32 ; insertps $0x20,%xmm1,%xmm0
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,12,136 ; movss (%rax,%rcx,4),%xmm1
- DB 102,15,58,33,193,48 ; insertps $0x30,%xmm1,%xmm0
- DB 102,65,15,126,221 ; movd %xmm3,%r13d
- DB 102,65,15,58,22,223,1 ; pextrd $0x1,%xmm3,%r15d
- DB 102,65,15,58,22,220,2 ; pextrd $0x2,%xmm3,%r12d
- DB 102,65,15,58,22,222,3 ; pextrd $0x3,%xmm3,%r14d
- DB 102,15,254,220 ; paddd %xmm4,%xmm3
- DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
- DB 102,72,15,58,22,219,1 ; pextrq $0x1,%xmm3,%rbx
- DB 102,72,15,126,221 ; movq %xmm3,%rbp
- DB 137,233 ; mov %ebp,%ecx
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 243,15,16,28,136 ; movss (%rax,%rcx,4),%xmm3
- DB 102,15,58,33,28,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm3
- DB 137,217 ; mov %ebx,%ecx
- DB 243,15,16,12,136 ; movss (%rax,%rcx,4),%xmm1
- DB 102,15,58,33,217,32 ; insertps $0x20,%xmm1,%xmm3
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 243,15,16,12,152 ; movss (%rax,%rbx,4),%xmm1
- DB 102,15,58,33,217,48 ; insertps $0x30,%xmm1,%xmm3
- DB 243,66,15,16,12,128 ; movss (%rax,%r8,4),%xmm1
- DB 102,66,15,58,33,12,136,16 ; insertps $0x10,(%rax,%r9,4),%xmm1
- DB 102,66,15,58,33,12,144,32 ; insertps $0x20,(%rax,%r10,4),%xmm1
- DB 102,66,15,58,33,12,152,48 ; insertps $0x30,(%rax,%r11,4),%xmm1
- DB 243,66,15,16,36,168 ; movss (%rax,%r13,4),%xmm4
- DB 102,66,15,58,33,36,184,16 ; insertps $0x10,(%rax,%r15,4),%xmm4
- DB 102,66,15,58,33,36,160,32 ; insertps $0x20,(%rax,%r12,4),%xmm4
- DB 102,66,15,58,33,36,176,48 ; insertps $0x30,(%rax,%r14,4),%xmm4
- DB 15,92,225 ; subps %xmm1,%xmm4
- DB 65,15,89,228 ; mulps %xmm12,%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 65,15,89,196 ; mulps %xmm12,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,92,222 ; subps %xmm6,%xmm3
- DB 65,15,89,220 ; mulps %xmm12,%xmm3
- DB 15,88,222 ; addps %xmm6,%xmm3
- DB 102,68,15,254,108,36,80 ; paddd 0x50(%rsp),%xmm13
- DB 102,65,15,111,205 ; movdqa %xmm13,%xmm1
- DB 102,15,254,207 ; paddd %xmm7,%xmm1
- DB 102,68,15,111,226 ; movdqa %xmm2,%xmm12
- DB 102,65,15,56,64,204 ; pmulld %xmm12,%xmm1
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,250,21,32,143,1,0 ; psubd 0x18f20(%rip),%xmm2 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,72,15,58,22,209,1 ; pextrq $0x1,%xmm2,%rcx
- DB 102,72,15,126,213 ; movq %xmm2,%rbp
- DB 137,235 ; mov %ebp,%ebx
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 65,137,200 ; mov %ecx,%r8d
- DB 243,15,16,44,152 ; movss (%rax,%rbx,4),%xmm5
- DB 102,15,58,33,44,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm5
- DB 243,66,15,16,20,128 ; movss (%rax,%r8,4),%xmm2
- DB 102,15,58,33,234,32 ; insertps $0x20,%xmm2,%xmm5
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,20,136 ; movss (%rax,%rcx,4),%xmm2
- DB 102,15,58,33,234,48 ; insertps $0x30,%xmm2,%xmm5
- DB 102,65,15,126,200 ; movd %xmm1,%r8d
- DB 102,65,15,58,22,201,1 ; pextrd $0x1,%xmm1,%r9d
- DB 102,65,15,58,22,202,2 ; pextrd $0x2,%xmm1,%r10d
- DB 102,65,15,58,22,203,3 ; pextrd $0x3,%xmm1,%r11d
- DB 102,65,15,254,200 ; paddd %xmm8,%xmm1
- DB 102,72,15,58,22,201,1 ; pextrq $0x1,%xmm1,%rcx
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 137,221 ; mov %ebx,%ebp
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 65,137,206 ; mov %ecx,%r14d
- DB 243,15,16,52,168 ; movss (%rax,%rbp,4),%xmm6
- DB 102,15,58,33,52,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm6
- DB 243,66,15,16,12,176 ; movss (%rax,%r14,4),%xmm1
- DB 102,15,58,33,241,32 ; insertps $0x20,%xmm1,%xmm6
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,12,136 ; movss (%rax,%rcx,4),%xmm1
- DB 102,15,58,33,241,48 ; insertps $0x30,%xmm1,%xmm6
- DB 102,69,15,254,233 ; paddd %xmm9,%xmm13
- DB 102,65,15,111,249 ; movdqa %xmm9,%xmm7
- DB 102,69,15,56,64,236 ; pmulld %xmm12,%xmm13
- DB 102,65,15,111,205 ; movdqa %xmm13,%xmm1
- DB 102,15,250,13,108,142,1,0 ; psubd 0x18e6c(%rip),%xmm1 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,72,15,58,22,201,1 ; pextrq $0x1,%xmm1,%rcx
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 137,221 ; mov %ebx,%ebp
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 65,137,206 ; mov %ecx,%r14d
- DB 243,68,15,16,12,168 ; movss (%rax,%rbp,4),%xmm9
- DB 102,68,15,58,33,12,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm9
- DB 243,66,15,16,12,176 ; movss (%rax,%r14,4),%xmm1
- DB 102,68,15,58,33,201,32 ; insertps $0x20,%xmm1,%xmm9
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,12,136 ; movss (%rax,%rcx,4),%xmm1
- DB 102,68,15,58,33,201,48 ; insertps $0x30,%xmm1,%xmm9
- DB 102,69,15,126,237 ; movd %xmm13,%r13d
- DB 102,69,15,58,22,239,1 ; pextrd $0x1,%xmm13,%r15d
- DB 102,69,15,58,22,236,2 ; pextrd $0x2,%xmm13,%r12d
- DB 102,69,15,58,22,238,3 ; pextrd $0x3,%xmm13,%r14d
- DB 102,69,15,254,232 ; paddd %xmm8,%xmm13
- DB 102,76,15,58,22,235,1 ; pextrq $0x1,%xmm13,%rbx
- DB 102,76,15,126,237 ; movq %xmm13,%rbp
- DB 137,233 ; mov %ebp,%ecx
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 243,68,15,16,4,136 ; movss (%rax,%rcx,4),%xmm8
- DB 102,68,15,58,33,4,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm8
- DB 137,217 ; mov %ebx,%ecx
- DB 243,15,16,12,136 ; movss (%rax,%rcx,4),%xmm1
- DB 102,68,15,58,33,193,32 ; insertps $0x20,%xmm1,%xmm8
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 243,15,16,12,152 ; movss (%rax,%rbx,4),%xmm1
- DB 102,68,15,58,33,193,48 ; insertps $0x30,%xmm1,%xmm8
- DB 243,66,15,16,12,128 ; movss (%rax,%r8,4),%xmm1
- DB 102,66,15,58,33,12,136,16 ; insertps $0x10,(%rax,%r9,4),%xmm1
- DB 102,66,15,58,33,12,144,32 ; insertps $0x20,(%rax,%r10,4),%xmm1
- DB 102,66,15,58,33,12,152,48 ; insertps $0x30,(%rax,%r11,4),%xmm1
- DB 243,70,15,16,36,168 ; movss (%rax,%r13,4),%xmm12
- DB 102,70,15,58,33,36,184,16 ; insertps $0x10,(%rax,%r15,4),%xmm12
- DB 102,70,15,58,33,36,160,32 ; insertps $0x20,(%rax,%r12,4),%xmm12
- DB 102,70,15,58,33,36,176,48 ; insertps $0x30,(%rax,%r14,4),%xmm12
- DB 68,15,92,225 ; subps %xmm1,%xmm12
- DB 68,15,40,172,36,128,0,0,0 ; movaps 0x80(%rsp),%xmm13
- DB 69,15,89,229 ; mulps %xmm13,%xmm12
- DB 68,15,88,225 ; addps %xmm1,%xmm12
- DB 68,15,92,205 ; subps %xmm5,%xmm9
- DB 69,15,89,205 ; mulps %xmm13,%xmm9
- DB 68,15,88,205 ; addps %xmm5,%xmm9
- DB 68,15,92,198 ; subps %xmm6,%xmm8
- DB 69,15,89,197 ; mulps %xmm13,%xmm8
- DB 68,15,88,198 ; addps %xmm6,%xmm8
- DB 68,15,92,228 ; subps %xmm4,%xmm12
- DB 15,40,12,36 ; movaps (%rsp),%xmm1
- DB 68,15,89,225 ; mulps %xmm1,%xmm12
- DB 68,15,88,228 ; addps %xmm4,%xmm12
- DB 68,15,92,200 ; subps %xmm0,%xmm9
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 68,15,88,200 ; addps %xmm0,%xmm9
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 68,15,89,193 ; mulps %xmm1,%xmm8
- DB 68,15,88,195 ; addps %xmm3,%xmm8
- DB 102,15,111,68,36,16 ; movdqa 0x10(%rsp),%xmm0
- DB 102,15,254,68,36,32 ; paddd 0x20(%rsp),%xmm0
- DB 102,15,127,68,36,16 ; movdqa %xmm0,0x10(%rsp)
- DB 102,68,15,254,240 ; paddd %xmm0,%xmm14
- DB 102,65,15,111,206 ; movdqa %xmm14,%xmm1
- DB 102,15,111,108,36,64 ; movdqa 0x40(%rsp),%xmm5
- DB 102,15,254,205 ; paddd %xmm5,%xmm1
- DB 102,15,111,37,0,141,1,0 ; movdqa 0x18d00(%rip),%xmm4 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,15,56,64,204 ; pmulld %xmm4,%xmm1
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,118,246 ; pcmpeqd %xmm6,%xmm6
- DB 102,15,250,198 ; psubd %xmm6,%xmm0
- DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
- DB 102,72,15,126,197 ; movq %xmm0,%rbp
- DB 137,235 ; mov %ebp,%ebx
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 65,137,200 ; mov %ecx,%r8d
- DB 243,15,16,4,152 ; movss (%rax,%rbx,4),%xmm0
- DB 102,15,58,33,4,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm0
- DB 243,66,15,16,20,128 ; movss (%rax,%r8,4),%xmm2
- DB 102,15,58,33,194,32 ; insertps $0x20,%xmm2,%xmm0
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,20,136 ; movss (%rax,%rcx,4),%xmm2
- DB 102,15,58,33,194,48 ; insertps $0x30,%xmm2,%xmm0
- DB 102,65,15,126,200 ; movd %xmm1,%r8d
- DB 102,65,15,58,22,201,1 ; pextrd $0x1,%xmm1,%r9d
- DB 102,65,15,58,22,202,2 ; pextrd $0x2,%xmm1,%r10d
- DB 102,65,15,58,22,203,3 ; pextrd $0x3,%xmm1,%r11d
- DB 102,15,111,29,49,134,1,0 ; movdqa 0x18631(%rip),%xmm3 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,15,254,203 ; paddd %xmm3,%xmm1
- DB 102,72,15,58,22,201,1 ; pextrq $0x1,%xmm1,%rcx
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 137,221 ; mov %ebx,%ebp
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 65,137,206 ; mov %ecx,%r14d
- DB 243,15,16,12,168 ; movss (%rax,%rbp,4),%xmm1
- DB 102,15,58,33,12,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm1
- DB 243,66,15,16,20,176 ; movss (%rax,%r14,4),%xmm2
- DB 102,15,58,33,202,32 ; insertps $0x20,%xmm2,%xmm1
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,20,136 ; movss (%rax,%rcx,4),%xmm2
- DB 102,15,58,33,202,48 ; insertps $0x30,%xmm2,%xmm1
- DB 102,68,15,254,247 ; paddd %xmm7,%xmm14
- DB 102,68,15,56,64,244 ; pmulld %xmm4,%xmm14
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,65,15,111,214 ; movdqa %xmm14,%xmm2
- DB 102,15,250,214 ; psubd %xmm6,%xmm2
- DB 102,72,15,58,22,209,1 ; pextrq $0x1,%xmm2,%rcx
- DB 102,72,15,126,211 ; movq %xmm2,%rbx
- DB 137,221 ; mov %ebx,%ebp
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 65,137,206 ; mov %ecx,%r14d
- DB 243,15,16,52,168 ; movss (%rax,%rbp,4),%xmm6
- DB 102,15,58,33,52,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm6
- DB 243,66,15,16,20,176 ; movss (%rax,%r14,4),%xmm2
- DB 102,15,58,33,242,32 ; insertps $0x20,%xmm2,%xmm6
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,20,136 ; movss (%rax,%rcx,4),%xmm2
- DB 102,15,58,33,242,48 ; insertps $0x30,%xmm2,%xmm6
- DB 102,69,15,126,245 ; movd %xmm14,%r13d
- DB 102,69,15,58,22,247,1 ; pextrd $0x1,%xmm14,%r15d
- DB 102,69,15,58,22,244,2 ; pextrd $0x2,%xmm14,%r12d
- DB 102,69,15,58,22,246,3 ; pextrd $0x3,%xmm14,%r14d
- DB 102,68,15,254,243 ; paddd %xmm3,%xmm14
- DB 102,76,15,58,22,243,1 ; pextrq $0x1,%xmm14,%rbx
- DB 102,76,15,126,245 ; movq %xmm14,%rbp
- DB 137,233 ; mov %ebp,%ecx
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 243,15,16,36,136 ; movss (%rax,%rcx,4),%xmm4
- DB 102,15,58,33,36,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm4
- DB 137,217 ; mov %ebx,%ecx
- DB 243,15,16,20,136 ; movss (%rax,%rcx,4),%xmm2
- DB 102,15,58,33,226,32 ; insertps $0x20,%xmm2,%xmm4
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 243,15,16,20,152 ; movss (%rax,%rbx,4),%xmm2
- DB 102,15,58,33,226,48 ; insertps $0x30,%xmm2,%xmm4
- DB 243,66,15,16,20,128 ; movss (%rax,%r8,4),%xmm2
- DB 102,66,15,58,33,20,136,16 ; insertps $0x10,(%rax,%r9,4),%xmm2
- DB 102,66,15,58,33,20,144,32 ; insertps $0x20,(%rax,%r10,4),%xmm2
- DB 102,66,15,58,33,20,152,48 ; insertps $0x30,(%rax,%r11,4),%xmm2
- DB 243,66,15,16,28,168 ; movss (%rax,%r13,4),%xmm3
- DB 102,66,15,58,33,28,184,16 ; insertps $0x10,(%rax,%r15,4),%xmm3
- DB 102,66,15,58,33,28,160,32 ; insertps $0x20,(%rax,%r12,4),%xmm3
- DB 102,66,15,58,33,28,176,48 ; insertps $0x30,(%rax,%r14,4),%xmm3
- DB 15,92,218 ; subps %xmm2,%xmm3
- DB 65,15,89,221 ; mulps %xmm13,%xmm3
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 15,92,240 ; subps %xmm0,%xmm6
- DB 65,15,89,245 ; mulps %xmm13,%xmm6
- DB 15,88,240 ; addps %xmm0,%xmm6
- DB 15,92,225 ; subps %xmm1,%xmm4
- DB 65,15,89,229 ; mulps %xmm13,%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 102,15,111,68,36,16 ; movdqa 0x10(%rsp),%xmm0
- DB 102,15,254,68,36,80 ; paddd 0x50(%rsp),%xmm0
- DB 102,15,254,232 ; paddd %xmm0,%xmm5
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,56,64,239 ; pmulld %xmm7,%xmm5
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,250,5,49,139,1,0 ; psubd 0x18b31(%rip),%xmm0 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
- DB 102,72,15,126,197 ; movq %xmm0,%rbp
- DB 137,235 ; mov %ebp,%ebx
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 65,137,200 ; mov %ecx,%r8d
- DB 243,15,16,44,152 ; movss (%rax,%rbx,4),%xmm5
- DB 102,15,58,33,44,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm5
- DB 243,66,15,16,4,128 ; movss (%rax,%r8,4),%xmm0
- DB 102,15,58,33,232,32 ; insertps $0x20,%xmm0,%xmm5
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,4,136 ; movss (%rax,%rcx,4),%xmm0
- DB 102,15,58,33,232,48 ; insertps $0x30,%xmm0,%xmm5
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,65,15,126,192 ; movd %xmm0,%r8d
- DB 102,65,15,58,22,193,1 ; pextrd $0x1,%xmm0,%r9d
- DB 102,65,15,58,22,194,2 ; pextrd $0x2,%xmm0,%r10d
- DB 102,65,15,58,22,195,3 ; pextrd $0x3,%xmm0,%r11d
- DB 102,15,254,5,95,132,1,0 ; paddd 0x1845f(%rip),%xmm0 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
- DB 102,72,15,126,195 ; movq %xmm0,%rbx
- DB 137,221 ; mov %ebx,%ebp
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 65,137,206 ; mov %ecx,%r14d
- DB 243,68,15,16,52,168 ; movss (%rax,%rbp,4),%xmm14
- DB 102,68,15,58,33,52,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm14
- DB 243,66,15,16,4,176 ; movss (%rax,%r14,4),%xmm0
- DB 102,68,15,58,33,240,32 ; insertps $0x20,%xmm0,%xmm14
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,4,136 ; movss (%rax,%rcx,4),%xmm0
- DB 102,68,15,58,33,240,48 ; insertps $0x30,%xmm0,%xmm14
- DB 102,15,254,84,36,48 ; paddd 0x30(%rsp),%xmm2
- DB 102,15,56,64,215 ; pmulld %xmm7,%xmm2
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,250,5,120,138,1,0 ; psubd 0x18a78(%rip),%xmm0 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,72,15,58,22,193,1 ; pextrq $0x1,%xmm0,%rcx
- DB 102,72,15,126,195 ; movq %xmm0,%rbx
- DB 137,221 ; mov %ebx,%ebp
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 65,137,206 ; mov %ecx,%r14d
- DB 243,15,16,12,168 ; movss (%rax,%rbp,4),%xmm1
- DB 102,15,58,33,12,152,16 ; insertps $0x10,(%rax,%rbx,4),%xmm1
- DB 243,66,15,16,4,176 ; movss (%rax,%r14,4),%xmm0
- DB 102,15,58,33,200,32 ; insertps $0x20,%xmm0,%xmm1
- DB 72,193,233,32 ; shr $0x20,%rcx
- DB 243,15,16,4,136 ; movss (%rax,%rcx,4),%xmm0
- DB 102,15,58,33,200,48 ; insertps $0x30,%xmm0,%xmm1
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,65,15,126,197 ; movd %xmm0,%r13d
- DB 102,65,15,58,22,199,1 ; pextrd $0x1,%xmm0,%r15d
- DB 102,65,15,58,22,196,2 ; pextrd $0x2,%xmm0,%r12d
- DB 102,65,15,58,22,198,3 ; pextrd $0x3,%xmm0,%r14d
- DB 102,15,254,5,166,131,1,0 ; paddd 0x183a6(%rip),%xmm0 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,72,15,58,22,195,1 ; pextrq $0x1,%xmm0,%rbx
- DB 102,72,15,126,197 ; movq %xmm0,%rbp
- DB 137,233 ; mov %ebp,%ecx
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 243,15,16,20,136 ; movss (%rax,%rcx,4),%xmm2
- DB 102,15,58,33,20,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm2
- DB 137,217 ; mov %ebx,%ecx
- DB 243,15,16,4,136 ; movss (%rax,%rcx,4),%xmm0
- DB 102,15,58,33,208,32 ; insertps $0x20,%xmm0,%xmm2
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 243,15,16,4,152 ; movss (%rax,%rbx,4),%xmm0
- DB 102,15,58,33,208,48 ; insertps $0x30,%xmm0,%xmm2
- DB 243,66,15,16,60,128 ; movss (%rax,%r8,4),%xmm7
- DB 102,66,15,58,33,60,136,16 ; insertps $0x10,(%rax,%r9,4),%xmm7
- DB 102,66,15,58,33,60,144,32 ; insertps $0x20,(%rax,%r10,4),%xmm7
- DB 102,66,15,58,33,60,152,48 ; insertps $0x30,(%rax,%r11,4),%xmm7
- DB 243,66,15,16,4,168 ; movss (%rax,%r13,4),%xmm0
- DB 102,66,15,58,33,4,184,16 ; insertps $0x10,(%rax,%r15,4),%xmm0
- DB 102,66,15,58,33,4,160,32 ; insertps $0x20,(%rax,%r12,4),%xmm0
- DB 102,66,15,58,33,4,176,48 ; insertps $0x30,(%rax,%r14,4),%xmm0
- DB 15,92,199 ; subps %xmm7,%xmm0
- DB 65,15,89,197 ; mulps %xmm13,%xmm0
- DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 65,15,89,205 ; mulps %xmm13,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 65,15,92,214 ; subps %xmm14,%xmm2
- DB 65,15,89,213 ; mulps %xmm13,%xmm2
- DB 65,15,88,214 ; addps %xmm14,%xmm2
- DB 15,92,195 ; subps %xmm3,%xmm0
- DB 15,40,44,36 ; movaps (%rsp),%xmm5
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,88,195 ; addps %xmm3,%xmm0
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,92,212 ; subps %xmm4,%xmm2
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 65,15,92,196 ; subps %xmm12,%xmm0
- DB 15,40,92,36,96 ; movaps 0x60(%rsp),%xmm3
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 65,15,88,196 ; addps %xmm12,%xmm0
- DB 65,15,92,201 ; subps %xmm9,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 65,15,88,201 ; addps %xmm9,%xmm1
- DB 65,15,92,208 ; subps %xmm8,%xmm2
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 65,15,88,208 ; addps %xmm8,%xmm2
- DB 15,91,156,36,144,0,0,0 ; cvtdq2ps 0x90(%rsp),%xmm3
- DB 15,40,164,36,176,0,0,0 ; movaps 0xb0(%rsp),%xmm4
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 65,15,92,194 ; subps %xmm10,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 65,15,92,207 ; subps %xmm15,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 65,15,88,207 ; addps %xmm15,%xmm1
- DB 65,15,92,211 ; subps %xmm11,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 65,15,88,211 ; addps %xmm11,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,94,130,1,0 ; movaps 0x1825e(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 72,139,76,36,120 ; mov 0x78(%rsp),%rcx
- DB 15,40,164,36,192,0,0,0 ; movaps 0xc0(%rsp),%xmm4
- DB 15,40,172,36,208,0,0,0 ; movaps 0xd0(%rsp),%xmm5
- DB 15,40,180,36,224,0,0,0 ; movaps 0xe0(%rsp),%xmm6
- DB 15,40,188,36,240,0,0,0 ; movaps 0xf0(%rsp),%xmm7
- DB 72,129,196,8,1,0,0 ; add $0x108,%rsp
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gauss_a_to_rgba_sse41
-_sk_gauss_a_to_rgba_sse41 LABEL PROC
- DB 15,40,5,207,136,1,0 ; movaps 0x188cf(%rip),%xmm0 # 35b60 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,213,136,1,0 ; addps 0x188d5(%rip),%xmm0 # 35b70 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,219,136,1,0 ; addps 0x188db(%rip),%xmm0 # 35b80 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,225,136,1,0 ; addps 0x188e1(%rip),%xmm0 # 35b90 <_sk_srcover_bgra_8888_sse2_lowp+0x1378>
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,231,136,1,0 ; addps 0x188e7(%rip),%xmm0 # 35ba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilerp_clamp_8888_sse41
-_sk_bilerp_clamp_8888_sse41 LABEL PROC
- DB 72,129,236,184,0,0,0 ; sub $0xb8,%rsp
- DB 15,41,124,36,48 ; movaps %xmm7,0x30(%rsp)
- DB 15,41,116,36,32 ; movaps %xmm6,0x20(%rsp)
- DB 15,41,108,36,16 ; movaps %xmm5,0x10(%rsp)
- DB 15,41,36,36 ; movaps %xmm4,(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,183,129,1,0 ; movaps 0x181b7(%rip),%xmm3 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,40,208 ; movaps %xmm0,%xmm10
- DB 68,15,88,211 ; addps %xmm3,%xmm10
- DB 102,65,15,58,8,210,1 ; roundps $0x1,%xmm10,%xmm2
- DB 68,15,92,210 ; subps %xmm2,%xmm10
- DB 15,41,140,36,128,0,0,0 ; movaps %xmm1,0x80(%rsp)
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 102,15,58,8,203,1 ; roundps $0x1,%xmm3,%xmm1
- DB 15,92,217 ; subps %xmm1,%xmm3
- DB 15,40,13,153,129,1,0 ; movaps 0x18199(%rip),%xmm1 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 65,15,92,210 ; subps %xmm10,%xmm2
- DB 15,41,148,36,160,0,0,0 ; movaps %xmm2,0xa0(%rsp)
- DB 15,41,92,36,112 ; movaps %xmm3,0x70(%rsp)
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,41,76,36,64 ; movaps %xmm1,0x40(%rsp)
- DB 243,68,15,16,112,12 ; movss 0xc(%rax),%xmm14
- DB 69,15,198,246,0 ; shufps $0x0,%xmm14,%xmm14
- DB 102,15,118,201 ; pcmpeqd %xmm1,%xmm1
- DB 102,68,15,254,241 ; paddd %xmm1,%xmm14
- DB 243,15,16,80,16 ; movss 0x10(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,15,254,209 ; paddd %xmm1,%xmm2
- DB 102,15,127,84,36,96 ; movdqa %xmm2,0x60(%rsp)
- DB 76,139,0 ; mov (%rax),%r8
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,127,76,36,80 ; movdqa %xmm1,0x50(%rsp)
- DB 243,15,16,13,167,120,1,0 ; movss 0x178a7(%rip),%xmm1 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,40,37,65,131,1,0 ; movaps 0x18341(%rip),%xmm4 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,40,238 ; movaps %xmm6,%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,88,172,36,128,0,0,0 ; addps 0x80(%rsp),%xmm5
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,95,205 ; maxps %xmm5,%xmm1
- DB 15,41,180,36,144,0,0,0 ; movaps %xmm6,0x90(%rsp)
- DB 15,46,53,158,120,1,0 ; ucomiss 0x1789e(%rip),%xmm6 # 34c50 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- DB 68,15,40,124,36,112 ; movaps 0x70(%rsp),%xmm15
- DB 119,6 ; ja 1d3c0 <_sk_bilerp_clamp_8888_sse41+0xfa>
- DB 68,15,40,124,36,64 ; movaps 0x40(%rsp),%xmm15
- DB 15,93,76,36,96 ; minps 0x60(%rsp),%xmm1
- DB 243,68,15,91,233 ; cvttps2dq %xmm1,%xmm13
- DB 102,68,15,56,64,108,36,80 ; pmulld 0x50(%rsp),%xmm13
- DB 243,15,16,45,66,120,1,0 ; movss 0x17842(%rip),%xmm5 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,95,241 ; maxps %xmm1,%xmm6
- DB 65,15,93,246 ; minps %xmm14,%xmm6
- DB 243,15,91,206 ; cvttps2dq %xmm6,%xmm1
- DB 102,65,15,254,205 ; paddd %xmm13,%xmm1
- DB 102,72,15,58,22,200,1 ; pextrq $0x1,%xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,67,15,110,12,152 ; movd (%r8,%r11,4),%xmm1
- DB 102,67,15,58,34,12,144,1 ; pinsrd $0x1,(%r8,%r10,4),%xmm1
- DB 102,67,15,58,34,12,136,2 ; pinsrd $0x2,(%r8,%r9,4),%xmm1
- DB 102,65,15,58,34,12,128,3 ; pinsrd $0x3,(%r8,%rax,4),%xmm1
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,219,53,37,129,1,0 ; pand 0x18125(%rip),%xmm6 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 15,91,254 ; cvtdq2ps %xmm6,%xmm7
- DB 15,89,252 ; mulps %xmm4,%xmm7
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,56,0,53,34,129,1,0 ; pshufb 0x18122(%rip),%xmm6 # 35570 <_sk_srcover_bgra_8888_sse2_lowp+0xd58>
- DB 68,15,91,230 ; cvtdq2ps %xmm6,%xmm12
- DB 68,15,89,228 ; mulps %xmm4,%xmm12
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,56,0,53,29,129,1,0 ; pshufb 0x1811d(%rip),%xmm6 # 35580 <_sk_srcover_bgra_8888_sse2_lowp+0xd68>
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 102,15,114,209,24 ; psrld $0x18,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,46,45,213,119,1,0 ; ucomiss 0x177d5(%rip),%xmm5 # 34c50 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- DB 69,15,40,218 ; movaps %xmm10,%xmm11
- DB 119,9 ; ja 1d48a <_sk_bilerp_clamp_8888_sse41+0x1c4>
- DB 68,15,40,156,36,160,0,0,0 ; movaps 0xa0(%rsp),%xmm11
- DB 69,15,89,223 ; mulps %xmm15,%xmm11
- DB 65,15,89,251 ; mulps %xmm11,%xmm7
- DB 68,15,88,207 ; addps %xmm7,%xmm9
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 69,15,88,196 ; addps %xmm12,%xmm8
- DB 65,15,89,243 ; mulps %xmm11,%xmm6
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 68,15,89,217 ; mulps %xmm1,%xmm11
- DB 65,15,88,219 ; addps %xmm11,%xmm3
- DB 243,15,88,45,19,118,1,0 ; addss 0x17613(%rip),%xmm5 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 243,15,16,13,7,118,1,0 ; movss 0x17607(%rip),%xmm1 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 15,46,205 ; ucomiss %xmm5,%xmm1
- DB 15,131,20,255,255,255 ; jae 1d3da <_sk_bilerp_clamp_8888_sse41+0x114>
- DB 15,40,180,36,144,0,0,0 ; movaps 0x90(%rsp),%xmm6
- DB 243,15,88,53,242,117,1,0 ; addss 0x175f2(%rip),%xmm6 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 243,15,16,13,230,117,1,0 ; movss 0x175e6(%rip),%xmm1 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 15,46,206 ; ucomiss %xmm6,%xmm1
- DB 15,131,167,254,255,255 ; jae 1d38e <_sk_bilerp_clamp_8888_sse41+0xc8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 15,40,36,36 ; movaps (%rsp),%xmm4
- DB 15,40,108,36,16 ; movaps 0x10(%rsp),%xmm5
- DB 15,40,116,36,32 ; movaps 0x20(%rsp),%xmm6
- DB 15,40,124,36,48 ; movaps 0x30(%rsp),%xmm7
- DB 72,129,196,184,0,0,0 ; add $0xb8,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_start_pipeline_sse2
-_sk_start_pipeline_sse2 LABEL PROC
- DB 85 ; push %rbp
- DB 72,137,229 ; mov %rsp,%rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 86 ; push %rsi
- DB 87 ; push %rdi
- DB 83 ; push %rbx
- DB 72,129,236,200,0,0,0 ; sub $0xc8,%rsp
- DB 68,15,41,125,176 ; movaps %xmm15,-0x50(%rbp)
- DB 68,15,41,117,160 ; movaps %xmm14,-0x60(%rbp)
- DB 68,15,41,109,144 ; movaps %xmm13,-0x70(%rbp)
- DB 68,15,41,101,128 ; movaps %xmm12,-0x80(%rbp)
- DB 68,15,41,157,112,255,255,255 ; movaps %xmm11,-0x90(%rbp)
- DB 68,15,41,149,96,255,255,255 ; movaps %xmm10,-0xa0(%rbp)
- DB 68,15,41,141,80,255,255,255 ; movaps %xmm9,-0xb0(%rbp)
- DB 68,15,41,133,64,255,255,255 ; movaps %xmm8,-0xc0(%rbp)
- DB 15,41,189,48,255,255,255 ; movaps %xmm7,-0xd0(%rbp)
- DB 15,41,181,32,255,255,255 ; movaps %xmm6,-0xe0(%rbp)
- DB 77,137,199 ; mov %r8,%r15
- DB 72,137,211 ; mov %rdx,%rbx
- DB 72,137,141,24,255,255,255 ; mov %rcx,-0xe8(%rbp)
- DB 72,139,117,48 ; mov 0x30(%rbp),%rsi
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 73,137,197 ; mov %rax,%r13
- DB 73,137,246 ; mov %rsi,%r14
- DB 76,137,141,8,255,255,255 ; mov %r9,-0xf8(%rbp)
- DB 76,57,203 ; cmp %r9,%rbx
- DB 15,131,153,0,0,0 ; jae 1d627 <_sk_start_pipeline_sse2+0x11a>
- DB 72,139,133,24,255,255,255 ; mov -0xe8(%rbp),%rax
- DB 72,141,64,4 ; lea 0x4(%rax),%rax
- DB 72,137,133,16,255,255,255 ; mov %rax,-0xf0(%rbp)
- DB 76,57,189,16,255,255,255 ; cmp %r15,-0xf0(%rbp)
- DB 72,139,149,24,255,255,255 ; mov -0xe8(%rbp),%rdx
- DB 119,62 ; ja 1d5ee <_sk_start_pipeline_sse2+0xe1>
- DB 76,139,165,24,255,255,255 ; mov -0xe8(%rbp),%r12
- DB 49,255 ; xor %edi,%edi
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 76,137,246 ; mov %r14,%rsi
- DB 76,137,226 ; mov %r12,%rdx
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 73,141,84,36,4 ; lea 0x4(%r12),%rdx
- DB 73,131,196,8 ; add $0x8,%r12
- DB 77,57,252 ; cmp %r15,%r12
- DB 73,137,212 ; mov %rdx,%r12
- DB 118,201 ; jbe 1d5b7 <_sk_start_pipeline_sse2+0xaa>
- DB 76,137,255 ; mov %r15,%rdi
- DB 72,41,215 ; sub %rdx,%rdi
- DB 116,33 ; je 1d617 <_sk_start_pipeline_sse2+0x10a>
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 76,137,246 ; mov %r14,%rsi
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 72,255,195 ; inc %rbx
- DB 72,59,157,8,255,255,255 ; cmp -0xf8(%rbp),%rbx
- DB 15,133,121,255,255,255 ; jne 1d5a0 <_sk_start_pipeline_sse2+0x93>
- DB 15,40,181,32,255,255,255 ; movaps -0xe0(%rbp),%xmm6
- DB 15,40,189,48,255,255,255 ; movaps -0xd0(%rbp),%xmm7
- DB 68,15,40,133,64,255,255,255 ; movaps -0xc0(%rbp),%xmm8
- DB 68,15,40,141,80,255,255,255 ; movaps -0xb0(%rbp),%xmm9
- DB 68,15,40,149,96,255,255,255 ; movaps -0xa0(%rbp),%xmm10
- DB 68,15,40,157,112,255,255,255 ; movaps -0x90(%rbp),%xmm11
- DB 68,15,40,101,128 ; movaps -0x80(%rbp),%xmm12
- DB 68,15,40,109,144 ; movaps -0x70(%rbp),%xmm13
- DB 68,15,40,117,160 ; movaps -0x60(%rbp),%xmm14
- DB 68,15,40,125,176 ; movaps -0x50(%rbp),%xmm15
- DB 72,129,196,200,0,0,0 ; add $0xc8,%rsp
- DB 91 ; pop %rbx
- DB 95 ; pop %rdi
- DB 94 ; pop %rsi
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 195 ; retq
-
-PUBLIC _sk_just_return_sse2
-_sk_just_return_sse2 LABEL PROC
- DB 195 ; retq
-
-PUBLIC _sk_seed_shader_sse2
-_sk_seed_shader_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,110,194 ; movd %edx,%xmm0
- DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
- DB 15,91,200 ; cvtdq2ps %xmm0,%xmm1
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 15,88,193 ; addps %xmm1,%xmm0
- DB 102,15,110,201 ; movd %ecx,%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,88,13,251,125,1,0 ; addps 0x17dfb(%rip),%xmm1 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,21,2,126,1,0 ; movaps 0x17e02(%rip),%xmm2 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dither_sse2
-_sk_dither_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,68,15,110,194 ; movd %edx,%xmm8
- DB 102,69,15,112,192,0 ; pshufd $0x0,%xmm8,%xmm8
- DB 102,68,15,254,5,171,125,1,0 ; paddd 0x17dab(%rip),%xmm8 # 35480 <_sk_srcover_bgra_8888_sse2_lowp+0xc68>
- DB 102,68,15,110,201 ; movd %ecx,%xmm9
- DB 102,69,15,112,201,0 ; pshufd $0x0,%xmm9,%xmm9
- DB 102,69,15,239,200 ; pxor %xmm8,%xmm9
- DB 102,68,15,111,21,210,125,1,0 ; movdqa 0x17dd2(%rip),%xmm10 # 354c0 <_sk_srcover_bgra_8888_sse2_lowp+0xca8>
- DB 102,69,15,111,217 ; movdqa %xmm9,%xmm11
- DB 102,69,15,219,218 ; pand %xmm10,%xmm11
- DB 102,65,15,114,243,5 ; pslld $0x5,%xmm11
- DB 102,69,15,219,208 ; pand %xmm8,%xmm10
- DB 102,65,15,114,242,4 ; pslld $0x4,%xmm10
- DB 102,68,15,111,37,190,125,1,0 ; movdqa 0x17dbe(%rip),%xmm12 # 354d0 <_sk_srcover_bgra_8888_sse2_lowp+0xcb8>
- DB 102,68,15,111,45,197,125,1,0 ; movdqa 0x17dc5(%rip),%xmm13 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,69,15,111,241 ; movdqa %xmm9,%xmm14
- DB 102,69,15,219,245 ; pand %xmm13,%xmm14
- DB 102,65,15,114,246,2 ; pslld $0x2,%xmm14
- DB 102,69,15,235,243 ; por %xmm11,%xmm14
- DB 102,69,15,219,232 ; pand %xmm8,%xmm13
- DB 102,69,15,254,237 ; paddd %xmm13,%xmm13
- DB 102,69,15,235,234 ; por %xmm10,%xmm13
- DB 102,69,15,219,204 ; pand %xmm12,%xmm9
- DB 102,65,15,114,209,1 ; psrld $0x1,%xmm9
- DB 102,69,15,219,196 ; pand %xmm12,%xmm8
- DB 102,65,15,114,208,2 ; psrld $0x2,%xmm8
- DB 102,69,15,235,197 ; por %xmm13,%xmm8
- DB 102,69,15,235,198 ; por %xmm14,%xmm8
- DB 102,69,15,235,193 ; por %xmm9,%xmm8
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,128,125,1,0 ; mulps 0x17d80(%rip),%xmm8 # 354f0 <_sk_srcover_bgra_8888_sse2_lowp+0xcd8>
- DB 68,15,88,5,136,125,1,0 ; addps 0x17d88(%rip),%xmm8 # 35500 <_sk_srcover_bgra_8888_sse2_lowp+0xce8>
- DB 243,68,15,16,16 ; movss (%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 69,15,89,208 ; mulps %xmm8,%xmm10
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 68,15,88,210 ; addps %xmm2,%xmm10
- DB 15,93,195 ; minps %xmm3,%xmm0
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,95,192 ; maxps %xmm0,%xmm8
- DB 15,93,203 ; minps %xmm3,%xmm1
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 68,15,95,201 ; maxps %xmm1,%xmm9
- DB 68,15,93,211 ; minps %xmm3,%xmm10
- DB 65,15,95,210 ; maxps %xmm10,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_uniform_color_sse2
-_sk_uniform_color_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,15,16,80,8 ; movss 0x8(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,88,12 ; movss 0xc(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_black_color_sse2
-_sk_black_color_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,190,124,1,0 ; movaps 0x17cbe(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_white_color_sse2
-_sk_white_color_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,5,170,124,1,0 ; movaps 0x17caa(%rip),%xmm0 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_rgba_sse2
-_sk_load_rgba_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 15,16,72,16 ; movups 0x10(%rax),%xmm1
- DB 15,16,80,32 ; movups 0x20(%rax),%xmm2
- DB 15,16,88,48 ; movups 0x30(%rax),%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_rgba_sse2
-_sk_store_rgba_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,17,0 ; movups %xmm0,(%rax)
- DB 15,17,72,16 ; movups %xmm1,0x10(%rax)
- DB 15,17,80,32 ; movups %xmm2,0x20(%rax)
- DB 15,17,88,48 ; movups %xmm3,0x30(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clear_sse2
-_sk_clear_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcatop_sse2
-_sk_srcatop_sse2 LABEL PROC
- DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 68,15,40,5,90,124,1,0 ; movaps 0x17c5a(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,204 ; mulps %xmm4,%xmm9
- DB 65,15,88,193 ; addps %xmm9,%xmm0
- DB 15,89,207 ; mulps %xmm7,%xmm1
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 65,15,88,201 ; addps %xmm9,%xmm1
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 65,15,88,209 ; addps %xmm9,%xmm2
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 65,15,88,216 ; addps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstatop_sse2
-_sk_dstatop_sse2 LABEL PROC
- DB 68,15,40,195 ; movaps %xmm3,%xmm8
- DB 68,15,89,196 ; mulps %xmm4,%xmm8
- DB 68,15,40,13,13,124,1,0 ; movaps 0x17c0d(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,207 ; subps %xmm7,%xmm9
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 68,15,40,195 ; movaps %xmm3,%xmm8
- DB 68,15,89,197 ; mulps %xmm5,%xmm8
- DB 65,15,89,201 ; mulps %xmm9,%xmm1
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 68,15,40,195 ; movaps %xmm3,%xmm8
- DB 68,15,89,198 ; mulps %xmm6,%xmm8
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 65,15,88,208 ; addps %xmm8,%xmm2
- DB 68,15,89,203 ; mulps %xmm3,%xmm9
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 65,15,88,217 ; addps %xmm9,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcin_sse2
-_sk_srcin_sse2 LABEL PROC
- DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 15,89,207 ; mulps %xmm7,%xmm1
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstin_sse2
-_sk_dstin_sse2 LABEL PROC
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcout_sse2
-_sk_srcout_sse2 LABEL PROC
- DB 68,15,40,5,161,123,1,0 ; movaps 0x17ba1(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,199 ; subps %xmm7,%xmm8
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstout_sse2
-_sk_dstout_sse2 LABEL PROC
- DB 68,15,40,5,129,123,1,0 ; movaps 0x17b81(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,216 ; movaps %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_sse2
-_sk_srcover_sse2 LABEL PROC
- DB 68,15,40,5,84,123,1,0 ; movaps 0x17b54(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,204 ; mulps %xmm4,%xmm9
- DB 65,15,88,193 ; addps %xmm9,%xmm0
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 65,15,88,201 ; addps %xmm9,%xmm1
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 65,15,88,209 ; addps %xmm9,%xmm2
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 65,15,88,216 ; addps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstover_sse2
-_sk_dstover_sse2 LABEL PROC
- DB 68,15,40,5,24,123,1,0 ; movaps 0x17b18(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,199 ; subps %xmm7,%xmm8
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_modulate_sse2
-_sk_modulate_sse2 LABEL PROC
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_multiply_sse2
-_sk_multiply_sse2 LABEL PROC
- DB 68,15,40,5,220,122,1,0 ; movaps 0x17adc(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,92,207 ; subps %xmm7,%xmm9
- DB 69,15,40,209 ; movaps %xmm9,%xmm10
- DB 68,15,89,208 ; mulps %xmm0,%xmm10
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 68,15,89,220 ; mulps %xmm4,%xmm11
- DB 69,15,88,218 ; addps %xmm10,%xmm11
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 65,15,88,195 ; addps %xmm11,%xmm0
- DB 69,15,40,209 ; movaps %xmm9,%xmm10
- DB 68,15,89,209 ; mulps %xmm1,%xmm10
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 68,15,89,221 ; mulps %xmm5,%xmm11
- DB 69,15,88,218 ; addps %xmm10,%xmm11
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 65,15,88,203 ; addps %xmm11,%xmm1
- DB 69,15,40,209 ; movaps %xmm9,%xmm10
- DB 68,15,89,210 ; mulps %xmm2,%xmm10
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 68,15,89,222 ; mulps %xmm6,%xmm11
- DB 69,15,88,218 ; addps %xmm10,%xmm11
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 65,15,88,211 ; addps %xmm11,%xmm2
- DB 68,15,89,203 ; mulps %xmm3,%xmm9
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 69,15,88,193 ; addps %xmm9,%xmm8
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 65,15,88,216 ; addps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_plus__sse2
-_sk_plus__sse2 LABEL PROC
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 68,15,40,5,93,122,1,0 ; movaps 0x17a5d(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 65,15,93,208 ; minps %xmm8,%xmm2
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 65,15,93,216 ; minps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_screen_sse2
-_sk_screen_sse2 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 68,15,89,196 ; mulps %xmm4,%xmm8
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 68,15,88,197 ; addps %xmm5,%xmm8
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 68,15,92,193 ; subps %xmm1,%xmm8
- DB 68,15,40,202 ; movaps %xmm2,%xmm9
- DB 68,15,88,206 ; addps %xmm6,%xmm9
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 68,15,92,202 ; subps %xmm2,%xmm9
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 68,15,88,215 ; addps %xmm7,%xmm10
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 68,15,92,211 ; subps %xmm3,%xmm10
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 65,15,40,218 ; movaps %xmm10,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xor__sse2
-_sk_xor__sse2 LABEL PROC
- DB 68,15,40,195 ; movaps %xmm3,%xmm8
- DB 15,40,29,233,121,1,0 ; movaps 0x179e9(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,92,207 ; subps %xmm7,%xmm9
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 65,15,92,216 ; subps %xmm8,%xmm3
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 68,15,89,212 ; mulps %xmm4,%xmm10
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 65,15,89,201 ; mulps %xmm9,%xmm1
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 68,15,89,213 ; mulps %xmm5,%xmm10
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 68,15,89,214 ; mulps %xmm6,%xmm10
- DB 65,15,88,210 ; addps %xmm10,%xmm2
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 65,15,88,217 ; addps %xmm9,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_darken_sse2
-_sk_darken_sse2 LABEL PROC
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 68,15,89,207 ; mulps %xmm7,%xmm9
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 68,15,95,201 ; maxps %xmm1,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 69,15,95,193 ; maxps %xmm9,%xmm8
- DB 65,15,92,200 ; subps %xmm8,%xmm1
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 68,15,88,198 ; addps %xmm6,%xmm8
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 65,15,95,209 ; maxps %xmm9,%xmm2
- DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,68,121,1,0 ; movaps 0x17944(%rip),%xmm2 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lighten_sse2
-_sk_lighten_sse2 LABEL PROC
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 68,15,89,207 ; mulps %xmm7,%xmm9
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 68,15,93,201 ; minps %xmm1,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 69,15,93,193 ; minps %xmm9,%xmm8
- DB 65,15,92,200 ; subps %xmm8,%xmm1
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 68,15,88,198 ; addps %xmm6,%xmm8
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 65,15,93,209 ; minps %xmm9,%xmm2
- DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,217,120,1,0 ; movaps 0x178d9(%rip),%xmm2 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_difference_sse2
-_sk_difference_sse2 LABEL PROC
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 68,15,89,207 ; mulps %xmm7,%xmm9
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 68,15,93,201 ; minps %xmm1,%xmm9
- DB 69,15,88,201 ; addps %xmm9,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 69,15,93,193 ; minps %xmm9,%xmm8
- DB 69,15,88,192 ; addps %xmm8,%xmm8
- DB 65,15,92,200 ; subps %xmm8,%xmm1
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 68,15,88,198 ; addps %xmm6,%xmm8
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 65,15,93,209 ; minps %xmm9,%xmm2
- DB 15,88,210 ; addps %xmm2,%xmm2
- DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,99,120,1,0 ; movaps 0x17863(%rip),%xmm2 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_exclusion_sse2
-_sk_exclusion_sse2 LABEL PROC
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 68,15,89,197 ; mulps %xmm5,%xmm8
- DB 69,15,88,192 ; addps %xmm8,%xmm8
- DB 65,15,92,200 ; subps %xmm8,%xmm1
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 68,15,88,198 ; addps %xmm6,%xmm8
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,88,210 ; addps %xmm2,%xmm2
- DB 68,15,92,194 ; subps %xmm2,%xmm8
- DB 15,40,21,19,120,1,0 ; movaps 0x17813(%rip),%xmm2 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_colorburn_sse2
-_sk_colorburn_sse2 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 68,15,40,13,246,119,1,0 ; movaps 0x177f6(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,209 ; movaps %xmm9,%xmm10
- DB 68,15,92,215 ; subps %xmm7,%xmm10
- DB 69,15,40,218 ; movaps %xmm10,%xmm11
- DB 69,15,89,216 ; mulps %xmm8,%xmm11
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 69,15,83,224 ; rcpps %xmm8,%xmm12
- DB 68,15,89,224 ; mulps %xmm0,%xmm12
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 65,15,93,196 ; minps %xmm12,%xmm0
- DB 68,15,40,231 ; movaps %xmm7,%xmm12
- DB 68,15,92,224 ; subps %xmm0,%xmm12
- DB 68,15,89,227 ; mulps %xmm3,%xmm12
- DB 69,15,88,227 ; addps %xmm11,%xmm12
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 68,15,92,203 ; subps %xmm3,%xmm9
- DB 69,15,40,233 ; movaps %xmm9,%xmm13
- DB 68,15,89,236 ; mulps %xmm4,%xmm13
- DB 69,15,194,195,0 ; cmpeqps %xmm11,%xmm8
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 69,15,84,232 ; andps %xmm8,%xmm13
- DB 69,15,85,196 ; andnps %xmm12,%xmm8
- DB 68,15,40,228 ; movaps %xmm4,%xmm12
- DB 68,15,194,231,0 ; cmpeqps %xmm7,%xmm12
- DB 69,15,86,197 ; orps %xmm13,%xmm8
- DB 65,15,84,196 ; andps %xmm12,%xmm0
- DB 69,15,85,224 ; andnps %xmm8,%xmm12
- DB 65,15,86,196 ; orps %xmm12,%xmm0
- DB 69,15,40,194 ; movaps %xmm10,%xmm8
- DB 68,15,89,193 ; mulps %xmm1,%xmm8
- DB 68,15,40,231 ; movaps %xmm7,%xmm12
- DB 68,15,92,229 ; subps %xmm5,%xmm12
- DB 68,15,89,227 ; mulps %xmm3,%xmm12
- DB 68,15,83,233 ; rcpps %xmm1,%xmm13
- DB 69,15,89,236 ; mulps %xmm12,%xmm13
- DB 68,15,40,231 ; movaps %xmm7,%xmm12
- DB 69,15,93,229 ; minps %xmm13,%xmm12
- DB 68,15,40,239 ; movaps %xmm7,%xmm13
- DB 69,15,92,236 ; subps %xmm12,%xmm13
- DB 69,15,40,225 ; movaps %xmm9,%xmm12
- DB 68,15,89,229 ; mulps %xmm5,%xmm12
- DB 65,15,194,203,0 ; cmpeqps %xmm11,%xmm1
- DB 68,15,89,235 ; mulps %xmm3,%xmm13
- DB 69,15,88,232 ; addps %xmm8,%xmm13
- DB 69,15,88,236 ; addps %xmm12,%xmm13
- DB 68,15,84,225 ; andps %xmm1,%xmm12
- DB 65,15,85,205 ; andnps %xmm13,%xmm1
- DB 68,15,88,197 ; addps %xmm5,%xmm8
- DB 65,15,86,204 ; orps %xmm12,%xmm1
- DB 68,15,40,229 ; movaps %xmm5,%xmm12
- DB 68,15,194,231,0 ; cmpeqps %xmm7,%xmm12
- DB 69,15,84,196 ; andps %xmm12,%xmm8
- DB 68,15,85,225 ; andnps %xmm1,%xmm12
- DB 69,15,86,196 ; orps %xmm12,%xmm8
- DB 68,15,89,210 ; mulps %xmm2,%xmm10
- DB 68,15,194,218,0 ; cmpeqps %xmm2,%xmm11
- DB 15,40,207 ; movaps %xmm7,%xmm1
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,83,210 ; rcpps %xmm2,%xmm2
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 15,40,207 ; movaps %xmm7,%xmm1
- DB 15,93,202 ; minps %xmm2,%xmm1
- DB 15,40,215 ; movaps %xmm7,%xmm2
- DB 15,92,209 ; subps %xmm1,%xmm2
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 65,15,88,210 ; addps %xmm10,%xmm2
- DB 15,88,209 ; addps %xmm1,%xmm2
- DB 65,15,84,203 ; andps %xmm11,%xmm1
- DB 68,15,85,218 ; andnps %xmm2,%xmm11
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 68,15,86,217 ; orps %xmm1,%xmm11
- DB 15,40,206 ; movaps %xmm6,%xmm1
- DB 15,194,207,0 ; cmpeqps %xmm7,%xmm1
- DB 15,84,209 ; andps %xmm1,%xmm2
- DB 65,15,85,203 ; andnps %xmm11,%xmm1
- DB 15,86,209 ; orps %xmm1,%xmm2
- DB 68,15,89,207 ; mulps %xmm7,%xmm9
- DB 65,15,88,217 ; addps %xmm9,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_colordodge_sse2
-_sk_colordodge_sse2 LABEL PROC
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 68,15,40,21,158,118,1,0 ; movaps 0x1769e(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,218 ; movaps %xmm10,%xmm11
- DB 68,15,92,223 ; subps %xmm7,%xmm11
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 68,15,40,227 ; movaps %xmm3,%xmm12
- DB 68,15,89,228 ; mulps %xmm4,%xmm12
- DB 68,15,40,195 ; movaps %xmm3,%xmm8
- DB 69,15,92,193 ; subps %xmm9,%xmm8
- DB 69,15,83,192 ; rcpps %xmm8,%xmm8
- DB 69,15,89,196 ; mulps %xmm12,%xmm8
- DB 68,15,40,231 ; movaps %xmm7,%xmm12
- DB 68,15,40,239 ; movaps %xmm7,%xmm13
- DB 69,15,93,232 ; minps %xmm8,%xmm13
- DB 69,15,40,241 ; movaps %xmm9,%xmm14
- DB 68,15,194,243,0 ; cmpeqps %xmm3,%xmm14
- DB 68,15,89,235 ; mulps %xmm3,%xmm13
- DB 68,15,88,232 ; addps %xmm0,%xmm13
- DB 69,15,84,206 ; andps %xmm14,%xmm9
- DB 69,15,85,245 ; andnps %xmm13,%xmm14
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,92,211 ; subps %xmm3,%xmm10
- DB 69,15,86,241 ; orps %xmm9,%xmm14
- DB 69,15,40,202 ; movaps %xmm10,%xmm9
- DB 68,15,89,204 ; mulps %xmm4,%xmm9
- DB 69,15,88,241 ; addps %xmm9,%xmm14
- DB 68,15,40,204 ; movaps %xmm4,%xmm9
- DB 69,15,194,200,0 ; cmpeqps %xmm8,%xmm9
- DB 65,15,84,193 ; andps %xmm9,%xmm0
- DB 69,15,85,206 ; andnps %xmm14,%xmm9
- DB 65,15,86,193 ; orps %xmm9,%xmm0
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 68,15,40,235 ; movaps %xmm3,%xmm13
- DB 68,15,92,233 ; subps %xmm1,%xmm13
- DB 69,15,83,237 ; rcpps %xmm13,%xmm13
- DB 69,15,89,233 ; mulps %xmm9,%xmm13
- DB 69,15,40,203 ; movaps %xmm11,%xmm9
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 69,15,93,229 ; minps %xmm13,%xmm12
- DB 68,15,40,233 ; movaps %xmm1,%xmm13
- DB 68,15,194,235,0 ; cmpeqps %xmm3,%xmm13
- DB 68,15,89,227 ; mulps %xmm3,%xmm12
- DB 69,15,88,225 ; addps %xmm9,%xmm12
- DB 65,15,84,205 ; andps %xmm13,%xmm1
- DB 69,15,85,236 ; andnps %xmm12,%xmm13
- DB 68,15,86,233 ; orps %xmm1,%xmm13
- DB 65,15,40,202 ; movaps %xmm10,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 68,15,88,233 ; addps %xmm1,%xmm13
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 65,15,194,200,0 ; cmpeqps %xmm8,%xmm1
- DB 68,15,84,201 ; andps %xmm1,%xmm9
- DB 65,15,85,205 ; andnps %xmm13,%xmm1
- DB 68,15,86,201 ; orps %xmm1,%xmm9
- DB 68,15,40,227 ; movaps %xmm3,%xmm12
- DB 68,15,89,230 ; mulps %xmm6,%xmm12
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,92,202 ; subps %xmm2,%xmm1
- DB 68,15,83,233 ; rcpps %xmm1,%xmm13
- DB 69,15,89,236 ; mulps %xmm12,%xmm13
- DB 68,15,40,231 ; movaps %xmm7,%xmm12
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 69,15,93,229 ; minps %xmm13,%xmm12
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,194,203,0 ; cmpeqps %xmm3,%xmm1
- DB 68,15,89,227 ; mulps %xmm3,%xmm12
- DB 69,15,88,227 ; addps %xmm11,%xmm12
- DB 15,84,209 ; andps %xmm1,%xmm2
- DB 65,15,85,204 ; andnps %xmm12,%xmm1
- DB 15,86,202 ; orps %xmm2,%xmm1
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 68,15,194,198,0 ; cmpeqps %xmm6,%xmm8
- DB 69,15,84,216 ; andps %xmm8,%xmm11
- DB 68,15,85,193 ; andnps %xmm1,%xmm8
- DB 69,15,86,195 ; orps %xmm11,%xmm8
- DB 68,15,89,215 ; mulps %xmm7,%xmm10
- DB 65,15,88,218 ; addps %xmm10,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hardlight_sse2
-_sk_hardlight_sse2 LABEL PROC
- DB 72,131,236,24 ; sub $0x18,%rsp
- DB 15,41,52,36 ; movaps %xmm6,(%rsp)
- DB 15,40,245 ; movaps %xmm5,%xmm6
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 68,15,40,29,68,117,1,0 ; movaps 0x17544(%rip),%xmm11 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,211 ; movaps %xmm11,%xmm10
- DB 68,15,92,215 ; subps %xmm7,%xmm10
- DB 69,15,40,194 ; movaps %xmm10,%xmm8
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 68,15,92,219 ; subps %xmm3,%xmm11
- DB 69,15,40,203 ; movaps %xmm11,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 69,15,88,200 ; addps %xmm8,%xmm9
- DB 68,15,40,195 ; movaps %xmm3,%xmm8
- DB 68,15,92,192 ; subps %xmm0,%xmm8
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 68,15,40,239 ; movaps %xmm7,%xmm13
- DB 68,15,40,247 ; movaps %xmm7,%xmm14
- DB 68,15,40,255 ; movaps %xmm7,%xmm15
- DB 68,15,92,253 ; subps %xmm5,%xmm15
- DB 69,15,89,248 ; mulps %xmm8,%xmm15
- DB 69,15,88,255 ; addps %xmm15,%xmm15
- DB 68,15,40,228 ; movaps %xmm4,%xmm12
- DB 69,15,92,231 ; subps %xmm15,%xmm12
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 69,15,88,192 ; addps %xmm8,%xmm8
- DB 68,15,194,195,2 ; cmpleps %xmm3,%xmm8
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 69,15,85,196 ; andnps %xmm12,%xmm8
- DB 68,15,86,192 ; orps %xmm0,%xmm8
- DB 69,15,40,251 ; movaps %xmm11,%xmm15
- DB 69,15,40,227 ; movaps %xmm11,%xmm12
- DB 68,15,89,223 ; mulps %xmm7,%xmm11
- DB 69,15,88,193 ; addps %xmm9,%xmm8
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 68,15,89,254 ; mulps %xmm6,%xmm15
- DB 68,15,88,248 ; addps %xmm0,%xmm15
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 68,15,92,238 ; subps %xmm6,%xmm13
- DB 68,15,89,232 ; mulps %xmm0,%xmm13
- DB 69,15,88,237 ; addps %xmm13,%xmm13
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 65,15,92,197 ; subps %xmm13,%xmm0
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 69,15,88,201 ; addps %xmm9,%xmm9
- DB 68,15,194,203,2 ; cmpleps %xmm3,%xmm9
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 65,15,84,201 ; andps %xmm9,%xmm1
- DB 68,15,85,200 ; andnps %xmm0,%xmm9
- DB 68,15,86,201 ; orps %xmm1,%xmm9
- DB 69,15,88,207 ; addps %xmm15,%xmm9
- DB 68,15,89,210 ; mulps %xmm2,%xmm10
- DB 68,15,40,44,36 ; movaps (%rsp),%xmm13
- DB 69,15,89,229 ; mulps %xmm13,%xmm12
- DB 69,15,88,226 ; addps %xmm10,%xmm12
- DB 68,15,40,210 ; movaps %xmm2,%xmm10
- DB 69,15,88,210 ; addps %xmm10,%xmm10
- DB 68,15,194,211,2 ; cmpleps %xmm3,%xmm10
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,92,194 ; subps %xmm2,%xmm0
- DB 65,15,89,213 ; mulps %xmm13,%xmm2
- DB 15,88,210 ; addps %xmm2,%xmm2
- DB 69,15,92,245 ; subps %xmm13,%xmm14
- DB 68,15,89,240 ; mulps %xmm0,%xmm14
- DB 69,15,88,246 ; addps %xmm14,%xmm14
- DB 65,15,92,230 ; subps %xmm14,%xmm4
- DB 65,15,84,210 ; andps %xmm10,%xmm2
- DB 68,15,85,212 ; andnps %xmm4,%xmm10
- DB 68,15,86,210 ; orps %xmm2,%xmm10
- DB 69,15,88,212 ; addps %xmm12,%xmm10
- DB 65,15,88,219 ; addps %xmm11,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,40,238 ; movaps %xmm6,%xmm5
- DB 65,15,40,245 ; movaps %xmm13,%xmm6
- DB 72,131,196,24 ; add $0x18,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_overlay_sse2
-_sk_overlay_sse2 LABEL PROC
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 68,15,40,232 ; movaps %xmm0,%xmm13
- DB 68,15,40,13,255,115,1,0 ; movaps 0x173ff(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,209 ; movaps %xmm9,%xmm10
- DB 68,15,92,215 ; subps %xmm7,%xmm10
- DB 69,15,40,218 ; movaps %xmm10,%xmm11
- DB 69,15,89,221 ; mulps %xmm13,%xmm11
- DB 68,15,92,203 ; subps %xmm3,%xmm9
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 65,15,88,195 ; addps %xmm11,%xmm0
- DB 68,15,40,227 ; movaps %xmm3,%xmm12
- DB 69,15,92,229 ; subps %xmm13,%xmm12
- DB 68,15,89,236 ; mulps %xmm4,%xmm13
- DB 68,15,40,247 ; movaps %xmm7,%xmm14
- DB 68,15,92,244 ; subps %xmm4,%xmm14
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,194,207,2 ; cmpleps %xmm7,%xmm1
- DB 69,15,88,237 ; addps %xmm13,%xmm13
- DB 68,15,40,219 ; movaps %xmm3,%xmm11
- DB 68,15,89,223 ; mulps %xmm7,%xmm11
- DB 69,15,89,244 ; mulps %xmm12,%xmm14
- DB 69,15,88,246 ; addps %xmm14,%xmm14
- DB 69,15,40,227 ; movaps %xmm11,%xmm12
- DB 69,15,92,230 ; subps %xmm14,%xmm12
- DB 68,15,84,233 ; andps %xmm1,%xmm13
- DB 65,15,85,204 ; andnps %xmm12,%xmm1
- DB 65,15,86,205 ; orps %xmm13,%xmm1
- DB 15,88,193 ; addps %xmm1,%xmm0
- DB 69,15,40,226 ; movaps %xmm10,%xmm12
- DB 69,15,89,224 ; mulps %xmm8,%xmm12
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 65,15,88,204 ; addps %xmm12,%xmm1
- DB 68,15,40,227 ; movaps %xmm3,%xmm12
- DB 69,15,92,224 ; subps %xmm8,%xmm12
- DB 68,15,89,197 ; mulps %xmm5,%xmm8
- DB 68,15,40,239 ; movaps %xmm7,%xmm13
- DB 68,15,92,237 ; subps %xmm5,%xmm13
- DB 68,15,40,245 ; movaps %xmm5,%xmm14
- DB 69,15,88,246 ; addps %xmm14,%xmm14
- DB 68,15,194,247,2 ; cmpleps %xmm7,%xmm14
- DB 69,15,88,192 ; addps %xmm8,%xmm8
- DB 69,15,89,236 ; mulps %xmm12,%xmm13
- DB 69,15,88,237 ; addps %xmm13,%xmm13
- DB 69,15,40,227 ; movaps %xmm11,%xmm12
- DB 69,15,92,229 ; subps %xmm13,%xmm12
- DB 69,15,84,198 ; andps %xmm14,%xmm8
- DB 69,15,85,244 ; andnps %xmm12,%xmm14
- DB 69,15,86,240 ; orps %xmm8,%xmm14
- DB 65,15,88,206 ; addps %xmm14,%xmm1
- DB 68,15,89,210 ; mulps %xmm2,%xmm10
- DB 69,15,40,193 ; movaps %xmm9,%xmm8
- DB 68,15,89,198 ; mulps %xmm6,%xmm8
- DB 69,15,88,194 ; addps %xmm10,%xmm8
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 68,15,92,210 ; subps %xmm2,%xmm10
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 68,15,40,231 ; movaps %xmm7,%xmm12
- DB 68,15,92,230 ; subps %xmm6,%xmm12
- DB 68,15,40,238 ; movaps %xmm6,%xmm13
- DB 69,15,88,237 ; addps %xmm13,%xmm13
- DB 68,15,194,239,2 ; cmpleps %xmm7,%xmm13
- DB 15,88,210 ; addps %xmm2,%xmm2
- DB 69,15,89,226 ; mulps %xmm10,%xmm12
- DB 69,15,88,228 ; addps %xmm12,%xmm12
- DB 69,15,92,220 ; subps %xmm12,%xmm11
- DB 65,15,84,213 ; andps %xmm13,%xmm2
- DB 69,15,85,235 ; andnps %xmm11,%xmm13
- DB 68,15,86,234 ; orps %xmm2,%xmm13
- DB 69,15,88,197 ; addps %xmm13,%xmm8
- DB 68,15,89,207 ; mulps %xmm7,%xmm9
- DB 65,15,88,217 ; addps %xmm9,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_softlight_sse2
-_sk_softlight_sse2 LABEL PROC
- DB 72,131,236,40 ; sub $0x28,%rsp
- DB 15,41,52,36 ; movaps %xmm6,(%rsp)
- DB 15,40,245 ; movaps %xmm5,%xmm6
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,41,84,36,16 ; movaps %xmm2,0x10(%rsp)
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,194,231,1 ; cmpltps %xmm7,%xmm12
- DB 68,15,40,213 ; movaps %xmm5,%xmm10
- DB 68,15,94,215 ; divps %xmm7,%xmm10
- DB 69,15,84,212 ; andps %xmm12,%xmm10
- DB 68,15,40,13,169,114,1,0 ; movaps 0x172a9(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,249 ; movaps %xmm9,%xmm15
- DB 69,15,92,250 ; subps %xmm10,%xmm15
- DB 69,15,40,218 ; movaps %xmm10,%xmm11
- DB 69,15,40,234 ; movaps %xmm10,%xmm13
- DB 65,15,82,194 ; rsqrtps %xmm10,%xmm0
- DB 15,83,200 ; rcpps %xmm0,%xmm1
- DB 65,15,92,202 ; subps %xmm10,%xmm1
- DB 69,15,88,210 ; addps %xmm10,%xmm10
- DB 69,15,88,210 ; addps %xmm10,%xmm10
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 68,15,40,53,211,114,1,0 ; movaps 0x172d3(%rip),%xmm14 # 35510 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
- DB 69,15,88,222 ; addps %xmm14,%xmm11
- DB 68,15,89,216 ; mulps %xmm0,%xmm11
- DB 68,15,40,21,211,114,1,0 ; movaps 0x172d3(%rip),%xmm10 # 35520 <_sk_srcover_bgra_8888_sse2_lowp+0xd08>
- DB 69,15,89,234 ; mulps %xmm10,%xmm13
- DB 69,15,88,235 ; addps %xmm11,%xmm13
- DB 15,88,228 ; addps %xmm4,%xmm4
- DB 15,88,228 ; addps %xmm4,%xmm4
- DB 15,194,231,2 ; cmpleps %xmm7,%xmm4
- DB 68,15,84,236 ; andps %xmm4,%xmm13
- DB 15,85,225 ; andnps %xmm1,%xmm4
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 65,15,86,229 ; orps %xmm13,%xmm4
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 68,15,89,249 ; mulps %xmm1,%xmm15
- DB 15,89,207 ; mulps %xmm7,%xmm1
- DB 15,89,225 ; mulps %xmm1,%xmm4
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 69,15,40,217 ; movaps %xmm9,%xmm11
- DB 68,15,92,219 ; subps %xmm3,%xmm11
- DB 65,15,40,203 ; movaps %xmm11,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 69,15,40,233 ; movaps %xmm9,%xmm13
- DB 68,15,92,239 ; subps %xmm7,%xmm13
- DB 69,15,89,197 ; mulps %xmm13,%xmm8
- DB 68,15,88,193 ; addps %xmm1,%xmm8
- DB 68,15,88,251 ; addps %xmm3,%xmm15
- DB 68,15,89,253 ; mulps %xmm5,%xmm15
- DB 15,194,195,2 ; cmpleps %xmm3,%xmm0
- DB 68,15,84,248 ; andps %xmm0,%xmm15
- DB 15,85,196 ; andnps %xmm4,%xmm0
- DB 65,15,86,199 ; orps %xmm15,%xmm0
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 68,15,40,198 ; movaps %xmm6,%xmm8
- DB 68,15,94,199 ; divps %xmm7,%xmm8
- DB 69,15,84,196 ; andps %xmm12,%xmm8
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,89,228 ; mulps %xmm4,%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 65,15,88,206 ; addps %xmm14,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 69,15,40,249 ; movaps %xmm9,%xmm15
- DB 69,15,92,248 ; subps %xmm8,%xmm15
- DB 65,15,82,224 ; rsqrtps %xmm8,%xmm4
- DB 15,83,228 ; rcpps %xmm4,%xmm4
- DB 65,15,92,224 ; subps %xmm8,%xmm4
- DB 69,15,89,194 ; mulps %xmm10,%xmm8
- DB 68,15,88,193 ; addps %xmm1,%xmm8
- DB 15,40,206 ; movaps %xmm6,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,194,207,2 ; cmpleps %xmm7,%xmm1
- DB 68,15,84,193 ; andps %xmm1,%xmm8
- DB 15,85,204 ; andnps %xmm4,%xmm1
- DB 65,15,86,200 ; orps %xmm8,%xmm1
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 69,15,88,192 ; addps %xmm8,%xmm8
- DB 65,15,40,224 ; movaps %xmm8,%xmm4
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 68,15,89,252 ; mulps %xmm4,%xmm15
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 65,15,40,227 ; movaps %xmm11,%xmm4
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 65,15,89,213 ; mulps %xmm13,%xmm2
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 68,15,88,251 ; addps %xmm3,%xmm15
- DB 68,15,89,254 ; mulps %xmm6,%xmm15
- DB 68,15,194,195,2 ; cmpleps %xmm3,%xmm8
- DB 69,15,84,248 ; andps %xmm8,%xmm15
- DB 68,15,85,193 ; andnps %xmm1,%xmm8
- DB 69,15,86,199 ; orps %xmm15,%xmm8
- DB 68,15,88,194 ; addps %xmm2,%xmm8
- DB 68,15,40,60,36 ; movaps (%rsp),%xmm15
- DB 65,15,40,207 ; movaps %xmm15,%xmm1
- DB 15,94,207 ; divps %xmm7,%xmm1
- DB 65,15,84,204 ; andps %xmm12,%xmm1
- DB 68,15,92,201 ; subps %xmm1,%xmm9
- DB 68,15,88,241 ; addps %xmm1,%xmm14
- DB 68,15,89,209 ; mulps %xmm1,%xmm10
- DB 15,82,209 ; rsqrtps %xmm1,%xmm2
- DB 15,83,210 ; rcpps %xmm2,%xmm2
- DB 15,92,209 ; subps %xmm1,%xmm2
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,89,228 ; mulps %xmm4,%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 68,15,89,244 ; mulps %xmm4,%xmm14
- DB 69,15,88,214 ; addps %xmm14,%xmm10
- DB 65,15,40,207 ; movaps %xmm15,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,194,207,2 ; cmpleps %xmm7,%xmm1
- DB 68,15,84,209 ; andps %xmm1,%xmm10
- DB 15,85,202 ; andnps %xmm2,%xmm1
- DB 15,40,84,36,16 ; movaps 0x10(%rsp),%xmm2
- DB 68,15,89,234 ; mulps %xmm2,%xmm13
- DB 15,88,210 ; addps %xmm2,%xmm2
- DB 65,15,86,202 ; orps %xmm10,%xmm1
- DB 15,40,226 ; movaps %xmm2,%xmm4
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 68,15,89,204 ; mulps %xmm4,%xmm9
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 65,15,89,231 ; mulps %xmm15,%xmm4
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 65,15,40,227 ; movaps %xmm11,%xmm4
- DB 65,15,89,231 ; mulps %xmm15,%xmm4
- DB 65,15,88,229 ; addps %xmm13,%xmm4
- DB 68,15,88,203 ; addps %xmm3,%xmm9
- DB 69,15,89,207 ; mulps %xmm15,%xmm9
- DB 69,15,40,215 ; movaps %xmm15,%xmm10
- DB 15,194,211,2 ; cmpleps %xmm3,%xmm2
- DB 68,15,84,202 ; andps %xmm2,%xmm9
- DB 15,85,209 ; andnps %xmm1,%xmm2
- DB 65,15,86,209 ; orps %xmm9,%xmm2
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 68,15,89,223 ; mulps %xmm7,%xmm11
- DB 65,15,88,219 ; addps %xmm11,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,40,238 ; movaps %xmm6,%xmm5
- DB 65,15,40,242 ; movaps %xmm10,%xmm6
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 72,131,196,40 ; add $0x28,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hue_sse2
-_sk_hue_sse2 LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 68,15,89,203 ; mulps %xmm3,%xmm9
- DB 68,15,40,209 ; movaps %xmm1,%xmm10
- DB 68,15,40,225 ; movaps %xmm1,%xmm12
- DB 68,15,89,211 ; mulps %xmm3,%xmm10
- DB 68,15,40,5,95,112,1,0 ; movaps 0x1705f(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 15,40,207 ; movaps %xmm7,%xmm1
- DB 68,15,92,217 ; subps %xmm1,%xmm11
- DB 65,15,89,195 ; mulps %xmm11,%xmm0
- DB 15,41,68,36,64 ; movaps %xmm0,0x40(%rsp)
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 68,15,41,100,36,48 ; movaps %xmm12,0x30(%rsp)
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 68,15,40,229 ; movaps %xmm5,%xmm12
- DB 68,15,40,237 ; movaps %xmm5,%xmm13
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%rsp)
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 68,15,95,239 ; maxps %xmm7,%xmm13
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 68,15,40,245 ; movaps %xmm5,%xmm14
- DB 68,15,40,253 ; movaps %xmm5,%xmm15
- DB 69,15,95,253 ; maxps %xmm13,%xmm15
- DB 68,15,93,231 ; minps %xmm7,%xmm12
- DB 69,15,93,244 ; minps %xmm12,%xmm14
- DB 69,15,92,254 ; subps %xmm14,%xmm15
- DB 69,15,40,226 ; movaps %xmm10,%xmm12
- DB 68,15,93,226 ; minps %xmm2,%xmm12
- DB 69,15,40,233 ; movaps %xmm9,%xmm13
- DB 69,15,93,236 ; minps %xmm12,%xmm13
- DB 69,15,40,226 ; movaps %xmm10,%xmm12
- DB 68,15,95,226 ; maxps %xmm2,%xmm12
- DB 69,15,40,241 ; movaps %xmm9,%xmm14
- DB 69,15,95,244 ; maxps %xmm12,%xmm14
- DB 69,15,92,245 ; subps %xmm13,%xmm14
- DB 69,15,92,205 ; subps %xmm13,%xmm9
- DB 69,15,92,213 ; subps %xmm13,%xmm10
- DB 65,15,92,213 ; subps %xmm13,%xmm2
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 68,15,89,251 ; mulps %xmm3,%xmm15
- DB 69,15,89,207 ; mulps %xmm15,%xmm9
- DB 69,15,89,215 ; mulps %xmm15,%xmm10
- DB 65,15,89,215 ; mulps %xmm15,%xmm2
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 69,15,94,206 ; divps %xmm14,%xmm9
- DB 69,15,94,214 ; divps %xmm14,%xmm10
- DB 65,15,94,214 ; divps %xmm14,%xmm2
- DB 69,15,194,244,4 ; cmpneqps %xmm12,%xmm14
- DB 69,15,84,206 ; andps %xmm14,%xmm9
- DB 69,15,84,214 ; andps %xmm14,%xmm10
- DB 65,15,84,214 ; andps %xmm14,%xmm2
- DB 68,15,40,61,28,112,1,0 ; movaps 0x1701c(%rip),%xmm15 # 35530 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
- DB 65,15,89,231 ; mulps %xmm15,%xmm4
- DB 15,40,5,33,112,1,0 ; movaps 0x17021(%rip),%xmm0 # 35540 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
- DB 15,89,240 ; mulps %xmm0,%xmm6
- DB 15,88,244 ; addps %xmm4,%xmm6
- DB 68,15,40,53,35,112,1,0 ; movaps 0x17023(%rip),%xmm14 # 35550 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
- DB 68,15,40,239 ; movaps %xmm7,%xmm13
- DB 69,15,89,238 ; mulps %xmm14,%xmm13
- DB 68,15,88,238 ; addps %xmm6,%xmm13
- DB 65,15,40,225 ; movaps %xmm9,%xmm4
- DB 65,15,89,231 ; mulps %xmm15,%xmm4
- DB 65,15,40,242 ; movaps %xmm10,%xmm6
- DB 15,89,240 ; mulps %xmm0,%xmm6
- DB 15,88,244 ; addps %xmm4,%xmm6
- DB 15,40,226 ; movaps %xmm2,%xmm4
- DB 65,15,89,230 ; mulps %xmm14,%xmm4
- DB 15,88,230 ; addps %xmm6,%xmm4
- DB 68,15,89,235 ; mulps %xmm3,%xmm13
- DB 68,15,92,236 ; subps %xmm4,%xmm13
- DB 69,15,88,205 ; addps %xmm13,%xmm9
- DB 69,15,88,213 ; addps %xmm13,%xmm10
- DB 68,15,88,234 ; addps %xmm2,%xmm13
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 65,15,93,213 ; minps %xmm13,%xmm2
- DB 65,15,40,241 ; movaps %xmm9,%xmm6
- DB 15,93,242 ; minps %xmm2,%xmm6
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 65,15,95,213 ; maxps %xmm13,%xmm2
- DB 65,15,40,225 ; movaps %xmm9,%xmm4
- DB 15,95,226 ; maxps %xmm2,%xmm4
- DB 69,15,89,249 ; mulps %xmm9,%xmm15
- DB 65,15,89,194 ; mulps %xmm10,%xmm0
- DB 65,15,88,199 ; addps %xmm15,%xmm0
- DB 69,15,89,245 ; mulps %xmm13,%xmm14
- DB 68,15,88,240 ; addps %xmm0,%xmm14
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,194,214,2 ; cmpleps %xmm6,%xmm2
- DB 69,15,40,254 ; movaps %xmm14,%xmm15
- DB 68,15,92,254 ; subps %xmm6,%xmm15
- DB 65,15,40,241 ; movaps %xmm9,%xmm6
- DB 65,15,92,246 ; subps %xmm14,%xmm6
- DB 65,15,89,246 ; mulps %xmm14,%xmm6
- DB 65,15,94,247 ; divps %xmm15,%xmm6
- DB 65,15,88,246 ; addps %xmm14,%xmm6
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,85,198 ; andnps %xmm6,%xmm0
- DB 68,15,84,202 ; andps %xmm2,%xmm9
- DB 68,15,86,200 ; orps %xmm0,%xmm9
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,41,76,36,16 ; movaps %xmm1,0x10(%rsp)
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 15,92,216 ; subps %xmm0,%xmm3
- DB 15,41,28,36 ; movaps %xmm3,(%rsp)
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,194,196,1 ; cmpltps %xmm4,%xmm0
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 65,15,85,201 ; andnps %xmm9,%xmm1
- DB 69,15,92,206 ; subps %xmm14,%xmm9
- DB 65,15,92,246 ; subps %xmm14,%xmm6
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 65,15,92,230 ; subps %xmm14,%xmm4
- DB 68,15,94,204 ; divps %xmm4,%xmm9
- DB 69,15,88,206 ; addps %xmm14,%xmm9
- DB 68,15,84,200 ; andps %xmm0,%xmm9
- DB 68,15,86,201 ; orps %xmm1,%xmm9
- DB 65,15,40,202 ; movaps %xmm10,%xmm1
- DB 65,15,92,206 ; subps %xmm14,%xmm1
- DB 65,15,89,206 ; mulps %xmm14,%xmm1
- DB 65,15,94,207 ; divps %xmm15,%xmm1
- DB 65,15,88,206 ; addps %xmm14,%xmm1
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,85,217 ; andnps %xmm1,%xmm3
- DB 68,15,84,210 ; andps %xmm2,%xmm10
- DB 68,15,86,211 ; orps %xmm3,%xmm10
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 65,15,85,202 ; andnps %xmm10,%xmm1
- DB 69,15,92,214 ; subps %xmm14,%xmm10
- DB 68,15,89,214 ; mulps %xmm6,%xmm10
- DB 68,15,94,212 ; divps %xmm4,%xmm10
- DB 69,15,88,214 ; addps %xmm14,%xmm10
- DB 68,15,84,208 ; andps %xmm0,%xmm10
- DB 68,15,86,209 ; orps %xmm1,%xmm10
- DB 65,15,40,205 ; movaps %xmm13,%xmm1
- DB 65,15,92,206 ; subps %xmm14,%xmm1
- DB 65,15,89,206 ; mulps %xmm14,%xmm1
- DB 65,15,94,207 ; divps %xmm15,%xmm1
- DB 65,15,88,206 ; addps %xmm14,%xmm1
- DB 68,15,84,234 ; andps %xmm2,%xmm13
- DB 15,85,209 ; andnps %xmm1,%xmm2
- DB 65,15,86,213 ; orps %xmm13,%xmm2
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,85,202 ; andnps %xmm2,%xmm1
- DB 65,15,92,214 ; subps %xmm14,%xmm2
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,94,212 ; divps %xmm4,%xmm2
- DB 65,15,88,214 ; addps %xmm14,%xmm2
- DB 15,84,208 ; andps %xmm0,%xmm2
- DB 15,86,209 ; orps %xmm1,%xmm2
- DB 69,15,95,204 ; maxps %xmm12,%xmm9
- DB 69,15,95,212 ; maxps %xmm12,%xmm10
- DB 65,15,95,212 ; maxps %xmm12,%xmm2
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,40,76,36,64 ; movaps 0x40(%rsp),%xmm1
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 65,15,88,201 ; addps %xmm9,%xmm1
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 65,15,40,216 ; movaps %xmm8,%xmm3
- DB 15,40,116,36,32 ; movaps 0x20(%rsp),%xmm6
- DB 15,89,222 ; mulps %xmm6,%xmm3
- DB 15,40,76,36,48 ; movaps 0x30(%rsp),%xmm1
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 69,15,88,195 ; addps %xmm11,%xmm8
- DB 68,15,88,194 ; addps %xmm2,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,40,238 ; movaps %xmm6,%xmm5
- DB 15,40,247 ; movaps %xmm7,%xmm6
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 15,40,28,36 ; movaps (%rsp),%xmm3
- DB 15,40,124,36,16 ; movaps 0x10(%rsp),%xmm7
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_saturation_sse2
-_sk_saturation_sse2 LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 68,15,40,231 ; movaps %xmm7,%xmm12
- DB 68,15,40,198 ; movaps %xmm6,%xmm8
- DB 15,40,251 ; movaps %xmm3,%xmm7
- DB 68,15,40,216 ; movaps %xmm0,%xmm11
- DB 68,15,40,215 ; movaps %xmm7,%xmm10
- DB 68,15,89,212 ; mulps %xmm4,%xmm10
- DB 15,40,244 ; movaps %xmm4,%xmm6
- DB 15,41,116,36,16 ; movaps %xmm6,0x10(%rsp)
- DB 68,15,40,207 ; movaps %xmm7,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%rsp)
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 69,15,40,232 ; movaps %xmm8,%xmm13
- DB 68,15,41,44,36 ; movaps %xmm13,(%rsp)
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%rsp)
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,41,84,36,64 ; movaps %xmm2,0x40(%rsp)
- DB 15,95,218 ; maxps %xmm2,%xmm3
- DB 65,15,40,203 ; movaps %xmm11,%xmm1
- DB 15,95,203 ; maxps %xmm3,%xmm1
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,93,218 ; minps %xmm2,%xmm3
- DB 65,15,40,211 ; movaps %xmm11,%xmm2
- DB 15,93,211 ; minps %xmm3,%xmm2
- DB 15,92,202 ; subps %xmm2,%xmm1
- DB 65,15,89,204 ; mulps %xmm12,%xmm1
- DB 65,15,40,228 ; movaps %xmm12,%xmm4
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 15,93,208 ; minps %xmm0,%xmm2
- DB 69,15,40,194 ; movaps %xmm10,%xmm8
- DB 68,15,93,194 ; minps %xmm2,%xmm8
- DB 65,15,40,209 ; movaps %xmm9,%xmm2
- DB 15,95,208 ; maxps %xmm0,%xmm2
- DB 65,15,40,218 ; movaps %xmm10,%xmm3
- DB 15,95,218 ; maxps %xmm2,%xmm3
- DB 65,15,92,216 ; subps %xmm8,%xmm3
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 69,15,92,208 ; subps %xmm8,%xmm10
- DB 68,15,89,209 ; mulps %xmm1,%xmm10
- DB 68,15,94,211 ; divps %xmm3,%xmm10
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 68,15,94,203 ; divps %xmm3,%xmm9
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,94,195 ; divps %xmm3,%xmm0
- DB 15,194,218,4 ; cmpneqps %xmm2,%xmm3
- DB 68,15,84,211 ; andps %xmm3,%xmm10
- DB 68,15,84,203 ; andps %xmm3,%xmm9
- DB 15,84,195 ; andps %xmm3,%xmm0
- DB 68,15,40,5,112,109,1,0 ; movaps 0x16d70(%rip),%xmm8 # 35530 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,40,13,114,109,1,0 ; movaps 0x16d72(%rip),%xmm1 # 35540 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
- DB 15,40,221 ; movaps %xmm5,%xmm3
- DB 15,89,217 ; mulps %xmm1,%xmm3
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 68,15,40,37,113,109,1,0 ; movaps 0x16d71(%rip),%xmm12 # 35550 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
- DB 69,15,89,236 ; mulps %xmm12,%xmm13
- DB 68,15,88,235 ; addps %xmm3,%xmm13
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 65,15,40,217 ; movaps %xmm9,%xmm3
- DB 15,89,217 ; mulps %xmm1,%xmm3
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 65,15,89,212 ; mulps %xmm12,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 68,15,89,239 ; mulps %xmm7,%xmm13
- DB 68,15,92,234 ; subps %xmm2,%xmm13
- DB 69,15,88,213 ; addps %xmm13,%xmm10
- DB 69,15,88,205 ; addps %xmm13,%xmm9
- DB 68,15,88,232 ; addps %xmm0,%xmm13
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,93,197 ; minps %xmm13,%xmm0
- DB 65,15,40,218 ; movaps %xmm10,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,95,197 ; maxps %xmm13,%xmm0
- DB 69,15,40,242 ; movaps %xmm10,%xmm14
- DB 68,15,95,240 ; maxps %xmm0,%xmm14
- DB 69,15,89,194 ; mulps %xmm10,%xmm8
- DB 65,15,89,201 ; mulps %xmm9,%xmm1
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 69,15,89,229 ; mulps %xmm13,%xmm12
- DB 68,15,88,225 ; addps %xmm1,%xmm12
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,194,211,2 ; cmpleps %xmm3,%xmm2
- DB 65,15,40,244 ; movaps %xmm12,%xmm6
- DB 15,92,243 ; subps %xmm3,%xmm6
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 65,15,92,196 ; subps %xmm12,%xmm0
- DB 65,15,89,196 ; mulps %xmm12,%xmm0
- DB 15,94,198 ; divps %xmm6,%xmm0
- DB 65,15,88,196 ; addps %xmm12,%xmm0
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,85,200 ; andnps %xmm0,%xmm1
- DB 68,15,84,210 ; andps %xmm2,%xmm10
- DB 68,15,86,209 ; orps %xmm1,%xmm10
- DB 15,40,223 ; movaps %xmm7,%xmm3
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,89,221 ; mulps %xmm5,%xmm3
- DB 68,15,40,5,38,108,1,0 ; movaps 0x16c26(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,40,224 ; movaps %xmm8,%xmm4
- DB 68,15,92,199 ; subps %xmm7,%xmm8
- DB 15,88,253 ; addps %xmm5,%xmm7
- DB 15,92,251 ; subps %xmm3,%xmm7
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 65,15,194,222,1 ; cmpltps %xmm14,%xmm3
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 65,15,85,194 ; andnps %xmm10,%xmm0
- DB 69,15,92,212 ; subps %xmm12,%xmm10
- DB 65,15,92,204 ; subps %xmm12,%xmm1
- DB 68,15,89,209 ; mulps %xmm1,%xmm10
- DB 69,15,92,244 ; subps %xmm12,%xmm14
- DB 69,15,94,214 ; divps %xmm14,%xmm10
- DB 69,15,88,212 ; addps %xmm12,%xmm10
- DB 68,15,84,211 ; andps %xmm3,%xmm10
- DB 68,15,86,208 ; orps %xmm0,%xmm10
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,92,196 ; subps %xmm12,%xmm0
- DB 65,15,89,196 ; mulps %xmm12,%xmm0
- DB 15,94,198 ; divps %xmm6,%xmm0
- DB 65,15,88,196 ; addps %xmm12,%xmm0
- DB 68,15,40,250 ; movaps %xmm2,%xmm15
- DB 68,15,85,248 ; andnps %xmm0,%xmm15
- DB 68,15,84,202 ; andps %xmm2,%xmm9
- DB 69,15,86,207 ; orps %xmm15,%xmm9
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 65,15,85,193 ; andnps %xmm9,%xmm0
- DB 69,15,92,204 ; subps %xmm12,%xmm9
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 69,15,94,206 ; divps %xmm14,%xmm9
- DB 69,15,88,204 ; addps %xmm12,%xmm9
- DB 68,15,84,203 ; andps %xmm3,%xmm9
- DB 68,15,86,200 ; orps %xmm0,%xmm9
- DB 65,15,40,197 ; movaps %xmm13,%xmm0
- DB 65,15,92,196 ; subps %xmm12,%xmm0
- DB 65,15,89,196 ; mulps %xmm12,%xmm0
- DB 15,94,198 ; divps %xmm6,%xmm0
- DB 65,15,88,196 ; addps %xmm12,%xmm0
- DB 68,15,84,234 ; andps %xmm2,%xmm13
- DB 15,85,208 ; andnps %xmm0,%xmm2
- DB 65,15,86,213 ; orps %xmm13,%xmm2
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,85,194 ; andnps %xmm2,%xmm0
- DB 65,15,92,212 ; subps %xmm12,%xmm2
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 65,15,94,214 ; divps %xmm14,%xmm2
- DB 65,15,88,212 ; addps %xmm12,%xmm2
- DB 15,84,211 ; andps %xmm3,%xmm2
- DB 15,86,208 ; orps %xmm0,%xmm2
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 68,15,95,208 ; maxps %xmm0,%xmm10
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 15,95,208 ; maxps %xmm0,%xmm2
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,40,92,36,16 ; movaps 0x10(%rsp),%xmm3
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 68,15,40,229 ; movaps %xmm5,%xmm12
- DB 65,15,92,228 ; subps %xmm12,%xmm4
- DB 68,15,89,220 ; mulps %xmm4,%xmm11
- DB 68,15,88,216 ; addps %xmm0,%xmm11
- DB 69,15,88,218 ; addps %xmm10,%xmm11
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,40,108,36,32 ; movaps 0x20(%rsp),%xmm5
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,40,76,36,48 ; movaps 0x30(%rsp),%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 65,15,88,201 ; addps %xmm9,%xmm1
- DB 15,89,100,36,64 ; mulps 0x40(%rsp),%xmm4
- DB 15,40,4,36 ; movaps (%rsp),%xmm0
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 68,15,88,196 ; addps %xmm4,%xmm8
- DB 68,15,88,194 ; addps %xmm2,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 15,40,223 ; movaps %xmm7,%xmm3
- DB 65,15,40,252 ; movaps %xmm12,%xmm7
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_color_sse2
-_sk_color_sse2 LABEL PROC
- DB 72,131,236,72 ; sub $0x48,%rsp
- DB 68,15,40,199 ; movaps %xmm7,%xmm8
- DB 68,15,40,230 ; movaps %xmm6,%xmm12
- DB 68,15,41,100,36,32 ; movaps %xmm12,0x20(%rsp)
- DB 68,15,40,221 ; movaps %xmm5,%xmm11
- DB 68,15,41,92,36,48 ; movaps %xmm11,0x30(%rsp)
- DB 15,40,244 ; movaps %xmm4,%xmm6
- DB 15,41,20,36 ; movaps %xmm2,(%rsp)
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 68,15,40,207 ; movaps %xmm7,%xmm9
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 68,15,40,213 ; movaps %xmm5,%xmm10
- DB 69,15,89,208 ; mulps %xmm8,%xmm10
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 68,15,40,45,46,107,1,0 ; movaps 0x16b2e(%rip),%xmm13 # 35530 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
- DB 68,15,40,198 ; movaps %xmm6,%xmm8
- DB 69,15,89,197 ; mulps %xmm13,%xmm8
- DB 68,15,40,53,46,107,1,0 ; movaps 0x16b2e(%rip),%xmm14 # 35540 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 65,15,89,198 ; mulps %xmm14,%xmm0
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 68,15,40,29,42,107,1,0 ; movaps 0x16b2a(%rip),%xmm11 # 35550 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 68,15,88,224 ; addps %xmm0,%xmm12
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,89,197 ; mulps %xmm13,%xmm0
- DB 69,15,40,250 ; movaps %xmm10,%xmm15
- DB 69,15,89,254 ; mulps %xmm14,%xmm15
- DB 68,15,88,248 ; addps %xmm0,%xmm15
- DB 68,15,40,5,102,106,1,0 ; movaps 0x16a66(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,40,224 ; movaps %xmm8,%xmm4
- DB 15,92,226 ; subps %xmm2,%xmm4
- DB 15,89,252 ; mulps %xmm4,%xmm7
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,40,12,36 ; movaps (%rsp),%xmm1
- DB 15,89,225 ; mulps %xmm1,%xmm4
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 65,15,89,195 ; mulps %xmm11,%xmm0
- DB 65,15,88,199 ; addps %xmm15,%xmm0
- DB 68,15,89,227 ; mulps %xmm3,%xmm12
- DB 68,15,92,224 ; subps %xmm0,%xmm12
- DB 69,15,88,204 ; addps %xmm12,%xmm9
- DB 69,15,88,212 ; addps %xmm12,%xmm10
- DB 68,15,88,225 ; addps %xmm1,%xmm12
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 65,15,93,196 ; minps %xmm12,%xmm0
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 15,93,200 ; minps %xmm0,%xmm1
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 65,15,95,196 ; maxps %xmm12,%xmm0
- DB 69,15,40,249 ; movaps %xmm9,%xmm15
- DB 68,15,95,248 ; maxps %xmm0,%xmm15
- DB 69,15,89,233 ; mulps %xmm9,%xmm13
- DB 69,15,89,242 ; mulps %xmm10,%xmm14
- DB 69,15,88,245 ; addps %xmm13,%xmm14
- DB 69,15,89,220 ; mulps %xmm12,%xmm11
- DB 69,15,88,222 ; addps %xmm14,%xmm11
- DB 69,15,87,237 ; xorps %xmm13,%xmm13
- DB 68,15,194,233,2 ; cmpleps %xmm1,%xmm13
- DB 69,15,40,243 ; movaps %xmm11,%xmm14
- DB 68,15,92,241 ; subps %xmm1,%xmm14
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 65,15,92,203 ; subps %xmm11,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 65,15,94,206 ; divps %xmm14,%xmm1
- DB 65,15,88,203 ; addps %xmm11,%xmm1
- DB 65,15,40,197 ; movaps %xmm13,%xmm0
- DB 15,85,193 ; andnps %xmm1,%xmm0
- DB 69,15,84,205 ; andps %xmm13,%xmm9
- DB 68,15,86,200 ; orps %xmm0,%xmm9
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,41,84,36,16 ; movaps %xmm2,0x10(%rsp)
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 15,92,216 ; subps %xmm0,%xmm3
- DB 15,41,28,36 ; movaps %xmm3,(%rsp)
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 65,15,194,199,1 ; cmpltps %xmm15,%xmm0
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 65,15,85,201 ; andnps %xmm9,%xmm1
- DB 69,15,92,203 ; subps %xmm11,%xmm9
- DB 65,15,92,219 ; subps %xmm11,%xmm3
- DB 68,15,89,203 ; mulps %xmm3,%xmm9
- DB 69,15,92,251 ; subps %xmm11,%xmm15
- DB 69,15,94,207 ; divps %xmm15,%xmm9
- DB 69,15,88,203 ; addps %xmm11,%xmm9
- DB 68,15,84,200 ; andps %xmm0,%xmm9
- DB 68,15,86,201 ; orps %xmm1,%xmm9
- DB 65,15,40,202 ; movaps %xmm10,%xmm1
- DB 65,15,92,203 ; subps %xmm11,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 65,15,94,206 ; divps %xmm14,%xmm1
- DB 65,15,88,203 ; addps %xmm11,%xmm1
- DB 65,15,40,213 ; movaps %xmm13,%xmm2
- DB 15,85,209 ; andnps %xmm1,%xmm2
- DB 69,15,84,213 ; andps %xmm13,%xmm10
- DB 68,15,86,210 ; orps %xmm2,%xmm10
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 65,15,85,202 ; andnps %xmm10,%xmm1
- DB 69,15,92,211 ; subps %xmm11,%xmm10
- DB 68,15,89,211 ; mulps %xmm3,%xmm10
- DB 69,15,94,215 ; divps %xmm15,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 68,15,84,208 ; andps %xmm0,%xmm10
- DB 68,15,86,209 ; orps %xmm1,%xmm10
- DB 65,15,40,204 ; movaps %xmm12,%xmm1
- DB 65,15,92,203 ; subps %xmm11,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 65,15,94,206 ; divps %xmm14,%xmm1
- DB 65,15,88,203 ; addps %xmm11,%xmm1
- DB 69,15,84,229 ; andps %xmm13,%xmm12
- DB 68,15,85,233 ; andnps %xmm1,%xmm13
- DB 69,15,86,236 ; orps %xmm12,%xmm13
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 65,15,85,205 ; andnps %xmm13,%xmm1
- DB 69,15,92,235 ; subps %xmm11,%xmm13
- DB 68,15,89,235 ; mulps %xmm3,%xmm13
- DB 69,15,94,239 ; divps %xmm15,%xmm13
- DB 69,15,88,235 ; addps %xmm11,%xmm13
- DB 68,15,84,232 ; andps %xmm0,%xmm13
- DB 68,15,86,233 ; orps %xmm1,%xmm13
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,95,208 ; maxps %xmm0,%xmm10
- DB 68,15,95,232 ; maxps %xmm0,%xmm13
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 65,15,88,249 ; addps %xmm9,%xmm7
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,40,84,36,48 ; movaps 0x30(%rsp),%xmm2
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 65,15,88,234 ; addps %xmm10,%xmm5
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,40,68,36,32 ; movaps 0x20(%rsp),%xmm0
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 68,15,88,196 ; addps %xmm4,%xmm8
- DB 69,15,88,197 ; addps %xmm13,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 15,40,234 ; movaps %xmm2,%xmm5
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 15,40,28,36 ; movaps (%rsp),%xmm3
- DB 15,40,124,36,16 ; movaps 0x10(%rsp),%xmm7
- DB 72,131,196,72 ; add $0x48,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_luminosity_sse2
-_sk_luminosity_sse2 LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 68,15,40,215 ; movaps %xmm7,%xmm10
- DB 15,41,116,36,32 ; movaps %xmm6,0x20(%rsp)
- DB 15,40,245 ; movaps %xmm5,%xmm6
- DB 15,41,116,36,64 ; movaps %xmm6,0x40(%rsp)
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%rsp)
- DB 15,40,235 ; movaps %xmm3,%xmm5
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 68,15,40,205 ; movaps %xmm5,%xmm9
- DB 68,15,89,204 ; mulps %xmm4,%xmm9
- DB 15,89,222 ; mulps %xmm6,%xmm3
- DB 68,15,40,37,232,104,1,0 ; movaps 0x168e8(%rip),%xmm12 # 35530 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
- DB 68,15,40,199 ; movaps %xmm7,%xmm8
- DB 69,15,89,196 ; mulps %xmm12,%xmm8
- DB 68,15,40,45,232,104,1,0 ; movaps 0x168e8(%rip),%xmm13 # 35540 <_sk_srcover_bgra_8888_sse2_lowp+0xd28>
- DB 68,15,40,241 ; movaps %xmm1,%xmm14
- DB 69,15,89,245 ; mulps %xmm13,%xmm14
- DB 69,15,88,240 ; addps %xmm8,%xmm14
- DB 68,15,40,29,228,104,1,0 ; movaps 0x168e4(%rip),%xmm11 # 35550 <_sk_srcover_bgra_8888_sse2_lowp+0xd38>
- DB 68,15,40,5,60,104,1,0 ; movaps 0x1683c(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,248 ; movaps %xmm8,%xmm15
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 68,15,92,248 ; subps %xmm0,%xmm15
- DB 65,15,89,255 ; mulps %xmm15,%xmm7
- DB 65,15,89,207 ; mulps %xmm15,%xmm1
- DB 15,41,76,36,16 ; movaps %xmm1,0x10(%rsp)
- DB 68,15,89,250 ; mulps %xmm2,%xmm15
- DB 65,15,89,211 ; mulps %xmm11,%xmm2
- DB 65,15,88,214 ; addps %xmm14,%xmm2
- DB 69,15,40,241 ; movaps %xmm9,%xmm14
- DB 69,15,89,244 ; mulps %xmm12,%xmm14
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 69,15,89,213 ; mulps %xmm13,%xmm10
- DB 69,15,88,214 ; addps %xmm14,%xmm10
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,40,116,36,32 ; movaps 0x20(%rsp),%xmm6
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 68,15,40,244 ; movaps %xmm4,%xmm14
- DB 69,15,89,243 ; mulps %xmm11,%xmm14
- DB 69,15,88,242 ; addps %xmm10,%xmm14
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 65,15,92,214 ; subps %xmm14,%xmm2
- DB 68,15,88,202 ; addps %xmm2,%xmm9
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 68,15,93,210 ; minps %xmm2,%xmm10
- DB 65,15,40,225 ; movaps %xmm9,%xmm4
- DB 65,15,93,226 ; minps %xmm10,%xmm4
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 68,15,95,210 ; maxps %xmm2,%xmm10
- DB 69,15,40,241 ; movaps %xmm9,%xmm14
- DB 69,15,95,242 ; maxps %xmm10,%xmm14
- DB 69,15,89,225 ; mulps %xmm9,%xmm12
- DB 68,15,89,235 ; mulps %xmm3,%xmm13
- DB 69,15,88,236 ; addps %xmm12,%xmm13
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 69,15,88,221 ; addps %xmm13,%xmm11
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,194,228,2 ; cmpleps %xmm4,%xmm12
- DB 69,15,40,211 ; movaps %xmm11,%xmm10
- DB 68,15,92,212 ; subps %xmm4,%xmm10
- DB 65,15,40,225 ; movaps %xmm9,%xmm4
- DB 65,15,92,227 ; subps %xmm11,%xmm4
- DB 65,15,89,227 ; mulps %xmm11,%xmm4
- DB 65,15,94,226 ; divps %xmm10,%xmm4
- DB 65,15,88,227 ; addps %xmm11,%xmm4
- DB 69,15,40,236 ; movaps %xmm12,%xmm13
- DB 68,15,85,236 ; andnps %xmm4,%xmm13
- DB 69,15,84,204 ; andps %xmm12,%xmm9
- DB 69,15,86,205 ; orps %xmm13,%xmm9
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,41,4,36 ; movaps %xmm0,(%rsp)
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 68,15,92,197 ; subps %xmm5,%xmm8
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 15,92,236 ; subps %xmm4,%xmm5
- DB 68,15,40,236 ; movaps %xmm4,%xmm13
- DB 65,15,194,230,1 ; cmpltps %xmm14,%xmm4
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 65,15,85,193 ; andnps %xmm9,%xmm0
- DB 69,15,92,203 ; subps %xmm11,%xmm9
- DB 69,15,92,235 ; subps %xmm11,%xmm13
- DB 69,15,89,205 ; mulps %xmm13,%xmm9
- DB 69,15,92,243 ; subps %xmm11,%xmm14
- DB 69,15,94,206 ; divps %xmm14,%xmm9
- DB 69,15,88,203 ; addps %xmm11,%xmm9
- DB 68,15,84,204 ; andps %xmm4,%xmm9
- DB 68,15,86,200 ; orps %xmm0,%xmm9
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 65,15,92,195 ; subps %xmm11,%xmm0
- DB 65,15,89,195 ; mulps %xmm11,%xmm0
- DB 65,15,94,194 ; divps %xmm10,%xmm0
- DB 65,15,88,195 ; addps %xmm11,%xmm0
- DB 65,15,40,204 ; movaps %xmm12,%xmm1
- DB 15,85,200 ; andnps %xmm0,%xmm1
- DB 65,15,84,220 ; andps %xmm12,%xmm3
- DB 15,86,217 ; orps %xmm1,%xmm3
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,85,195 ; andnps %xmm3,%xmm0
- DB 65,15,92,219 ; subps %xmm11,%xmm3
- DB 65,15,89,221 ; mulps %xmm13,%xmm3
- DB 65,15,94,222 ; divps %xmm14,%xmm3
- DB 65,15,88,219 ; addps %xmm11,%xmm3
- DB 15,84,220 ; andps %xmm4,%xmm3
- DB 15,86,216 ; orps %xmm0,%xmm3
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 65,15,92,195 ; subps %xmm11,%xmm0
- DB 65,15,89,195 ; mulps %xmm11,%xmm0
- DB 65,15,94,194 ; divps %xmm10,%xmm0
- DB 65,15,88,195 ; addps %xmm11,%xmm0
- DB 65,15,84,212 ; andps %xmm12,%xmm2
- DB 68,15,85,224 ; andnps %xmm0,%xmm12
- DB 68,15,86,226 ; orps %xmm2,%xmm12
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 65,15,85,196 ; andnps %xmm12,%xmm0
- DB 69,15,92,227 ; subps %xmm11,%xmm12
- DB 69,15,89,229 ; mulps %xmm13,%xmm12
- DB 69,15,94,230 ; divps %xmm14,%xmm12
- DB 69,15,88,227 ; addps %xmm11,%xmm12
- DB 68,15,84,228 ; andps %xmm4,%xmm12
- DB 68,15,86,224 ; orps %xmm0,%xmm12
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 15,95,216 ; maxps %xmm0,%xmm3
- DB 68,15,95,224 ; maxps %xmm0,%xmm12
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,40,100,36,48 ; movaps 0x30(%rsp),%xmm4
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 65,15,88,249 ; addps %xmm9,%xmm7
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 68,15,40,84,36,64 ; movaps 0x40(%rsp),%xmm10
- DB 65,15,89,194 ; mulps %xmm10,%xmm0
- DB 15,40,76,36,16 ; movaps 0x10(%rsp),%xmm1
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 68,15,89,198 ; mulps %xmm6,%xmm8
- DB 69,15,88,199 ; addps %xmm15,%xmm8
- DB 69,15,88,196 ; addps %xmm12,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 15,40,221 ; movaps %xmm5,%xmm3
- DB 65,15,40,234 ; movaps %xmm10,%xmm5
- DB 15,40,60,36 ; movaps (%rsp),%xmm7
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_rgba_8888_sse2
-_sk_srcover_rgba_8888_sse2 LABEL PROC
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,4,1,0,0 ; jne 1ef80 <_sk_srcover_rgba_8888_sse2+0x123>
- DB 243,65,15,111,4,144 ; movdqu (%r8,%rdx,4),%xmm0
- DB 72,133,255 ; test %rdi,%rdi
- DB 102,15,111,53,211,102,1,0 ; movdqa 0x166d3(%rip),%xmm6 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,219,230 ; pand %xmm6,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,114,213,8 ; psrld $0x8,%xmm5
- DB 102,15,219,238 ; pand %xmm6,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,114,215,16 ; psrld $0x10,%xmm7
- DB 102,15,219,254 ; pand %xmm6,%xmm7
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 15,91,247 ; cvtdq2ps %xmm7,%xmm6
- DB 102,15,114,208,24 ; psrld $0x18,%xmm0
- DB 15,91,248 ; cvtdq2ps %xmm0,%xmm7
- DB 68,15,40,5,228,101,1,0 ; movaps 0x165e4(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 68,15,40,37,184,102,1,0 ; movaps 0x166b8(%rip),%xmm12 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 69,15,89,204 ; mulps %xmm12,%xmm9
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 65,15,88,193 ; addps %xmm9,%xmm0
- DB 65,15,89,204 ; mulps %xmm12,%xmm1
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 68,15,88,201 ; addps %xmm1,%xmm9
- DB 65,15,89,212 ; mulps %xmm12,%xmm2
- DB 69,15,40,208 ; movaps %xmm8,%xmm10
- DB 68,15,89,214 ; mulps %xmm6,%xmm10
- DB 68,15,88,210 ; addps %xmm2,%xmm10
- DB 65,15,89,220 ; mulps %xmm12,%xmm3
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 68,15,88,195 ; addps %xmm3,%xmm8
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,95,200 ; maxps %xmm0,%xmm1
- DB 65,15,93,204 ; minps %xmm12,%xmm1
- DB 102,15,91,201 ; cvtps2dq %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 65,15,95,209 ; maxps %xmm9,%xmm2
- DB 65,15,93,212 ; minps %xmm12,%xmm2
- DB 102,15,91,210 ; cvtps2dq %xmm2,%xmm2
- DB 102,15,114,242,8 ; pslld $0x8,%xmm2
- DB 102,15,235,209 ; por %xmm1,%xmm2
- DB 102,15,87,201 ; xorpd %xmm1,%xmm1
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,93,204 ; minps %xmm12,%xmm1
- DB 102,15,91,217 ; cvtps2dq %xmm1,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 69,15,95,216 ; maxps %xmm8,%xmm11
- DB 69,15,93,220 ; minps %xmm12,%xmm11
- DB 102,65,15,91,203 ; cvtps2dq %xmm11,%xmm1
- DB 102,15,114,241,24 ; pslld $0x18,%xmm1
- DB 102,15,235,203 ; por %xmm3,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 117,69 ; jne 1efaf <_sk_srcover_rgba_8888_sse2+0x152>
- DB 243,65,15,127,12,144 ; movdqu %xmm1,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 65,15,40,216 ; movaps %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,75 ; je 1efd3 <_sk_srcover_rgba_8888_sse2+0x176>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 60,2 ; cmp $0x2,%al
- DB 116,20 ; je 1efa4 <_sk_srcover_rgba_8888_sse2+0x147>
- DB 60,3 ; cmp $0x3,%al
- DB 15,133,234,254,255,255 ; jne 1ee82 <_sk_srcover_rgba_8888_sse2+0x25>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 102,65,15,18,4,144 ; movlpd (%r8,%rdx,4),%xmm0
- DB 233,211,254,255,255 ; jmpq 1ee82 <_sk_srcover_rgba_8888_sse2+0x25>
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,39 ; je 1efde <_sk_srcover_rgba_8888_sse2+0x181>
- DB 60,2 ; cmp $0x2,%al
- DB 116,16 ; je 1efcb <_sk_srcover_rgba_8888_sse2+0x16e>
- DB 60,3 ; cmp $0x3,%al
- DB 117,177 ; jne 1ef70 <_sk_srcover_rgba_8888_sse2+0x113>
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,65,15,126,84,144,8 ; movd %xmm2,0x8(%r8,%rdx,4)
- DB 102,65,15,214,12,144 ; movq %xmm1,(%r8,%rdx,4)
- DB 235,157 ; jmp 1ef70 <_sk_srcover_rgba_8888_sse2+0x113>
- DB 102,65,15,110,4,144 ; movd (%r8,%rdx,4),%xmm0
- DB 233,164,254,255,255 ; jmpq 1ee82 <_sk_srcover_rgba_8888_sse2+0x25>
- DB 102,65,15,126,12,144 ; movd %xmm1,(%r8,%rdx,4)
- DB 235,138 ; jmp 1ef70 <_sk_srcover_rgba_8888_sse2+0x113>
-
-PUBLIC _sk_srcover_bgra_8888_sse2
-_sk_srcover_bgra_8888_sse2 LABEL PROC
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,4,1,0,0 ; jne 1f109 <_sk_srcover_bgra_8888_sse2+0x123>
- DB 243,65,15,111,4,144 ; movdqu (%r8,%rdx,4),%xmm0
- DB 72,133,255 ; test %rdi,%rdi
- DB 102,15,111,37,74,101,1,0 ; movdqa 0x1654a(%rip),%xmm4 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 15,91,245 ; cvtdq2ps %xmm5,%xmm6
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,114,213,8 ; psrld $0x8,%xmm5
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,114,215,16 ; psrld $0x10,%xmm7
- DB 102,15,219,252 ; pand %xmm4,%xmm7
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 15,91,231 ; cvtdq2ps %xmm7,%xmm4
- DB 102,15,114,208,24 ; psrld $0x18,%xmm0
- DB 15,91,248 ; cvtdq2ps %xmm0,%xmm7
- DB 68,15,40,5,91,100,1,0 ; movaps 0x1645b(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 68,15,40,37,47,101,1,0 ; movaps 0x1652f(%rip),%xmm12 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 69,15,89,204 ; mulps %xmm12,%xmm9
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 65,15,88,193 ; addps %xmm9,%xmm0
- DB 65,15,89,204 ; mulps %xmm12,%xmm1
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,89,205 ; mulps %xmm5,%xmm9
- DB 68,15,88,201 ; addps %xmm1,%xmm9
- DB 65,15,89,212 ; mulps %xmm12,%xmm2
- DB 69,15,40,208 ; movaps %xmm8,%xmm10
- DB 68,15,89,214 ; mulps %xmm6,%xmm10
- DB 68,15,88,210 ; addps %xmm2,%xmm10
- DB 65,15,89,220 ; mulps %xmm12,%xmm3
- DB 68,15,89,199 ; mulps %xmm7,%xmm8
- DB 68,15,88,195 ; addps %xmm3,%xmm8
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,93,204 ; minps %xmm12,%xmm1
- DB 102,15,91,201 ; cvtps2dq %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 65,15,95,209 ; maxps %xmm9,%xmm2
- DB 65,15,93,212 ; minps %xmm12,%xmm2
- DB 102,15,91,210 ; cvtps2dq %xmm2,%xmm2
- DB 102,15,114,242,8 ; pslld $0x8,%xmm2
- DB 102,15,235,209 ; por %xmm1,%xmm2
- DB 102,15,87,201 ; xorpd %xmm1,%xmm1
- DB 15,95,200 ; maxps %xmm0,%xmm1
- DB 65,15,93,204 ; minps %xmm12,%xmm1
- DB 102,15,91,217 ; cvtps2dq %xmm1,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 69,15,95,216 ; maxps %xmm8,%xmm11
- DB 69,15,93,220 ; minps %xmm12,%xmm11
- DB 102,65,15,91,203 ; cvtps2dq %xmm11,%xmm1
- DB 102,15,114,241,24 ; pslld $0x18,%xmm1
- DB 102,15,235,203 ; por %xmm3,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 117,69 ; jne 1f138 <_sk_srcover_bgra_8888_sse2+0x152>
- DB 243,65,15,127,12,144 ; movdqu %xmm1,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 65,15,40,216 ; movaps %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,75 ; je 1f15c <_sk_srcover_bgra_8888_sse2+0x176>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 60,2 ; cmp $0x2,%al
- DB 116,20 ; je 1f12d <_sk_srcover_bgra_8888_sse2+0x147>
- DB 60,3 ; cmp $0x3,%al
- DB 15,133,234,254,255,255 ; jne 1f00b <_sk_srcover_bgra_8888_sse2+0x25>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 102,65,15,18,4,144 ; movlpd (%r8,%rdx,4),%xmm0
- DB 233,211,254,255,255 ; jmpq 1f00b <_sk_srcover_bgra_8888_sse2+0x25>
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,39 ; je 1f167 <_sk_srcover_bgra_8888_sse2+0x181>
- DB 60,2 ; cmp $0x2,%al
- DB 116,16 ; je 1f154 <_sk_srcover_bgra_8888_sse2+0x16e>
- DB 60,3 ; cmp $0x3,%al
- DB 117,177 ; jne 1f0f9 <_sk_srcover_bgra_8888_sse2+0x113>
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,65,15,126,84,144,8 ; movd %xmm2,0x8(%r8,%rdx,4)
- DB 102,65,15,214,12,144 ; movq %xmm1,(%r8,%rdx,4)
- DB 235,157 ; jmp 1f0f9 <_sk_srcover_bgra_8888_sse2+0x113>
- DB 102,65,15,110,4,144 ; movd (%r8,%rdx,4),%xmm0
- DB 233,164,254,255,255 ; jmpq 1f00b <_sk_srcover_bgra_8888_sse2+0x25>
- DB 102,65,15,126,12,144 ; movd %xmm1,(%r8,%rdx,4)
- DB 235,138 ; jmp 1f0f9 <_sk_srcover_bgra_8888_sse2+0x113>
-
-PUBLIC _sk_clamp_0_sse2
-_sk_clamp_0_sse2 LABEL PROC
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 65,15,95,192 ; maxps %xmm8,%xmm0
- DB 65,15,95,200 ; maxps %xmm8,%xmm1
- DB 65,15,95,208 ; maxps %xmm8,%xmm2
- DB 65,15,95,216 ; maxps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_1_sse2
-_sk_clamp_1_sse2 LABEL PROC
- DB 68,15,40,5,33,99,1,0 ; movaps 0x16321(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 65,15,93,208 ; minps %xmm8,%xmm2
- DB 65,15,93,216 ; minps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_a_sse2
-_sk_clamp_a_sse2 LABEL PROC
- DB 15,93,29,6,99,1,0 ; minps 0x16306(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,93,195 ; minps %xmm3,%xmm0
- DB 15,93,203 ; minps %xmm3,%xmm1
- DB 15,93,211 ; minps %xmm3,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_a_dst_sse2
-_sk_clamp_a_dst_sse2 LABEL PROC
- DB 15,93,61,242,98,1,0 ; minps 0x162f2(%rip),%xmm7 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,93,231 ; minps %xmm7,%xmm4
- DB 15,93,239 ; minps %xmm7,%xmm5
- DB 15,93,247 ; minps %xmm7,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_set_rgb_sse2
-_sk_set_rgb_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,15,16,80,8 ; movss 0x8(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_swap_rb_sse2
-_sk_swap_rb_sse2 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_invert_sse2
-_sk_invert_sse2 LABEL PROC
- DB 68,15,40,5,174,98,1,0 ; movaps 0x162ae(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,92,200 ; subps %xmm0,%xmm9
- DB 69,15,40,208 ; movaps %xmm8,%xmm10
- DB 68,15,92,209 ; subps %xmm1,%xmm10
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 68,15,92,218 ; subps %xmm2,%xmm11
- DB 68,15,92,195 ; subps %xmm3,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,40,202 ; movaps %xmm10,%xmm1
- DB 65,15,40,211 ; movaps %xmm11,%xmm2
- DB 65,15,40,216 ; movaps %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_src_dst_sse2
-_sk_move_src_dst_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,40,242 ; movaps %xmm2,%xmm6
- DB 15,40,251 ; movaps %xmm3,%xmm7
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_dst_src_sse2
-_sk_move_dst_src_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,40,223 ; movaps %xmm7,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_sse2
-_sk_premul_sse2 LABEL PROC
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_dst_sse2
-_sk_premul_dst_sse2 LABEL PROC
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,89,239 ; mulps %xmm7,%xmm5
- DB 15,89,247 ; mulps %xmm7,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_unpremul_sse2
-_sk_unpremul_sse2 LABEL PROC
- DB 68,15,40,5,60,98,1,0 ; movaps 0x1623c(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,94,195 ; divps %xmm3,%xmm8
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 68,15,194,13,27,99,1,0,1 ; cmpltps 0x1631b(%rip),%xmm9 # 355a0 <_sk_srcover_bgra_8888_sse2_lowp+0xd88>
- DB 69,15,84,200 ; andps %xmm8,%xmm9
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 65,15,89,201 ; mulps %xmm9,%xmm1
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_force_opaque_sse2
-_sk_force_opaque_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,14,98,1,0 ; movaps 0x1620e(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_force_opaque_dst_sse2
-_sk_force_opaque_dst_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,3,98,1,0 ; movaps 0x16203(%rip),%xmm7 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_from_srgb_sse2
-_sk_from_srgb_sse2 LABEL PROC
- DB 68,15,40,5,249,98,1,0 ; movaps 0x162f9(%rip),%xmm8 # 355b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
- DB 68,15,40,232 ; movaps %xmm0,%xmm13
- DB 69,15,89,232 ; mulps %xmm8,%xmm13
- DB 68,15,40,216 ; movaps %xmm0,%xmm11
- DB 69,15,89,219 ; mulps %xmm11,%xmm11
- DB 68,15,40,13,97,98,1,0 ; movaps 0x16261(%rip),%xmm9 # 35530 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
- DB 68,15,40,240 ; movaps %xmm0,%xmm14
- DB 69,15,89,241 ; mulps %xmm9,%xmm14
- DB 68,15,40,21,225,98,1,0 ; movaps 0x162e1(%rip),%xmm10 # 355c0 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
- DB 69,15,88,242 ; addps %xmm10,%xmm14
- DB 69,15,89,243 ; mulps %xmm11,%xmm14
- DB 68,15,40,29,225,98,1,0 ; movaps 0x162e1(%rip),%xmm11 # 355d0 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
- DB 69,15,88,243 ; addps %xmm11,%xmm14
- DB 68,15,40,37,229,98,1,0 ; movaps 0x162e5(%rip),%xmm12 # 355e0 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
- DB 65,15,194,196,1 ; cmpltps %xmm12,%xmm0
- DB 68,15,84,232 ; andps %xmm0,%xmm13
- DB 65,15,85,198 ; andnps %xmm14,%xmm0
- DB 65,15,86,197 ; orps %xmm13,%xmm0
- DB 68,15,40,233 ; movaps %xmm1,%xmm13
- DB 69,15,89,232 ; mulps %xmm8,%xmm13
- DB 68,15,40,241 ; movaps %xmm1,%xmm14
- DB 69,15,89,246 ; mulps %xmm14,%xmm14
- DB 68,15,40,249 ; movaps %xmm1,%xmm15
- DB 69,15,89,249 ; mulps %xmm9,%xmm15
- DB 69,15,88,250 ; addps %xmm10,%xmm15
- DB 69,15,89,254 ; mulps %xmm14,%xmm15
- DB 69,15,88,251 ; addps %xmm11,%xmm15
- DB 65,15,194,204,1 ; cmpltps %xmm12,%xmm1
- DB 68,15,84,233 ; andps %xmm1,%xmm13
- DB 65,15,85,207 ; andnps %xmm15,%xmm1
- DB 65,15,86,205 ; orps %xmm13,%xmm1
- DB 68,15,89,194 ; mulps %xmm2,%xmm8
- DB 68,15,40,234 ; movaps %xmm2,%xmm13
- DB 69,15,89,237 ; mulps %xmm13,%xmm13
- DB 68,15,89,202 ; mulps %xmm2,%xmm9
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 69,15,89,205 ; mulps %xmm13,%xmm9
- DB 69,15,88,203 ; addps %xmm11,%xmm9
- DB 65,15,194,212,1 ; cmpltps %xmm12,%xmm2
- DB 68,15,84,194 ; andps %xmm2,%xmm8
- DB 65,15,85,209 ; andnps %xmm9,%xmm2
- DB 65,15,86,208 ; orps %xmm8,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_from_srgb_dst_sse2
-_sk_from_srgb_dst_sse2 LABEL PROC
- DB 68,15,40,5,54,98,1,0 ; movaps 0x16236(%rip),%xmm8 # 355b0 <_sk_srcover_bgra_8888_sse2_lowp+0xd98>
- DB 68,15,40,236 ; movaps %xmm4,%xmm13
- DB 69,15,89,232 ; mulps %xmm8,%xmm13
- DB 68,15,40,220 ; movaps %xmm4,%xmm11
- DB 69,15,89,219 ; mulps %xmm11,%xmm11
- DB 68,15,40,13,158,97,1,0 ; movaps 0x1619e(%rip),%xmm9 # 35530 <_sk_srcover_bgra_8888_sse2_lowp+0xd18>
- DB 68,15,40,244 ; movaps %xmm4,%xmm14
- DB 69,15,89,241 ; mulps %xmm9,%xmm14
- DB 68,15,40,21,30,98,1,0 ; movaps 0x1621e(%rip),%xmm10 # 355c0 <_sk_srcover_bgra_8888_sse2_lowp+0xda8>
- DB 69,15,88,242 ; addps %xmm10,%xmm14
- DB 69,15,89,243 ; mulps %xmm11,%xmm14
- DB 68,15,40,29,30,98,1,0 ; movaps 0x1621e(%rip),%xmm11 # 355d0 <_sk_srcover_bgra_8888_sse2_lowp+0xdb8>
- DB 69,15,88,243 ; addps %xmm11,%xmm14
- DB 68,15,40,37,34,98,1,0 ; movaps 0x16222(%rip),%xmm12 # 355e0 <_sk_srcover_bgra_8888_sse2_lowp+0xdc8>
- DB 65,15,194,228,1 ; cmpltps %xmm12,%xmm4
- DB 68,15,84,236 ; andps %xmm4,%xmm13
- DB 65,15,85,230 ; andnps %xmm14,%xmm4
- DB 65,15,86,229 ; orps %xmm13,%xmm4
- DB 68,15,40,237 ; movaps %xmm5,%xmm13
- DB 69,15,89,232 ; mulps %xmm8,%xmm13
- DB 68,15,40,245 ; movaps %xmm5,%xmm14
- DB 69,15,89,246 ; mulps %xmm14,%xmm14
- DB 68,15,40,253 ; movaps %xmm5,%xmm15
- DB 69,15,89,249 ; mulps %xmm9,%xmm15
- DB 69,15,88,250 ; addps %xmm10,%xmm15
- DB 69,15,89,254 ; mulps %xmm14,%xmm15
- DB 69,15,88,251 ; addps %xmm11,%xmm15
- DB 65,15,194,236,1 ; cmpltps %xmm12,%xmm5
- DB 68,15,84,237 ; andps %xmm5,%xmm13
- DB 65,15,85,239 ; andnps %xmm15,%xmm5
- DB 65,15,86,237 ; orps %xmm13,%xmm5
- DB 68,15,89,198 ; mulps %xmm6,%xmm8
- DB 68,15,40,238 ; movaps %xmm6,%xmm13
- DB 69,15,89,237 ; mulps %xmm13,%xmm13
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 69,15,89,205 ; mulps %xmm13,%xmm9
- DB 69,15,88,203 ; addps %xmm11,%xmm9
- DB 65,15,194,244,1 ; cmpltps %xmm12,%xmm6
- DB 68,15,84,198 ; andps %xmm6,%xmm8
- DB 65,15,85,241 ; andnps %xmm9,%xmm6
- DB 65,15,86,240 ; orps %xmm8,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_to_srgb_sse2
-_sk_to_srgb_sse2 LABEL PROC
- DB 68,15,82,232 ; rsqrtps %xmm0,%xmm13
- DB 68,15,40,5,175,97,1,0 ; movaps 0x161af(%rip),%xmm8 # 355f0 <_sk_srcover_bgra_8888_sse2_lowp+0xdd8>
- DB 68,15,40,240 ; movaps %xmm0,%xmm14
- DB 69,15,89,240 ; mulps %xmm8,%xmm14
- DB 68,15,40,13,175,97,1,0 ; movaps 0x161af(%rip),%xmm9 # 35600 <_sk_srcover_bgra_8888_sse2_lowp+0xde8>
- DB 69,15,40,253 ; movaps %xmm13,%xmm15
- DB 69,15,89,249 ; mulps %xmm9,%xmm15
- DB 68,15,40,21,175,97,1,0 ; movaps 0x161af(%rip),%xmm10 # 35610 <_sk_srcover_bgra_8888_sse2_lowp+0xdf8>
- DB 69,15,88,250 ; addps %xmm10,%xmm15
- DB 69,15,89,253 ; mulps %xmm13,%xmm15
- DB 68,15,40,29,175,97,1,0 ; movaps 0x161af(%rip),%xmm11 # 35620 <_sk_srcover_bgra_8888_sse2_lowp+0xe08>
- DB 69,15,88,251 ; addps %xmm11,%xmm15
- DB 68,15,40,37,179,97,1,0 ; movaps 0x161b3(%rip),%xmm12 # 35630 <_sk_srcover_bgra_8888_sse2_lowp+0xe18>
- DB 69,15,88,236 ; addps %xmm12,%xmm13
- DB 69,15,83,237 ; rcpps %xmm13,%xmm13
- DB 69,15,89,239 ; mulps %xmm15,%xmm13
- DB 68,15,40,61,175,97,1,0 ; movaps 0x161af(%rip),%xmm15 # 35640 <_sk_srcover_bgra_8888_sse2_lowp+0xe28>
- DB 65,15,194,199,1 ; cmpltps %xmm15,%xmm0
- DB 68,15,84,240 ; andps %xmm0,%xmm14
- DB 65,15,85,197 ; andnps %xmm13,%xmm0
- DB 65,15,86,198 ; orps %xmm14,%xmm0
- DB 68,15,82,233 ; rsqrtps %xmm1,%xmm13
- DB 69,15,40,245 ; movaps %xmm13,%xmm14
- DB 69,15,89,241 ; mulps %xmm9,%xmm14
- DB 69,15,88,242 ; addps %xmm10,%xmm14
- DB 69,15,89,245 ; mulps %xmm13,%xmm14
- DB 69,15,88,243 ; addps %xmm11,%xmm14
- DB 69,15,88,236 ; addps %xmm12,%xmm13
- DB 69,15,83,237 ; rcpps %xmm13,%xmm13
- DB 69,15,89,238 ; mulps %xmm14,%xmm13
- DB 68,15,40,241 ; movaps %xmm1,%xmm14
- DB 69,15,89,240 ; mulps %xmm8,%xmm14
- DB 65,15,194,207,1 ; cmpltps %xmm15,%xmm1
- DB 68,15,84,241 ; andps %xmm1,%xmm14
- DB 65,15,85,205 ; andnps %xmm13,%xmm1
- DB 65,15,86,206 ; orps %xmm14,%xmm1
- DB 68,15,82,234 ; rsqrtps %xmm2,%xmm13
- DB 69,15,89,205 ; mulps %xmm13,%xmm9
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 69,15,89,205 ; mulps %xmm13,%xmm9
- DB 69,15,88,203 ; addps %xmm11,%xmm9
- DB 69,15,88,236 ; addps %xmm12,%xmm13
- DB 69,15,83,213 ; rcpps %xmm13,%xmm10
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,89,194 ; mulps %xmm2,%xmm8
- DB 65,15,194,215,1 ; cmpltps %xmm15,%xmm2
- DB 68,15,84,194 ; andps %xmm2,%xmm8
- DB 65,15,85,210 ; andnps %xmm10,%xmm2
- DB 65,15,86,208 ; orps %xmm8,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_rgb_to_hsl_sse2
-_sk_rgb_to_hsl_sse2 LABEL PROC
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 15,95,194 ; maxps %xmm2,%xmm0
- DB 69,15,40,208 ; movaps %xmm8,%xmm10
- DB 68,15,95,208 ; maxps %xmm0,%xmm10
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 15,93,194 ; minps %xmm2,%xmm0
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 68,15,93,216 ; minps %xmm0,%xmm11
- DB 65,15,40,202 ; movaps %xmm10,%xmm1
- DB 65,15,92,203 ; subps %xmm11,%xmm1
- DB 68,15,40,45,98,95,1,0 ; movaps 0x15f62(%rip),%xmm13 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,94,233 ; divps %xmm1,%xmm13
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 65,15,194,192,0 ; cmpeqps %xmm8,%xmm0
- DB 69,15,40,225 ; movaps %xmm9,%xmm12
- DB 68,15,92,226 ; subps %xmm2,%xmm12
- DB 69,15,89,229 ; mulps %xmm13,%xmm12
- DB 69,15,40,241 ; movaps %xmm9,%xmm14
- DB 68,15,194,242,1 ; cmpltps %xmm2,%xmm14
- DB 68,15,84,53,216,96,1,0 ; andps 0x160d8(%rip),%xmm14 # 35650 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
- DB 69,15,88,244 ; addps %xmm12,%xmm14
- DB 69,15,40,250 ; movaps %xmm10,%xmm15
- DB 69,15,194,249,0 ; cmpeqps %xmm9,%xmm15
- DB 65,15,92,208 ; subps %xmm8,%xmm2
- DB 65,15,89,213 ; mulps %xmm13,%xmm2
- DB 68,15,40,37,203,96,1,0 ; movaps 0x160cb(%rip),%xmm12 # 35660 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
- DB 65,15,88,212 ; addps %xmm12,%xmm2
- DB 69,15,92,193 ; subps %xmm9,%xmm8
- DB 69,15,89,197 ; mulps %xmm13,%xmm8
- DB 68,15,88,5,199,96,1,0 ; addps 0x160c7(%rip),%xmm8 # 35670 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
- DB 65,15,84,215 ; andps %xmm15,%xmm2
- DB 69,15,85,248 ; andnps %xmm8,%xmm15
- DB 68,15,86,250 ; orps %xmm2,%xmm15
- DB 68,15,84,240 ; andps %xmm0,%xmm14
- DB 65,15,85,199 ; andnps %xmm15,%xmm0
- DB 65,15,86,198 ; orps %xmm14,%xmm0
- DB 15,89,5,184,96,1,0 ; mulps 0x160b8(%rip),%xmm0 # 35680 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
- DB 69,15,40,194 ; movaps %xmm10,%xmm8
- DB 69,15,194,195,4 ; cmpneqps %xmm11,%xmm8
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 69,15,92,226 ; subps %xmm10,%xmm12
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 68,15,40,13,187,94,1,0 ; movaps 0x15ebb(%rip),%xmm9 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 68,15,194,202,1 ; cmpltps %xmm2,%xmm9
- DB 69,15,92,227 ; subps %xmm11,%xmm12
- DB 69,15,84,225 ; andps %xmm9,%xmm12
- DB 69,15,85,202 ; andnps %xmm10,%xmm9
- DB 69,15,86,204 ; orps %xmm12,%xmm9
- DB 65,15,94,201 ; divps %xmm9,%xmm1
- DB 65,15,84,200 ; andps %xmm8,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hsl_to_rgb_sse2
-_sk_hsl_to_rgb_sse2 LABEL PROC
- DB 72,131,236,120 ; sub $0x78,%rsp
- DB 15,41,124,36,96 ; movaps %xmm7,0x60(%rsp)
- DB 15,41,116,36,80 ; movaps %xmm6,0x50(%rsp)
- DB 15,41,108,36,64 ; movaps %xmm5,0x40(%rsp)
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%rsp)
- DB 15,41,92,36,32 ; movaps %xmm3,0x20(%rsp)
- DB 68,15,40,218 ; movaps %xmm2,%xmm11
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 68,15,40,13,102,94,1,0 ; movaps 0x15e66(%rip),%xmm9 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 69,15,40,209 ; movaps %xmm9,%xmm10
- DB 69,15,194,211,2 ; cmpleps %xmm11,%xmm10
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,194,217,0 ; cmpeqps %xmm1,%xmm3
- DB 15,40,251 ; movaps %xmm3,%xmm7
- DB 15,41,60,36 ; movaps %xmm7,(%rsp)
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 65,15,84,194 ; andps %xmm10,%xmm0
- DB 68,15,85,209 ; andnps %xmm1,%xmm10
- DB 68,15,86,208 ; orps %xmm0,%xmm10
- DB 68,15,41,92,36,16 ; movaps %xmm11,0x10(%rsp)
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 69,15,88,219 ; addps %xmm11,%xmm11
- DB 69,15,92,218 ; subps %xmm10,%xmm11
- DB 15,40,5,16,96,1,0 ; movaps 0x16010(%rip),%xmm0 # 35690 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 243,15,91,200 ; cvttps2dq %xmm0,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 15,194,217,1 ; cmpltps %xmm1,%xmm3
- DB 15,84,29,24,94,1,0 ; andps 0x15e18(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 68,15,40,45,250,95,1,0 ; movaps 0x15ffa(%rip),%xmm13 # 356a0 <_sk_srcover_bgra_8888_sse2_lowp+0xe88>
- DB 69,15,40,197 ; movaps %xmm13,%xmm8
- DB 68,15,194,192,2 ; cmpleps %xmm0,%xmm8
- DB 69,15,40,242 ; movaps %xmm10,%xmm14
- DB 69,15,92,243 ; subps %xmm11,%xmm14
- DB 65,15,40,217 ; movaps %xmm9,%xmm3
- DB 15,194,216,2 ; cmpleps %xmm0,%xmm3
- DB 15,40,21,186,95,1,0 ; movaps 0x15fba(%rip),%xmm2 # 35680 <_sk_srcover_bgra_8888_sse2_lowp+0xe68>
- DB 68,15,40,250 ; movaps %xmm2,%xmm15
- DB 68,15,194,248,2 ; cmpleps %xmm0,%xmm15
- DB 15,40,13,122,95,1,0 ; movaps 0x15f7a(%rip),%xmm1 # 35650 <_sk_srcover_bgra_8888_sse2_lowp+0xe38>
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,40,45,144,95,1,0 ; movaps 0x15f90(%rip),%xmm5 # 35670 <_sk_srcover_bgra_8888_sse2_lowp+0xe58>
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 65,15,89,230 ; mulps %xmm14,%xmm4
- DB 65,15,88,227 ; addps %xmm11,%xmm4
- DB 69,15,40,227 ; movaps %xmm11,%xmm12
- DB 69,15,84,224 ; andps %xmm8,%xmm12
- DB 68,15,85,196 ; andnps %xmm4,%xmm8
- DB 69,15,86,196 ; orps %xmm12,%xmm8
- DB 68,15,84,195 ; andps %xmm3,%xmm8
- DB 65,15,85,218 ; andnps %xmm10,%xmm3
- DB 65,15,86,216 ; orps %xmm8,%xmm3
- DB 65,15,89,198 ; mulps %xmm14,%xmm0
- DB 65,15,88,195 ; addps %xmm11,%xmm0
- DB 65,15,84,223 ; andps %xmm15,%xmm3
- DB 68,15,85,248 ; andnps %xmm0,%xmm15
- DB 68,15,86,251 ; orps %xmm3,%xmm15
- DB 68,15,40,199 ; movaps %xmm7,%xmm8
- DB 69,15,85,199 ; andnps %xmm15,%xmm8
- DB 243,15,91,198 ; cvttps2dq %xmm6,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,222 ; movaps %xmm6,%xmm3
- DB 15,194,216,1 ; cmpltps %xmm0,%xmm3
- DB 15,84,29,117,93,1,0 ; andps 0x15d75(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,92,195 ; subps %xmm3,%xmm0
- DB 68,15,40,230 ; movaps %xmm6,%xmm12
- DB 68,15,92,224 ; subps %xmm0,%xmm12
- DB 69,15,40,253 ; movaps %xmm13,%xmm15
- DB 69,15,194,252,2 ; cmpleps %xmm12,%xmm15
- DB 65,15,40,225 ; movaps %xmm9,%xmm4
- DB 65,15,194,228,2 ; cmpleps %xmm12,%xmm4
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 65,15,194,220,2 ; cmpleps %xmm12,%xmm3
- DB 68,15,89,225 ; mulps %xmm1,%xmm12
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 65,15,92,196 ; subps %xmm12,%xmm0
- DB 65,15,89,198 ; mulps %xmm14,%xmm0
- DB 65,15,88,195 ; addps %xmm11,%xmm0
- DB 65,15,40,251 ; movaps %xmm11,%xmm7
- DB 65,15,84,255 ; andps %xmm15,%xmm7
- DB 68,15,85,248 ; andnps %xmm0,%xmm15
- DB 68,15,86,255 ; orps %xmm7,%xmm15
- DB 68,15,84,252 ; andps %xmm4,%xmm15
- DB 65,15,85,226 ; andnps %xmm10,%xmm4
- DB 65,15,86,231 ; orps %xmm15,%xmm4
- DB 69,15,89,230 ; mulps %xmm14,%xmm12
- DB 69,15,88,227 ; addps %xmm11,%xmm12
- DB 15,84,227 ; andps %xmm3,%xmm4
- DB 65,15,85,220 ; andnps %xmm12,%xmm3
- DB 15,86,220 ; orps %xmm4,%xmm3
- DB 15,40,60,36 ; movaps (%rsp),%xmm7
- DB 15,40,231 ; movaps %xmm7,%xmm4
- DB 15,85,227 ; andnps %xmm3,%xmm4
- DB 15,88,53,254,94,1,0 ; addps 0x15efe(%rip),%xmm6 # 356b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- DB 243,15,91,198 ; cvttps2dq %xmm6,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,222 ; movaps %xmm6,%xmm3
- DB 15,194,216,1 ; cmpltps %xmm0,%xmm3
- DB 15,84,29,233,92,1,0 ; andps 0x15ce9(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,92,195 ; subps %xmm3,%xmm0
- DB 15,92,240 ; subps %xmm0,%xmm6
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,92,233 ; subps %xmm1,%xmm5
- DB 65,15,89,238 ; mulps %xmm14,%xmm5
- DB 65,15,89,206 ; mulps %xmm14,%xmm1
- DB 65,15,88,235 ; addps %xmm11,%xmm5
- DB 65,15,88,203 ; addps %xmm11,%xmm1
- DB 68,15,194,238,2 ; cmpleps %xmm6,%xmm13
- DB 69,15,84,221 ; andps %xmm13,%xmm11
- DB 68,15,85,237 ; andnps %xmm5,%xmm13
- DB 69,15,86,235 ; orps %xmm11,%xmm13
- DB 68,15,194,206,2 ; cmpleps %xmm6,%xmm9
- DB 69,15,84,233 ; andps %xmm9,%xmm13
- DB 69,15,85,202 ; andnps %xmm10,%xmm9
- DB 69,15,86,205 ; orps %xmm13,%xmm9
- DB 15,194,214,2 ; cmpleps %xmm6,%xmm2
- DB 68,15,84,202 ; andps %xmm2,%xmm9
- DB 15,85,209 ; andnps %xmm1,%xmm2
- DB 65,15,86,209 ; orps %xmm9,%xmm2
- DB 15,40,68,36,16 ; movaps 0x10(%rsp),%xmm0
- DB 15,40,207 ; movaps %xmm7,%xmm1
- DB 15,84,193 ; andps %xmm1,%xmm0
- DB 15,85,202 ; andnps %xmm2,%xmm1
- DB 68,15,86,192 ; orps %xmm0,%xmm8
- DB 15,86,224 ; orps %xmm0,%xmm4
- DB 15,86,193 ; orps %xmm1,%xmm0
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 15,40,92,36,32 ; movaps 0x20(%rsp),%xmm3
- DB 15,40,100,36,48 ; movaps 0x30(%rsp),%xmm4
- DB 15,40,108,36,64 ; movaps 0x40(%rsp),%xmm5
- DB 15,40,116,36,80 ; movaps 0x50(%rsp),%xmm6
- DB 15,40,124,36,96 ; movaps 0x60(%rsp),%xmm7
- DB 72,131,196,120 ; add $0x78,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_1_float_sse2
-_sk_scale_1_float_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_u8_sse2
-_sk_scale_u8_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,61 ; jne 1f8c6 <_sk_scale_u8_sse2+0x4f>
- DB 102,69,15,110,4,16 ; movd (%r8,%rdx,1),%xmm8
- DB 102,68,15,96,192 ; punpcklbw %xmm0,%xmm8
- DB 102,68,15,97,192 ; punpcklwd %xmm0,%xmm8
- DB 102,68,15,219,5,190,92,1,0 ; pand 0x15cbe(%rip),%xmm8 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,18,94,1,0 ; mulps 0x15e12(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 68,15,89,195 ; mulps %xmm3,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,216 ; movaps %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,57 ; je 1f907 <_sk_scale_u8_sse2+0x90>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 60,2 ; cmp $0x2,%al
- DB 116,21 ; je 1f8ec <_sk_scale_u8_sse2+0x75>
- DB 60,3 ; cmp $0x3,%al
- DB 117,190 ; jne 1f899 <_sk_scale_u8_sse2+0x22>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,112,192,69 ; pshufd $0x45,%xmm8,%xmm8
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,68,15,110,200 ; movd %eax,%xmm9
- DB 102,68,15,96,200 ; punpcklbw %xmm0,%xmm9
- DB 102,68,15,97,200 ; punpcklwd %xmm0,%xmm9
- DB 242,69,15,16,193 ; movsd %xmm9,%xmm8
- DB 235,146 ; jmp 1f899 <_sk_scale_u8_sse2+0x22>
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 235,134 ; jmp 1f899 <_sk_scale_u8_sse2+0x22>
-
-PUBLIC _sk_scale_565_sse2
-_sk_scale_565_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,173,0,0,0 ; jne 1f9d9 <_sk_scale_565_sse2+0xc6>
- DB 243,69,15,126,20,80 ; movq (%r8,%rdx,2),%xmm10
- DB 102,68,15,97,208 ; punpcklwd %xmm0,%xmm10
- DB 102,68,15,111,5,144,93,1,0 ; movdqa 0x15d90(%rip),%xmm8 # 356d0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- DB 102,69,15,219,194 ; pand %xmm10,%xmm8
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,143,93,1,0 ; mulps 0x15d8f(%rip),%xmm8 # 356e0 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- DB 102,68,15,111,13,150,93,1,0 ; movdqa 0x15d96(%rip),%xmm9 # 356f0 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- DB 102,69,15,219,202 ; pand %xmm10,%xmm9
- DB 69,15,91,201 ; cvtdq2ps %xmm9,%xmm9
- DB 68,15,89,13,149,93,1,0 ; mulps 0x15d95(%rip),%xmm9 # 35700 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- DB 102,68,15,219,21,156,93,1,0 ; pand 0x15d9c(%rip),%xmm10 # 35710 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- DB 69,15,91,210 ; cvtdq2ps %xmm10,%xmm10
- DB 68,15,89,21,160,93,1,0 ; mulps 0x15da0(%rip),%xmm10 # 35720 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- DB 68,15,40,219 ; movaps %xmm3,%xmm11
- DB 68,15,194,223,1 ; cmpltps %xmm7,%xmm11
- DB 69,15,40,225 ; movaps %xmm9,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,40,232 ; movaps %xmm8,%xmm13
- DB 69,15,93,236 ; minps %xmm12,%xmm13
- DB 69,15,40,225 ; movaps %xmm9,%xmm12
- DB 69,15,95,226 ; maxps %xmm10,%xmm12
- DB 69,15,40,240 ; movaps %xmm8,%xmm14
- DB 69,15,95,244 ; maxps %xmm12,%xmm14
- DB 69,15,84,235 ; andps %xmm11,%xmm13
- DB 69,15,85,222 ; andnps %xmm14,%xmm11
- DB 69,15,86,221 ; orps %xmm13,%xmm11
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 68,15,89,210 ; mulps %xmm2,%xmm10
- DB 68,15,89,219 ; mulps %xmm3,%xmm11
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 65,15,40,219 ; movaps %xmm11,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,56 ; je 1fa19 <_sk_scale_565_sse2+0x106>
- DB 102,69,15,239,210 ; pxor %xmm10,%xmm10
- DB 60,2 ; cmp $0x2,%al
- DB 116,25 ; je 1fa03 <_sk_scale_565_sse2+0xf0>
- DB 60,3 ; cmp $0x3,%al
- DB 15,133,69,255,255,255 ; jne 1f937 <_sk_scale_565_sse2+0x24>
- DB 65,15,183,68,80,4 ; movzwl 0x4(%r8,%rdx,2),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,112,208,69 ; pshufd $0x45,%xmm8,%xmm10
- DB 102,69,15,110,4,80 ; movd (%r8,%rdx,2),%xmm8
- DB 242,69,15,112,192,212 ; pshuflw $0xd4,%xmm8,%xmm8
- DB 242,69,15,16,208 ; movsd %xmm8,%xmm10
- DB 233,30,255,255,255 ; jmpq 1f937 <_sk_scale_565_sse2+0x24>
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,68,15,110,208 ; movd %eax,%xmm10
- DB 233,15,255,255,255 ; jmpq 1f937 <_sk_scale_565_sse2+0x24>
-
-PUBLIC _sk_lerp_1_float_sse2
-_sk_lerp_1_float_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 15,92,214 ; subps %xmm6,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 15,92,223 ; subps %xmm7,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lerp_u8_sse2
-_sk_lerp_u8_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,81 ; jne 1fac3 <_sk_lerp_u8_sse2+0x63>
- DB 102,69,15,110,4,16 ; movd (%r8,%rdx,1),%xmm8
- DB 102,68,15,96,192 ; punpcklbw %xmm0,%xmm8
- DB 102,68,15,97,192 ; punpcklwd %xmm0,%xmm8
- DB 102,68,15,219,5,213,90,1,0 ; pand 0x15ad5(%rip),%xmm8 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,41,92,1,0 ; mulps 0x15c29(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 15,92,214 ; subps %xmm6,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 15,92,223 ; subps %xmm7,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,60 ; je 1fb07 <_sk_lerp_u8_sse2+0xa7>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 60,2 ; cmp $0x2,%al
- DB 116,21 ; je 1fae9 <_sk_lerp_u8_sse2+0x89>
- DB 60,3 ; cmp $0x3,%al
- DB 117,170 ; jne 1fa82 <_sk_lerp_u8_sse2+0x22>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,112,192,69 ; pshufd $0x45,%xmm8,%xmm8
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,68,15,110,200 ; movd %eax,%xmm9
- DB 102,68,15,96,200 ; punpcklbw %xmm0,%xmm9
- DB 102,68,15,97,200 ; punpcklwd %xmm0,%xmm9
- DB 242,69,15,16,193 ; movsd %xmm9,%xmm8
- DB 233,123,255,255,255 ; jmpq 1fa82 <_sk_lerp_u8_sse2+0x22>
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 233,108,255,255,255 ; jmpq 1fa82 <_sk_lerp_u8_sse2+0x22>
-
-PUBLIC _sk_lerp_565_sse2
-_sk_lerp_565_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,173,0,0,0 ; jne 1fbdc <_sk_lerp_565_sse2+0xc6>
- DB 243,69,15,126,4,80 ; movq (%r8,%rdx,2),%xmm8
- DB 102,68,15,97,192 ; punpcklwd %xmm0,%xmm8
- DB 102,68,15,111,13,141,91,1,0 ; movdqa 0x15b8d(%rip),%xmm9 # 356d0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- DB 102,69,15,219,200 ; pand %xmm8,%xmm9
- DB 69,15,91,201 ; cvtdq2ps %xmm9,%xmm9
- DB 68,15,89,13,140,91,1,0 ; mulps 0x15b8c(%rip),%xmm9 # 356e0 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- DB 102,68,15,111,21,147,91,1,0 ; movdqa 0x15b93(%rip),%xmm10 # 356f0 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- DB 102,69,15,219,208 ; pand %xmm8,%xmm10
- DB 69,15,91,218 ; cvtdq2ps %xmm10,%xmm11
- DB 68,15,89,29,146,91,1,0 ; mulps 0x15b92(%rip),%xmm11 # 35700 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- DB 102,68,15,219,5,153,91,1,0 ; pand 0x15b99(%rip),%xmm8 # 35710 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,89,5,157,91,1,0 ; mulps 0x15b9d(%rip),%xmm8 # 35720 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 68,15,194,215,1 ; cmpltps %xmm7,%xmm10
- DB 69,15,40,227 ; movaps %xmm11,%xmm12
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 69,15,93,216 ; minps %xmm8,%xmm11
- DB 69,15,40,233 ; movaps %xmm9,%xmm13
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 69,15,93,203 ; minps %xmm11,%xmm9
- DB 69,15,95,224 ; maxps %xmm8,%xmm12
- DB 69,15,95,236 ; maxps %xmm12,%xmm13
- DB 69,15,84,202 ; andps %xmm10,%xmm9
- DB 69,15,85,213 ; andnps %xmm13,%xmm10
- DB 69,15,86,209 ; orps %xmm9,%xmm10
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 15,92,214 ; subps %xmm6,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 15,92,223 ; subps %xmm7,%xmm3
- DB 65,15,89,218 ; mulps %xmm10,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,56 ; je 1fc1c <_sk_lerp_565_sse2+0x106>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 60,2 ; cmp $0x2,%al
- DB 116,25 ; je 1fc06 <_sk_lerp_565_sse2+0xf0>
- DB 60,3 ; cmp $0x3,%al
- DB 15,133,69,255,255,255 ; jne 1fb3a <_sk_lerp_565_sse2+0x24>
- DB 65,15,183,68,80,4 ; movzwl 0x4(%r8,%rdx,2),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,112,192,69 ; pshufd $0x45,%xmm8,%xmm8
- DB 102,69,15,110,12,80 ; movd (%r8,%rdx,2),%xmm9
- DB 242,69,15,112,201,212 ; pshuflw $0xd4,%xmm9,%xmm9
- DB 242,69,15,16,193 ; movsd %xmm9,%xmm8
- DB 233,30,255,255,255 ; jmpq 1fb3a <_sk_lerp_565_sse2+0x24>
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 233,15,255,255,255 ; jmpq 1fb3a <_sk_lerp_565_sse2+0x24>
-
-PUBLIC _sk_load_tables_sse2
-_sk_load_tables_sse2 LABEL PROC
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,31,1,0,0 ; jne 1fd5b <_sk_load_tables_sse2+0x130>
- DB 243,69,15,111,12,144 ; movdqu (%r8,%rdx,4),%xmm9
- DB 102,68,15,111,5,21,89,1,0 ; movdqa 0x15915(%rip),%xmm8 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,65,15,219,192 ; pand %xmm8,%xmm0
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,73,15,126,200 ; movq %xmm1,%r8
- DB 102,73,15,126,193 ; movq %xmm0,%r9
- DB 69,15,182,209 ; movzbl %r9b,%r10d
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 69,15,182,216 ; movzbl %r8b,%r11d
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 72,139,88,8 ; mov 0x8(%rax),%rbx
- DB 76,139,112,16 ; mov 0x10(%rax),%r14
- DB 243,66,15,16,12,11 ; movss (%rbx,%r9,1),%xmm1
- DB 243,66,15,16,4,147 ; movss (%rbx,%r10,4),%xmm0
- DB 15,20,193 ; unpcklps %xmm1,%xmm0
- DB 243,66,15,16,12,3 ; movss (%rbx,%r8,1),%xmm1
- DB 243,66,15,16,20,155 ; movss (%rbx,%r11,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 102,15,20,194 ; unpcklpd %xmm2,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,15,114,209,8 ; psrld $0x8,%xmm1
- DB 102,65,15,219,200 ; pand %xmm8,%xmm1
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,73,15,126,208 ; movq %xmm2,%r8
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 68,15,182,203 ; movzbl %bl,%r9d
- DB 72,193,235,30 ; shr $0x1e,%rbx
- DB 69,15,182,208 ; movzbl %r8b,%r10d
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 243,65,15,16,20,30 ; movss (%r14,%rbx,1),%xmm2
- DB 243,67,15,16,12,142 ; movss (%r14,%r9,4),%xmm1
- DB 15,20,202 ; unpcklps %xmm2,%xmm1
- DB 243,67,15,16,20,6 ; movss (%r14,%r8,1),%xmm2
- DB 243,67,15,16,28,150 ; movss (%r14,%r10,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 102,15,20,203 ; unpcklpd %xmm3,%xmm1
- DB 76,139,64,24 ; mov 0x18(%rax),%r8
- DB 102,65,15,111,209 ; movdqa %xmm9,%xmm2
- DB 102,15,114,210,16 ; psrld $0x10,%xmm2
- DB 102,65,15,219,208 ; pand %xmm8,%xmm2
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,72,15,126,219 ; movq %xmm3,%rbx
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 68,15,182,200 ; movzbl %al,%r9d
- DB 72,193,232,30 ; shr $0x1e,%rax
- DB 68,15,182,211 ; movzbl %bl,%r10d
- DB 72,193,235,30 ; shr $0x1e,%rbx
- DB 243,65,15,16,28,0 ; movss (%r8,%rax,1),%xmm3
- DB 243,67,15,16,20,136 ; movss (%r8,%r9,4),%xmm2
- DB 15,20,211 ; unpcklps %xmm3,%xmm2
- DB 243,69,15,16,4,24 ; movss (%r8,%rbx,1),%xmm8
- DB 243,67,15,16,28,144 ; movss (%r8,%r10,4),%xmm3
- DB 65,15,20,216 ; unpcklps %xmm8,%xmm3
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 102,65,15,114,209,24 ; psrld $0x18,%xmm9
- DB 65,15,91,217 ; cvtdq2ps %xmm9,%xmm3
- DB 15,89,29,108,89,1,0 ; mulps 0x1596c(%rip),%xmm3 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 255,224 ; jmpq *%rax
- DB 65,137,249 ; mov %edi,%r9d
- DB 65,128,225,3 ; and $0x3,%r9b
- DB 65,128,249,1 ; cmp $0x1,%r9b
- DB 116,45 ; je 1fd95 <_sk_load_tables_sse2+0x16a>
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 65,128,249,2 ; cmp $0x2,%r9b
- DB 116,23 ; je 1fd8a <_sk_load_tables_sse2+0x15f>
- DB 65,128,249,3 ; cmp $0x3,%r9b
- DB 15,133,197,254,255,255 ; jne 1fc42 <_sk_load_tables_sse2+0x17>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,68,15,112,200,69 ; pshufd $0x45,%xmm0,%xmm9
- DB 102,69,15,18,12,144 ; movlpd (%r8,%rdx,4),%xmm9
- DB 233,173,254,255,255 ; jmpq 1fc42 <_sk_load_tables_sse2+0x17>
- DB 102,69,15,110,12,144 ; movd (%r8,%rdx,4),%xmm9
- DB 233,162,254,255,255 ; jmpq 1fc42 <_sk_load_tables_sse2+0x17>
-
-PUBLIC _sk_load_tables_u16_be_sse2
-_sk_load_tables_u16_be_sse2 LABEL PROC
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 76,141,12,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,90,1,0,0 ; jne 1ff13 <_sk_load_tables_u16_be_sse2+0x173>
- DB 102,67,15,16,4,72 ; movupd (%r8,%r9,2),%xmm0
- DB 243,67,15,111,76,72,16 ; movdqu 0x10(%r8,%r9,2),%xmm1
- DB 102,68,15,40,200 ; movapd %xmm0,%xmm9
- DB 102,68,15,97,201 ; punpcklwd %xmm1,%xmm9
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 102,68,15,105,200 ; punpckhwd %xmm0,%xmm9
- DB 102,15,111,21,70,89,1,0 ; movdqa 0x15946(%rip),%xmm2 # 35730 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
- DB 102,15,112,217,238 ; pshufd $0xee,%xmm1,%xmm3
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,65,15,97,200 ; punpcklwd %xmm8,%xmm1
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,73,15,126,192 ; movq %xmm0,%r8
- DB 102,73,15,126,201 ; movq %xmm1,%r9
- DB 69,15,182,209 ; movzbl %r9b,%r10d
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 69,15,182,216 ; movzbl %r8b,%r11d
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 72,139,88,8 ; mov 0x8(%rax),%rbx
- DB 76,139,112,16 ; mov 0x10(%rax),%r14
- DB 243,66,15,16,12,11 ; movss (%rbx,%r9,1),%xmm1
- DB 243,66,15,16,4,147 ; movss (%rbx,%r10,4),%xmm0
- DB 15,20,193 ; unpcklps %xmm1,%xmm0
- DB 243,70,15,16,20,3 ; movss (%rbx,%r8,1),%xmm10
- DB 243,66,15,16,12,155 ; movss (%rbx,%r11,4),%xmm1
- DB 65,15,20,202 ; unpcklps %xmm10,%xmm1
- DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
- DB 102,15,219,218 ; pand %xmm2,%xmm3
- DB 102,65,15,97,216 ; punpcklwd %xmm8,%xmm3
- DB 102,15,112,203,78 ; pshufd $0x4e,%xmm3,%xmm1
- DB 102,73,15,126,200 ; movq %xmm1,%r8
- DB 102,72,15,126,219 ; movq %xmm3,%rbx
- DB 68,15,182,203 ; movzbl %bl,%r9d
- DB 72,193,235,30 ; shr $0x1e,%rbx
- DB 69,15,182,208 ; movzbl %r8b,%r10d
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 243,65,15,16,28,30 ; movss (%r14,%rbx,1),%xmm3
- DB 243,67,15,16,12,142 ; movss (%r14,%r9,4),%xmm1
- DB 15,20,203 ; unpcklps %xmm3,%xmm1
- DB 243,71,15,16,20,6 ; movss (%r14,%r8,1),%xmm10
- DB 243,67,15,16,28,150 ; movss (%r14,%r10,4),%xmm3
- DB 65,15,20,218 ; unpcklps %xmm10,%xmm3
- DB 102,15,20,203 ; unpcklpd %xmm3,%xmm1
- DB 76,139,64,24 ; mov 0x18(%rax),%r8
- DB 102,65,15,219,209 ; pand %xmm9,%xmm2
- DB 102,65,15,97,208 ; punpcklwd %xmm8,%xmm2
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,72,15,126,219 ; movq %xmm3,%rbx
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 68,15,182,200 ; movzbl %al,%r9d
- DB 72,193,232,30 ; shr $0x1e,%rax
- DB 68,15,182,211 ; movzbl %bl,%r10d
- DB 72,193,235,30 ; shr $0x1e,%rbx
- DB 243,65,15,16,28,0 ; movss (%r8,%rax,1),%xmm3
- DB 243,67,15,16,20,136 ; movss (%r8,%r9,4),%xmm2
- DB 15,20,211 ; unpcklps %xmm3,%xmm2
- DB 243,69,15,16,20,24 ; movss (%r8,%rbx,1),%xmm10
- DB 243,67,15,16,28,144 ; movss (%r8,%r10,4),%xmm3
- DB 65,15,20,218 ; unpcklps %xmm10,%xmm3
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 102,65,15,112,217,78 ; pshufd $0x4e,%xmm9,%xmm3
- DB 102,68,15,111,203 ; movdqa %xmm3,%xmm9
- DB 102,65,15,113,241,8 ; psllw $0x8,%xmm9
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,65,15,235,217 ; por %xmm9,%xmm3
- DB 102,65,15,97,216 ; punpcklwd %xmm8,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,29,68,88,1,0 ; mulps 0x15844(%rip),%xmm3 # 35750 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 255,224 ; jmpq *%rax
- DB 242,67,15,16,4,72 ; movsd (%r8,%r9,2),%xmm0
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,13 ; jne 1ff2c <_sk_load_tables_u16_be_sse2+0x18c>
- DB 243,15,126,192 ; movq %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 233,154,254,255,255 ; jmpq 1fdc6 <_sk_load_tables_u16_be_sse2+0x26>
- DB 102,67,15,22,68,72,8 ; movhpd 0x8(%r8,%r9,2),%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 15,130,133,254,255,255 ; jb 1fdc6 <_sk_load_tables_u16_be_sse2+0x26>
- DB 243,67,15,126,76,72,16 ; movq 0x10(%r8,%r9,2),%xmm1
- DB 233,121,254,255,255 ; jmpq 1fdc6 <_sk_load_tables_u16_be_sse2+0x26>
-
-PUBLIC _sk_load_tables_rgb_u16_be_sse2
-_sk_load_tables_rgb_u16_be_sse2 LABEL PROC
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 76,141,12,82 ; lea (%rdx,%rdx,2),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,78,1,0,0 ; jne 200b0 <_sk_load_tables_rgb_u16_be_sse2+0x163>
- DB 243,67,15,111,20,72 ; movdqu (%r8,%r9,2),%xmm2
- DB 243,67,15,111,76,72,8 ; movdqu 0x8(%r8,%r9,2),%xmm1
- DB 102,15,115,217,4 ; psrldq $0x4,%xmm1
- DB 102,68,15,111,210 ; movdqa %xmm2,%xmm10
- DB 102,65,15,115,218,6 ; psrldq $0x6,%xmm10
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,115,216,6 ; psrldq $0x6,%xmm0
- DB 102,68,15,97,208 ; punpcklwd %xmm0,%xmm10
- DB 102,15,97,209 ; punpcklwd %xmm1,%xmm2
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,65,15,97,194 ; punpcklwd %xmm10,%xmm0
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,68,15,111,5,136,87,1,0 ; movdqa 0x15788(%rip),%xmm8 # 35730 <_sk_srcover_bgra_8888_sse2_lowp+0xf18>
- DB 102,65,15,219,192 ; pand %xmm8,%xmm0
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,65,15,97,193 ; punpcklwd %xmm9,%xmm0
- DB 102,15,112,216,78 ; pshufd $0x4e,%xmm0,%xmm3
- DB 102,73,15,126,216 ; movq %xmm3,%r8
- DB 102,73,15,126,193 ; movq %xmm0,%r9
- DB 69,15,182,209 ; movzbl %r9b,%r10d
- DB 73,193,233,30 ; shr $0x1e,%r9
- DB 69,15,182,216 ; movzbl %r8b,%r11d
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 72,139,88,8 ; mov 0x8(%rax),%rbx
- DB 76,139,112,16 ; mov 0x10(%rax),%r14
- DB 243,66,15,16,28,11 ; movss (%rbx,%r9,1),%xmm3
- DB 243,66,15,16,4,147 ; movss (%rbx,%r10,4),%xmm0
- DB 15,20,195 ; unpcklps %xmm3,%xmm0
- DB 243,70,15,16,28,3 ; movss (%rbx,%r8,1),%xmm11
- DB 243,66,15,16,28,155 ; movss (%rbx,%r11,4),%xmm3
- DB 65,15,20,219 ; unpcklps %xmm11,%xmm3
- DB 102,15,20,195 ; unpcklpd %xmm3,%xmm0
- DB 102,65,15,219,200 ; pand %xmm8,%xmm1
- DB 102,65,15,97,201 ; punpcklwd %xmm9,%xmm1
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,73,15,126,216 ; movq %xmm3,%r8
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 68,15,182,203 ; movzbl %bl,%r9d
- DB 72,193,235,30 ; shr $0x1e,%rbx
- DB 69,15,182,208 ; movzbl %r8b,%r10d
- DB 73,193,232,30 ; shr $0x1e,%r8
- DB 243,65,15,16,28,30 ; movss (%r14,%rbx,1),%xmm3
- DB 243,67,15,16,12,142 ; movss (%r14,%r9,4),%xmm1
- DB 15,20,203 ; unpcklps %xmm3,%xmm1
- DB 243,71,15,16,28,6 ; movss (%r14,%r8,1),%xmm11
- DB 243,67,15,16,28,150 ; movss (%r14,%r10,4),%xmm3
- DB 65,15,20,219 ; unpcklps %xmm11,%xmm3
- DB 102,15,20,203 ; unpcklpd %xmm3,%xmm1
- DB 76,139,64,24 ; mov 0x18(%rax),%r8
- DB 102,65,15,105,210 ; punpckhwd %xmm10,%xmm2
- DB 102,65,15,219,208 ; pand %xmm8,%xmm2
- DB 102,65,15,97,209 ; punpcklwd %xmm9,%xmm2
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,72,15,126,219 ; movq %xmm3,%rbx
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 68,15,182,200 ; movzbl %al,%r9d
- DB 72,193,232,30 ; shr $0x1e,%rax
- DB 68,15,182,211 ; movzbl %bl,%r10d
- DB 72,193,235,30 ; shr $0x1e,%rbx
- DB 243,65,15,16,28,0 ; movss (%r8,%rax,1),%xmm3
- DB 243,67,15,16,20,136 ; movss (%r8,%r9,4),%xmm2
- DB 15,20,211 ; unpcklps %xmm3,%xmm2
- DB 243,69,15,16,4,24 ; movss (%r8,%rbx,1),%xmm8
- DB 243,67,15,16,28,144 ; movss (%r8,%r10,4),%xmm3
- DB 65,15,20,216 ; unpcklps %xmm8,%xmm3
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,5,84,1,0 ; movaps 0x15405(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 255,224 ; jmpq *%rax
- DB 102,67,15,110,20,72 ; movd (%r8,%r9,2),%xmm2
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,67,15,196,84,72,4,2 ; pinsrw $0x2,0x4(%r8,%r9,2),%xmm2
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,14 ; jne 200d6 <_sk_load_tables_rgb_u16_be_sse2+0x189>
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,69,15,239,210 ; pxor %xmm10,%xmm10
- DB 233,178,254,255,255 ; jmpq 1ff88 <_sk_load_tables_rgb_u16_be_sse2+0x3b>
- DB 102,71,15,110,84,72,6 ; movd 0x6(%r8,%r9,2),%xmm10
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,71,15,196,84,72,10,2 ; pinsrw $0x2,0xa(%r8,%r9,2),%xmm10
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,24 ; jb 20107 <_sk_load_tables_rgb_u16_be_sse2+0x1ba>
- DB 102,67,15,110,76,72,12 ; movd 0xc(%r8,%r9,2),%xmm1
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,67,15,196,76,72,16,2 ; pinsrw $0x2,0x10(%r8,%r9,2),%xmm1
- DB 233,129,254,255,255 ; jmpq 1ff88 <_sk_load_tables_rgb_u16_be_sse2+0x3b>
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 233,120,254,255,255 ; jmpq 1ff88 <_sk_load_tables_rgb_u16_be_sse2+0x3b>
-
-PUBLIC _sk_byte_tables_sse2
-_sk_byte_tables_sse2 LABEL PROC
- DB 85 ; push %rbp
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 68,15,95,216 ; maxps %xmm0,%xmm11
- DB 68,15,40,13,133,83,1,0 ; movaps 0x15385(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,217 ; minps %xmm9,%xmm11
- DB 68,15,40,21,89,84,1,0 ; movaps 0x15459(%rip),%xmm10 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 69,15,89,218 ; mulps %xmm10,%xmm11
- DB 102,65,15,91,195 ; cvtps2dq %xmm11,%xmm0
- DB 102,73,15,126,192 ; movq %xmm0,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 77,137,194 ; mov %r8,%r10
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,15,112,192,78 ; pshufd $0x4e,%xmm0,%xmm0
- DB 102,73,15,126,192 ; movq %xmm0,%r8
- DB 69,137,195 ; mov %r8d,%r11d
- DB 77,137,198 ; mov %r8,%r14
- DB 73,193,238,32 ; shr $0x20,%r14
- DB 72,139,24 ; mov (%rax),%rbx
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 70,15,182,28,27 ; movzbl (%rbx,%r11,1),%r11d
- DB 66,15,182,44,51 ; movzbl (%rbx,%r14,1),%ebp
- DB 193,229,8 ; shl $0x8,%ebp
- DB 68,9,221 ; or %r11d,%ebp
- DB 70,15,182,12,11 ; movzbl (%rbx,%r9,1),%r9d
- DB 66,15,182,28,19 ; movzbl (%rbx,%r10,1),%ebx
- DB 193,227,8 ; shl $0x8,%ebx
- DB 68,9,203 ; or %r9d,%ebx
- DB 102,15,110,195 ; movd %ebx,%xmm0
- DB 102,15,196,197,1 ; pinsrw $0x1,%ebp,%xmm0
- DB 102,65,15,96,192 ; punpcklbw %xmm8,%xmm0
- DB 102,65,15,97,192 ; punpcklwd %xmm8,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,29,24,85,1,0 ; movaps 0x15518(%rip),%xmm11 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,195 ; mulps %xmm11,%xmm0
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,225 ; minps %xmm9,%xmm12
- DB 69,15,89,226 ; mulps %xmm10,%xmm12
- DB 102,65,15,91,204 ; cvtps2dq %xmm12,%xmm1
- DB 102,72,15,126,205 ; movq %xmm1,%rbp
- DB 65,137,233 ; mov %ebp,%r9d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 102,15,112,201,78 ; pshufd $0x4e,%xmm1,%xmm1
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 65,137,218 ; mov %ebx,%r10d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 65,15,182,28,24 ; movzbl (%r8,%rbx,1),%ebx
- DB 193,227,8 ; shl $0x8,%ebx
- DB 68,9,211 ; or %r10d,%ebx
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 65,15,182,44,40 ; movzbl (%r8,%rbp,1),%ebp
- DB 193,229,8 ; shl $0x8,%ebp
- DB 68,9,205 ; or %r9d,%ebp
- DB 102,15,110,205 ; movd %ebp,%xmm1
- DB 102,15,196,203,1 ; pinsrw $0x1,%ebx,%xmm1
- DB 102,65,15,96,200 ; punpcklbw %xmm8,%xmm1
- DB 102,65,15,97,200 ; punpcklwd %xmm8,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 76,139,72,16 ; mov 0x10(%rax),%r9
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,226 ; maxps %xmm2,%xmm12
- DB 69,15,93,225 ; minps %xmm9,%xmm12
- DB 69,15,89,226 ; mulps %xmm10,%xmm12
- DB 102,65,15,91,212 ; cvtps2dq %xmm12,%xmm2
- DB 102,72,15,126,211 ; movq %xmm2,%rbx
- DB 65,137,216 ; mov %ebx,%r8d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,15,112,210,78 ; pshufd $0x4e,%xmm2,%xmm2
- DB 102,72,15,126,213 ; movq %xmm2,%rbp
- DB 65,137,234 ; mov %ebp,%r10d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 71,15,182,20,17 ; movzbl (%r9,%r10,1),%r10d
- DB 65,15,182,44,41 ; movzbl (%r9,%rbp,1),%ebp
- DB 193,229,8 ; shl $0x8,%ebp
- DB 68,9,213 ; or %r10d,%ebp
- DB 71,15,182,4,1 ; movzbl (%r9,%r8,1),%r8d
- DB 65,15,182,28,25 ; movzbl (%r9,%rbx,1),%ebx
- DB 193,227,8 ; shl $0x8,%ebx
- DB 68,9,195 ; or %r8d,%ebx
- DB 102,15,110,211 ; movd %ebx,%xmm2
- DB 102,15,196,213,1 ; pinsrw $0x1,%ebp,%xmm2
- DB 102,65,15,96,208 ; punpcklbw %xmm8,%xmm2
- DB 102,65,15,97,208 ; punpcklwd %xmm8,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 65,15,89,211 ; mulps %xmm11,%xmm2
- DB 72,139,64,24 ; mov 0x18(%rax),%rax
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,227 ; maxps %xmm3,%xmm12
- DB 69,15,93,225 ; minps %xmm9,%xmm12
- DB 69,15,89,226 ; mulps %xmm10,%xmm12
- DB 102,65,15,91,220 ; cvtps2dq %xmm12,%xmm3
- DB 102,72,15,126,221 ; movq %xmm3,%rbp
- DB 65,137,232 ; mov %ebp,%r8d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 102,15,112,219,78 ; pshufd $0x4e,%xmm3,%xmm3
- DB 102,72,15,126,219 ; movq %xmm3,%rbx
- DB 65,137,217 ; mov %ebx,%r9d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 70,15,182,12,8 ; movzbl (%rax,%r9,1),%r9d
- DB 15,182,28,24 ; movzbl (%rax,%rbx,1),%ebx
- DB 193,227,8 ; shl $0x8,%ebx
- DB 68,9,203 ; or %r9d,%ebx
- DB 70,15,182,4,0 ; movzbl (%rax,%r8,1),%r8d
- DB 15,182,4,40 ; movzbl (%rax,%rbp,1),%eax
- DB 193,224,8 ; shl $0x8,%eax
- DB 68,9,192 ; or %r8d,%eax
- DB 102,15,110,216 ; movd %eax,%xmm3
- DB 102,15,196,219,1 ; pinsrw $0x1,%ebx,%xmm3
- DB 102,65,15,96,216 ; punpcklbw %xmm8,%xmm3
- DB 102,65,15,97,216 ; punpcklwd %xmm8,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 65,15,89,219 ; mulps %xmm11,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_byte_tables_rgb_sse2
-_sk_byte_tables_rgb_sse2 LABEL PROC
- DB 85 ; push %rbp
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,139,64,24 ; mov 0x18(%rax),%r8d
- DB 65,255,200 ; dec %r8d
- DB 102,69,15,110,192 ; movd %r8d,%xmm8
- DB 102,69,15,112,192,0 ; pshufd $0x0,%xmm8,%xmm8
- DB 69,15,91,200 ; cvtdq2ps %xmm8,%xmm9
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 68,15,95,216 ; maxps %xmm0,%xmm11
- DB 68,15,40,21,129,81,1,0 ; movaps 0x15181(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,218 ; minps %xmm10,%xmm11
- DB 69,15,89,217 ; mulps %xmm9,%xmm11
- DB 102,65,15,91,195 ; cvtps2dq %xmm11,%xmm0
- DB 102,73,15,126,192 ; movq %xmm0,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 77,137,194 ; mov %r8,%r10
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,15,112,192,78 ; pshufd $0x4e,%xmm0,%xmm0
- DB 102,73,15,126,192 ; movq %xmm0,%r8
- DB 69,137,195 ; mov %r8d,%r11d
- DB 77,137,198 ; mov %r8,%r14
- DB 73,193,238,32 ; shr $0x20,%r14
- DB 72,139,24 ; mov (%rax),%rbx
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 70,15,182,28,27 ; movzbl (%rbx,%r11,1),%r11d
- DB 66,15,182,44,51 ; movzbl (%rbx,%r14,1),%ebp
- DB 193,229,8 ; shl $0x8,%ebp
- DB 68,9,221 ; or %r11d,%ebp
- DB 70,15,182,12,11 ; movzbl (%rbx,%r9,1),%r9d
- DB 66,15,182,28,19 ; movzbl (%rbx,%r10,1),%ebx
- DB 193,227,8 ; shl $0x8,%ebx
- DB 68,9,203 ; or %r9d,%ebx
- DB 102,15,110,195 ; movd %ebx,%xmm0
- DB 102,15,196,197,1 ; pinsrw $0x1,%ebp,%xmm0
- DB 102,65,15,96,192 ; punpcklbw %xmm8,%xmm0
- DB 102,65,15,97,192 ; punpcklwd %xmm8,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,29,28,83,1,0 ; movaps 0x1531c(%rip),%xmm11 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,195 ; mulps %xmm11,%xmm0
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,225 ; mulps %xmm9,%xmm12
- DB 102,65,15,91,204 ; cvtps2dq %xmm12,%xmm1
- DB 102,72,15,126,205 ; movq %xmm1,%rbp
- DB 65,137,233 ; mov %ebp,%r9d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 102,15,112,201,78 ; pshufd $0x4e,%xmm1,%xmm1
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 65,137,218 ; mov %ebx,%r10d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 65,15,182,28,24 ; movzbl (%r8,%rbx,1),%ebx
- DB 193,227,8 ; shl $0x8,%ebx
- DB 68,9,211 ; or %r10d,%ebx
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 65,15,182,44,40 ; movzbl (%r8,%rbp,1),%ebp
- DB 193,229,8 ; shl $0x8,%ebp
- DB 68,9,205 ; or %r9d,%ebp
- DB 102,15,110,205 ; movd %ebp,%xmm1
- DB 102,15,196,203,1 ; pinsrw $0x1,%ebx,%xmm1
- DB 102,65,15,96,200 ; punpcklbw %xmm8,%xmm1
- DB 102,65,15,97,200 ; punpcklwd %xmm8,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 72,139,64,16 ; mov 0x10(%rax),%rax
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,226 ; maxps %xmm2,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,225 ; mulps %xmm9,%xmm12
- DB 102,65,15,91,212 ; cvtps2dq %xmm12,%xmm2
- DB 102,72,15,126,213 ; movq %xmm2,%rbp
- DB 65,137,232 ; mov %ebp,%r8d
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 102,15,112,210,78 ; pshufd $0x4e,%xmm2,%xmm2
- DB 102,72,15,126,211 ; movq %xmm2,%rbx
- DB 65,137,217 ; mov %ebx,%r9d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 70,15,182,12,8 ; movzbl (%rax,%r9,1),%r9d
- DB 15,182,28,24 ; movzbl (%rax,%rbx,1),%ebx
- DB 193,227,8 ; shl $0x8,%ebx
- DB 68,9,203 ; or %r9d,%ebx
- DB 70,15,182,4,0 ; movzbl (%rax,%r8,1),%r8d
- DB 15,182,4,40 ; movzbl (%rax,%rbp,1),%eax
- DB 193,224,8 ; shl $0x8,%eax
- DB 68,9,192 ; or %r8d,%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 102,15,196,211,1 ; pinsrw $0x1,%ebx,%xmm2
- DB 102,65,15,96,208 ; punpcklbw %xmm8,%xmm2
- DB 102,65,15,97,208 ; punpcklwd %xmm8,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 65,15,89,211 ; mulps %xmm11,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_r_sse2
-_sk_table_r_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,112,192,0 ; pshufd $0x0,%xmm8,%xmm8
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,93,13,253,79,1,0 ; minps 0x14ffd(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 102,69,15,91,193 ; cvtps2dq %xmm9,%xmm8
- DB 102,65,15,112,192,78 ; pshufd $0x4e,%xmm8,%xmm0
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,77,15,126,194 ; movq %xmm8,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 243,71,15,16,4,144 ; movss (%r8,%r10,4),%xmm8
- DB 243,67,15,16,4,152 ; movss (%r8,%r11,4),%xmm0
- DB 65,15,20,192 ; unpcklps %xmm8,%xmm0
- DB 243,69,15,16,4,128 ; movss (%r8,%rax,4),%xmm8
- DB 243,71,15,16,12,136 ; movss (%r8,%r9,4),%xmm9
- DB 69,15,20,200 ; unpcklps %xmm8,%xmm9
- DB 102,65,15,20,193 ; unpcklpd %xmm9,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_g_sse2
-_sk_table_g_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,112,192,0 ; pshufd $0x0,%xmm8,%xmm8
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,201 ; maxps %xmm1,%xmm9
- DB 68,15,93,13,132,79,1,0 ; minps 0x14f84(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 102,69,15,91,193 ; cvtps2dq %xmm9,%xmm8
- DB 102,65,15,112,200,78 ; pshufd $0x4e,%xmm8,%xmm1
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,77,15,126,194 ; movq %xmm8,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 243,71,15,16,4,144 ; movss (%r8,%r10,4),%xmm8
- DB 243,67,15,16,12,152 ; movss (%r8,%r11,4),%xmm1
- DB 65,15,20,200 ; unpcklps %xmm8,%xmm1
- DB 243,69,15,16,4,128 ; movss (%r8,%rax,4),%xmm8
- DB 243,71,15,16,12,136 ; movss (%r8,%r9,4),%xmm9
- DB 69,15,20,200 ; unpcklps %xmm8,%xmm9
- DB 102,65,15,20,201 ; unpcklpd %xmm9,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_b_sse2
-_sk_table_b_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,112,192,0 ; pshufd $0x0,%xmm8,%xmm8
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,202 ; maxps %xmm2,%xmm9
- DB 68,15,93,13,11,79,1,0 ; minps 0x14f0b(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 102,69,15,91,193 ; cvtps2dq %xmm9,%xmm8
- DB 102,65,15,112,208,78 ; pshufd $0x4e,%xmm8,%xmm2
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,77,15,126,194 ; movq %xmm8,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 243,71,15,16,4,144 ; movss (%r8,%r10,4),%xmm8
- DB 243,67,15,16,20,152 ; movss (%r8,%r11,4),%xmm2
- DB 65,15,20,208 ; unpcklps %xmm8,%xmm2
- DB 243,69,15,16,4,128 ; movss (%r8,%rax,4),%xmm8
- DB 243,71,15,16,12,136 ; movss (%r8,%r9,4),%xmm9
- DB 69,15,20,200 ; unpcklps %xmm8,%xmm9
- DB 102,65,15,20,209 ; unpcklpd %xmm9,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_table_a_sse2
-_sk_table_a_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 139,64,8 ; mov 0x8(%rax),%eax
- DB 255,200 ; dec %eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,112,192,0 ; pshufd $0x0,%xmm8,%xmm8
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,203 ; maxps %xmm3,%xmm9
- DB 68,15,93,13,146,78,1,0 ; minps 0x14e92(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 102,69,15,91,193 ; cvtps2dq %xmm9,%xmm8
- DB 102,65,15,112,216,78 ; pshufd $0x4e,%xmm8,%xmm3
- DB 102,72,15,126,216 ; movq %xmm3,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,77,15,126,194 ; movq %xmm8,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 243,71,15,16,4,144 ; movss (%r8,%r10,4),%xmm8
- DB 243,67,15,16,28,152 ; movss (%r8,%r11,4),%xmm3
- DB 65,15,20,216 ; unpcklps %xmm8,%xmm3
- DB 243,69,15,16,4,128 ; movss (%r8,%rax,4),%xmm8
- DB 243,71,15,16,12,136 ; movss (%r8,%r9,4),%xmm9
- DB 69,15,20,200 ; unpcklps %xmm8,%xmm9
- DB 102,65,15,20,217 ; unpcklpd %xmm9,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_r_sse2
-_sk_parametric_r_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,80,16 ; movss 0x10(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 65,15,194,194,2 ; cmpleps %xmm10,%xmm0
- DB 243,68,15,16,80,24 ; movss 0x18(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 69,15,88,194 ; addps %xmm10,%xmm8
- DB 243,68,15,16,32 ; movss (%rax),%xmm12
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 69,15,91,217 ; cvtdq2ps %xmm9,%xmm11
- DB 68,15,89,29,138,80,1,0 ; mulps 0x1508a(%rip),%xmm11 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 68,15,40,45,146,80,1,0 ; movaps 0x15092(%rip),%xmm13 # 35770 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
- DB 69,15,84,233 ; andps %xmm9,%xmm13
- DB 68,15,86,45,182,77,1,0 ; orps 0x14db6(%rip),%xmm13 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,88,29,142,80,1,0 ; addps 0x1508e(%rip),%xmm11 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 68,15,40,53,150,80,1,0 ; movaps 0x15096(%rip),%xmm14 # 35790 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- DB 69,15,89,245 ; mulps %xmm13,%xmm14
- DB 69,15,92,222 ; subps %xmm14,%xmm11
- DB 68,15,88,45,150,80,1,0 ; addps 0x15096(%rip),%xmm13 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 68,15,40,53,158,80,1,0 ; movaps 0x1509e(%rip),%xmm14 # 357b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
- DB 69,15,94,245 ; divps %xmm13,%xmm14
- DB 69,15,92,222 ; subps %xmm14,%xmm11
- DB 69,15,89,220 ; mulps %xmm12,%xmm11
- DB 243,69,15,91,227 ; cvttps2dq %xmm11,%xmm12
- DB 69,15,91,236 ; cvtdq2ps %xmm12,%xmm13
- DB 69,15,40,243 ; movaps %xmm11,%xmm14
- DB 69,15,194,245,1 ; cmpltps %xmm13,%xmm14
- DB 68,15,40,37,120,77,1,0 ; movaps 0x14d78(%rip),%xmm12 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,84,244 ; andps %xmm12,%xmm14
- DB 69,15,92,238 ; subps %xmm14,%xmm13
- DB 69,15,40,243 ; movaps %xmm11,%xmm14
- DB 69,15,92,245 ; subps %xmm13,%xmm14
- DB 68,15,88,29,112,80,1,0 ; addps 0x15070(%rip),%xmm11 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 68,15,40,45,120,80,1,0 ; movaps 0x15078(%rip),%xmm13 # 357d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
- DB 69,15,89,238 ; mulps %xmm14,%xmm13
- DB 69,15,92,221 ; subps %xmm13,%xmm11
- DB 68,15,40,45,120,80,1,0 ; movaps 0x15078(%rip),%xmm13 # 357e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
- DB 69,15,92,238 ; subps %xmm14,%xmm13
- DB 68,15,40,53,124,80,1,0 ; movaps 0x1507c(%rip),%xmm14 # 357f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
- DB 69,15,94,245 ; divps %xmm13,%xmm14
- DB 69,15,88,243 ; addps %xmm11,%xmm14
- DB 68,15,89,53,124,80,1,0 ; mulps 0x1507c(%rip),%xmm14 # 35800 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
- DB 102,69,15,91,222 ; cvtps2dq %xmm14,%xmm11
- DB 69,15,194,202,4 ; cmpneqps %xmm10,%xmm9
- DB 69,15,84,203 ; andps %xmm11,%xmm9
- DB 243,68,15,16,88,20 ; movss 0x14(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 69,15,88,217 ; addps %xmm9,%xmm11
- DB 68,15,84,192 ; andps %xmm0,%xmm8
- DB 65,15,85,195 ; andnps %xmm11,%xmm0
- DB 65,15,86,192 ; orps %xmm8,%xmm0
- DB 65,15,95,194 ; maxps %xmm10,%xmm0
- DB 65,15,93,196 ; minps %xmm12,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_g_sse2
-_sk_parametric_g_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,80,16 ; movss 0x10(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 68,15,89,193 ; mulps %xmm1,%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 65,15,194,202,2 ; cmpleps %xmm10,%xmm1
- DB 243,68,15,16,80,24 ; movss 0x18(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 69,15,88,194 ; addps %xmm10,%xmm8
- DB 243,68,15,16,32 ; movss (%rax),%xmm12
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 69,15,91,217 ; cvtdq2ps %xmm9,%xmm11
- DB 68,15,89,29,63,79,1,0 ; mulps 0x14f3f(%rip),%xmm11 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 68,15,40,45,71,79,1,0 ; movaps 0x14f47(%rip),%xmm13 # 35770 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
- DB 69,15,84,233 ; andps %xmm9,%xmm13
- DB 68,15,86,45,107,76,1,0 ; orps 0x14c6b(%rip),%xmm13 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,88,29,67,79,1,0 ; addps 0x14f43(%rip),%xmm11 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 68,15,40,53,75,79,1,0 ; movaps 0x14f4b(%rip),%xmm14 # 35790 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- DB 69,15,89,245 ; mulps %xmm13,%xmm14
- DB 69,15,92,222 ; subps %xmm14,%xmm11
- DB 68,15,88,45,75,79,1,0 ; addps 0x14f4b(%rip),%xmm13 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 68,15,40,53,83,79,1,0 ; movaps 0x14f53(%rip),%xmm14 # 357b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
- DB 69,15,94,245 ; divps %xmm13,%xmm14
- DB 69,15,92,222 ; subps %xmm14,%xmm11
- DB 69,15,89,220 ; mulps %xmm12,%xmm11
- DB 243,69,15,91,227 ; cvttps2dq %xmm11,%xmm12
- DB 69,15,91,236 ; cvtdq2ps %xmm12,%xmm13
- DB 69,15,40,243 ; movaps %xmm11,%xmm14
- DB 69,15,194,245,1 ; cmpltps %xmm13,%xmm14
- DB 68,15,40,37,45,76,1,0 ; movaps 0x14c2d(%rip),%xmm12 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,84,244 ; andps %xmm12,%xmm14
- DB 69,15,92,238 ; subps %xmm14,%xmm13
- DB 69,15,40,243 ; movaps %xmm11,%xmm14
- DB 69,15,92,245 ; subps %xmm13,%xmm14
- DB 68,15,88,29,37,79,1,0 ; addps 0x14f25(%rip),%xmm11 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 68,15,40,45,45,79,1,0 ; movaps 0x14f2d(%rip),%xmm13 # 357d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
- DB 69,15,89,238 ; mulps %xmm14,%xmm13
- DB 69,15,92,221 ; subps %xmm13,%xmm11
- DB 68,15,40,45,45,79,1,0 ; movaps 0x14f2d(%rip),%xmm13 # 357e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
- DB 69,15,92,238 ; subps %xmm14,%xmm13
- DB 68,15,40,53,49,79,1,0 ; movaps 0x14f31(%rip),%xmm14 # 357f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
- DB 69,15,94,245 ; divps %xmm13,%xmm14
- DB 69,15,88,243 ; addps %xmm11,%xmm14
- DB 68,15,89,53,49,79,1,0 ; mulps 0x14f31(%rip),%xmm14 # 35800 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
- DB 102,69,15,91,222 ; cvtps2dq %xmm14,%xmm11
- DB 69,15,194,202,4 ; cmpneqps %xmm10,%xmm9
- DB 69,15,84,203 ; andps %xmm11,%xmm9
- DB 243,68,15,16,88,20 ; movss 0x14(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 69,15,88,217 ; addps %xmm9,%xmm11
- DB 68,15,84,193 ; andps %xmm1,%xmm8
- DB 65,15,85,203 ; andnps %xmm11,%xmm1
- DB 65,15,86,200 ; orps %xmm8,%xmm1
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,93,204 ; minps %xmm12,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_b_sse2
-_sk_parametric_b_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,80,16 ; movss 0x10(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 68,15,89,194 ; mulps %xmm2,%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,202 ; mulps %xmm2,%xmm9
- DB 65,15,194,210,2 ; cmpleps %xmm10,%xmm2
- DB 243,68,15,16,80,24 ; movss 0x18(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 69,15,88,194 ; addps %xmm10,%xmm8
- DB 243,68,15,16,32 ; movss (%rax),%xmm12
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 69,15,91,217 ; cvtdq2ps %xmm9,%xmm11
- DB 68,15,89,29,244,77,1,0 ; mulps 0x14df4(%rip),%xmm11 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 68,15,40,45,252,77,1,0 ; movaps 0x14dfc(%rip),%xmm13 # 35770 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
- DB 69,15,84,233 ; andps %xmm9,%xmm13
- DB 68,15,86,45,32,75,1,0 ; orps 0x14b20(%rip),%xmm13 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,88,29,248,77,1,0 ; addps 0x14df8(%rip),%xmm11 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 68,15,40,53,0,78,1,0 ; movaps 0x14e00(%rip),%xmm14 # 35790 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- DB 69,15,89,245 ; mulps %xmm13,%xmm14
- DB 69,15,92,222 ; subps %xmm14,%xmm11
- DB 68,15,88,45,0,78,1,0 ; addps 0x14e00(%rip),%xmm13 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 68,15,40,53,8,78,1,0 ; movaps 0x14e08(%rip),%xmm14 # 357b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
- DB 69,15,94,245 ; divps %xmm13,%xmm14
- DB 69,15,92,222 ; subps %xmm14,%xmm11
- DB 69,15,89,220 ; mulps %xmm12,%xmm11
- DB 243,69,15,91,227 ; cvttps2dq %xmm11,%xmm12
- DB 69,15,91,236 ; cvtdq2ps %xmm12,%xmm13
- DB 69,15,40,243 ; movaps %xmm11,%xmm14
- DB 69,15,194,245,1 ; cmpltps %xmm13,%xmm14
- DB 68,15,40,37,226,74,1,0 ; movaps 0x14ae2(%rip),%xmm12 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,84,244 ; andps %xmm12,%xmm14
- DB 69,15,92,238 ; subps %xmm14,%xmm13
- DB 69,15,40,243 ; movaps %xmm11,%xmm14
- DB 69,15,92,245 ; subps %xmm13,%xmm14
- DB 68,15,88,29,218,77,1,0 ; addps 0x14dda(%rip),%xmm11 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 68,15,40,45,226,77,1,0 ; movaps 0x14de2(%rip),%xmm13 # 357d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
- DB 69,15,89,238 ; mulps %xmm14,%xmm13
- DB 69,15,92,221 ; subps %xmm13,%xmm11
- DB 68,15,40,45,226,77,1,0 ; movaps 0x14de2(%rip),%xmm13 # 357e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
- DB 69,15,92,238 ; subps %xmm14,%xmm13
- DB 68,15,40,53,230,77,1,0 ; movaps 0x14de6(%rip),%xmm14 # 357f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
- DB 69,15,94,245 ; divps %xmm13,%xmm14
- DB 69,15,88,243 ; addps %xmm11,%xmm14
- DB 68,15,89,53,230,77,1,0 ; mulps 0x14de6(%rip),%xmm14 # 35800 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
- DB 102,69,15,91,222 ; cvtps2dq %xmm14,%xmm11
- DB 69,15,194,202,4 ; cmpneqps %xmm10,%xmm9
- DB 69,15,84,203 ; andps %xmm11,%xmm9
- DB 243,68,15,16,88,20 ; movss 0x14(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 69,15,88,217 ; addps %xmm9,%xmm11
- DB 68,15,84,194 ; andps %xmm2,%xmm8
- DB 65,15,85,211 ; andnps %xmm11,%xmm2
- DB 65,15,86,208 ; orps %xmm8,%xmm2
- DB 65,15,95,210 ; maxps %xmm10,%xmm2
- DB 65,15,93,212 ; minps %xmm12,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_parametric_a_sse2
-_sk_parametric_a_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,80,16 ; movss 0x10(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 68,15,89,195 ; mulps %xmm3,%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,203 ; mulps %xmm3,%xmm9
- DB 65,15,194,218,2 ; cmpleps %xmm10,%xmm3
- DB 243,68,15,16,80,24 ; movss 0x18(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 69,15,88,194 ; addps %xmm10,%xmm8
- DB 243,68,15,16,32 ; movss (%rax),%xmm12
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 69,15,91,217 ; cvtdq2ps %xmm9,%xmm11
- DB 68,15,89,29,169,76,1,0 ; mulps 0x14ca9(%rip),%xmm11 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 68,15,40,45,177,76,1,0 ; movaps 0x14cb1(%rip),%xmm13 # 35770 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
- DB 69,15,84,233 ; andps %xmm9,%xmm13
- DB 68,15,86,45,213,73,1,0 ; orps 0x149d5(%rip),%xmm13 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,88,29,173,76,1,0 ; addps 0x14cad(%rip),%xmm11 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 68,15,40,53,181,76,1,0 ; movaps 0x14cb5(%rip),%xmm14 # 35790 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- DB 69,15,89,245 ; mulps %xmm13,%xmm14
- DB 69,15,92,222 ; subps %xmm14,%xmm11
- DB 68,15,88,45,181,76,1,0 ; addps 0x14cb5(%rip),%xmm13 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 68,15,40,53,189,76,1,0 ; movaps 0x14cbd(%rip),%xmm14 # 357b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
- DB 69,15,94,245 ; divps %xmm13,%xmm14
- DB 69,15,92,222 ; subps %xmm14,%xmm11
- DB 69,15,89,220 ; mulps %xmm12,%xmm11
- DB 243,69,15,91,227 ; cvttps2dq %xmm11,%xmm12
- DB 69,15,91,236 ; cvtdq2ps %xmm12,%xmm13
- DB 69,15,40,243 ; movaps %xmm11,%xmm14
- DB 69,15,194,245,1 ; cmpltps %xmm13,%xmm14
- DB 68,15,40,37,151,73,1,0 ; movaps 0x14997(%rip),%xmm12 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,84,244 ; andps %xmm12,%xmm14
- DB 69,15,92,238 ; subps %xmm14,%xmm13
- DB 69,15,40,243 ; movaps %xmm11,%xmm14
- DB 69,15,92,245 ; subps %xmm13,%xmm14
- DB 68,15,88,29,143,76,1,0 ; addps 0x14c8f(%rip),%xmm11 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 68,15,40,45,151,76,1,0 ; movaps 0x14c97(%rip),%xmm13 # 357d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
- DB 69,15,89,238 ; mulps %xmm14,%xmm13
- DB 69,15,92,221 ; subps %xmm13,%xmm11
- DB 68,15,40,45,151,76,1,0 ; movaps 0x14c97(%rip),%xmm13 # 357e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
- DB 69,15,92,238 ; subps %xmm14,%xmm13
- DB 68,15,40,53,155,76,1,0 ; movaps 0x14c9b(%rip),%xmm14 # 357f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
- DB 69,15,94,245 ; divps %xmm13,%xmm14
- DB 69,15,88,243 ; addps %xmm11,%xmm14
- DB 68,15,89,53,155,76,1,0 ; mulps 0x14c9b(%rip),%xmm14 # 35800 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
- DB 102,69,15,91,222 ; cvtps2dq %xmm14,%xmm11
- DB 69,15,194,202,4 ; cmpneqps %xmm10,%xmm9
- DB 69,15,84,203 ; andps %xmm11,%xmm9
- DB 243,68,15,16,88,20 ; movss 0x14(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 69,15,88,217 ; addps %xmm9,%xmm11
- DB 68,15,84,195 ; andps %xmm3,%xmm8
- DB 65,15,85,219 ; andnps %xmm11,%xmm3
- DB 65,15,86,216 ; orps %xmm8,%xmm3
- DB 65,15,95,218 ; maxps %xmm10,%xmm3
- DB 65,15,93,220 ; minps %xmm12,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gamma_sse2
-_sk_gamma_sse2 LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%rsp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%rsp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%rsp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%rsp)
- DB 15,41,28,36 ; movaps %xmm3,(%rsp)
- DB 68,15,40,226 ; movaps %xmm2,%xmm12
- DB 68,15,40,209 ; movaps %xmm1,%xmm10
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,91,244 ; cvtdq2ps %xmm4,%xmm6
- DB 15,40,5,149,75,1,0 ; movaps 0x14b95(%rip),%xmm0 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 15,89,240 ; mulps %xmm0,%xmm6
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 68,15,40,5,151,75,1,0 ; movaps 0x14b97(%rip),%xmm8 # 35770 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 15,86,5,185,72,1,0 ; orps 0x148b9(%rip),%xmm0 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,88,53,146,75,1,0 ; addps 0x14b92(%rip),%xmm6 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 68,15,40,29,154,75,1,0 ; movaps 0x14b9a(%rip),%xmm11 # 35790 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 15,92,241 ; subps %xmm1,%xmm6
- DB 68,15,40,61,152,75,1,0 ; movaps 0x14b98(%rip),%xmm15 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 65,15,88,199 ; addps %xmm15,%xmm0
- DB 68,15,40,45,156,75,1,0 ; movaps 0x14b9c(%rip),%xmm13 # 357b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
- DB 65,15,40,205 ; movaps %xmm13,%xmm1
- DB 15,94,200 ; divps %xmm0,%xmm1
- DB 15,92,241 ; subps %xmm1,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,24 ; movss (%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 243,15,91,198 ; cvttps2dq %xmm6,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,206 ; movaps %xmm6,%xmm1
- DB 15,194,200,1 ; cmpltps %xmm0,%xmm1
- DB 15,84,13,112,72,1,0 ; andps 0x14870(%rip),%xmm1 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,40,206 ; movaps %xmm6,%xmm1
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,88,53,112,75,1,0 ; addps 0x14b70(%rip),%xmm6 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 15,40,21,137,75,1,0 ; movaps 0x14b89(%rip),%xmm2 # 357e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
- DB 68,15,40,202 ; movaps %xmm2,%xmm9
- DB 68,15,92,201 ; subps %xmm1,%xmm9
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,40,13,103,75,1,0 ; movaps 0x14b67(%rip),%xmm1 # 357d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,92,240 ; subps %xmm0,%xmm6
- DB 68,15,40,53,121,75,1,0 ; movaps 0x14b79(%rip),%xmm14 # 357f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
- DB 65,15,40,198 ; movaps %xmm14,%xmm0
- DB 65,15,94,193 ; divps %xmm9,%xmm0
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 68,15,40,13,118,75,1,0 ; movaps 0x14b76(%rip),%xmm9 # 35800 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,194,230,4 ; cmpneqps %xmm6,%xmm4
- DB 15,84,224 ; andps %xmm0,%xmm4
- DB 65,15,91,194 ; cvtdq2ps %xmm10,%xmm0
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 65,15,40,250 ; movaps %xmm10,%xmm7
- DB 65,15,84,248 ; andps %xmm8,%xmm7
- DB 15,40,53,238,71,1,0 ; movaps 0x147ee(%rip),%xmm6 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,86,254 ; orps %xmm6,%xmm7
- DB 15,88,5,196,74,1,0 ; addps 0x14ac4(%rip),%xmm0 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 15,40,239 ; movaps %xmm7,%xmm5
- DB 65,15,89,235 ; mulps %xmm11,%xmm5
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 65,15,88,255 ; addps %xmm15,%xmm7
- DB 65,15,40,237 ; movaps %xmm13,%xmm5
- DB 15,94,239 ; divps %xmm7,%xmm5
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 243,15,91,232 ; cvttps2dq %xmm0,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,194,253,1 ; cmpltps %xmm5,%xmm7
- DB 68,15,40,61,195,71,1,0 ; movaps 0x147c3(%rip),%xmm15 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,84,255 ; andps %xmm15,%xmm7
- DB 15,92,239 ; subps %xmm7,%xmm5
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,92,253 ; subps %xmm5,%xmm7
- DB 15,88,5,191,74,1,0 ; addps 0x14abf(%rip),%xmm0 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 15,40,234 ; movaps %xmm2,%xmm5
- DB 15,92,239 ; subps %xmm7,%xmm5
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 15,92,199 ; subps %xmm7,%xmm0
- DB 65,15,40,254 ; movaps %xmm14,%xmm7
- DB 15,94,253 ; divps %xmm5,%xmm7
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 65,15,89,249 ; mulps %xmm9,%xmm7
- DB 102,15,91,199 ; cvtps2dq %xmm7,%xmm0
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 68,15,194,215,4 ; cmpneqps %xmm7,%xmm10
- DB 68,15,84,208 ; andps %xmm0,%xmm10
- DB 65,15,91,196 ; cvtdq2ps %xmm12,%xmm0
- DB 15,89,5,42,74,1,0 ; mulps 0x14a2a(%rip),%xmm0 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 69,15,84,196 ; andps %xmm12,%xmm8
- DB 68,15,86,198 ; orps %xmm6,%xmm8
- DB 15,88,5,59,74,1,0 ; addps 0x14a3b(%rip),%xmm0 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 69,15,89,216 ; mulps %xmm8,%xmm11
- DB 65,15,92,195 ; subps %xmm11,%xmm0
- DB 68,15,88,5,75,74,1,0 ; addps 0x14a4b(%rip),%xmm8 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 69,15,94,232 ; divps %xmm8,%xmm13
- DB 65,15,92,197 ; subps %xmm13,%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 243,15,91,216 ; cvttps2dq %xmm0,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 15,194,235,1 ; cmpltps %xmm3,%xmm5
- DB 65,15,84,239 ; andps %xmm15,%xmm5
- DB 15,92,221 ; subps %xmm5,%xmm3
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 15,92,235 ; subps %xmm3,%xmm5
- DB 15,88,5,62,74,1,0 ; addps 0x14a3e(%rip),%xmm0 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,92,213 ; subps %xmm5,%xmm2
- DB 68,15,94,242 ; divps %xmm2,%xmm14
- DB 68,15,88,240 ; addps %xmm0,%xmm14
- DB 69,15,89,241 ; mulps %xmm9,%xmm14
- DB 68,15,194,231,4 ; cmpneqps %xmm7,%xmm12
- DB 102,65,15,91,198 ; cvtps2dq %xmm14,%xmm0
- DB 68,15,84,224 ; andps %xmm0,%xmm12
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 65,15,40,202 ; movaps %xmm10,%xmm1
- DB 65,15,40,212 ; movaps %xmm12,%xmm2
- DB 15,40,28,36 ; movaps (%rsp),%xmm3
- DB 15,40,100,36,16 ; movaps 0x10(%rsp),%xmm4
- DB 15,40,108,36,32 ; movaps 0x20(%rsp),%xmm5
- DB 15,40,116,36,48 ; movaps 0x30(%rsp),%xmm6
- DB 15,40,124,36,64 ; movaps 0x40(%rsp),%xmm7
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gamma_dst_sse2
-_sk_gamma_dst_sse2 LABEL PROC
- DB 72,131,236,88 ; sub $0x58,%rsp
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%rsp)
- DB 68,15,40,230 ; movaps %xmm6,%xmm12
- DB 68,15,40,213 ; movaps %xmm5,%xmm10
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,41,92,36,48 ; movaps %xmm3,0x30(%rsp)
- DB 15,41,84,36,32 ; movaps %xmm2,0x20(%rsp)
- DB 15,41,76,36,16 ; movaps %xmm1,0x10(%rsp)
- DB 15,41,4,36 ; movaps %xmm0,(%rsp)
- DB 15,91,221 ; cvtdq2ps %xmm5,%xmm3
- DB 15,40,5,95,73,1,0 ; movaps 0x1495f(%rip),%xmm0 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 68,15,40,5,97,73,1,0 ; movaps 0x14961(%rip),%xmm8 # 35770 <_sk_srcover_bgra_8888_sse2_lowp+0xf58>
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 15,86,5,131,70,1,0 ; orps 0x14683(%rip),%xmm0 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,88,29,92,73,1,0 ; addps 0x1495c(%rip),%xmm3 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 68,15,40,29,100,73,1,0 ; movaps 0x14964(%rip),%xmm11 # 35790 <_sk_srcover_bgra_8888_sse2_lowp+0xf78>
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 15,92,217 ; subps %xmm1,%xmm3
- DB 68,15,40,61,98,73,1,0 ; movaps 0x14962(%rip),%xmm15 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 65,15,88,199 ; addps %xmm15,%xmm0
- DB 68,15,40,45,102,73,1,0 ; movaps 0x14966(%rip),%xmm13 # 357b0 <_sk_srcover_bgra_8888_sse2_lowp+0xf98>
- DB 65,15,40,205 ; movaps %xmm13,%xmm1
- DB 15,94,200 ; divps %xmm0,%xmm1
- DB 15,92,217 ; subps %xmm1,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,32 ; movss (%rax),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,194,200,1 ; cmpltps %xmm0,%xmm1
- DB 15,84,13,58,70,1,0 ; andps 0x1463a(%rip),%xmm1 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,88,29,58,73,1,0 ; addps 0x1493a(%rip),%xmm3 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 15,40,21,83,73,1,0 ; movaps 0x14953(%rip),%xmm2 # 357e0 <_sk_srcover_bgra_8888_sse2_lowp+0xfc8>
- DB 68,15,40,202 ; movaps %xmm2,%xmm9
- DB 68,15,92,201 ; subps %xmm1,%xmm9
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,40,13,49,73,1,0 ; movaps 0x14931(%rip),%xmm1 # 357d0 <_sk_srcover_bgra_8888_sse2_lowp+0xfb8>
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,92,216 ; subps %xmm0,%xmm3
- DB 68,15,40,53,67,73,1,0 ; movaps 0x14943(%rip),%xmm14 # 357f0 <_sk_srcover_bgra_8888_sse2_lowp+0xfd8>
- DB 65,15,40,198 ; movaps %xmm14,%xmm0
- DB 65,15,94,193 ; divps %xmm9,%xmm0
- DB 15,88,195 ; addps %xmm3,%xmm0
- DB 68,15,40,13,64,73,1,0 ; movaps 0x14940(%rip),%xmm9 # 35800 <_sk_srcover_bgra_8888_sse2_lowp+0xfe8>
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,194,235,4 ; cmpneqps %xmm3,%xmm5
- DB 15,84,232 ; andps %xmm0,%xmm5
- DB 65,15,91,194 ; cvtdq2ps %xmm10,%xmm0
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 65,15,40,250 ; movaps %xmm10,%xmm7
- DB 65,15,84,248 ; andps %xmm8,%xmm7
- DB 15,40,29,184,69,1,0 ; movaps 0x145b8(%rip),%xmm3 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,86,251 ; orps %xmm3,%xmm7
- DB 15,88,5,142,72,1,0 ; addps 0x1488e(%rip),%xmm0 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 15,40,247 ; movaps %xmm7,%xmm6
- DB 65,15,89,243 ; mulps %xmm11,%xmm6
- DB 15,92,198 ; subps %xmm6,%xmm0
- DB 65,15,88,255 ; addps %xmm15,%xmm7
- DB 65,15,40,245 ; movaps %xmm13,%xmm6
- DB 15,94,247 ; divps %xmm7,%xmm6
- DB 15,92,198 ; subps %xmm6,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 243,15,91,240 ; cvttps2dq %xmm0,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,194,254,1 ; cmpltps %xmm6,%xmm7
- DB 68,15,40,61,141,69,1,0 ; movaps 0x1458d(%rip),%xmm15 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,84,255 ; andps %xmm15,%xmm7
- DB 15,92,247 ; subps %xmm7,%xmm6
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,92,254 ; subps %xmm6,%xmm7
- DB 15,88,5,137,72,1,0 ; addps 0x14889(%rip),%xmm0 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 15,40,242 ; movaps %xmm2,%xmm6
- DB 15,92,247 ; subps %xmm7,%xmm6
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 15,92,199 ; subps %xmm7,%xmm0
- DB 65,15,40,254 ; movaps %xmm14,%xmm7
- DB 15,94,254 ; divps %xmm6,%xmm7
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 65,15,89,249 ; mulps %xmm9,%xmm7
- DB 102,15,91,199 ; cvtps2dq %xmm7,%xmm0
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 68,15,194,215,4 ; cmpneqps %xmm7,%xmm10
- DB 68,15,84,208 ; andps %xmm0,%xmm10
- DB 65,15,91,196 ; cvtdq2ps %xmm12,%xmm0
- DB 15,89,5,244,71,1,0 ; mulps 0x147f4(%rip),%xmm0 # 35760 <_sk_srcover_bgra_8888_sse2_lowp+0xf48>
- DB 69,15,84,196 ; andps %xmm12,%xmm8
- DB 68,15,86,195 ; orps %xmm3,%xmm8
- DB 15,88,5,5,72,1,0 ; addps 0x14805(%rip),%xmm0 # 35780 <_sk_srcover_bgra_8888_sse2_lowp+0xf68>
- DB 69,15,89,216 ; mulps %xmm8,%xmm11
- DB 65,15,92,195 ; subps %xmm11,%xmm0
- DB 68,15,88,5,21,72,1,0 ; addps 0x14815(%rip),%xmm8 # 357a0 <_sk_srcover_bgra_8888_sse2_lowp+0xf88>
- DB 69,15,94,232 ; divps %xmm8,%xmm13
- DB 65,15,92,197 ; subps %xmm13,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 243,15,91,224 ; cvttps2dq %xmm0,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,194,244,1 ; cmpltps %xmm4,%xmm6
- DB 65,15,84,247 ; andps %xmm15,%xmm6
- DB 15,92,230 ; subps %xmm6,%xmm4
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,92,244 ; subps %xmm4,%xmm6
- DB 15,88,5,8,72,1,0 ; addps 0x14808(%rip),%xmm0 # 357c0 <_sk_srcover_bgra_8888_sse2_lowp+0xfa8>
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,92,214 ; subps %xmm6,%xmm2
- DB 68,15,94,242 ; divps %xmm2,%xmm14
- DB 68,15,88,240 ; addps %xmm0,%xmm14
- DB 69,15,89,241 ; mulps %xmm9,%xmm14
- DB 68,15,194,231,4 ; cmpneqps %xmm7,%xmm12
- DB 102,65,15,91,198 ; cvtps2dq %xmm14,%xmm0
- DB 68,15,84,224 ; andps %xmm0,%xmm12
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,4,36 ; movaps (%rsp),%xmm0
- DB 15,40,76,36,16 ; movaps 0x10(%rsp),%xmm1
- DB 15,40,84,36,32 ; movaps 0x20(%rsp),%xmm2
- DB 15,40,92,36,48 ; movaps 0x30(%rsp),%xmm3
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 65,15,40,234 ; movaps %xmm10,%xmm5
- DB 65,15,40,244 ; movaps %xmm12,%xmm6
- DB 15,40,124,36,64 ; movaps 0x40(%rsp),%xmm7
- DB 72,131,196,88 ; add $0x58,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lab_to_xyz_sse2
-_sk_lab_to_xyz_sse2 LABEL PROC
- DB 15,89,5,3,72,1,0 ; mulps 0x14803(%rip),%xmm0 # 35810 <_sk_srcover_bgra_8888_sse2_lowp+0xff8>
- DB 68,15,40,5,123,69,1,0 ; movaps 0x1457b(%rip),%xmm8 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 68,15,40,13,255,71,1,0 ; movaps 0x147ff(%rip),%xmm9 # 35820 <_sk_srcover_bgra_8888_sse2_lowp+0x1008>
- DB 65,15,88,201 ; addps %xmm9,%xmm1
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 65,15,88,209 ; addps %xmm9,%xmm2
- DB 15,88,5,252,71,1,0 ; addps 0x147fc(%rip),%xmm0 # 35830 <_sk_srcover_bgra_8888_sse2_lowp+0x1018>
- DB 15,89,5,5,72,1,0 ; mulps 0x14805(%rip),%xmm0 # 35840 <_sk_srcover_bgra_8888_sse2_lowp+0x1028>
- DB 15,89,13,14,72,1,0 ; mulps 0x1480e(%rip),%xmm1 # 35850 <_sk_srcover_bgra_8888_sse2_lowp+0x1038>
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,89,21,20,72,1,0 ; mulps 0x14814(%rip),%xmm2 # 35860 <_sk_srcover_bgra_8888_sse2_lowp+0x1048>
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 68,15,92,202 ; subps %xmm2,%xmm9
- DB 68,15,40,225 ; movaps %xmm1,%xmm12
- DB 69,15,89,228 ; mulps %xmm12,%xmm12
- DB 68,15,89,225 ; mulps %xmm1,%xmm12
- DB 15,40,21,9,72,1,0 ; movaps 0x14809(%rip),%xmm2 # 35870 <_sk_srcover_bgra_8888_sse2_lowp+0x1058>
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 69,15,194,196,1 ; cmpltps %xmm12,%xmm8
- DB 68,15,40,21,8,72,1,0 ; movaps 0x14808(%rip),%xmm10 # 35880 <_sk_srcover_bgra_8888_sse2_lowp+0x1068>
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 68,15,40,29,12,72,1,0 ; movaps 0x1480c(%rip),%xmm11 # 35890 <_sk_srcover_bgra_8888_sse2_lowp+0x1078>
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 69,15,84,224 ; andps %xmm8,%xmm12
- DB 68,15,85,193 ; andnps %xmm1,%xmm8
- DB 69,15,86,196 ; orps %xmm12,%xmm8
- DB 68,15,40,224 ; movaps %xmm0,%xmm12
- DB 69,15,89,228 ; mulps %xmm12,%xmm12
- DB 68,15,89,224 ; mulps %xmm0,%xmm12
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 65,15,194,204,1 ; cmpltps %xmm12,%xmm1
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 65,15,89,195 ; mulps %xmm11,%xmm0
- DB 68,15,84,225 ; andps %xmm1,%xmm12
- DB 15,85,200 ; andnps %xmm0,%xmm1
- DB 65,15,86,204 ; orps %xmm12,%xmm1
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 15,194,208,1 ; cmpltps %xmm0,%xmm2
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 15,84,194 ; andps %xmm2,%xmm0
- DB 65,15,85,209 ; andnps %xmm9,%xmm2
- DB 15,86,208 ; orps %xmm0,%xmm2
- DB 68,15,89,5,188,71,1,0 ; mulps 0x147bc(%rip),%xmm8 # 358a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1088>
- DB 15,89,21,197,71,1,0 ; mulps 0x147c5(%rip),%xmm2 # 358b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1098>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_a8_sse2
-_sk_load_a8_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,46 ; jne 21133 <_sk_load_a8_sse2+0x40>
- DB 102,65,15,110,4,16 ; movd (%r8,%rdx,1),%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 102,15,97,192 ; punpcklwd %xmm0,%xmm0
- DB 102,15,219,5,69,68,1,0 ; pand 0x14445(%rip),%xmm0 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 15,91,216 ; cvtdq2ps %xmm0,%xmm3
- DB 15,89,29,155,69,1,0 ; mulps 0x1459b(%rip),%xmm3 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 102,15,87,201 ; xorpd %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,50 ; je 2116d <_sk_load_a8_sse2+0x7a>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 21156 <_sk_load_a8_sse2+0x63>
- DB 60,3 ; cmp $0x3,%al
- DB 117,204 ; jne 21113 <_sk_load_a8_sse2+0x20>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,200 ; movd %eax,%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 242,15,16,193 ; movsd %xmm1,%xmm0
- DB 235,166 ; jmp 21113 <_sk_load_a8_sse2+0x20>
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 235,155 ; jmp 21113 <_sk_load_a8_sse2+0x20>
-
-PUBLIC _sk_load_a8_dst_sse2
-_sk_load_a8_dst_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,46 ; jne 211b8 <_sk_load_a8_dst_sse2+0x40>
- DB 102,65,15,110,36,16 ; movd (%r8,%rdx,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,219,37,192,67,1,0 ; pand 0x143c0(%rip),%xmm4 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 15,91,252 ; cvtdq2ps %xmm4,%xmm7
- DB 15,89,61,22,69,1,0 ; mulps 0x14516(%rip),%xmm7 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 102,15,87,237 ; xorpd %xmm5,%xmm5
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,50 ; je 211f2 <_sk_load_a8_dst_sse2+0x7a>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 211db <_sk_load_a8_dst_sse2+0x63>
- DB 60,3 ; cmp $0x3,%al
- DB 117,204 ; jne 21198 <_sk_load_a8_dst_sse2+0x20>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,112,228,69 ; pshufd $0x45,%xmm4,%xmm4
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,232 ; movd %eax,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 102,15,97,232 ; punpcklwd %xmm0,%xmm5
- DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 235,166 ; jmp 21198 <_sk_load_a8_dst_sse2+0x20>
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 235,155 ; jmp 21198 <_sk_load_a8_dst_sse2+0x20>
-
-PUBLIC _sk_gather_a8_sse2
-_sk_gather_a8_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,88,12 ; movss 0xc(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,65,15,254,217 ; paddd %xmm9,%xmm3
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,95,208 ; maxps %xmm0,%xmm2
- DB 15,93,211 ; minps %xmm3,%xmm2
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,193 ; paddd %xmm9,%xmm0
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,216,245 ; pshufd $0xf5,%xmm0,%xmm3
- DB 102,15,244,217 ; pmuludq %xmm1,%xmm3
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,203,232 ; pshufd $0xe8,%xmm3,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,15,91,202 ; cvttps2dq %xmm2,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,73,15,126,194 ; movq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 71,15,182,28,24 ; movzbl (%r8,%r11,1),%r11d
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 65,193,226,8 ; shl $0x8,%r10d
- DB 69,9,218 ; or %r11d,%r10d
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 193,224,8 ; shl $0x8,%eax
- DB 68,9,200 ; or %r9d,%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,65,15,196,194,1 ; pinsrw $0x1,%r10d,%xmm0
- DB 102,65,15,96,192 ; punpcklbw %xmm8,%xmm0
- DB 102,65,15,97,192 ; punpcklwd %xmm8,%xmm0
- DB 15,91,216 ; cvtdq2ps %xmm0,%xmm3
- DB 15,89,29,249,67,1,0 ; mulps 0x143f9(%rip),%xmm3 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_a8_sse2
-_sk_store_a8_sse2 LABEL PROC
- DB 72,131,236,4 ; sub $0x4,%rsp
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,95,195 ; maxps %xmm3,%xmm8
- DB 68,15,93,5,186,65,1,0 ; minps 0x141ba(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,89,5,146,66,1,0 ; mulps 0x14292(%rip),%xmm8 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,114,224,16 ; psrad $0x10,%xmm8
- DB 102,68,15,107,192 ; packssdw %xmm0,%xmm8
- DB 102,68,15,103,192 ; packuswb %xmm0,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,17 ; jne 2132f <_sk_store_a8_sse2+0x5a>
- DB 102,68,15,126,192 ; movd %xmm8,%eax
- DB 65,137,4,16 ; mov %eax,(%r8,%rdx,1)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,131,196,4 ; add $0x4,%rsp
- DB 255,224 ; jmpq *%rax
- DB 102,68,15,96,192 ; punpcklbw %xmm0,%xmm8
- DB 102,68,15,97,192 ; punpcklwd %xmm0,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,50 ; je 21373 <_sk_store_a8_sse2+0x9e>
- DB 60,2 ; cmp $0x2,%al
- DB 116,15 ; je 21354 <_sk_store_a8_sse2+0x7f>
- DB 60,3 ; cmp $0x3,%al
- DB 117,222 ; jne 21327 <_sk_store_a8_sse2+0x52>
- DB 102,65,15,197,192,4 ; pextrw $0x4,%xmm8,%eax
- DB 65,136,68,16,2 ; mov %al,0x2(%r8,%rdx,1)
- DB 102,68,15,219,5,3,66,1,0 ; pand 0x14203(%rip),%xmm8 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,69,15,103,192 ; packuswb %xmm8,%xmm8
- DB 102,69,15,103,192 ; packuswb %xmm8,%xmm8
- DB 102,68,15,126,192 ; movd %xmm8,%eax
- DB 102,65,137,4,16 ; mov %ax,(%r8,%rdx,1)
- DB 235,180 ; jmp 21327 <_sk_store_a8_sse2+0x52>
- DB 102,68,15,126,192 ; movd %xmm8,%eax
- DB 65,136,4,16 ; mov %al,(%r8,%rdx,1)
- DB 235,169 ; jmp 21327 <_sk_store_a8_sse2+0x52>
-
-PUBLIC _sk_load_g8_sse2
-_sk_load_g8_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,49 ; jne 213c1 <_sk_load_g8_sse2+0x43>
- DB 102,65,15,110,4,16 ; movd (%r8,%rdx,1),%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 102,15,97,192 ; punpcklwd %xmm0,%xmm0
- DB 102,15,219,5,186,65,1,0 ; pand 0x141ba(%rip),%xmm0 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,16,67,1,0 ; mulps 0x14310(%rip),%xmm0 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,247,64,1,0 ; movaps 0x140f7(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,50 ; je 213fb <_sk_load_g8_sse2+0x7d>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 213e4 <_sk_load_g8_sse2+0x66>
- DB 60,3 ; cmp $0x3,%al
- DB 117,201 ; jne 2139e <_sk_load_g8_sse2+0x20>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,200 ; movd %eax,%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 242,15,16,193 ; movsd %xmm1,%xmm0
- DB 235,163 ; jmp 2139e <_sk_load_g8_sse2+0x20>
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 235,152 ; jmp 2139e <_sk_load_g8_sse2+0x20>
-
-PUBLIC _sk_load_g8_dst_sse2
-_sk_load_g8_dst_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,49 ; jne 21449 <_sk_load_g8_dst_sse2+0x43>
- DB 102,65,15,110,36,16 ; movd (%r8,%rdx,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,219,37,50,65,1,0 ; pand 0x14132(%rip),%xmm4 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,37,136,66,1,0 ; mulps 0x14288(%rip),%xmm4 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,111,64,1,0 ; movaps 0x1406f(%rip),%xmm7 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,40,244 ; movaps %xmm4,%xmm6
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,50 ; je 21483 <_sk_load_g8_dst_sse2+0x7d>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 2146c <_sk_load_g8_dst_sse2+0x66>
- DB 60,3 ; cmp $0x3,%al
- DB 117,201 ; jne 21426 <_sk_load_g8_dst_sse2+0x20>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,112,228,69 ; pshufd $0x45,%xmm4,%xmm4
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,232 ; movd %eax,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 102,15,97,232 ; punpcklwd %xmm0,%xmm5
- DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 235,163 ; jmp 21426 <_sk_load_g8_dst_sse2+0x20>
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 235,152 ; jmp 21426 <_sk_load_g8_dst_sse2+0x20>
-
-PUBLIC _sk_gather_g8_sse2
-_sk_gather_g8_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,88,12 ; movss 0xc(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,65,15,254,217 ; paddd %xmm9,%xmm3
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,95,208 ; maxps %xmm0,%xmm2
- DB 15,93,211 ; minps %xmm3,%xmm2
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,193 ; paddd %xmm9,%xmm0
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,216,245 ; pshufd $0xf5,%xmm0,%xmm3
- DB 102,15,244,217 ; pmuludq %xmm1,%xmm3
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,203,232 ; pshufd $0xe8,%xmm3,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,15,91,202 ; cvttps2dq %xmm2,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,73,15,126,194 ; movq %xmm0,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 71,15,182,28,24 ; movzbl (%r8,%r11,1),%r11d
- DB 71,15,182,20,16 ; movzbl (%r8,%r10,1),%r10d
- DB 65,193,226,8 ; shl $0x8,%r10d
- DB 69,9,218 ; or %r11d,%r10d
- DB 71,15,182,12,8 ; movzbl (%r8,%r9,1),%r9d
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 193,224,8 ; shl $0x8,%eax
- DB 68,9,200 ; or %r9d,%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,65,15,196,194,1 ; pinsrw $0x1,%r10d,%xmm0
- DB 102,65,15,96,192 ; punpcklbw %xmm8,%xmm0
- DB 102,65,15,97,192 ; punpcklwd %xmm8,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,104,65,1,0 ; mulps 0x14168(%rip),%xmm0 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,79,63,1,0 ; movaps 0x13f4f(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_565_sse2
-_sk_load_565_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,83 ; jne 215d1 <_sk_load_565_sse2+0x68>
- DB 243,65,15,126,20,80 ; movq (%r8,%rdx,2),%xmm2
- DB 102,15,97,208 ; punpcklwd %xmm0,%xmm2
- DB 102,15,111,5,64,65,1,0 ; movdqa 0x14140(%rip),%xmm0 # 356d0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,66,65,1,0 ; mulps 0x14142(%rip),%xmm0 # 356e0 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- DB 102,15,111,13,74,65,1,0 ; movdqa 0x1414a(%rip),%xmm1 # 356f0 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,76,65,1,0 ; mulps 0x1414c(%rip),%xmm1 # 35700 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- DB 102,15,219,21,84,65,1,0 ; pand 0x14154(%rip),%xmm2 # 35710 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,90,65,1,0 ; mulps 0x1415a(%rip),%xmm2 # 35720 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,225,62,1,0 ; movaps 0x13ee1(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,44 ; je 21605 <_sk_load_565_sse2+0x9c>
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 215f4 <_sk_load_565_sse2+0x8b>
- DB 60,3 ; cmp $0x3,%al
- DB 117,163 ; jne 21588 <_sk_load_565_sse2+0x1f>
- DB 65,15,183,68,80,4 ; movzwl 0x4(%r8,%rdx,2),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,15,112,208,69 ; pshufd $0x45,%xmm0,%xmm2
- DB 102,65,15,110,4,80 ; movd (%r8,%rdx,2),%xmm0
- DB 242,15,112,192,212 ; pshuflw $0xd4,%xmm0,%xmm0
- DB 242,15,16,208 ; movsd %xmm0,%xmm2
- DB 235,131 ; jmp 21588 <_sk_load_565_sse2+0x1f>
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 233,117,255,255,255 ; jmpq 21588 <_sk_load_565_sse2+0x1f>
-
-PUBLIC _sk_load_565_dst_sse2
-_sk_load_565_dst_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,83 ; jne 2167b <_sk_load_565_dst_sse2+0x68>
- DB 243,65,15,126,52,80 ; movq (%r8,%rdx,2),%xmm6
- DB 102,15,97,240 ; punpcklwd %xmm0,%xmm6
- DB 102,15,111,37,150,64,1,0 ; movdqa 0x14096(%rip),%xmm4 # 356d0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- DB 102,15,219,230 ; pand %xmm6,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,37,152,64,1,0 ; mulps 0x14098(%rip),%xmm4 # 356e0 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- DB 102,15,111,45,160,64,1,0 ; movdqa 0x140a0(%rip),%xmm5 # 356f0 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- DB 102,15,219,238 ; pand %xmm6,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,45,162,64,1,0 ; mulps 0x140a2(%rip),%xmm5 # 35700 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- DB 102,15,219,53,170,64,1,0 ; pand 0x140aa(%rip),%xmm6 # 35710 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,53,176,64,1,0 ; mulps 0x140b0(%rip),%xmm6 # 35720 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,55,62,1,0 ; movaps 0x13e37(%rip),%xmm7 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,44 ; je 216af <_sk_load_565_dst_sse2+0x9c>
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 2169e <_sk_load_565_dst_sse2+0x8b>
- DB 60,3 ; cmp $0x3,%al
- DB 117,163 ; jne 21632 <_sk_load_565_dst_sse2+0x1f>
- DB 65,15,183,68,80,4 ; movzwl 0x4(%r8,%rdx,2),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,112,244,69 ; pshufd $0x45,%xmm4,%xmm6
- DB 102,65,15,110,36,80 ; movd (%r8,%rdx,2),%xmm4
- DB 242,15,112,228,212 ; pshuflw $0xd4,%xmm4,%xmm4
- DB 242,15,16,244 ; movsd %xmm4,%xmm6
- DB 235,131 ; jmp 21632 <_sk_load_565_dst_sse2+0x1f>
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,15,110,240 ; movd %eax,%xmm6
- DB 233,117,255,255,255 ; jmpq 21632 <_sk_load_565_dst_sse2+0x1f>
-
-PUBLIC _sk_gather_565_sse2
-_sk_gather_565_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,88,12 ; movss 0xc(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,65,15,254,217 ; paddd %xmm9,%xmm3
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,95,208 ; maxps %xmm0,%xmm2
- DB 15,93,211 ; minps %xmm3,%xmm2
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,193 ; paddd %xmm9,%xmm0
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,216,245 ; pshufd $0xf5,%xmm0,%xmm3
- DB 102,15,244,217 ; pmuludq %xmm1,%xmm3
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,203,232 ; pshufd $0xe8,%xmm3,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,15,91,202 ; cvttps2dq %xmm2,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 71,15,183,20,80 ; movzwl (%r8,%r10,2),%r10d
- DB 71,15,183,28,88 ; movzwl (%r8,%r11,2),%r11d
- DB 102,65,15,110,211 ; movd %r11d,%xmm2
- DB 102,65,15,196,210,1 ; pinsrw $0x1,%r10d,%xmm2
- DB 71,15,183,12,72 ; movzwl (%r8,%r9,2),%r9d
- DB 102,65,15,196,209,2 ; pinsrw $0x2,%r9d,%xmm2
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 102,15,196,208,3 ; pinsrw $0x3,%eax,%xmm2
- DB 102,65,15,97,208 ; punpcklwd %xmm8,%xmm2
- DB 102,15,111,5,81,63,1,0 ; movdqa 0x13f51(%rip),%xmm0 # 356d0 <_sk_srcover_bgra_8888_sse2_lowp+0xeb8>
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,83,63,1,0 ; mulps 0x13f53(%rip),%xmm0 # 356e0 <_sk_srcover_bgra_8888_sse2_lowp+0xec8>
- DB 102,15,111,13,91,63,1,0 ; movdqa 0x13f5b(%rip),%xmm1 # 356f0 <_sk_srcover_bgra_8888_sse2_lowp+0xed8>
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,93,63,1,0 ; mulps 0x13f5d(%rip),%xmm1 # 35700 <_sk_srcover_bgra_8888_sse2_lowp+0xee8>
- DB 102,15,219,21,101,63,1,0 ; pand 0x13f65(%rip),%xmm2 # 35710 <_sk_srcover_bgra_8888_sse2_lowp+0xef8>
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,107,63,1,0 ; mulps 0x13f6b(%rip),%xmm2 # 35720 <_sk_srcover_bgra_8888_sse2_lowp+0xf08>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,242,60,1,0 ; movaps 0x13cf2(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_565_sse2
-_sk_store_565_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,40,21,204,60,1,0 ; movaps 0x13ccc(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 68,15,40,29,224,64,1,0 ; movaps 0x140e0(%rip),%xmm11 # 358d0 <_sk_srcover_bgra_8888_sse2_lowp+0x10b8>
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 102,65,15,114,241,11 ; pslld $0xb,%xmm9
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 68,15,89,37,205,64,1,0 ; mulps 0x140cd(%rip),%xmm12 # 358e0 <_sk_srcover_bgra_8888_sse2_lowp+0x10c8>
- DB 102,69,15,91,228 ; cvtps2dq %xmm12,%xmm12
- DB 102,65,15,114,244,5 ; pslld $0x5,%xmm12
- DB 68,15,95,194 ; maxps %xmm2,%xmm8
- DB 69,15,93,194 ; minps %xmm10,%xmm8
- DB 69,15,89,195 ; mulps %xmm11,%xmm8
- DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
- DB 102,69,15,86,193 ; orpd %xmm9,%xmm8
- DB 102,69,15,86,196 ; orpd %xmm12,%xmm8
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,114,224,16 ; psrad $0x10,%xmm8
- DB 102,68,15,107,192 ; packssdw %xmm0,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 21859 <_sk_store_565_sse2+0x99>
- DB 102,69,15,214,4,80 ; movq %xmm8,(%r8,%rdx,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,68,15,97,192 ; punpcklwd %xmm0,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,34 ; je 21888 <_sk_store_565_sse2+0xc8>
- DB 60,2 ; cmp $0x2,%al
- DB 116,16 ; je 2187a <_sk_store_565_sse2+0xba>
- DB 60,3 ; cmp $0x3,%al
- DB 117,231 ; jne 21855 <_sk_store_565_sse2+0x95>
- DB 102,65,15,197,192,4 ; pextrw $0x4,%xmm8,%eax
- DB 102,65,137,68,80,4 ; mov %ax,0x4(%r8,%rdx,2)
- DB 242,69,15,112,192,232 ; pshuflw $0xe8,%xmm8,%xmm8
- DB 102,69,15,126,4,80 ; movd %xmm8,(%r8,%rdx,2)
- DB 235,205 ; jmp 21855 <_sk_store_565_sse2+0x95>
- DB 102,68,15,126,192 ; movd %xmm8,%eax
- DB 102,65,137,4,80 ; mov %ax,(%r8,%rdx,2)
- DB 235,193 ; jmp 21855 <_sk_store_565_sse2+0x95>
-
-PUBLIC _sk_load_4444_sse2
-_sk_load_4444_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,98 ; jne 2190b <_sk_load_4444_sse2+0x77>
- DB 243,65,15,126,28,80 ; movq (%r8,%rdx,2),%xmm3
- DB 102,15,97,216 ; punpcklwd %xmm0,%xmm3
- DB 102,15,111,5,53,64,1,0 ; movdqa 0x14035(%rip),%xmm0 # 358f0 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,55,64,1,0 ; mulps 0x14037(%rip),%xmm0 # 35900 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
- DB 102,15,111,13,63,64,1,0 ; movdqa 0x1403f(%rip),%xmm1 # 35910 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
- DB 102,15,219,203 ; pand %xmm3,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,65,64,1,0 ; mulps 0x14041(%rip),%xmm1 # 35920 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
- DB 102,15,111,21,73,64,1,0 ; movdqa 0x14049(%rip),%xmm2 # 35930 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
- DB 102,15,219,211 ; pand %xmm3,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,75,64,1,0 ; mulps 0x1404b(%rip),%xmm2 # 35940 <_sk_srcover_bgra_8888_sse2_lowp+0x1128>
- DB 102,15,219,29,83,64,1,0 ; pand 0x14053(%rip),%xmm3 # 35950 <_sk_srcover_bgra_8888_sse2_lowp+0x1138>
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,29,89,64,1,0 ; mulps 0x14059(%rip),%xmm3 # 35960 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,47 ; je 21942 <_sk_load_4444_sse2+0xae>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 2192e <_sk_load_4444_sse2+0x9a>
- DB 60,3 ; cmp $0x3,%al
- DB 117,148 ; jne 218b3 <_sk_load_4444_sse2+0x1f>
- DB 65,15,183,68,80,4 ; movzwl 0x4(%r8,%rdx,2),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
- DB 102,65,15,110,4,80 ; movd (%r8,%rdx,2),%xmm0
- DB 242,15,112,192,212 ; pshuflw $0xd4,%xmm0,%xmm0
- DB 242,15,16,216 ; movsd %xmm0,%xmm3
- DB 233,113,255,255,255 ; jmpq 218b3 <_sk_load_4444_sse2+0x1f>
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,15,110,216 ; movd %eax,%xmm3
- DB 233,99,255,255,255 ; jmpq 218b3 <_sk_load_4444_sse2+0x1f>
-
-PUBLIC _sk_load_4444_dst_sse2
-_sk_load_4444_dst_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,98 ; jne 219c7 <_sk_load_4444_dst_sse2+0x77>
- DB 243,65,15,126,60,80 ; movq (%r8,%rdx,2),%xmm7
- DB 102,15,97,248 ; punpcklwd %xmm0,%xmm7
- DB 102,15,111,37,121,63,1,0 ; movdqa 0x13f79(%rip),%xmm4 # 358f0 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
- DB 102,15,219,231 ; pand %xmm7,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,37,123,63,1,0 ; mulps 0x13f7b(%rip),%xmm4 # 35900 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
- DB 102,15,111,45,131,63,1,0 ; movdqa 0x13f83(%rip),%xmm5 # 35910 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
- DB 102,15,219,239 ; pand %xmm7,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,45,133,63,1,0 ; mulps 0x13f85(%rip),%xmm5 # 35920 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
- DB 102,15,111,53,141,63,1,0 ; movdqa 0x13f8d(%rip),%xmm6 # 35930 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
- DB 102,15,219,247 ; pand %xmm7,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,53,143,63,1,0 ; mulps 0x13f8f(%rip),%xmm6 # 35940 <_sk_srcover_bgra_8888_sse2_lowp+0x1128>
- DB 102,15,219,61,151,63,1,0 ; pand 0x13f97(%rip),%xmm7 # 35950 <_sk_srcover_bgra_8888_sse2_lowp+0x1138>
- DB 15,91,255 ; cvtdq2ps %xmm7,%xmm7
- DB 15,89,61,157,63,1,0 ; mulps 0x13f9d(%rip),%xmm7 # 35960 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,47 ; je 219fe <_sk_load_4444_dst_sse2+0xae>
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 219ea <_sk_load_4444_dst_sse2+0x9a>
- DB 60,3 ; cmp $0x3,%al
- DB 117,148 ; jne 2196f <_sk_load_4444_dst_sse2+0x1f>
- DB 65,15,183,68,80,4 ; movzwl 0x4(%r8,%rdx,2),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,112,252,69 ; pshufd $0x45,%xmm4,%xmm7
- DB 102,65,15,110,36,80 ; movd (%r8,%rdx,2),%xmm4
- DB 242,15,112,228,212 ; pshuflw $0xd4,%xmm4,%xmm4
- DB 242,15,16,252 ; movsd %xmm4,%xmm7
- DB 233,113,255,255,255 ; jmpq 2196f <_sk_load_4444_dst_sse2+0x1f>
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,15,110,248 ; movd %eax,%xmm7
- DB 233,99,255,255,255 ; jmpq 2196f <_sk_load_4444_dst_sse2+0x1f>
-
-PUBLIC _sk_gather_4444_sse2
-_sk_gather_4444_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,88,12 ; movss 0xc(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,65,15,254,217 ; paddd %xmm9,%xmm3
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,95,208 ; maxps %xmm0,%xmm2
- DB 15,93,211 ; minps %xmm3,%xmm2
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,193 ; paddd %xmm9,%xmm0
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,216,245 ; pshufd $0xf5,%xmm0,%xmm3
- DB 102,15,244,217 ; pmuludq %xmm1,%xmm3
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,203,232 ; pshufd $0xe8,%xmm3,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,15,91,202 ; cvttps2dq %xmm2,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 71,15,183,20,80 ; movzwl (%r8,%r10,2),%r10d
- DB 71,15,183,28,88 ; movzwl (%r8,%r11,2),%r11d
- DB 102,65,15,110,219 ; movd %r11d,%xmm3
- DB 102,65,15,196,218,1 ; pinsrw $0x1,%r10d,%xmm3
- DB 71,15,183,12,72 ; movzwl (%r8,%r9,2),%r9d
- DB 102,65,15,196,217,2 ; pinsrw $0x2,%r9d,%xmm3
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 102,15,196,216,3 ; pinsrw $0x3,%eax,%xmm3
- DB 102,65,15,97,216 ; punpcklwd %xmm8,%xmm3
- DB 102,15,111,5,34,62,1,0 ; movdqa 0x13e22(%rip),%xmm0 # 358f0 <_sk_srcover_bgra_8888_sse2_lowp+0x10d8>
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,5,36,62,1,0 ; mulps 0x13e24(%rip),%xmm0 # 35900 <_sk_srcover_bgra_8888_sse2_lowp+0x10e8>
- DB 102,15,111,13,44,62,1,0 ; movdqa 0x13e2c(%rip),%xmm1 # 35910 <_sk_srcover_bgra_8888_sse2_lowp+0x10f8>
- DB 102,15,219,203 ; pand %xmm3,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,13,46,62,1,0 ; mulps 0x13e2e(%rip),%xmm1 # 35920 <_sk_srcover_bgra_8888_sse2_lowp+0x1108>
- DB 102,15,111,21,54,62,1,0 ; movdqa 0x13e36(%rip),%xmm2 # 35930 <_sk_srcover_bgra_8888_sse2_lowp+0x1118>
- DB 102,15,219,211 ; pand %xmm3,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,21,56,62,1,0 ; mulps 0x13e38(%rip),%xmm2 # 35940 <_sk_srcover_bgra_8888_sse2_lowp+0x1128>
- DB 102,15,219,29,64,62,1,0 ; pand 0x13e40(%rip),%xmm3 # 35950 <_sk_srcover_bgra_8888_sse2_lowp+0x1138>
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,29,70,62,1,0 ; mulps 0x13e46(%rip),%xmm3 # 35960 <_sk_srcover_bgra_8888_sse2_lowp+0x1148>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_4444_sse2
-_sk_store_4444_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,40,21,110,57,1,0 ; movaps 0x1396e(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 68,15,40,29,34,62,1,0 ; movaps 0x13e22(%rip),%xmm11 # 35970 <_sk_srcover_bgra_8888_sse2_lowp+0x1158>
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 102,65,15,114,241,12 ; pslld $0xc,%xmm9
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 102,69,15,91,228 ; cvtps2dq %xmm12,%xmm12
- DB 102,65,15,114,244,8 ; pslld $0x8,%xmm12
- DB 102,69,15,235,225 ; por %xmm9,%xmm12
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 68,15,95,202 ; maxps %xmm2,%xmm9
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 102,65,15,114,241,4 ; pslld $0x4,%xmm9
- DB 68,15,95,195 ; maxps %xmm3,%xmm8
- DB 69,15,93,194 ; minps %xmm10,%xmm8
- DB 69,15,89,195 ; mulps %xmm11,%xmm8
- DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
- DB 102,69,15,86,193 ; orpd %xmm9,%xmm8
- DB 102,69,15,86,196 ; orpd %xmm12,%xmm8
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,114,224,16 ; psrad $0x10,%xmm8
- DB 102,68,15,107,192 ; packssdw %xmm0,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 21bd4 <_sk_store_4444_sse2+0xb6>
- DB 102,69,15,214,4,80 ; movq %xmm8,(%r8,%rdx,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,68,15,97,192 ; punpcklwd %xmm0,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,34 ; je 21c03 <_sk_store_4444_sse2+0xe5>
- DB 60,2 ; cmp $0x2,%al
- DB 116,16 ; je 21bf5 <_sk_store_4444_sse2+0xd7>
- DB 60,3 ; cmp $0x3,%al
- DB 117,231 ; jne 21bd0 <_sk_store_4444_sse2+0xb2>
- DB 102,65,15,197,192,4 ; pextrw $0x4,%xmm8,%eax
- DB 102,65,137,68,80,4 ; mov %ax,0x4(%r8,%rdx,2)
- DB 242,69,15,112,192,232 ; pshuflw $0xe8,%xmm8,%xmm8
- DB 102,69,15,126,4,80 ; movd %xmm8,(%r8,%rdx,2)
- DB 235,205 ; jmp 21bd0 <_sk_store_4444_sse2+0xb2>
- DB 102,68,15,126,192 ; movd %xmm8,%eax
- DB 102,65,137,4,80 ; mov %ax,(%r8,%rdx,2)
- DB 235,193 ; jmp 21bd0 <_sk_store_4444_sse2+0xb2>
-
-PUBLIC _sk_load_8888_sse2
-_sk_load_8888_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,98 ; jne 21c87 <_sk_load_8888_sse2+0x78>
- DB 243,69,15,111,12,144 ; movdqu (%r8,%rdx,4),%xmm9
- DB 102,15,111,21,45,57,1,0 ; movdqa 0x1392d(%rip),%xmm2 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,121,58,1,0 ; movaps 0x13a79(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,15,114,209,8 ; psrld $0x8,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,15,114,211,16 ; psrld $0x10,%xmm3
- DB 102,15,219,218 ; pand %xmm2,%xmm3
- DB 15,91,211 ; cvtdq2ps %xmm3,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 102,65,15,114,209,24 ; psrld $0x18,%xmm9
- DB 65,15,91,217 ; cvtdq2ps %xmm9,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,37 ; je 21cb4 <_sk_load_8888_sse2+0xa5>
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 60,2 ; cmp $0x2,%al
- DB 116,17 ; je 21ca9 <_sk_load_8888_sse2+0x9a>
- DB 60,3 ; cmp $0x3,%al
- DB 117,143 ; jne 21c2b <_sk_load_8888_sse2+0x1c>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,68,15,112,200,69 ; pshufd $0x45,%xmm0,%xmm9
- DB 102,69,15,18,12,144 ; movlpd (%r8,%rdx,4),%xmm9
- DB 233,119,255,255,255 ; jmpq 21c2b <_sk_load_8888_sse2+0x1c>
- DB 102,69,15,110,12,144 ; movd (%r8,%rdx,4),%xmm9
- DB 233,108,255,255,255 ; jmpq 21c2b <_sk_load_8888_sse2+0x1c>
-
-PUBLIC _sk_load_8888_dst_sse2
-_sk_load_8888_dst_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,98 ; jne 21d37 <_sk_load_8888_dst_sse2+0x78>
- DB 243,69,15,111,12,144 ; movdqu (%r8,%rdx,4),%xmm9
- DB 102,15,111,53,125,56,1,0 ; movdqa 0x1387d(%rip),%xmm6 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,65,15,111,225 ; movdqa %xmm9,%xmm4
- DB 102,15,219,230 ; pand %xmm6,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 68,15,40,5,201,57,1,0 ; movaps 0x139c9(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,224 ; mulps %xmm8,%xmm4
- DB 102,65,15,111,233 ; movdqa %xmm9,%xmm5
- DB 102,15,114,213,8 ; psrld $0x8,%xmm5
- DB 102,15,219,238 ; pand %xmm6,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 65,15,89,232 ; mulps %xmm8,%xmm5
- DB 102,65,15,111,249 ; movdqa %xmm9,%xmm7
- DB 102,15,114,215,16 ; psrld $0x10,%xmm7
- DB 102,15,219,254 ; pand %xmm6,%xmm7
- DB 15,91,247 ; cvtdq2ps %xmm7,%xmm6
- DB 65,15,89,240 ; mulps %xmm8,%xmm6
- DB 102,65,15,114,209,24 ; psrld $0x18,%xmm9
- DB 65,15,91,249 ; cvtdq2ps %xmm9,%xmm7
- DB 65,15,89,248 ; mulps %xmm8,%xmm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,37 ; je 21d64 <_sk_load_8888_dst_sse2+0xa5>
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 60,2 ; cmp $0x2,%al
- DB 116,17 ; je 21d59 <_sk_load_8888_dst_sse2+0x9a>
- DB 60,3 ; cmp $0x3,%al
- DB 117,143 ; jne 21cdb <_sk_load_8888_dst_sse2+0x1c>
- DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,204,69 ; pshufd $0x45,%xmm4,%xmm9
- DB 102,69,15,18,12,144 ; movlpd (%r8,%rdx,4),%xmm9
- DB 233,119,255,255,255 ; jmpq 21cdb <_sk_load_8888_dst_sse2+0x1c>
- DB 102,69,15,110,12,144 ; movd (%r8,%rdx,4),%xmm9
- DB 233,108,255,255,255 ; jmpq 21cdb <_sk_load_8888_dst_sse2+0x1c>
-
-PUBLIC _sk_gather_8888_sse2
-_sk_gather_8888_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,80,12 ; movss 0xc(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,65,15,254,208 ; paddd %xmm8,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,93,202 ; minps %xmm2,%xmm9
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,192 ; paddd %xmm8,%xmm0
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,208,245 ; pshufd $0xf5,%xmm0,%xmm2
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,65,15,91,201 ; cvttps2dq %xmm9,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,67,15,110,4,144 ; movd (%r8,%r10,4),%xmm0
- DB 102,71,15,110,12,152 ; movd (%r8,%r11,4),%xmm9
- DB 102,68,15,98,200 ; punpckldq %xmm0,%xmm9
- DB 102,65,15,110,4,128 ; movd (%r8,%rax,4),%xmm0
- DB 102,67,15,110,12,136 ; movd (%r8,%r9,4),%xmm1
- DB 102,15,98,200 ; punpckldq %xmm0,%xmm1
- DB 102,68,15,108,201 ; punpcklqdq %xmm1,%xmm9
- DB 102,15,111,21,57,55,1,0 ; movdqa 0x13739(%rip),%xmm2 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,133,56,1,0 ; movaps 0x13885(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,15,114,209,8 ; psrld $0x8,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,15,114,211,16 ; psrld $0x10,%xmm3
- DB 102,15,219,218 ; pand %xmm2,%xmm3
- DB 15,91,211 ; cvtdq2ps %xmm3,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 102,65,15,114,209,24 ; psrld $0x18,%xmm9
- DB 65,15,91,217 ; cvtdq2ps %xmm9,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_8888_sse2
-_sk_store_8888_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,40,21,16,54,1,0 ; movaps 0x13610(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 68,15,40,29,228,54,1,0 ; movaps 0x136e4(%rip),%xmm11 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 102,69,15,91,228 ; cvtps2dq %xmm12,%xmm12
- DB 102,65,15,114,244,8 ; pslld $0x8,%xmm12
- DB 102,69,15,235,225 ; por %xmm9,%xmm12
- DB 102,69,15,87,201 ; xorpd %xmm9,%xmm9
- DB 68,15,95,202 ; maxps %xmm2,%xmm9
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 102,65,15,114,241,16 ; pslld $0x10,%xmm9
- DB 68,15,95,195 ; maxps %xmm3,%xmm8
- DB 69,15,93,194 ; minps %xmm10,%xmm8
- DB 69,15,89,195 ; mulps %xmm11,%xmm8
- DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
- DB 102,65,15,114,240,24 ; pslld $0x18,%xmm8
- DB 102,69,15,235,193 ; por %xmm9,%xmm8
- DB 102,69,15,235,196 ; por %xmm12,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 21f21 <_sk_store_8888_sse2+0xa6>
- DB 243,69,15,127,4,144 ; movdqu %xmm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,29 ; je 21f46 <_sk_store_8888_sse2+0xcb>
- DB 60,2 ; cmp $0x2,%al
- DB 116,17 ; je 21f3e <_sk_store_8888_sse2+0xc3>
- DB 60,3 ; cmp $0x3,%al
- DB 117,236 ; jne 21f1d <_sk_store_8888_sse2+0xa2>
- DB 102,69,15,112,200,78 ; pshufd $0x4e,%xmm8,%xmm9
- DB 102,69,15,126,76,144,8 ; movd %xmm9,0x8(%r8,%rdx,4)
- DB 102,69,15,214,4,144 ; movq %xmm8,(%r8,%rdx,4)
- DB 235,215 ; jmp 21f1d <_sk_store_8888_sse2+0xa2>
- DB 102,69,15,126,4,144 ; movd %xmm8,(%r8,%rdx,4)
- DB 235,207 ; jmp 21f1d <_sk_store_8888_sse2+0xa2>
-
-PUBLIC _sk_load_bgra_sse2
-_sk_load_bgra_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,98 ; jne 21fc6 <_sk_load_bgra_sse2+0x78>
- DB 243,69,15,111,12,144 ; movdqu (%r8,%rdx,4),%xmm9
- DB 102,15,111,5,238,53,1,0 ; movdqa 0x135ee(%rip),%xmm0 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 15,91,209 ; cvtdq2ps %xmm1,%xmm2
- DB 68,15,40,5,58,55,1,0 ; movaps 0x1373a(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,15,114,209,8 ; psrld $0x8,%xmm1
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,15,114,211,16 ; psrld $0x10,%xmm3
- DB 102,15,219,216 ; pand %xmm0,%xmm3
- DB 15,91,195 ; cvtdq2ps %xmm3,%xmm0
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,65,15,114,209,24 ; psrld $0x18,%xmm9
- DB 65,15,91,217 ; cvtdq2ps %xmm9,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,37 ; je 21ff3 <_sk_load_bgra_sse2+0xa5>
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 60,2 ; cmp $0x2,%al
- DB 116,17 ; je 21fe8 <_sk_load_bgra_sse2+0x9a>
- DB 60,3 ; cmp $0x3,%al
- DB 117,143 ; jne 21f6a <_sk_load_bgra_sse2+0x1c>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,68,15,112,200,69 ; pshufd $0x45,%xmm0,%xmm9
- DB 102,69,15,18,12,144 ; movlpd (%r8,%rdx,4),%xmm9
- DB 233,119,255,255,255 ; jmpq 21f6a <_sk_load_bgra_sse2+0x1c>
- DB 102,69,15,110,12,144 ; movd (%r8,%rdx,4),%xmm9
- DB 233,108,255,255,255 ; jmpq 21f6a <_sk_load_bgra_sse2+0x1c>
-
-PUBLIC _sk_load_bgra_dst_sse2
-_sk_load_bgra_dst_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,98 ; jne 22076 <_sk_load_bgra_dst_sse2+0x78>
- DB 243,69,15,111,12,144 ; movdqu (%r8,%rdx,4),%xmm9
- DB 102,15,111,37,62,53,1,0 ; movdqa 0x1353e(%rip),%xmm4 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,65,15,111,233 ; movdqa %xmm9,%xmm5
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 15,91,245 ; cvtdq2ps %xmm5,%xmm6
- DB 68,15,40,5,138,54,1,0 ; movaps 0x1368a(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,240 ; mulps %xmm8,%xmm6
- DB 102,65,15,111,233 ; movdqa %xmm9,%xmm5
- DB 102,15,114,213,8 ; psrld $0x8,%xmm5
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 65,15,89,232 ; mulps %xmm8,%xmm5
- DB 102,65,15,111,249 ; movdqa %xmm9,%xmm7
- DB 102,15,114,215,16 ; psrld $0x10,%xmm7
- DB 102,15,219,252 ; pand %xmm4,%xmm7
- DB 15,91,231 ; cvtdq2ps %xmm7,%xmm4
- DB 65,15,89,224 ; mulps %xmm8,%xmm4
- DB 102,65,15,114,209,24 ; psrld $0x18,%xmm9
- DB 65,15,91,249 ; cvtdq2ps %xmm9,%xmm7
- DB 65,15,89,248 ; mulps %xmm8,%xmm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,37 ; je 220a3 <_sk_load_bgra_dst_sse2+0xa5>
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 60,2 ; cmp $0x2,%al
- DB 116,17 ; je 22098 <_sk_load_bgra_dst_sse2+0x9a>
- DB 60,3 ; cmp $0x3,%al
- DB 117,143 ; jne 2201a <_sk_load_bgra_dst_sse2+0x1c>
- DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,204,69 ; pshufd $0x45,%xmm4,%xmm9
- DB 102,69,15,18,12,144 ; movlpd (%r8,%rdx,4),%xmm9
- DB 233,119,255,255,255 ; jmpq 2201a <_sk_load_bgra_dst_sse2+0x1c>
- DB 102,69,15,110,12,144 ; movd (%r8,%rdx,4),%xmm9
- DB 233,108,255,255,255 ; jmpq 2201a <_sk_load_bgra_dst_sse2+0x1c>
-
-PUBLIC _sk_gather_bgra_sse2
-_sk_gather_bgra_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,80,12 ; movss 0xc(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,65,15,254,208 ; paddd %xmm8,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,93,202 ; minps %xmm2,%xmm9
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,192 ; paddd %xmm8,%xmm0
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,208,245 ; pshufd $0xf5,%xmm0,%xmm2
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,65,15,91,201 ; cvttps2dq %xmm9,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,67,15,110,4,144 ; movd (%r8,%r10,4),%xmm0
- DB 102,71,15,110,12,152 ; movd (%r8,%r11,4),%xmm9
- DB 102,68,15,98,200 ; punpckldq %xmm0,%xmm9
- DB 102,65,15,110,4,128 ; movd (%r8,%rax,4),%xmm0
- DB 102,67,15,110,12,136 ; movd (%r8,%r9,4),%xmm1
- DB 102,15,98,200 ; punpckldq %xmm0,%xmm1
- DB 102,68,15,108,201 ; punpcklqdq %xmm1,%xmm9
- DB 102,15,111,5,250,51,1,0 ; movdqa 0x133fa(%rip),%xmm0 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 15,91,209 ; cvtdq2ps %xmm1,%xmm2
- DB 68,15,40,5,70,53,1,0 ; movaps 0x13546(%rip),%xmm8 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,15,114,209,8 ; psrld $0x8,%xmm1
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,15,114,211,16 ; psrld $0x10,%xmm3
- DB 102,15,219,216 ; pand %xmm0,%xmm3
- DB 15,91,195 ; cvtdq2ps %xmm3,%xmm0
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,65,15,114,209,24 ; psrld $0x18,%xmm9
- DB 65,15,91,217 ; cvtdq2ps %xmm9,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_bgra_sse2
-_sk_store_bgra_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,202 ; maxps %xmm2,%xmm9
- DB 68,15,40,21,209,50,1,0 ; movaps 0x132d1(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 68,15,40,29,165,51,1,0 ; movaps 0x133a5(%rip),%xmm11 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 102,69,15,91,228 ; cvtps2dq %xmm12,%xmm12
- DB 102,65,15,114,244,8 ; pslld $0x8,%xmm12
- DB 102,69,15,235,225 ; por %xmm9,%xmm12
- DB 102,69,15,87,201 ; xorpd %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 102,65,15,114,241,16 ; pslld $0x10,%xmm9
- DB 68,15,95,195 ; maxps %xmm3,%xmm8
- DB 69,15,93,194 ; minps %xmm10,%xmm8
- DB 69,15,89,195 ; mulps %xmm11,%xmm8
- DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
- DB 102,65,15,114,240,24 ; pslld $0x18,%xmm8
- DB 102,69,15,235,193 ; por %xmm9,%xmm8
- DB 102,69,15,235,196 ; por %xmm12,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 22260 <_sk_store_bgra_sse2+0xa6>
- DB 243,69,15,127,4,144 ; movdqu %xmm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,29 ; je 22285 <_sk_store_bgra_sse2+0xcb>
- DB 60,2 ; cmp $0x2,%al
- DB 116,17 ; je 2227d <_sk_store_bgra_sse2+0xc3>
- DB 60,3 ; cmp $0x3,%al
- DB 117,236 ; jne 2225c <_sk_store_bgra_sse2+0xa2>
- DB 102,69,15,112,200,78 ; pshufd $0x4e,%xmm8,%xmm9
- DB 102,69,15,126,76,144,8 ; movd %xmm9,0x8(%r8,%rdx,4)
- DB 102,69,15,214,4,144 ; movq %xmm8,(%r8,%rdx,4)
- DB 235,215 ; jmp 2225c <_sk_store_bgra_sse2+0xa2>
- DB 102,69,15,126,4,144 ; movd %xmm8,(%r8,%rdx,4)
- DB 235,207 ; jmp 2225c <_sk_store_bgra_sse2+0xa2>
-
-PUBLIC _sk_load_1010102_sse2
-_sk_load_1010102_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,101 ; jne 22308 <_sk_load_1010102_sse2+0x7b>
- DB 243,69,15,111,12,144 ; movdqu (%r8,%rdx,4),%xmm9
- DB 102,15,111,21,207,54,1,0 ; movdqa 0x136cf(%rip),%xmm2 # 35980 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,203,54,1,0 ; movaps 0x136cb(%rip),%xmm8 # 35990 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,15,114,209,10 ; psrld $0xa,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,15,114,211,20 ; psrld $0x14,%xmm3
- DB 102,15,219,218 ; pand %xmm2,%xmm3
- DB 15,91,211 ; cvtdq2ps %xmm3,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 102,65,15,114,209,30 ; psrld $0x1e,%xmm9
- DB 65,15,91,217 ; cvtdq2ps %xmm9,%xmm3
- DB 15,89,29,140,51,1,0 ; mulps 0x1338c(%rip),%xmm3 # 35690 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,37 ; je 22335 <_sk_load_1010102_sse2+0xa8>
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 60,2 ; cmp $0x2,%al
- DB 116,17 ; je 2232a <_sk_load_1010102_sse2+0x9d>
- DB 60,3 ; cmp $0x3,%al
- DB 117,140 ; jne 222a9 <_sk_load_1010102_sse2+0x1c>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,68,15,112,200,69 ; pshufd $0x45,%xmm0,%xmm9
- DB 102,69,15,18,12,144 ; movlpd (%r8,%rdx,4),%xmm9
- DB 233,116,255,255,255 ; jmpq 222a9 <_sk_load_1010102_sse2+0x1c>
- DB 102,69,15,110,12,144 ; movd (%r8,%rdx,4),%xmm9
- DB 233,105,255,255,255 ; jmpq 222a9 <_sk_load_1010102_sse2+0x1c>
-
-PUBLIC _sk_load_1010102_dst_sse2
-_sk_load_1010102_dst_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,101 ; jne 223bb <_sk_load_1010102_dst_sse2+0x7b>
- DB 243,69,15,111,12,144 ; movdqu (%r8,%rdx,4),%xmm9
- DB 102,15,111,53,28,54,1,0 ; movdqa 0x1361c(%rip),%xmm6 # 35980 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
- DB 102,65,15,111,225 ; movdqa %xmm9,%xmm4
- DB 102,15,219,230 ; pand %xmm6,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 68,15,40,5,24,54,1,0 ; movaps 0x13618(%rip),%xmm8 # 35990 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
- DB 65,15,89,224 ; mulps %xmm8,%xmm4
- DB 102,65,15,111,233 ; movdqa %xmm9,%xmm5
- DB 102,15,114,213,10 ; psrld $0xa,%xmm5
- DB 102,15,219,238 ; pand %xmm6,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 65,15,89,232 ; mulps %xmm8,%xmm5
- DB 102,65,15,111,249 ; movdqa %xmm9,%xmm7
- DB 102,15,114,215,20 ; psrld $0x14,%xmm7
- DB 102,15,219,254 ; pand %xmm6,%xmm7
- DB 15,91,247 ; cvtdq2ps %xmm7,%xmm6
- DB 65,15,89,240 ; mulps %xmm8,%xmm6
- DB 102,65,15,114,209,30 ; psrld $0x1e,%xmm9
- DB 65,15,91,249 ; cvtdq2ps %xmm9,%xmm7
- DB 15,89,61,217,50,1,0 ; mulps 0x132d9(%rip),%xmm7 # 35690 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,37 ; je 223e8 <_sk_load_1010102_dst_sse2+0xa8>
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 60,2 ; cmp $0x2,%al
- DB 116,17 ; je 223dd <_sk_load_1010102_dst_sse2+0x9d>
- DB 60,3 ; cmp $0x3,%al
- DB 117,140 ; jne 2235c <_sk_load_1010102_dst_sse2+0x1c>
- DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,204,69 ; pshufd $0x45,%xmm4,%xmm9
- DB 102,69,15,18,12,144 ; movlpd (%r8,%rdx,4),%xmm9
- DB 233,116,255,255,255 ; jmpq 2235c <_sk_load_1010102_dst_sse2+0x1c>
- DB 102,69,15,110,12,144 ; movd (%r8,%rdx,4),%xmm9
- DB 233,105,255,255,255 ; jmpq 2235c <_sk_load_1010102_dst_sse2+0x1c>
-
-PUBLIC _sk_gather_1010102_sse2
-_sk_gather_1010102_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,80,12 ; movss 0xc(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,69,15,118,192 ; pcmpeqd %xmm8,%xmm8
- DB 102,65,15,254,208 ; paddd %xmm8,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,93,202 ; minps %xmm2,%xmm9
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,192 ; paddd %xmm8,%xmm0
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,208,245 ; pshufd $0xf5,%xmm0,%xmm2
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,65,15,91,201 ; cvttps2dq %xmm9,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,67,15,110,4,144 ; movd (%r8,%r10,4),%xmm0
- DB 102,71,15,110,12,152 ; movd (%r8,%r11,4),%xmm9
- DB 102,68,15,98,200 ; punpckldq %xmm0,%xmm9
- DB 102,65,15,110,4,128 ; movd (%r8,%rax,4),%xmm0
- DB 102,67,15,110,12,136 ; movd (%r8,%r9,4),%xmm1
- DB 102,15,98,200 ; punpckldq %xmm0,%xmm1
- DB 102,68,15,108,201 ; punpcklqdq %xmm1,%xmm9
- DB 102,15,111,21,213,52,1,0 ; movdqa 0x134d5(%rip),%xmm2 # 35980 <_sk_srcover_bgra_8888_sse2_lowp+0x1168>
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 68,15,40,5,209,52,1,0 ; movaps 0x134d1(%rip),%xmm8 # 35990 <_sk_srcover_bgra_8888_sse2_lowp+0x1178>
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,15,114,209,10 ; psrld $0xa,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,15,114,211,20 ; psrld $0x14,%xmm3
- DB 102,15,219,218 ; pand %xmm2,%xmm3
- DB 15,91,211 ; cvtdq2ps %xmm3,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 102,65,15,114,209,30 ; psrld $0x1e,%xmm9
- DB 65,15,91,217 ; cvtdq2ps %xmm9,%xmm3
- DB 15,89,29,146,49,1,0 ; mulps 0x13192(%rip),%xmm3 # 35690 <_sk_srcover_bgra_8888_sse2_lowp+0xe78>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_1010102_sse2
-_sk_store_1010102_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,95,200 ; maxps %xmm0,%xmm9
- DB 68,15,40,21,137,47,1,0 ; movaps 0x12f89(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 68,15,40,29,109,52,1,0 ; movaps 0x1346d(%rip),%xmm11 # 359a0 <_sk_srcover_bgra_8888_sse2_lowp+0x1188>
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 102,69,15,91,228 ; cvtps2dq %xmm12,%xmm12
- DB 102,65,15,114,244,10 ; pslld $0xa,%xmm12
- DB 102,69,15,235,225 ; por %xmm9,%xmm12
- DB 102,69,15,87,201 ; xorpd %xmm9,%xmm9
- DB 68,15,95,202 ; maxps %xmm2,%xmm9
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 102,65,15,114,241,20 ; pslld $0x14,%xmm9
- DB 102,69,15,235,204 ; por %xmm12,%xmm9
- DB 68,15,95,195 ; maxps %xmm3,%xmm8
- DB 69,15,93,194 ; minps %xmm10,%xmm8
- DB 68,15,89,5,35,52,1,0 ; mulps 0x13423(%rip),%xmm8 # 359b0 <_sk_srcover_bgra_8888_sse2_lowp+0x1198>
- DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
- DB 102,65,15,114,240,30 ; pslld $0x1e,%xmm8
- DB 102,69,15,235,193 ; por %xmm9,%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,10 ; jne 225ac <_sk_store_1010102_sse2+0xaa>
- DB 243,69,15,127,4,144 ; movdqu %xmm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 137,248 ; mov %edi,%eax
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,29 ; je 225d1 <_sk_store_1010102_sse2+0xcf>
- DB 60,2 ; cmp $0x2,%al
- DB 116,17 ; je 225c9 <_sk_store_1010102_sse2+0xc7>
- DB 60,3 ; cmp $0x3,%al
- DB 117,236 ; jne 225a8 <_sk_store_1010102_sse2+0xa6>
- DB 102,69,15,112,200,78 ; pshufd $0x4e,%xmm8,%xmm9
- DB 102,69,15,126,76,144,8 ; movd %xmm9,0x8(%r8,%rdx,4)
- DB 102,69,15,214,4,144 ; movq %xmm8,(%r8,%rdx,4)
- DB 235,215 ; jmp 225a8 <_sk_store_1010102_sse2+0xa6>
- DB 102,69,15,126,4,144 ; movd %xmm8,(%r8,%rdx,4)
- DB 235,207 ; jmp 225a8 <_sk_store_1010102_sse2+0xa6>
-
-PUBLIC _sk_load_f16_sse2
-_sk_load_f16_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,3 ; shl $0x3,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,47,1,0,0 ; jne 22722 <_sk_load_f16_sse2+0x149>
- DB 102,65,15,16,4,208 ; movupd (%r8,%rdx,8),%xmm0
- DB 243,65,15,111,76,208,16 ; movdqu 0x10(%r8,%rdx,8),%xmm1
- DB 102,68,15,40,192 ; movapd %xmm0,%xmm8
- DB 102,68,15,97,193 ; punpcklwd %xmm1,%xmm8
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 102,15,97,208 ; punpcklwd %xmm0,%xmm2
- DB 102,68,15,105,192 ; punpckhwd %xmm0,%xmm8
- DB 102,69,15,239,210 ; pxor %xmm10,%xmm10
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,65,15,97,202 ; punpcklwd %xmm10,%xmm1
- DB 102,68,15,111,13,141,51,1,0 ; movdqa 0x1338d(%rip),%xmm9 # 359c0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
- DB 102,68,15,111,225 ; movdqa %xmm1,%xmm12
- DB 102,69,15,219,225 ; pand %xmm9,%xmm12
- DB 102,68,15,111,29,138,51,1,0 ; movdqa 0x1338a(%rip),%xmm11 # 359d0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
- DB 102,65,15,219,203 ; pand %xmm11,%xmm1
- DB 102,15,111,29,141,51,1,0 ; movdqa 0x1338d(%rip),%xmm3 # 359e0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
- DB 102,65,15,114,244,16 ; pslld $0x10,%xmm12
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,102,193 ; pcmpgtd %xmm1,%xmm0
- DB 102,15,114,241,13 ; pslld $0xd,%xmm1
- DB 102,65,15,235,204 ; por %xmm12,%xmm1
- DB 102,68,15,111,37,124,51,1,0 ; movdqa 0x1337c(%rip),%xmm12 # 359f0 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
- DB 102,65,15,254,204 ; paddd %xmm12,%xmm1
- DB 102,15,223,193 ; pandn %xmm1,%xmm0
- DB 102,65,15,105,210 ; punpckhwd %xmm10,%xmm2
- DB 102,68,15,111,234 ; movdqa %xmm2,%xmm13
- DB 102,69,15,219,233 ; pand %xmm9,%xmm13
- DB 102,65,15,219,211 ; pand %xmm11,%xmm2
- DB 102,65,15,114,245,16 ; pslld $0x10,%xmm13
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,102,202 ; pcmpgtd %xmm2,%xmm1
- DB 102,15,114,242,13 ; pslld $0xd,%xmm2
- DB 102,65,15,235,213 ; por %xmm13,%xmm2
- DB 102,65,15,254,212 ; paddd %xmm12,%xmm2
- DB 102,15,223,202 ; pandn %xmm2,%xmm1
- DB 102,69,15,111,232 ; movdqa %xmm8,%xmm13
- DB 102,69,15,97,234 ; punpcklwd %xmm10,%xmm13
- DB 102,69,15,111,245 ; movdqa %xmm13,%xmm14
- DB 102,69,15,219,241 ; pand %xmm9,%xmm14
- DB 102,69,15,219,235 ; pand %xmm11,%xmm13
- DB 102,65,15,114,246,16 ; pslld $0x10,%xmm14
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,65,15,102,213 ; pcmpgtd %xmm13,%xmm2
- DB 102,65,15,114,245,13 ; pslld $0xd,%xmm13
- DB 102,69,15,235,238 ; por %xmm14,%xmm13
- DB 102,69,15,254,236 ; paddd %xmm12,%xmm13
- DB 102,65,15,223,213 ; pandn %xmm13,%xmm2
- DB 102,69,15,105,194 ; punpckhwd %xmm10,%xmm8
- DB 102,69,15,219,200 ; pand %xmm8,%xmm9
- DB 102,69,15,219,195 ; pand %xmm11,%xmm8
- DB 102,65,15,114,241,16 ; pslld $0x10,%xmm9
- DB 102,65,15,102,216 ; pcmpgtd %xmm8,%xmm3
- DB 102,65,15,114,240,13 ; pslld $0xd,%xmm8
- DB 102,69,15,235,193 ; por %xmm9,%xmm8
- DB 102,69,15,254,196 ; paddd %xmm12,%xmm8
- DB 102,65,15,223,216 ; pandn %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 242,65,15,16,4,208 ; movsd (%r8,%rdx,8),%xmm0
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,13 ; jne 2273b <_sk_load_f16_sse2+0x162>
- DB 243,15,126,192 ; movq %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 233,197,254,255,255 ; jmpq 22600 <_sk_load_f16_sse2+0x27>
- DB 102,65,15,22,68,208,8 ; movhpd 0x8(%r8,%rdx,8),%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 15,130,176,254,255,255 ; jb 22600 <_sk_load_f16_sse2+0x27>
- DB 243,65,15,126,76,208,16 ; movq 0x10(%r8,%rdx,8),%xmm1
- DB 233,164,254,255,255 ; jmpq 22600 <_sk_load_f16_sse2+0x27>
-
-PUBLIC _sk_load_f16_dst_sse2
-_sk_load_f16_dst_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,3 ; shl $0x3,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,47,1,0,0 ; jne 228a5 <_sk_load_f16_dst_sse2+0x149>
- DB 102,65,15,16,36,208 ; movupd (%r8,%rdx,8),%xmm4
- DB 243,65,15,111,108,208,16 ; movdqu 0x10(%r8,%rdx,8),%xmm5
- DB 102,68,15,40,196 ; movapd %xmm4,%xmm8
- DB 102,68,15,97,197 ; punpcklwd %xmm5,%xmm8
- DB 102,15,105,229 ; punpckhwd %xmm5,%xmm4
- DB 102,65,15,111,240 ; movdqa %xmm8,%xmm6
- DB 102,15,97,244 ; punpcklwd %xmm4,%xmm6
- DB 102,68,15,105,196 ; punpckhwd %xmm4,%xmm8
- DB 102,69,15,239,210 ; pxor %xmm10,%xmm10
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,65,15,97,234 ; punpcklwd %xmm10,%xmm5
- DB 102,68,15,111,13,10,50,1,0 ; movdqa 0x1320a(%rip),%xmm9 # 359c0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
- DB 102,68,15,111,229 ; movdqa %xmm5,%xmm12
- DB 102,69,15,219,225 ; pand %xmm9,%xmm12
- DB 102,68,15,111,29,7,50,1,0 ; movdqa 0x13207(%rip),%xmm11 # 359d0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
- DB 102,65,15,219,235 ; pand %xmm11,%xmm5
- DB 102,15,111,61,10,50,1,0 ; movdqa 0x1320a(%rip),%xmm7 # 359e0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
- DB 102,65,15,114,244,16 ; pslld $0x10,%xmm12
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,102,229 ; pcmpgtd %xmm5,%xmm4
- DB 102,15,114,245,13 ; pslld $0xd,%xmm5
- DB 102,65,15,235,236 ; por %xmm12,%xmm5
- DB 102,68,15,111,37,249,49,1,0 ; movdqa 0x131f9(%rip),%xmm12 # 359f0 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
- DB 102,65,15,254,236 ; paddd %xmm12,%xmm5
- DB 102,15,223,229 ; pandn %xmm5,%xmm4
- DB 102,65,15,105,242 ; punpckhwd %xmm10,%xmm6
- DB 102,68,15,111,238 ; movdqa %xmm6,%xmm13
- DB 102,69,15,219,233 ; pand %xmm9,%xmm13
- DB 102,65,15,219,243 ; pand %xmm11,%xmm6
- DB 102,65,15,114,245,16 ; pslld $0x10,%xmm13
- DB 102,15,111,239 ; movdqa %xmm7,%xmm5
- DB 102,15,102,238 ; pcmpgtd %xmm6,%xmm5
- DB 102,15,114,246,13 ; pslld $0xd,%xmm6
- DB 102,65,15,235,245 ; por %xmm13,%xmm6
- DB 102,65,15,254,244 ; paddd %xmm12,%xmm6
- DB 102,15,223,238 ; pandn %xmm6,%xmm5
- DB 102,69,15,111,232 ; movdqa %xmm8,%xmm13
- DB 102,69,15,97,234 ; punpcklwd %xmm10,%xmm13
- DB 102,69,15,111,245 ; movdqa %xmm13,%xmm14
- DB 102,69,15,219,241 ; pand %xmm9,%xmm14
- DB 102,69,15,219,235 ; pand %xmm11,%xmm13
- DB 102,65,15,114,246,16 ; pslld $0x10,%xmm14
- DB 102,15,111,247 ; movdqa %xmm7,%xmm6
- DB 102,65,15,102,245 ; pcmpgtd %xmm13,%xmm6
- DB 102,65,15,114,245,13 ; pslld $0xd,%xmm13
- DB 102,69,15,235,238 ; por %xmm14,%xmm13
- DB 102,69,15,254,236 ; paddd %xmm12,%xmm13
- DB 102,65,15,223,245 ; pandn %xmm13,%xmm6
- DB 102,69,15,105,194 ; punpckhwd %xmm10,%xmm8
- DB 102,69,15,219,200 ; pand %xmm8,%xmm9
- DB 102,69,15,219,195 ; pand %xmm11,%xmm8
- DB 102,65,15,114,241,16 ; pslld $0x10,%xmm9
- DB 102,65,15,102,248 ; pcmpgtd %xmm8,%xmm7
- DB 102,65,15,114,240,13 ; pslld $0xd,%xmm8
- DB 102,69,15,235,193 ; por %xmm9,%xmm8
- DB 102,69,15,254,196 ; paddd %xmm12,%xmm8
- DB 102,65,15,223,248 ; pandn %xmm8,%xmm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 242,65,15,16,36,208 ; movsd (%r8,%rdx,8),%xmm4
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,13 ; jne 228be <_sk_load_f16_dst_sse2+0x162>
- DB 243,15,126,228 ; movq %xmm4,%xmm4
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 233,197,254,255,255 ; jmpq 22783 <_sk_load_f16_dst_sse2+0x27>
- DB 102,65,15,22,100,208,8 ; movhpd 0x8(%r8,%rdx,8),%xmm4
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 15,130,176,254,255,255 ; jb 22783 <_sk_load_f16_dst_sse2+0x27>
- DB 243,65,15,126,108,208,16 ; movq 0x10(%r8,%rdx,8),%xmm5
- DB 233,164,254,255,255 ; jmpq 22783 <_sk_load_f16_dst_sse2+0x27>
-
-PUBLIC _sk_gather_f16_sse2
-_sk_gather_f16_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,80,12 ; movss 0xc(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,65,15,254,209 ; paddd %xmm9,%xmm2
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,95,216 ; maxps %xmm0,%xmm3
- DB 15,93,218 ; minps %xmm2,%xmm3
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,65,15,254,193 ; paddd %xmm9,%xmm0
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,95,209 ; maxps %xmm1,%xmm2
- DB 15,93,208 ; minps %xmm0,%xmm2
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,15,91,194 ; cvttps2dq %xmm2,%xmm0
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,208,245 ; pshufd $0xf5,%xmm0,%xmm2
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,15,91,203 ; cvttps2dq %xmm3,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 243,67,15,126,4,208 ; movq (%r8,%r10,8),%xmm0
- DB 243,67,15,126,12,216 ; movq (%r8,%r11,8),%xmm1
- DB 102,15,108,200 ; punpcklqdq %xmm0,%xmm1
- DB 243,65,15,126,4,192 ; movq (%r8,%rax,8),%xmm0
- DB 243,67,15,126,20,200 ; movq (%r8,%r9,8),%xmm2
- DB 102,15,108,208 ; punpcklqdq %xmm0,%xmm2
- DB 102,68,15,111,201 ; movdqa %xmm1,%xmm9
- DB 102,68,15,97,202 ; punpcklwd %xmm2,%xmm9
- DB 102,15,105,202 ; punpckhwd %xmm2,%xmm1
- DB 102,65,15,111,209 ; movdqa %xmm9,%xmm2
- DB 102,15,97,209 ; punpcklwd %xmm1,%xmm2
- DB 102,68,15,105,201 ; punpckhwd %xmm1,%xmm9
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,65,15,97,200 ; punpcklwd %xmm8,%xmm1
- DB 102,68,15,111,21,8,48,1,0 ; movdqa 0x13008(%rip),%xmm10 # 359c0 <_sk_srcover_bgra_8888_sse2_lowp+0x11a8>
- DB 102,68,15,111,225 ; movdqa %xmm1,%xmm12
- DB 102,69,15,219,226 ; pand %xmm10,%xmm12
- DB 102,68,15,111,29,5,48,1,0 ; movdqa 0x13005(%rip),%xmm11 # 359d0 <_sk_srcover_bgra_8888_sse2_lowp+0x11b8>
- DB 102,65,15,219,203 ; pand %xmm11,%xmm1
- DB 102,15,111,29,8,48,1,0 ; movdqa 0x13008(%rip),%xmm3 # 359e0 <_sk_srcover_bgra_8888_sse2_lowp+0x11c8>
- DB 102,65,15,114,244,16 ; pslld $0x10,%xmm12
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,102,193 ; pcmpgtd %xmm1,%xmm0
- DB 102,15,114,241,13 ; pslld $0xd,%xmm1
- DB 102,65,15,235,204 ; por %xmm12,%xmm1
- DB 102,68,15,111,37,247,47,1,0 ; movdqa 0x12ff7(%rip),%xmm12 # 359f0 <_sk_srcover_bgra_8888_sse2_lowp+0x11d8>
- DB 102,65,15,254,204 ; paddd %xmm12,%xmm1
- DB 102,15,223,193 ; pandn %xmm1,%xmm0
- DB 102,65,15,105,208 ; punpckhwd %xmm8,%xmm2
- DB 102,68,15,111,234 ; movdqa %xmm2,%xmm13
- DB 102,69,15,219,234 ; pand %xmm10,%xmm13
- DB 102,65,15,219,211 ; pand %xmm11,%xmm2
- DB 102,65,15,114,245,16 ; pslld $0x10,%xmm13
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,102,202 ; pcmpgtd %xmm2,%xmm1
- DB 102,15,114,242,13 ; pslld $0xd,%xmm2
- DB 102,65,15,235,213 ; por %xmm13,%xmm2
- DB 102,65,15,254,212 ; paddd %xmm12,%xmm2
- DB 102,15,223,202 ; pandn %xmm2,%xmm1
- DB 102,69,15,111,233 ; movdqa %xmm9,%xmm13
- DB 102,69,15,97,232 ; punpcklwd %xmm8,%xmm13
- DB 102,69,15,111,245 ; movdqa %xmm13,%xmm14
- DB 102,69,15,219,242 ; pand %xmm10,%xmm14
- DB 102,69,15,219,235 ; pand %xmm11,%xmm13
- DB 102,65,15,114,246,16 ; pslld $0x10,%xmm14
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,65,15,102,213 ; pcmpgtd %xmm13,%xmm2
- DB 102,65,15,114,245,13 ; pslld $0xd,%xmm13
- DB 102,69,15,235,238 ; por %xmm14,%xmm13
- DB 102,69,15,254,236 ; paddd %xmm12,%xmm13
- DB 102,65,15,223,213 ; pandn %xmm13,%xmm2
- DB 102,69,15,105,200 ; punpckhwd %xmm8,%xmm9
- DB 102,69,15,219,209 ; pand %xmm9,%xmm10
- DB 102,69,15,219,203 ; pand %xmm11,%xmm9
- DB 102,65,15,114,242,16 ; pslld $0x10,%xmm10
- DB 102,65,15,102,217 ; pcmpgtd %xmm9,%xmm3
- DB 102,65,15,114,241,13 ; pslld $0xd,%xmm9
- DB 102,69,15,235,202 ; por %xmm10,%xmm9
- DB 102,69,15,254,204 ; paddd %xmm12,%xmm9
- DB 102,65,15,223,217 ; pandn %xmm9,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_store_f16_sse2
-_sk_store_f16_sse2 LABEL PROC
- DB 72,131,236,24 ; sub $0x18,%rsp
- DB 15,41,60,36 ; movaps %xmm7,(%rsp)
- DB 102,68,15,111,29,72,47,1,0 ; movdqa 0x12f48(%rip),%xmm11 # 35a00 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 102,69,15,219,195 ; pand %xmm11,%xmm8
- DB 102,68,15,111,21,69,47,1,0 ; movdqa 0x12f45(%rip),%xmm10 # 35a10 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- DB 102,68,15,111,240 ; movdqa %xmm0,%xmm14
- DB 102,69,15,219,242 ; pand %xmm10,%xmm14
- DB 102,15,111,61,67,47,1,0 ; movdqa 0x12f43(%rip),%xmm7 # 35a20 <_sk_srcover_bgra_8888_sse2_lowp+0x1208>
- DB 102,68,15,111,37,202,48,1,0 ; movdqa 0x130ca(%rip),%xmm12 # 35bb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1398>
- DB 102,68,15,111,248 ; movdqa %xmm0,%xmm15
- DB 102,65,15,114,247,3 ; pslld $0x3,%xmm15
- DB 102,69,15,219,252 ; pand %xmm12,%xmm15
- DB 102,69,15,254,248 ; paddd %xmm8,%xmm15
- DB 102,68,15,111,45,92,43,1,0 ; movdqa 0x12b5c(%rip),%xmm13 # 35660 <_sk_srcover_bgra_8888_sse2_lowp+0xe48>
- DB 102,69,15,254,253 ; paddd %xmm13,%xmm15
- DB 102,65,15,114,231,16 ; psrad $0x10,%xmm15
- DB 102,68,15,111,199 ; movdqa %xmm7,%xmm8
- DB 102,69,15,102,198 ; pcmpgtd %xmm14,%xmm8
- DB 102,69,15,223,199 ; pandn %xmm15,%xmm8
- DB 102,68,15,111,241 ; movdqa %xmm1,%xmm14
- DB 102,69,15,219,243 ; pand %xmm11,%xmm14
- DB 102,68,15,111,249 ; movdqa %xmm1,%xmm15
- DB 102,65,15,114,247,3 ; pslld $0x3,%xmm15
- DB 102,69,15,219,252 ; pand %xmm12,%xmm15
- DB 102,69,15,254,254 ; paddd %xmm14,%xmm15
- DB 102,68,15,111,241 ; movdqa %xmm1,%xmm14
- DB 102,69,15,219,242 ; pand %xmm10,%xmm14
- DB 102,68,15,111,207 ; movdqa %xmm7,%xmm9
- DB 102,69,15,102,206 ; pcmpgtd %xmm14,%xmm9
- DB 102,68,15,107,192 ; packssdw %xmm0,%xmm8
- DB 102,69,15,254,253 ; paddd %xmm13,%xmm15
- DB 102,65,15,114,231,16 ; psrad $0x10,%xmm15
- DB 102,69,15,223,207 ; pandn %xmm15,%xmm9
- DB 102,68,15,107,200 ; packssdw %xmm0,%xmm9
- DB 102,69,15,97,193 ; punpcklwd %xmm9,%xmm8
- DB 102,68,15,111,202 ; movdqa %xmm2,%xmm9
- DB 102,69,15,219,203 ; pand %xmm11,%xmm9
- DB 102,68,15,111,250 ; movdqa %xmm2,%xmm15
- DB 102,65,15,114,247,3 ; pslld $0x3,%xmm15
- DB 102,69,15,219,252 ; pand %xmm12,%xmm15
- DB 102,69,15,254,249 ; paddd %xmm9,%xmm15
- DB 102,68,15,111,202 ; movdqa %xmm2,%xmm9
- DB 102,69,15,219,202 ; pand %xmm10,%xmm9
- DB 102,68,15,111,247 ; movdqa %xmm7,%xmm14
- DB 102,69,15,102,241 ; pcmpgtd %xmm9,%xmm14
- DB 102,69,15,254,253 ; paddd %xmm13,%xmm15
- DB 102,65,15,114,231,16 ; psrad $0x10,%xmm15
- DB 102,69,15,223,247 ; pandn %xmm15,%xmm14
- DB 102,68,15,111,203 ; movdqa %xmm3,%xmm9
- DB 102,65,15,114,241,3 ; pslld $0x3,%xmm9
- DB 102,69,15,219,204 ; pand %xmm12,%xmm9
- DB 102,68,15,219,219 ; pand %xmm3,%xmm11
- DB 102,69,15,254,203 ; paddd %xmm11,%xmm9
- DB 102,69,15,254,205 ; paddd %xmm13,%xmm9
- DB 102,68,15,219,211 ; pand %xmm3,%xmm10
- DB 102,65,15,102,250 ; pcmpgtd %xmm10,%xmm7
- DB 102,65,15,114,225,16 ; psrad $0x10,%xmm9
- DB 102,65,15,223,249 ; pandn %xmm9,%xmm7
- DB 102,68,15,107,240 ; packssdw %xmm0,%xmm14
- DB 102,15,107,248 ; packssdw %xmm0,%xmm7
- DB 102,68,15,97,247 ; punpcklwd %xmm7,%xmm14
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,3 ; shl $0x3,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,40 ; jne 22c33 <_sk_store_f16_sse2+0x18c>
- DB 102,65,15,111,248 ; movdqa %xmm8,%xmm7
- DB 102,65,15,98,254 ; punpckldq %xmm14,%xmm7
- DB 243,65,15,127,60,208 ; movdqu %xmm7,(%r8,%rdx,8)
- DB 102,69,15,106,198 ; punpckhdq %xmm14,%xmm8
- DB 243,69,15,127,68,208,16 ; movdqu %xmm8,0x10(%r8,%rdx,8)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,60,36 ; movaps (%rsp),%xmm7
- DB 72,131,196,24 ; add $0x18,%rsp
- DB 255,224 ; jmpq *%rax
- DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
- DB 102,69,15,98,206 ; punpckldq %xmm14,%xmm9
- DB 102,69,15,214,12,208 ; movq %xmm9,(%r8,%rdx,8)
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,222 ; je 22c27 <_sk_store_f16_sse2+0x180>
- DB 102,69,15,23,76,208,8 ; movhpd %xmm9,0x8(%r8,%rdx,8)
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,209 ; jb 22c27 <_sk_store_f16_sse2+0x180>
- DB 102,69,15,106,198 ; punpckhdq %xmm14,%xmm8
- DB 102,69,15,214,68,208,16 ; movq %xmm8,0x10(%r8,%rdx,8)
- DB 235,195 ; jmp 22c27 <_sk_store_f16_sse2+0x180>
-
-PUBLIC _sk_load_u16_be_sse2
-_sk_load_u16_be_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 77,1,201 ; add %r9,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,190,0,0,0 ; jne 22d43 <_sk_load_u16_be_sse2+0xdf>
- DB 102,67,15,16,4,65 ; movupd (%r9,%r8,2),%xmm0
- DB 243,67,15,111,76,65,16 ; movdqu 0x10(%r9,%r8,2),%xmm1
- DB 102,15,40,208 ; movapd %xmm0,%xmm2
- DB 102,15,97,209 ; punpcklwd %xmm1,%xmm2
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 102,15,105,208 ; punpckhwd %xmm0,%xmm2
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,113,240,8 ; psllw $0x8,%xmm0
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,235,200 ; por %xmm0,%xmm1
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,65,15,97,201 ; punpcklwd %xmm9,%xmm1
- DB 15,91,193 ; cvtdq2ps %xmm1,%xmm0
- DB 68,15,40,5,122,42,1,0 ; movaps 0x12a7a(%rip),%xmm8 # 35750 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,113,241,8 ; psllw $0x8,%xmm1
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,235,217 ; por %xmm1,%xmm3
- DB 102,65,15,97,217 ; punpcklwd %xmm9,%xmm3
- DB 15,91,203 ; cvtdq2ps %xmm3,%xmm1
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 102,68,15,111,210 ; movdqa %xmm2,%xmm10
- DB 102,65,15,113,242,8 ; psllw $0x8,%xmm10
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,65,15,235,210 ; por %xmm10,%xmm2
- DB 102,65,15,97,209 ; punpcklwd %xmm9,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 102,68,15,111,211 ; movdqa %xmm3,%xmm10
- DB 102,65,15,113,242,8 ; psllw $0x8,%xmm10
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,65,15,235,218 ; por %xmm10,%xmm3
- DB 102,65,15,97,217 ; punpcklwd %xmm9,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 242,67,15,16,4,65 ; movsd (%r9,%r8,2),%xmm0
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,13 ; jne 22d5c <_sk_load_u16_be_sse2+0xf8>
- DB 243,15,126,192 ; movq %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 233,54,255,255,255 ; jmpq 22c92 <_sk_load_u16_be_sse2+0x2e>
- DB 102,67,15,22,68,65,8 ; movhpd 0x8(%r9,%r8,2),%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 15,130,33,255,255,255 ; jb 22c92 <_sk_load_u16_be_sse2+0x2e>
- DB 243,67,15,126,76,65,16 ; movq 0x10(%r9,%r8,2),%xmm1
- DB 233,21,255,255,255 ; jmpq 22c92 <_sk_load_u16_be_sse2+0x2e>
-
-PUBLIC _sk_load_rgb_u16_be_sse2
-_sk_load_rgb_u16_be_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,82 ; lea (%rdx,%rdx,2),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 77,1,201 ; add %r9,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,133,255 ; test %rdi,%rdi
- DB 15,133,175,0,0,0 ; jne 22e49 <_sk_load_rgb_u16_be_sse2+0xcc>
- DB 243,67,15,111,20,65 ; movdqu (%r9,%r8,2),%xmm2
- DB 243,67,15,111,92,65,8 ; movdqu 0x8(%r9,%r8,2),%xmm3
- DB 102,15,115,219,4 ; psrldq $0x4,%xmm3
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,115,216,6 ; psrldq $0x6,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,115,217,6 ; psrldq $0x6,%xmm1
- DB 102,15,97,193 ; punpcklwd %xmm1,%xmm0
- DB 102,15,97,211 ; punpcklwd %xmm3,%xmm2
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,15,105,208 ; punpckhwd %xmm0,%xmm2
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,113,240,8 ; psllw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,235,200 ; por %xmm0,%xmm1
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,65,15,97,200 ; punpcklwd %xmm8,%xmm1
- DB 15,91,193 ; cvtdq2ps %xmm1,%xmm0
- DB 68,15,40,13,82,41,1,0 ; movaps 0x12952(%rip),%xmm9 # 35750 <_sk_srcover_bgra_8888_sse2_lowp+0xf38>
- DB 65,15,89,193 ; mulps %xmm9,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,113,241,8 ; psllw $0x8,%xmm1
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,235,217 ; por %xmm1,%xmm3
- DB 102,65,15,97,216 ; punpcklwd %xmm8,%xmm3
- DB 15,91,203 ; cvtdq2ps %xmm3,%xmm1
- DB 65,15,89,201 ; mulps %xmm9,%xmm1
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,113,243,8 ; psllw $0x8,%xmm3
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,235,211 ; por %xmm3,%xmm2
- DB 102,65,15,97,208 ; punpcklwd %xmm8,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,105,38,1,0 ; movaps 0x12669(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 255,224 ; jmpq *%rax
- DB 102,67,15,110,20,65 ; movd (%r9,%r8,2),%xmm2
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,67,15,196,84,65,4,2 ; pinsrw $0x2,0x4(%r9,%r8,2),%xmm2
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,13 ; jne 22e6e <_sk_load_rgb_u16_be_sse2+0xf1>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 233,80,255,255,255 ; jmpq 22dbe <_sk_load_rgb_u16_be_sse2+0x41>
- DB 102,67,15,110,68,65,6 ; movd 0x6(%r9,%r8,2),%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,67,15,196,68,65,10,2 ; pinsrw $0x2,0xa(%r9,%r8,2),%xmm0
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,24 ; jb 22e9f <_sk_load_rgb_u16_be_sse2+0x122>
- DB 102,67,15,110,92,65,12 ; movd 0xc(%r9,%r8,2),%xmm3
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,67,15,196,92,65,16,2 ; pinsrw $0x2,0x10(%r9,%r8,2),%xmm3
- DB 233,31,255,255,255 ; jmpq 22dbe <_sk_load_rgb_u16_be_sse2+0x41>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 233,22,255,255,255 ; jmpq 22dbe <_sk_load_rgb_u16_be_sse2+0x41>
-
-PUBLIC _sk_store_u16_be_sse2
-_sk_store_u16_be_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 77,1,201 ; add %r9,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,95,192 ; maxps %xmm0,%xmm8
- DB 68,15,40,21,220,37,1,0 ; movaps 0x125dc(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,93,194 ; minps %xmm10,%xmm8
- DB 68,15,40,29,96,43,1,0 ; movaps 0x12b60(%rip),%xmm11 # 35a40 <_sk_srcover_bgra_8888_sse2_lowp+0x1228>
- DB 69,15,89,195 ; mulps %xmm11,%xmm8
- DB 102,69,15,91,192 ; cvtps2dq %xmm8,%xmm8
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,114,224,16 ; psrad $0x10,%xmm8
- DB 102,68,15,107,192 ; packssdw %xmm0,%xmm8
- DB 102,69,15,111,224 ; movdqa %xmm8,%xmm12
- DB 102,65,15,113,244,8 ; psllw $0x8,%xmm12
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,69,15,235,196 ; por %xmm12,%xmm8
- DB 102,69,15,239,228 ; pxor %xmm12,%xmm12
- DB 68,15,95,225 ; maxps %xmm1,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 102,69,15,91,228 ; cvtps2dq %xmm12,%xmm12
- DB 102,65,15,114,244,16 ; pslld $0x10,%xmm12
- DB 102,65,15,114,228,16 ; psrad $0x10,%xmm12
- DB 102,68,15,107,224 ; packssdw %xmm0,%xmm12
- DB 102,69,15,111,236 ; movdqa %xmm12,%xmm13
- DB 102,65,15,113,245,8 ; psllw $0x8,%xmm13
- DB 102,65,15,113,212,8 ; psrlw $0x8,%xmm12
- DB 102,69,15,235,229 ; por %xmm13,%xmm12
- DB 102,69,15,97,196 ; punpcklwd %xmm12,%xmm8
- DB 102,69,15,239,228 ; pxor %xmm12,%xmm12
- DB 68,15,95,226 ; maxps %xmm2,%xmm12
- DB 69,15,93,226 ; minps %xmm10,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 102,69,15,91,228 ; cvtps2dq %xmm12,%xmm12
- DB 102,65,15,114,244,16 ; pslld $0x10,%xmm12
- DB 102,65,15,114,228,16 ; psrad $0x10,%xmm12
- DB 102,68,15,107,224 ; packssdw %xmm0,%xmm12
- DB 102,69,15,111,236 ; movdqa %xmm12,%xmm13
- DB 102,65,15,113,245,8 ; psllw $0x8,%xmm13
- DB 102,65,15,113,212,8 ; psrlw $0x8,%xmm12
- DB 102,69,15,235,229 ; por %xmm13,%xmm12
- DB 68,15,95,203 ; maxps %xmm3,%xmm9
- DB 69,15,93,202 ; minps %xmm10,%xmm9
- DB 69,15,89,203 ; mulps %xmm11,%xmm9
- DB 102,69,15,91,201 ; cvtps2dq %xmm9,%xmm9
- DB 102,65,15,114,241,16 ; pslld $0x10,%xmm9
- DB 102,65,15,114,225,16 ; psrad $0x10,%xmm9
- DB 102,68,15,107,200 ; packssdw %xmm0,%xmm9
- DB 102,69,15,111,209 ; movdqa %xmm9,%xmm10
- DB 102,65,15,113,242,8 ; psllw $0x8,%xmm10
- DB 102,65,15,113,209,8 ; psrlw $0x8,%xmm9
- DB 102,69,15,235,202 ; por %xmm10,%xmm9
- DB 102,69,15,97,225 ; punpcklwd %xmm9,%xmm12
- DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
- DB 102,69,15,98,204 ; punpckldq %xmm12,%xmm9
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,21 ; jne 22ff0 <_sk_store_u16_be_sse2+0x148>
- DB 71,15,17,12,65 ; movups %xmm9,(%r9,%r8,2)
- DB 102,69,15,106,196 ; punpckhdq %xmm12,%xmm8
- DB 243,71,15,127,68,65,16 ; movdqu %xmm8,0x10(%r9,%r8,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,71,15,214,12,65 ; movq %xmm9,(%r9,%r8,2)
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,240 ; je 22fec <_sk_store_u16_be_sse2+0x144>
- DB 102,71,15,23,76,65,8 ; movhpd %xmm9,0x8(%r9,%r8,2)
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,227 ; jb 22fec <_sk_store_u16_be_sse2+0x144>
- DB 102,69,15,106,196 ; punpckhdq %xmm12,%xmm8
- DB 102,71,15,214,68,65,16 ; movq %xmm8,0x10(%r9,%r8,2)
- DB 235,213 ; jmp 22fec <_sk_store_u16_be_sse2+0x144>
-
-PUBLIC _sk_load_f32_sse2
-_sk_load_f32_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 73,193,225,2 ; shl $0x2,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,137,208 ; mov %rdx,%rax
- DB 72,193,224,4 ; shl $0x4,%rax
- DB 70,15,16,4,8 ; movups (%rax,%r9,1),%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,66 ; jne 23083 <_sk_load_f32_sse2+0x6c>
- DB 67,15,16,68,129,16 ; movups 0x10(%r9,%r8,4),%xmm0
- DB 67,15,16,92,129,32 ; movups 0x20(%r9,%r8,4),%xmm3
- DB 71,15,16,76,129,48 ; movups 0x30(%r9,%r8,4),%xmm9
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 15,20,208 ; unpcklps %xmm0,%xmm2
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 65,15,20,201 ; unpcklps %xmm9,%xmm1
- DB 68,15,21,192 ; unpckhps %xmm0,%xmm8
- DB 65,15,21,217 ; unpckhps %xmm9,%xmm3
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
- DB 15,18,202 ; movhlps %xmm2,%xmm1
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 65,15,18,216 ; movhlps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,8 ; jne 23095 <_sk_load_f32_sse2+0x7e>
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 235,190 ; jmp 23053 <_sk_load_f32_sse2+0x3c>
- DB 67,15,16,68,129,16 ; movups 0x10(%r9,%r8,4),%xmm0
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,8 ; jb 230a9 <_sk_load_f32_sse2+0x92>
- DB 67,15,16,92,129,32 ; movups 0x20(%r9,%r8,4),%xmm3
- DB 235,170 ; jmp 23053 <_sk_load_f32_sse2+0x3c>
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 235,165 ; jmp 23053 <_sk_load_f32_sse2+0x3c>
-
-PUBLIC _sk_load_f32_dst_sse2
-_sk_load_f32_dst_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 73,193,225,2 ; shl $0x2,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,137,208 ; mov %rdx,%rax
- DB 72,193,224,4 ; shl $0x4,%rax
- DB 70,15,16,4,8 ; movups (%rax,%r9,1),%xmm8
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,66 ; jne 2311a <_sk_load_f32_dst_sse2+0x6c>
- DB 67,15,16,100,129,16 ; movups 0x10(%r9,%r8,4),%xmm4
- DB 67,15,16,124,129,32 ; movups 0x20(%r9,%r8,4),%xmm7
- DB 71,15,16,76,129,48 ; movups 0x30(%r9,%r8,4),%xmm9
- DB 65,15,40,240 ; movaps %xmm8,%xmm6
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 15,40,239 ; movaps %xmm7,%xmm5
- DB 65,15,20,233 ; unpcklps %xmm9,%xmm5
- DB 68,15,21,196 ; unpckhps %xmm4,%xmm8
- DB 65,15,21,249 ; unpckhps %xmm9,%xmm7
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 102,15,20,229 ; unpcklpd %xmm5,%xmm4
- DB 15,18,238 ; movhlps %xmm6,%xmm5
- DB 65,15,40,240 ; movaps %xmm8,%xmm6
- DB 102,15,20,247 ; unpcklpd %xmm7,%xmm6
- DB 65,15,18,248 ; movhlps %xmm8,%xmm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 117,8 ; jne 2312c <_sk_load_f32_dst_sse2+0x7e>
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 235,190 ; jmp 230ea <_sk_load_f32_dst_sse2+0x3c>
- DB 67,15,16,100,129,16 ; movups 0x10(%r9,%r8,4),%xmm4
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,8 ; jb 23140 <_sk_load_f32_dst_sse2+0x92>
- DB 67,15,16,124,129,32 ; movups 0x20(%r9,%r8,4),%xmm7
- DB 235,170 ; jmp 230ea <_sk_load_f32_dst_sse2+0x3c>
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 235,165 ; jmp 230ea <_sk_load_f32_dst_sse2+0x3c>
-
-PUBLIC _sk_store_f32_sse2
-_sk_store_f32_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,141,4,149,0,0,0,0 ; lea 0x0(,%rdx,4),%r8
- DB 76,99,72,8 ; movslq 0x8(%rax),%r9
- DB 76,15,175,201 ; imul %rcx,%r9
- DB 73,193,225,2 ; shl $0x2,%r9
- DB 76,3,8 ; add (%rax),%r9
- DB 72,137,208 ; mov %rdx,%rax
- DB 72,193,224,4 ; shl $0x4,%rax
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 68,15,20,201 ; unpcklps %xmm1,%xmm9
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 68,15,20,195 ; unpcklps %xmm3,%xmm8
- DB 68,15,40,208 ; movaps %xmm0,%xmm10
- DB 68,15,21,209 ; unpckhps %xmm1,%xmm10
- DB 68,15,40,218 ; movaps %xmm2,%xmm11
- DB 68,15,21,219 ; unpckhps %xmm3,%xmm11
- DB 69,15,40,225 ; movaps %xmm9,%xmm12
- DB 102,69,15,20,224 ; unpcklpd %xmm8,%xmm12
- DB 69,15,18,193 ; movhlps %xmm9,%xmm8
- DB 69,15,40,202 ; movaps %xmm10,%xmm9
- DB 102,69,15,20,203 ; unpcklpd %xmm11,%xmm9
- DB 102,70,15,17,36,8 ; movupd %xmm12,(%rax,%r9,1)
- DB 72,133,255 ; test %rdi,%rdi
- DB 117,29 ; jne 231c3 <_sk_store_f32_sse2+0x7e>
- DB 102,69,15,21,211 ; unpckhpd %xmm11,%xmm10
- DB 71,15,17,68,129,16 ; movups %xmm8,0x10(%r9,%r8,4)
- DB 102,71,15,17,76,129,32 ; movupd %xmm9,0x20(%r9,%r8,4)
- DB 102,71,15,17,84,129,48 ; movupd %xmm10,0x30(%r9,%r8,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 72,131,255,1 ; cmp $0x1,%rdi
- DB 116,246 ; je 231bf <_sk_store_f32_sse2+0x7a>
- DB 71,15,17,68,129,16 ; movups %xmm8,0x10(%r9,%r8,4)
- DB 72,131,255,3 ; cmp $0x3,%rdi
- DB 114,234 ; jb 231bf <_sk_store_f32_sse2+0x7a>
- DB 102,71,15,17,76,129,32 ; movupd %xmm9,0x20(%r9,%r8,4)
- DB 235,225 ; jmp 231bf <_sk_store_f32_sse2+0x7a>
-
-PUBLIC _sk_repeat_x_sse2
-_sk_repeat_x_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 243,69,15,91,209 ; cvttps2dq %xmm9,%xmm10
- DB 69,15,91,210 ; cvtdq2ps %xmm10,%xmm10
- DB 69,15,194,202,1 ; cmpltps %xmm10,%xmm9
- DB 68,15,84,13,166,34,1,0 ; andps 0x122a6(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,209 ; subps %xmm9,%xmm10
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 69,15,89,194 ; mulps %xmm10,%xmm8
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_repeat_y_sse2
-_sk_repeat_y_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 243,69,15,91,209 ; cvttps2dq %xmm9,%xmm10
- DB 69,15,91,210 ; cvtdq2ps %xmm10,%xmm10
- DB 69,15,194,202,1 ; cmpltps %xmm10,%xmm9
- DB 68,15,84,13,101,34,1,0 ; andps 0x12265(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,209 ; subps %xmm9,%xmm10
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 69,15,89,194 ; mulps %xmm10,%xmm8
- DB 65,15,92,200 ; subps %xmm8,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_x_sse2
-_sk_mirror_x_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,40,208 ; movaps %xmm8,%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 65,15,92,194 ; subps %xmm10,%xmm0
- DB 243,69,15,88,192 ; addss %xmm8,%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 243,68,15,89,13,55,24,1,0 ; mulss 0x11837(%rip),%xmm9 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 243,69,15,91,217 ; cvttps2dq %xmm9,%xmm11
- DB 69,15,91,219 ; cvtdq2ps %xmm11,%xmm11
- DB 69,15,194,203,1 ; cmpltps %xmm11,%xmm9
- DB 68,15,84,13,4,34,1,0 ; andps 0x12204(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 69,15,92,217 ; subps %xmm9,%xmm11
- DB 69,15,89,216 ; mulps %xmm8,%xmm11
- DB 65,15,92,195 ; subps %xmm11,%xmm0
- DB 65,15,92,194 ; subps %xmm10,%xmm0
- DB 68,15,92,224 ; subps %xmm0,%xmm12
- DB 65,15,84,196 ; andps %xmm12,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_y_sse2
-_sk_mirror_y_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,40,208 ; movaps %xmm8,%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 65,15,92,202 ; subps %xmm10,%xmm1
- DB 243,69,15,88,192 ; addss %xmm8,%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 243,68,15,89,13,203,23,1,0 ; mulss 0x117cb(%rip),%xmm9 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 243,69,15,91,217 ; cvttps2dq %xmm9,%xmm11
- DB 69,15,91,219 ; cvtdq2ps %xmm11,%xmm11
- DB 69,15,194,203,1 ; cmpltps %xmm11,%xmm9
- DB 68,15,84,13,152,33,1,0 ; andps 0x12198(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 69,15,92,217 ; subps %xmm9,%xmm11
- DB 69,15,89,216 ; mulps %xmm8,%xmm11
- DB 65,15,92,203 ; subps %xmm11,%xmm1
- DB 65,15,92,202 ; subps %xmm10,%xmm1
- DB 68,15,92,225 ; subps %xmm1,%xmm12
- DB 65,15,84,204 ; andps %xmm12,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_x_1_sse2
-_sk_clamp_x_1_sse2 LABEL PROC
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,95,192 ; maxps %xmm0,%xmm8
- DB 68,15,93,5,104,33,1,0 ; minps 0x12168(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_repeat_x_1_sse2
-_sk_repeat_x_1_sse2 LABEL PROC
- DB 243,68,15,91,192 ; cvttps2dq %xmm0,%xmm8
- DB 69,15,91,200 ; cvtdq2ps %xmm8,%xmm9
- DB 68,15,40,208 ; movaps %xmm0,%xmm10
- DB 69,15,194,209,1 ; cmpltps %xmm9,%xmm10
- DB 68,15,40,29,70,33,1,0 ; movaps 0x12146(%rip),%xmm11 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,84,211 ; andps %xmm11,%xmm10
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,92,202 ; subps %xmm10,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 68,15,95,192 ; maxps %xmm0,%xmm8
- DB 69,15,93,195 ; minps %xmm11,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_x_1_sse2
-_sk_mirror_x_1_sse2 LABEL PROC
- DB 68,15,40,13,126,33,1,0 ; movaps 0x1217e(%rip),%xmm9 # 35510 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
- DB 65,15,88,193 ; addps %xmm9,%xmm0
- DB 68,15,40,21,2,33,1,0 ; movaps 0x12102(%rip),%xmm10 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,89,208 ; mulps %xmm0,%xmm10
- DB 243,69,15,91,194 ; cvttps2dq %xmm10,%xmm8
- DB 69,15,91,216 ; cvtdq2ps %xmm8,%xmm11
- DB 69,15,194,211,1 ; cmpltps %xmm11,%xmm10
- DB 68,15,40,37,248,32,1,0 ; movaps 0x120f8(%rip),%xmm12 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,84,212 ; andps %xmm12,%xmm10
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,92,218 ; subps %xmm10,%xmm11
- DB 69,15,88,219 ; addps %xmm11,%xmm11
- DB 65,15,92,195 ; subps %xmm11,%xmm0
- DB 65,15,88,193 ; addps %xmm9,%xmm0
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,92,200 ; subps %xmm0,%xmm9
- DB 68,15,84,200 ; andps %xmm0,%xmm9
- DB 69,15,95,193 ; maxps %xmm9,%xmm8
- DB 69,15,93,196 ; minps %xmm12,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_x_sse2
-_sk_decal_x_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,194,192,2 ; cmpleps %xmm0,%xmm8
- DB 243,68,15,16,72,64 ; movss 0x40(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,40,208 ; movaps %xmm0,%xmm10
- DB 69,15,194,209,1 ; cmpltps %xmm9,%xmm10
- DB 69,15,84,208 ; andps %xmm8,%xmm10
- DB 68,15,17,16 ; movups %xmm10,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_y_sse2
-_sk_decal_y_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,194,193,2 ; cmpleps %xmm1,%xmm8
- DB 243,68,15,16,72,68 ; movss 0x44(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,40,209 ; movaps %xmm1,%xmm10
- DB 69,15,194,209,1 ; cmpltps %xmm9,%xmm10
- DB 69,15,84,208 ; andps %xmm8,%xmm10
- DB 68,15,17,16 ; movups %xmm10,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_x_and_y_sse2
-_sk_decal_x_and_y_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,194,200,2 ; cmpleps %xmm0,%xmm9
- DB 243,68,15,16,80,64 ; movss 0x40(%rax),%xmm10
- DB 243,68,15,16,88,68 ; movss 0x44(%rax),%xmm11
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 68,15,40,224 ; movaps %xmm0,%xmm12
- DB 69,15,194,226,1 ; cmpltps %xmm10,%xmm12
- DB 68,15,194,193,2 ; cmpleps %xmm1,%xmm8
- DB 69,15,84,193 ; andps %xmm9,%xmm8
- DB 69,15,84,196 ; andps %xmm12,%xmm8
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 69,15,194,203,1 ; cmpltps %xmm11,%xmm9
- DB 69,15,84,200 ; andps %xmm8,%xmm9
- DB 68,15,17,8 ; movups %xmm9,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_check_decal_mask_sse2
-_sk_check_decal_mask_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,16,0 ; movups (%rax),%xmm8
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 65,15,84,200 ; andps %xmm8,%xmm1
- DB 65,15,84,208 ; andps %xmm8,%xmm2
- DB 65,15,84,216 ; andps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_luminance_to_alpha_sse2
-_sk_luminance_to_alpha_sse2 LABEL PROC
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,89,5,154,37,1,0 ; mulps 0x1259a(%rip),%xmm0 # 35a50 <_sk_srcover_bgra_8888_sse2_lowp+0x1238>
- DB 15,89,13,163,37,1,0 ; mulps 0x125a3(%rip),%xmm1 # 35a60 <_sk_srcover_bgra_8888_sse2_lowp+0x1248>
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,89,29,169,37,1,0 ; mulps 0x125a9(%rip),%xmm3 # 35a70 <_sk_srcover_bgra_8888_sse2_lowp+0x1258>
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_translate_sse2
-_sk_matrix_translate_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 65,15,88,201 ; addps %xmm9,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_scale_translate_sse2
-_sk_matrix_scale_translate_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 65,15,89,201 ; mulps %xmm9,%xmm1
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_2x3_sse2
-_sk_matrix_2x3_sse2 LABEL PROC
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,16 ; movss 0x10(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,68,15,16,80,12 ; movss 0xc(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,20 ; movss 0x14(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_3x4_sse2
-_sk_matrix_3x4_sse2 LABEL PROC
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,68,15,16,80,12 ; movss 0xc(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,24 ; movss 0x18(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,36 ; movss 0x24(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,68,15,16,80,16 ; movss 0x10(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,28 ; movss 0x1c(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,40 ; movss 0x28(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,20 ; movss 0x14(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,32 ; movss 0x20(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 243,68,15,16,104,44 ; movss 0x2c(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 68,15,89,226 ; mulps %xmm2,%xmm12
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 69,15,89,217 ; mulps %xmm9,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 69,15,89,208 ; mulps %xmm8,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_4x5_sse2
-_sk_matrix_4x5_sse2 LABEL PROC
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,68,15,16,80,16 ; movss 0x10(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,32 ; movss 0x20(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,48 ; movss 0x30(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 243,68,15,16,104,64 ; movss 0x40(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 68,15,89,227 ; mulps %xmm3,%xmm12
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,68,15,16,80,20 ; movss 0x14(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,36 ; movss 0x24(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,52 ; movss 0x34(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 243,68,15,16,104,68 ; movss 0x44(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 68,15,89,227 ; mulps %xmm3,%xmm12
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,24 ; movss 0x18(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,40 ; movss 0x28(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 243,68,15,16,104,56 ; movss 0x38(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 243,68,15,16,112,72 ; movss 0x48(%rax),%xmm14
- DB 69,15,198,246,0 ; shufps $0x0,%xmm14,%xmm14
- DB 68,15,89,235 ; mulps %xmm3,%xmm13
- DB 69,15,88,238 ; addps %xmm14,%xmm13
- DB 68,15,89,226 ; mulps %xmm2,%xmm12
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 69,15,89,217 ; mulps %xmm9,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 69,15,89,208 ; mulps %xmm8,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 243,68,15,16,88,12 ; movss 0xc(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,28 ; movss 0x1c(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 243,68,15,16,104,44 ; movss 0x2c(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 243,68,15,16,112,60 ; movss 0x3c(%rax),%xmm14
- DB 69,15,198,246,0 ; shufps $0x0,%xmm14,%xmm14
- DB 243,68,15,16,120,76 ; movss 0x4c(%rax),%xmm15
- DB 69,15,198,255,0 ; shufps $0x0,%xmm15,%xmm15
- DB 68,15,89,243 ; mulps %xmm3,%xmm14
- DB 69,15,88,247 ; addps %xmm15,%xmm14
- DB 68,15,89,234 ; mulps %xmm2,%xmm13
- DB 69,15,88,238 ; addps %xmm14,%xmm13
- DB 69,15,89,225 ; mulps %xmm9,%xmm12
- DB 69,15,88,229 ; addps %xmm13,%xmm12
- DB 69,15,89,216 ; mulps %xmm8,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 65,15,40,219 ; movaps %xmm11,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_4x3_sse2
-_sk_matrix_4x3_sse2 LABEL PROC
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,15,16,80,16 ; movss 0x10(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,88,32 ; movss 0x20(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,15,16,80,20 ; movss 0x14(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,88,36 ; movss 0x24(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 243,15,16,80,8 ; movss 0x8(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,88,24 ; movss 0x18(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 243,68,15,16,80,40 ; movss 0x28(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 65,15,89,217 ; mulps %xmm9,%xmm3
- DB 65,15,88,218 ; addps %xmm10,%xmm3
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 243,15,16,88,12 ; movss 0xc(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 243,68,15,16,80,28 ; movss 0x1c(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,44 ; movss 0x2c(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 65,15,88,218 ; addps %xmm10,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_perspective_sse2
-_sk_matrix_perspective_sse2 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,88,193 ; addps %xmm9,%xmm0
- DB 243,68,15,16,72,12 ; movss 0xc(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 243,68,15,16,80,16 ; movss 0x10(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,20 ; movss 0x14(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 68,15,89,209 ; mulps %xmm1,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 243,68,15,16,80,24 ; movss 0x18(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,88,28 ; movss 0x1c(%rax),%xmm11
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,96,32 ; movss 0x20(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 68,15,89,217 ; mulps %xmm1,%xmm11
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 69,15,89,208 ; mulps %xmm8,%xmm10
- DB 69,15,88,211 ; addps %xmm11,%xmm10
- DB 65,15,83,202 ; rcpps %xmm10,%xmm1
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_evenly_spaced_gradient_sse2
-_sk_evenly_spaced_gradient_sse2 LABEL PROC
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,139,24 ; mov (%rax),%rbx
- DB 76,139,112,8 ; mov 0x8(%rax),%r14
- DB 72,255,203 ; dec %rbx
- DB 120,7 ; js 23967 <_sk_evenly_spaced_gradient_sse2+0x18>
- DB 243,72,15,42,203 ; cvtsi2ss %rbx,%xmm1
- DB 235,21 ; jmp 2397c <_sk_evenly_spaced_gradient_sse2+0x2d>
- DB 73,137,216 ; mov %rbx,%r8
- DB 73,209,232 ; shr %r8
- DB 131,227,1 ; and $0x1,%ebx
- DB 76,9,195 ; or %r8,%rbx
- DB 243,72,15,42,203 ; cvtsi2ss %rbx,%xmm1
- DB 243,15,88,201 ; addss %xmm1,%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,73,15,126,209 ; movq %xmm2,%r9
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 102,73,15,126,203 ; movq %xmm1,%r11
- DB 69,137,218 ; mov %r11d,%r10d
- DB 73,193,235,32 ; shr $0x20,%r11
- DB 243,67,15,16,12,158 ; movss (%r14,%r11,4),%xmm1
- DB 243,71,15,16,4,150 ; movss (%r14,%r10,4),%xmm8
- DB 68,15,20,193 ; unpcklps %xmm1,%xmm8
- DB 243,67,15,16,12,142 ; movss (%r14,%r9,4),%xmm1
- DB 243,67,15,16,20,134 ; movss (%r14,%r8,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 102,68,15,20,194 ; unpcklpd %xmm2,%xmm8
- DB 72,139,88,40 ; mov 0x28(%rax),%rbx
- DB 243,66,15,16,12,155 ; movss (%rbx,%r11,4),%xmm1
- DB 243,70,15,16,12,147 ; movss (%rbx,%r10,4),%xmm9
- DB 68,15,20,201 ; unpcklps %xmm1,%xmm9
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 243,66,15,16,20,131 ; movss (%rbx,%r8,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 102,68,15,20,202 ; unpcklpd %xmm2,%xmm9
- DB 72,139,88,16 ; mov 0x10(%rax),%rbx
- DB 243,66,15,16,20,155 ; movss (%rbx,%r11,4),%xmm2
- DB 243,66,15,16,12,147 ; movss (%rbx,%r10,4),%xmm1
- DB 15,20,202 ; unpcklps %xmm2,%xmm1
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 102,15,20,203 ; unpcklpd %xmm3,%xmm1
- DB 72,139,88,48 ; mov 0x30(%rax),%rbx
- DB 243,66,15,16,20,155 ; movss (%rbx,%r11,4),%xmm2
- DB 243,70,15,16,20,147 ; movss (%rbx,%r10,4),%xmm10
- DB 68,15,20,210 ; unpcklps %xmm2,%xmm10
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 102,68,15,20,211 ; unpcklpd %xmm3,%xmm10
- DB 72,139,88,24 ; mov 0x18(%rax),%rbx
- DB 243,66,15,16,28,155 ; movss (%rbx,%r11,4),%xmm3
- DB 243,66,15,16,20,147 ; movss (%rbx,%r10,4),%xmm2
- DB 15,20,211 ; unpcklps %xmm3,%xmm2
- DB 243,70,15,16,28,139 ; movss (%rbx,%r9,4),%xmm11
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 65,15,20,219 ; unpcklps %xmm11,%xmm3
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 72,139,88,56 ; mov 0x38(%rax),%rbx
- DB 243,66,15,16,28,155 ; movss (%rbx,%r11,4),%xmm3
- DB 243,70,15,16,28,147 ; movss (%rbx,%r10,4),%xmm11
- DB 68,15,20,219 ; unpcklps %xmm3,%xmm11
- DB 243,70,15,16,36,139 ; movss (%rbx,%r9,4),%xmm12
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 65,15,20,220 ; unpcklps %xmm12,%xmm3
- DB 102,68,15,20,219 ; unpcklpd %xmm3,%xmm11
- DB 72,139,88,32 ; mov 0x20(%rax),%rbx
- DB 243,70,15,16,36,155 ; movss (%rbx,%r11,4),%xmm12
- DB 243,66,15,16,28,147 ; movss (%rbx,%r10,4),%xmm3
- DB 65,15,20,220 ; unpcklps %xmm12,%xmm3
- DB 243,70,15,16,36,139 ; movss (%rbx,%r9,4),%xmm12
- DB 243,70,15,16,44,131 ; movss (%rbx,%r8,4),%xmm13
- DB 69,15,20,236 ; unpcklps %xmm12,%xmm13
- DB 102,65,15,20,221 ; unpcklpd %xmm13,%xmm3
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 243,70,15,16,36,152 ; movss (%rax,%r11,4),%xmm12
- DB 243,70,15,16,44,144 ; movss (%rax,%r10,4),%xmm13
- DB 69,15,20,236 ; unpcklps %xmm12,%xmm13
- DB 243,70,15,16,36,136 ; movss (%rax,%r9,4),%xmm12
- DB 243,70,15,16,52,128 ; movss (%rax,%r8,4),%xmm14
- DB 69,15,20,244 ; unpcklps %xmm12,%xmm14
- DB 102,69,15,20,238 ; unpcklpd %xmm14,%xmm13
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 69,15,88,193 ; addps %xmm9,%xmm8
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 65,15,88,211 ; addps %xmm11,%xmm2
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 65,15,88,221 ; addps %xmm13,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gradient_sse2
-_sk_gradient_sse2 LABEL PROC
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 73,131,248,2 ; cmp $0x2,%r8
- DB 114,41 ; jb 23b43 <_sk_gradient_sse2+0x3b>
- DB 76,139,72,72 ; mov 0x48(%rax),%r9
- DB 73,255,200 ; dec %r8
- DB 73,131,193,4 ; add $0x4,%r9
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 243,65,15,16,17 ; movss (%r9),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,194,208,2 ; cmpleps %xmm0,%xmm2
- DB 102,15,250,202 ; psubd %xmm2,%xmm1
- DB 73,131,193,4 ; add $0x4,%r9
- DB 73,255,200 ; dec %r8
- DB 117,230 ; jne 23b29 <_sk_gradient_sse2+0x21>
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,73,15,126,209 ; movq %xmm2,%r9
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 102,73,15,126,203 ; movq %xmm1,%r11
- DB 69,137,218 ; mov %r11d,%r10d
- DB 73,193,235,32 ; shr $0x20,%r11
- DB 72,139,88,8 ; mov 0x8(%rax),%rbx
- DB 76,139,112,16 ; mov 0x10(%rax),%r14
- DB 243,66,15,16,12,155 ; movss (%rbx,%r11,4),%xmm1
- DB 243,70,15,16,4,147 ; movss (%rbx,%r10,4),%xmm8
- DB 68,15,20,193 ; unpcklps %xmm1,%xmm8
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 243,66,15,16,20,131 ; movss (%rbx,%r8,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 102,68,15,20,194 ; unpcklpd %xmm2,%xmm8
- DB 72,139,88,40 ; mov 0x28(%rax),%rbx
- DB 243,66,15,16,12,155 ; movss (%rbx,%r11,4),%xmm1
- DB 243,70,15,16,12,147 ; movss (%rbx,%r10,4),%xmm9
- DB 68,15,20,201 ; unpcklps %xmm1,%xmm9
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 243,66,15,16,20,131 ; movss (%rbx,%r8,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 102,68,15,20,202 ; unpcklpd %xmm2,%xmm9
- DB 243,67,15,16,20,158 ; movss (%r14,%r11,4),%xmm2
- DB 243,67,15,16,12,150 ; movss (%r14,%r10,4),%xmm1
- DB 15,20,202 ; unpcklps %xmm2,%xmm1
- DB 243,67,15,16,20,142 ; movss (%r14,%r9,4),%xmm2
- DB 243,67,15,16,28,134 ; movss (%r14,%r8,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 102,15,20,203 ; unpcklpd %xmm3,%xmm1
- DB 72,139,88,48 ; mov 0x30(%rax),%rbx
- DB 243,66,15,16,20,155 ; movss (%rbx,%r11,4),%xmm2
- DB 243,70,15,16,20,147 ; movss (%rbx,%r10,4),%xmm10
- DB 68,15,20,210 ; unpcklps %xmm2,%xmm10
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 102,68,15,20,211 ; unpcklpd %xmm3,%xmm10
- DB 72,139,88,24 ; mov 0x18(%rax),%rbx
- DB 243,66,15,16,28,155 ; movss (%rbx,%r11,4),%xmm3
- DB 243,66,15,16,20,147 ; movss (%rbx,%r10,4),%xmm2
- DB 15,20,211 ; unpcklps %xmm3,%xmm2
- DB 243,70,15,16,28,139 ; movss (%rbx,%r9,4),%xmm11
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 65,15,20,219 ; unpcklps %xmm11,%xmm3
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 72,139,88,56 ; mov 0x38(%rax),%rbx
- DB 243,66,15,16,28,155 ; movss (%rbx,%r11,4),%xmm3
- DB 243,70,15,16,28,147 ; movss (%rbx,%r10,4),%xmm11
- DB 68,15,20,219 ; unpcklps %xmm3,%xmm11
- DB 243,70,15,16,36,139 ; movss (%rbx,%r9,4),%xmm12
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 65,15,20,220 ; unpcklps %xmm12,%xmm3
- DB 102,68,15,20,219 ; unpcklpd %xmm3,%xmm11
- DB 72,139,88,32 ; mov 0x20(%rax),%rbx
- DB 243,70,15,16,36,155 ; movss (%rbx,%r11,4),%xmm12
- DB 243,66,15,16,28,147 ; movss (%rbx,%r10,4),%xmm3
- DB 65,15,20,220 ; unpcklps %xmm12,%xmm3
- DB 243,70,15,16,36,139 ; movss (%rbx,%r9,4),%xmm12
- DB 243,70,15,16,44,131 ; movss (%rbx,%r8,4),%xmm13
- DB 69,15,20,236 ; unpcklps %xmm12,%xmm13
- DB 102,65,15,20,221 ; unpcklpd %xmm13,%xmm3
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 243,70,15,16,36,152 ; movss (%rax,%r11,4),%xmm12
- DB 243,70,15,16,44,144 ; movss (%rax,%r10,4),%xmm13
- DB 69,15,20,236 ; unpcklps %xmm12,%xmm13
- DB 243,70,15,16,36,136 ; movss (%rax,%r9,4),%xmm12
- DB 243,70,15,16,52,128 ; movss (%rax,%r8,4),%xmm14
- DB 69,15,20,244 ; unpcklps %xmm12,%xmm14
- DB 102,69,15,20,238 ; unpcklpd %xmm14,%xmm13
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 69,15,88,193 ; addps %xmm9,%xmm8
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 65,15,88,211 ; addps %xmm11,%xmm2
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 65,15,88,221 ; addps %xmm13,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_evenly_spaced_2_stop_gradient_sse2
-_sk_evenly_spaced_2_stop_gradient_sse2 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,15,16,80,16 ; movss 0x10(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,15,16,80,20 ; movss 0x14(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 243,15,16,80,8 ; movss 0x8(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,88,24 ; movss 0x18(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 65,15,89,208 ; mulps %xmm8,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 243,15,16,88,12 ; movss 0xc(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 243,68,15,16,72,28 ; movss 0x1c(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 65,15,88,217 ; addps %xmm9,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_unit_angle_sse2
-_sk_xy_to_unit_angle_sse2 LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 69,15,84,200 ; andps %xmm8,%xmm9
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 68,15,92,209 ; subps %xmm1,%xmm10
- DB 68,15,84,209 ; andps %xmm1,%xmm10
- DB 69,15,40,217 ; movaps %xmm9,%xmm11
- DB 69,15,93,218 ; minps %xmm10,%xmm11
- DB 69,15,40,225 ; movaps %xmm9,%xmm12
- DB 69,15,95,226 ; maxps %xmm10,%xmm12
- DB 69,15,94,220 ; divps %xmm12,%xmm11
- DB 69,15,40,227 ; movaps %xmm11,%xmm12
- DB 69,15,89,228 ; mulps %xmm12,%xmm12
- DB 68,15,40,45,5,29,1,0 ; movaps 0x11d05(%rip),%xmm13 # 35a80 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
- DB 69,15,89,236 ; mulps %xmm12,%xmm13
- DB 68,15,88,45,9,29,1,0 ; addps 0x11d09(%rip),%xmm13 # 35a90 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
- DB 69,15,89,236 ; mulps %xmm12,%xmm13
- DB 68,15,88,45,13,29,1,0 ; addps 0x11d0d(%rip),%xmm13 # 35aa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1288>
- DB 69,15,89,236 ; mulps %xmm12,%xmm13
- DB 68,15,88,45,17,29,1,0 ; addps 0x11d11(%rip),%xmm13 # 35ab0 <_sk_srcover_bgra_8888_sse2_lowp+0x1298>
- DB 69,15,89,235 ; mulps %xmm11,%xmm13
- DB 69,15,194,202,1 ; cmpltps %xmm10,%xmm9
- DB 68,15,40,21,16,29,1,0 ; movaps 0x11d10(%rip),%xmm10 # 35ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8>
- DB 69,15,92,213 ; subps %xmm13,%xmm10
- DB 69,15,84,209 ; andps %xmm9,%xmm10
- DB 69,15,85,205 ; andnps %xmm13,%xmm9
- DB 69,15,86,202 ; orps %xmm10,%xmm9
- DB 68,15,194,192,1 ; cmpltps %xmm0,%xmm8
- DB 68,15,40,21,211,22,1,0 ; movaps 0x116d3(%rip),%xmm10 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 69,15,92,209 ; subps %xmm9,%xmm10
- DB 69,15,84,208 ; andps %xmm8,%xmm10
- DB 69,15,85,193 ; andnps %xmm9,%xmm8
- DB 69,15,86,194 ; orps %xmm10,%xmm8
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 68,15,194,200,1 ; cmpltps %xmm0,%xmm9
- DB 68,15,40,21,194,22,1,0 ; movaps 0x116c2(%rip),%xmm10 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,208 ; subps %xmm8,%xmm10
- DB 69,15,84,209 ; andps %xmm9,%xmm10
- DB 69,15,85,200 ; andnps %xmm8,%xmm9
- DB 69,15,86,202 ; orps %xmm10,%xmm9
- DB 65,15,194,193,7 ; cmpordps %xmm9,%xmm0
- DB 65,15,84,193 ; andps %xmm9,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_radius_sse2
-_sk_xy_to_radius_sse2 LABEL PROC
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 69,15,89,192 ; mulps %xmm8,%xmm8
- DB 68,15,88,192 ; addps %xmm0,%xmm8
- DB 65,15,81,192 ; sqrtps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_negate_x_sse2
-_sk_negate_x_sse2 LABEL PROC
- DB 15,87,5,215,27,1,0 ; xorps 0x11bd7(%rip),%xmm0 # 35a00 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_strip_sse2
-_sk_xy_to_2pt_conical_strip_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,64 ; movss 0x40(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 69,15,92,193 ; subps %xmm9,%xmm8
- DB 69,15,81,192 ; sqrtps %xmm8,%xmm8
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_focal_on_circle_sse2
-_sk_xy_to_2pt_conical_focal_on_circle_sse2 LABEL PROC
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 69,15,89,192 ; mulps %xmm8,%xmm8
- DB 68,15,94,192 ; divps %xmm0,%xmm8
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_well_behaved_sse2
-_sk_xy_to_2pt_conical_well_behaved_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,64 ; movss 0x40(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 68,15,88,200 ; addps %xmm0,%xmm9
- DB 65,15,81,193 ; sqrtps %xmm9,%xmm0
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_greater_sse2
-_sk_xy_to_2pt_conical_greater_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,64 ; movss 0x40(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 15,81,192 ; sqrtps %xmm0,%xmm0
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_2pt_conical_smaller_sse2
-_sk_xy_to_2pt_conical_smaller_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,64 ; movss 0x40(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 15,81,192 ; sqrtps %xmm0,%xmm0
- DB 15,87,5,25,27,1,0 ; xorps 0x11b19(%rip),%xmm0 # 35a00 <_sk_srcover_bgra_8888_sse2_lowp+0x11e8>
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_alter_2pt_conical_compensate_focal_sse2
-_sk_alter_2pt_conical_compensate_focal_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,68 ; movss 0x44(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_alter_2pt_conical_unswap_sse2
-_sk_alter_2pt_conical_unswap_sse2 LABEL PROC
- DB 68,15,40,5,164,21,1,0 ; movaps 0x115a4(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 68,15,92,192 ; subps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mask_2pt_conical_nan_sse2
-_sk_mask_2pt_conical_nan_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,194,192,7 ; cmpordps %xmm0,%xmm8
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 68,15,17,0 ; movups %xmm8,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mask_2pt_conical_degenerates_sse2
-_sk_mask_2pt_conical_degenerates_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 69,15,95,193 ; maxps %xmm9,%xmm8
- DB 68,15,194,200,1 ; cmpltps %xmm0,%xmm9
- DB 68,15,17,8 ; movups %xmm9,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_apply_vector_mask_sse2
-_sk_apply_vector_mask_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,16,0 ; movups (%rax),%xmm8
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 65,15,84,200 ; andps %xmm8,%xmm1
- DB 65,15,84,208 ; andps %xmm8,%xmm2
- DB 65,15,84,216 ; andps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_save_xy_sse2
-_sk_save_xy_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,40,5,46,21,1,0 ; movaps 0x1152e(%rip),%xmm8 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,17,0 ; movups %xmm0,(%rax)
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 69,15,88,200 ; addps %xmm8,%xmm9
- DB 243,69,15,91,209 ; cvttps2dq %xmm9,%xmm10
- DB 69,15,91,210 ; cvtdq2ps %xmm10,%xmm10
- DB 69,15,40,217 ; movaps %xmm9,%xmm11
- DB 69,15,194,218,1 ; cmpltps %xmm10,%xmm11
- DB 68,15,40,37,25,21,1,0 ; movaps 0x11519(%rip),%xmm12 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,84,220 ; andps %xmm12,%xmm11
- DB 69,15,92,211 ; subps %xmm11,%xmm10
- DB 69,15,92,202 ; subps %xmm10,%xmm9
- DB 68,15,88,193 ; addps %xmm1,%xmm8
- DB 243,69,15,91,208 ; cvttps2dq %xmm8,%xmm10
- DB 69,15,91,210 ; cvtdq2ps %xmm10,%xmm10
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 69,15,194,218,1 ; cmpltps %xmm10,%xmm11
- DB 69,15,84,220 ; andps %xmm12,%xmm11
- DB 69,15,92,211 ; subps %xmm11,%xmm10
- DB 69,15,92,194 ; subps %xmm10,%xmm8
- DB 15,17,72,64 ; movups %xmm1,0x40(%rax)
- DB 68,15,17,136,128,0,0,0 ; movups %xmm9,0x80(%rax)
- DB 68,15,17,128,192,0,0,0 ; movups %xmm8,0xc0(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_accumulate_sse2
-_sk_accumulate_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,16,128,0,1,0,0 ; movups 0x100(%rax),%xmm8
- DB 68,15,16,136,64,1,0,0 ; movups 0x140(%rax),%xmm9
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 69,15,40,193 ; movaps %xmm9,%xmm8
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 65,15,88,224 ; addps %xmm8,%xmm4
- DB 69,15,40,193 ; movaps %xmm9,%xmm8
- DB 68,15,89,193 ; mulps %xmm1,%xmm8
- DB 65,15,88,232 ; addps %xmm8,%xmm5
- DB 69,15,40,193 ; movaps %xmm9,%xmm8
- DB 68,15,89,194 ; mulps %xmm2,%xmm8
- DB 65,15,88,240 ; addps %xmm8,%xmm6
- DB 68,15,89,203 ; mulps %xmm3,%xmm9
- DB 65,15,88,249 ; addps %xmm9,%xmm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_nx_sse2
-_sk_bilinear_nx_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 68,15,16,128,128,0,0,0 ; movups 0x80(%rax),%xmm8
- DB 15,88,5,153,26,1,0 ; addps 0x11a99(%rip),%xmm0 # 35ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
- DB 68,15,40,13,113,20,1,0 ; movaps 0x11471(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 68,15,17,136,0,1,0,0 ; movups %xmm9,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_px_sse2
-_sk_bilinear_px_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 68,15,16,128,128,0,0,0 ; movups 0x80(%rax),%xmm8
- DB 15,88,5,61,20,1,0 ; addps 0x1143d(%rip),%xmm0 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,17,128,0,1,0,0 ; movups %xmm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_ny_sse2
-_sk_bilinear_ny_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,72,64 ; movups 0x40(%rax),%xmm1
- DB 68,15,16,128,192,0,0,0 ; movups 0xc0(%rax),%xmm8
- DB 15,88,13,76,26,1,0 ; addps 0x11a4c(%rip),%xmm1 # 35ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
- DB 68,15,40,13,36,20,1,0 ; movaps 0x11424(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 68,15,17,136,64,1,0,0 ; movups %xmm9,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilinear_py_sse2
-_sk_bilinear_py_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,72,64 ; movups 0x40(%rax),%xmm1
- DB 68,15,16,128,192,0,0,0 ; movups 0xc0(%rax),%xmm8
- DB 15,88,13,239,19,1,0 ; addps 0x113ef(%rip),%xmm1 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,17,128,64,1,0,0 ; movups %xmm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n3x_sse2
-_sk_bicubic_n3x_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 68,15,16,128,128,0,0,0 ; movups 0x80(%rax),%xmm8
- DB 15,88,5,15,26,1,0 ; addps 0x11a0f(%rip),%xmm0 # 35ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c8>
- DB 68,15,40,13,215,19,1,0 ; movaps 0x113d7(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 69,15,40,193 ; movaps %xmm9,%xmm8
- DB 69,15,89,192 ; mulps %xmm8,%xmm8
- DB 68,15,89,13,3,26,1,0 ; mulps 0x11a03(%rip),%xmm9 # 35af0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
- DB 68,15,88,13,187,21,1,0 ; addps 0x115bb(%rip),%xmm9 # 356b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 68,15,17,136,0,1,0,0 ; movups %xmm9,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n1x_sse2
-_sk_bicubic_n1x_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 68,15,16,128,128,0,0,0 ; movups 0x80(%rax),%xmm8
- DB 15,88,5,183,25,1,0 ; addps 0x119b7(%rip),%xmm0 # 35ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
- DB 68,15,40,13,143,19,1,0 ; movaps 0x1138f(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 68,15,40,5,211,25,1,0 ; movaps 0x119d3(%rip),%xmm8 # 35b00 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,215,25,1,0 ; addps 0x119d7(%rip),%xmm8 # 35b10 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,91,19,1,0 ; addps 0x1135b(%rip),%xmm8 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,207,25,1,0 ; addps 0x119cf(%rip),%xmm8 # 35b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
- DB 68,15,17,128,0,1,0,0 ; movups %xmm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p1x_sse2
-_sk_bicubic_p1x_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,40,5,57,19,1,0 ; movaps 0x11339(%rip),%xmm8 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 68,15,16,136,128,0,0,0 ; movups 0x80(%rax),%xmm9
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 68,15,40,21,130,25,1,0 ; movaps 0x11982(%rip),%xmm10 # 35b00 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,134,25,1,0 ; addps 0x11986(%rip),%xmm10 # 35b10 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,208 ; addps %xmm8,%xmm10
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,130,25,1,0 ; addps 0x11982(%rip),%xmm10 # 35b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
- DB 68,15,17,144,0,1,0,0 ; movups %xmm10,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p3x_sse2
-_sk_bicubic_p3x_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 68,15,16,128,128,0,0,0 ; movups 0x80(%rax),%xmm8
- DB 15,88,5,82,25,1,0 ; addps 0x11952(%rip),%xmm0 # 35b10 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 68,15,89,5,34,25,1,0 ; mulps 0x11922(%rip),%xmm8 # 35af0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
- DB 68,15,88,5,218,20,1,0 ; addps 0x114da(%rip),%xmm8 # 356b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,17,128,0,1,0,0 ; movups %xmm8,0x100(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n3y_sse2
-_sk_bicubic_n3y_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,72,64 ; movups 0x40(%rax),%xmm1
- DB 68,15,16,128,192,0,0,0 ; movups 0xc0(%rax),%xmm8
- DB 15,88,13,229,24,1,0 ; addps 0x118e5(%rip),%xmm1 # 35ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x12c8>
- DB 68,15,40,13,173,18,1,0 ; movaps 0x112ad(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 69,15,40,193 ; movaps %xmm9,%xmm8
- DB 69,15,89,192 ; mulps %xmm8,%xmm8
- DB 68,15,89,13,217,24,1,0 ; mulps 0x118d9(%rip),%xmm9 # 35af0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
- DB 68,15,88,13,145,20,1,0 ; addps 0x11491(%rip),%xmm9 # 356b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 68,15,17,136,64,1,0,0 ; movups %xmm9,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_n1y_sse2
-_sk_bicubic_n1y_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,72,64 ; movups 0x40(%rax),%xmm1
- DB 68,15,16,128,192,0,0,0 ; movups 0xc0(%rax),%xmm8
- DB 15,88,13,140,24,1,0 ; addps 0x1188c(%rip),%xmm1 # 35ad0 <_sk_srcover_bgra_8888_sse2_lowp+0x12b8>
- DB 68,15,40,13,100,18,1,0 ; movaps 0x11264(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,92,200 ; subps %xmm8,%xmm9
- DB 68,15,40,5,168,24,1,0 ; movaps 0x118a8(%rip),%xmm8 # 35b00 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,172,24,1,0 ; addps 0x118ac(%rip),%xmm8 # 35b10 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,48,18,1,0 ; addps 0x11230(%rip),%xmm8 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,88,5,164,24,1,0 ; addps 0x118a4(%rip),%xmm8 # 35b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
- DB 68,15,17,128,64,1,0,0 ; movups %xmm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p1y_sse2
-_sk_bicubic_p1y_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,40,5,14,18,1,0 ; movaps 0x1120e(%rip),%xmm8 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,16,72,64 ; movups 0x40(%rax),%xmm1
- DB 68,15,16,136,192,0,0,0 ; movups 0xc0(%rax),%xmm9
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 68,15,40,21,86,24,1,0 ; movaps 0x11856(%rip),%xmm10 # 35b00 <_sk_srcover_bgra_8888_sse2_lowp+0x12e8>
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,90,24,1,0 ; addps 0x1185a(%rip),%xmm10 # 35b10 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 69,15,88,208 ; addps %xmm8,%xmm10
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,88,21,86,24,1,0 ; addps 0x11856(%rip),%xmm10 # 35b20 <_sk_srcover_bgra_8888_sse2_lowp+0x1308>
- DB 68,15,17,144,64,1,0,0 ; movups %xmm10,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bicubic_p3y_sse2
-_sk_bicubic_p3y_sse2 LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,16,72,64 ; movups 0x40(%rax),%xmm1
- DB 68,15,16,128,192,0,0,0 ; movups 0xc0(%rax),%xmm8
- DB 15,88,13,37,24,1,0 ; addps 0x11825(%rip),%xmm1 # 35b10 <_sk_srcover_bgra_8888_sse2_lowp+0x12f8>
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 68,15,89,5,245,23,1,0 ; mulps 0x117f5(%rip),%xmm8 # 35af0 <_sk_srcover_bgra_8888_sse2_lowp+0x12d8>
- DB 68,15,88,5,173,19,1,0 ; addps 0x113ad(%rip),%xmm8 # 356b0 <_sk_srcover_bgra_8888_sse2_lowp+0xe98>
- DB 69,15,89,193 ; mulps %xmm9,%xmm8
- DB 68,15,17,128,64,1,0,0 ; movups %xmm8,0x140(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_callback_sse2
-_sk_callback_sse2 LABEL PROC
- DB 85 ; push %rbp
- DB 72,137,229 ; mov %rsp,%rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 83 ; push %rbx
- DB 72,131,236,40 ; sub $0x28,%rsp
- DB 68,15,40,197 ; movaps %xmm5,%xmm8
- DB 68,15,40,204 ; movaps %xmm4,%xmm9
- DB 73,137,206 ; mov %rcx,%r14
- DB 73,137,215 ; mov %rdx,%r15
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,137,195 ; mov %rax,%rbx
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,20,225 ; unpcklps %xmm1,%xmm4
- DB 15,40,234 ; movaps %xmm2,%xmm5
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 15,21,193 ; unpckhps %xmm1,%xmm0
- DB 15,21,211 ; unpckhps %xmm3,%xmm2
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 102,15,20,205 ; unpcklpd %xmm5,%xmm1
- DB 15,18,236 ; movhlps %xmm4,%xmm5
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 102,15,20,218 ; unpcklpd %xmm2,%xmm3
- DB 102,15,17,75,8 ; movupd %xmm1,0x8(%rbx)
- DB 15,18,208 ; movhlps %xmm0,%xmm2
- DB 15,17,107,24 ; movups %xmm5,0x18(%rbx)
- DB 102,15,17,91,40 ; movupd %xmm3,0x28(%rbx)
- DB 15,17,83,56 ; movups %xmm2,0x38(%rbx)
- DB 72,133,255 ; test %rdi,%rdi
- DB 186,4,0,0,0 ; mov $0x4,%edx
- DB 15,69,215 ; cmovne %edi,%edx
- DB 72,137,217 ; mov %rbx,%rcx
- DB 255,19 ; callq *(%rbx)
- DB 72,139,131,8,1,0,0 ; mov 0x108(%rbx),%rax
- DB 15,16,32 ; movups (%rax),%xmm4
- DB 15,16,64,16 ; movups 0x10(%rax),%xmm0
- DB 15,16,88,32 ; movups 0x20(%rax),%xmm3
- DB 15,16,80,48 ; movups 0x30(%rax),%xmm2
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,20,202 ; unpcklps %xmm2,%xmm1
- DB 15,21,224 ; unpckhps %xmm0,%xmm4
- DB 15,21,218 ; unpckhps %xmm2,%xmm3
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
- DB 15,18,205 ; movhlps %xmm5,%xmm1
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 15,18,220 ; movhlps %xmm4,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,137,250 ; mov %r15,%rdx
- DB 76,137,241 ; mov %r14,%rcx
- DB 65,15,40,225 ; movaps %xmm9,%xmm4
- DB 65,15,40,232 ; movaps %xmm8,%xmm5
- DB 72,131,196,40 ; add $0x28,%rsp
- DB 91 ; pop %rbx
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clut_3D_sse2
-_sk_clut_3D_sse2 LABEL PROC
- DB 83 ; push %rbx
- DB 72,129,236,192,0,0,0 ; sub $0xc0,%rsp
- DB 15,41,188,36,176,0,0,0 ; movaps %xmm7,0xb0(%rsp)
- DB 15,41,180,36,160,0,0,0 ; movaps %xmm6,0xa0(%rsp)
- DB 15,41,172,36,144,0,0,0 ; movaps %xmm5,0x90(%rsp)
- DB 15,41,164,36,128,0,0,0 ; movaps %xmm4,0x80(%rsp)
- DB 15,41,92,36,112 ; movaps %xmm3,0x70(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,139,64,16 ; mov 0x10(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 102,65,15,110,217 ; movd %r9d,%xmm3
- DB 102,15,112,219,0 ; pshufd $0x0,%xmm3,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,218 ; mulps %xmm2,%xmm3
- DB 243,68,15,91,235 ; cvttps2dq %xmm3,%xmm13
- DB 68,15,40,219 ; movaps %xmm3,%xmm11
- DB 68,15,41,92,36,96 ; movaps %xmm11,0x60(%rsp)
- DB 102,65,15,110,208 ; movd %r8d,%xmm2
- DB 102,68,15,112,250,0 ; pshufd $0x0,%xmm2,%xmm15
- DB 68,139,64,12 ; mov 0xc(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 102,65,15,110,217 ; movd %r9d,%xmm3
- DB 102,15,112,219,0 ; pshufd $0x0,%xmm3,%xmm3
- DB 15,91,251 ; cvtdq2ps %xmm3,%xmm7
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 243,15,91,239 ; cvttps2dq %xmm7,%xmm5
- DB 102,15,127,44,36 ; movdqa %xmm5,(%rsp)
- DB 15,41,124,36,16 ; movaps %xmm7,0x10(%rsp)
- DB 102,15,112,205,245 ; pshufd $0xf5,%xmm5,%xmm1
- DB 102,65,15,244,207 ; pmuludq %xmm15,%xmm1
- DB 102,65,15,111,223 ; movdqa %xmm15,%xmm3
- DB 102,15,244,221 ; pmuludq %xmm5,%xmm3
- DB 102,68,15,112,211,232 ; pshufd $0xe8,%xmm3,%xmm10
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,68,15,98,209 ; punpckldq %xmm1,%xmm10
- DB 102,65,15,110,200 ; movd %r8d,%xmm1
- DB 102,15,244,202 ; pmuludq %xmm2,%xmm1
- DB 102,15,112,209,0 ; pshufd $0x0,%xmm1,%xmm2
- DB 68,139,64,8 ; mov 0x8(%rax),%r8d
- DB 65,255,200 ; dec %r8d
- DB 102,65,15,110,200 ; movd %r8d,%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 68,15,91,241 ; cvtdq2ps %xmm1,%xmm14
- DB 68,15,89,240 ; mulps %xmm0,%xmm14
- DB 243,69,15,91,206 ; cvttps2dq %xmm14,%xmm9
- DB 102,65,15,112,193,245 ; pshufd $0xf5,%xmm9,%xmm0
- DB 102,15,244,194 ; pmuludq %xmm2,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,65,15,244,201 ; pmuludq %xmm9,%xmm1
- DB 102,15,112,217,232 ; pshufd $0xe8,%xmm1,%xmm3
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,98,216 ; punpckldq %xmm0,%xmm3
- DB 102,15,127,92,36,48 ; movdqa %xmm3,0x30(%rsp)
- DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
- DB 102,65,15,254,205 ; paddd %xmm13,%xmm1
- DB 102,68,15,127,108,36,80 ; movdqa %xmm13,0x50(%rsp)
- DB 102,15,254,217 ; paddd %xmm1,%xmm3
- DB 102,68,15,111,5,82,22,1,0 ; movdqa 0x11652(%rip),%xmm8 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,15,112,195,245 ; pshufd $0xf5,%xmm3,%xmm0
- DB 102,65,15,244,216 ; pmuludq %xmm8,%xmm3
- DB 102,65,15,244,192 ; pmuludq %xmm8,%xmm0
- DB 102,15,112,224,232 ; pshufd $0xe8,%xmm0,%xmm4
- DB 102,15,112,195,232 ; pshufd $0xe8,%xmm3,%xmm0
- DB 102,15,98,196 ; punpckldq %xmm4,%xmm0
- DB 102,65,15,126,216 ; movd %xmm3,%r8d
- DB 102,15,112,216,229 ; pshufd $0xe5,%xmm0,%xmm3
- DB 102,65,15,126,217 ; movd %xmm3,%r9d
- DB 102,15,112,216,78 ; pshufd $0x4e,%xmm0,%xmm3
- DB 102,65,15,126,218 ; movd %xmm3,%r10d
- DB 102,15,112,216,231 ; pshufd $0xe7,%xmm0,%xmm3
- DB 102,65,15,126,219 ; movd %xmm3,%r11d
- DB 72,139,24 ; mov (%rax),%rbx
- DB 243,66,15,16,28,155 ; movss (%rbx,%r11,4),%xmm3
- DB 243,66,15,16,36,147 ; movss (%rbx,%r10,4),%xmm4
- DB 15,20,227 ; unpcklps %xmm3,%xmm4
- DB 243,66,15,16,28,139 ; movss (%rbx,%r9,4),%xmm3
- DB 243,66,15,16,52,131 ; movss (%rbx,%r8,4),%xmm6
- DB 15,20,243 ; unpcklps %xmm3,%xmm6
- DB 102,15,20,244 ; unpcklpd %xmm4,%xmm6
- DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,250,220 ; psubd %xmm4,%xmm3
- DB 102,15,112,227,78 ; pshufd $0x4e,%xmm3,%xmm4
- DB 102,73,15,126,224 ; movq %xmm4,%r8
- DB 102,73,15,126,217 ; movq %xmm3,%r9
- DB 69,137,202 ; mov %r9d,%r10d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 243,66,15,16,36,139 ; movss (%rbx,%r9,4),%xmm4
- DB 243,66,15,16,28,147 ; movss (%rbx,%r10,4),%xmm3
- DB 15,20,220 ; unpcklps %xmm4,%xmm3
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,36,131 ; movss (%rbx,%r8,4),%xmm4
- DB 243,66,15,16,44,139 ; movss (%rbx,%r9,4),%xmm5
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 102,15,20,221 ; unpcklpd %xmm5,%xmm3
- DB 102,68,15,111,37,57,15,1,0 ; movdqa 0x10f39(%rip),%xmm12 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,65,15,254,196 ; paddd %xmm12,%xmm0
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,73,15,126,224 ; movq %xmm4,%r8
- DB 102,73,15,126,193 ; movq %xmm0,%r9
- DB 69,137,202 ; mov %r9d,%r10d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 243,66,15,16,4,139 ; movss (%rbx,%r9,4),%xmm0
- DB 243,66,15,16,44,147 ; movss (%rbx,%r10,4),%xmm5
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,4,131 ; movss (%rbx,%r8,4),%xmm0
- DB 243,66,15,16,36,139 ; movss (%rbx,%r9,4),%xmm4
- DB 15,20,224 ; unpcklps %xmm0,%xmm4
- DB 102,15,20,236 ; unpcklpd %xmm4,%xmm5
- DB 15,40,37,62,21,1,0 ; movaps 0x1153e(%rip),%xmm4 # 35b30 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
- DB 68,15,88,220 ; addps %xmm4,%xmm11
- DB 68,15,41,92,36,64 ; movaps %xmm11,0x40(%rsp)
- DB 68,15,40,223 ; movaps %xmm7,%xmm11
- DB 68,15,88,220 ; addps %xmm4,%xmm11
- DB 65,15,88,230 ; addps %xmm14,%xmm4
- DB 243,15,91,228 ; cvttps2dq %xmm4,%xmm4
- DB 102,15,112,252,245 ; pshufd $0xf5,%xmm4,%xmm7
- DB 102,15,244,250 ; pmuludq %xmm2,%xmm7
- DB 102,15,244,212 ; pmuludq %xmm4,%xmm2
- DB 102,15,112,194,232 ; pshufd $0xe8,%xmm2,%xmm0
- DB 102,15,112,215,232 ; pshufd $0xe8,%xmm7,%xmm2
- DB 102,15,98,194 ; punpckldq %xmm2,%xmm0
- DB 102,15,127,68,36,32 ; movdqa %xmm0,0x20(%rsp)
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,112,209,245 ; pshufd $0xf5,%xmm1,%xmm2
- DB 102,65,15,244,200 ; pmuludq %xmm8,%xmm1
- DB 102,65,15,244,208 ; pmuludq %xmm8,%xmm2
- DB 102,15,112,226,232 ; pshufd $0xe8,%xmm2,%xmm4
- DB 102,15,112,209,232 ; pshufd $0xe8,%xmm1,%xmm2
- DB 102,15,98,212 ; punpckldq %xmm4,%xmm2
- DB 102,65,15,126,200 ; movd %xmm1,%r8d
- DB 102,15,112,202,229 ; pshufd $0xe5,%xmm2,%xmm1
- DB 102,65,15,126,201 ; movd %xmm1,%r9d
- DB 102,15,112,202,78 ; pshufd $0x4e,%xmm2,%xmm1
- DB 102,65,15,126,202 ; movd %xmm1,%r10d
- DB 102,15,112,202,231 ; pshufd $0xe7,%xmm2,%xmm1
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 243,15,16,12,131 ; movss (%rbx,%rax,4),%xmm1
- DB 243,66,15,16,36,147 ; movss (%rbx,%r10,4),%xmm4
- DB 15,20,225 ; unpcklps %xmm1,%xmm4
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 243,66,15,16,60,131 ; movss (%rbx,%r8,4),%xmm7
- DB 15,20,249 ; unpcklps %xmm1,%xmm7
- DB 102,15,20,252 ; unpcklpd %xmm4,%xmm7
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,250,13,179,20,1,0 ; psubd 0x114b3(%rip),%xmm1 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,15,112,225,78 ; pshufd $0x4e,%xmm1,%xmm4
- DB 102,73,15,126,224 ; movq %xmm4,%r8
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,12,131 ; movss (%rbx,%rax,4),%xmm1
- DB 243,66,15,16,36,139 ; movss (%rbx,%r9,4),%xmm4
- DB 15,20,225 ; unpcklps %xmm1,%xmm4
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 15,20,193 ; unpcklps %xmm1,%xmm0
- DB 102,15,20,224 ; unpcklpd %xmm0,%xmm4
- DB 102,65,15,254,212 ; paddd %xmm12,%xmm2
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,73,15,126,192 ; movq %xmm0,%r8
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 15,20,208 ; unpcklps %xmm0,%xmm2
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,4,131 ; movss (%rbx,%r8,4),%xmm0
- DB 243,15,16,12,131 ; movss (%rbx,%rax,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 102,15,20,209 ; unpcklpd %xmm1,%xmm2
- DB 65,15,91,193 ; cvtdq2ps %xmm9,%xmm0
- DB 68,15,92,240 ; subps %xmm0,%xmm14
- DB 15,92,254 ; subps %xmm6,%xmm7
- DB 65,15,89,254 ; mulps %xmm14,%xmm7
- DB 15,88,254 ; addps %xmm6,%xmm7
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 65,15,89,230 ; mulps %xmm14,%xmm4
- DB 15,88,227 ; addps %xmm3,%xmm4
- DB 15,92,213 ; subps %xmm5,%xmm2
- DB 65,15,89,214 ; mulps %xmm14,%xmm2
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 243,65,15,91,195 ; cvttps2dq %xmm11,%xmm0
- DB 102,15,112,200,245 ; pshufd $0xf5,%xmm0,%xmm1
- DB 102,65,15,244,207 ; pmuludq %xmm15,%xmm1
- DB 102,68,15,244,248 ; pmuludq %xmm0,%xmm15
- DB 102,69,15,112,231,232 ; pshufd $0xe8,%xmm15,%xmm12
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,68,15,98,224 ; punpckldq %xmm0,%xmm12
- DB 102,65,15,111,244 ; movdqa %xmm12,%xmm6
- DB 102,65,15,254,245 ; paddd %xmm13,%xmm6
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 102,15,254,76,36,48 ; paddd 0x30(%rsp),%xmm1
- DB 102,15,112,193,245 ; pshufd $0xf5,%xmm1,%xmm0
- DB 102,65,15,244,200 ; pmuludq %xmm8,%xmm1
- DB 102,65,15,244,192 ; pmuludq %xmm8,%xmm0
- DB 102,69,15,111,216 ; movdqa %xmm8,%xmm11
- DB 102,15,112,216,232 ; pshufd $0xe8,%xmm0,%xmm3
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,98,195 ; punpckldq %xmm3,%xmm0
- DB 102,65,15,126,200 ; movd %xmm1,%r8d
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,65,15,126,201 ; movd %xmm1,%r9d
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,65,15,126,202 ; movd %xmm1,%r10d
- DB 102,15,112,200,231 ; pshufd $0xe7,%xmm0,%xmm1
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 243,15,16,12,131 ; movss (%rbx,%rax,4),%xmm1
- DB 243,66,15,16,28,147 ; movss (%rbx,%r10,4),%xmm3
- DB 15,20,217 ; unpcklps %xmm1,%xmm3
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 243,70,15,16,4,131 ; movss (%rbx,%r8,4),%xmm8
- DB 68,15,20,193 ; unpcklps %xmm1,%xmm8
- DB 102,68,15,20,195 ; unpcklpd %xmm3,%xmm8
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,65,15,250,201 ; psubd %xmm9,%xmm1
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,73,15,126,216 ; movq %xmm3,%r8
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,12,131 ; movss (%rbx,%rax,4),%xmm1
- DB 243,66,15,16,28,139 ; movss (%rbx,%r9,4),%xmm3
- DB 15,20,217 ; unpcklps %xmm1,%xmm3
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 15,20,233 ; unpcklps %xmm1,%xmm5
- DB 102,15,20,221 ; unpcklpd %xmm5,%xmm3
- DB 102,68,15,111,45,171,12,1,0 ; movdqa 0x10cab(%rip),%xmm13 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,65,15,254,197 ; paddd %xmm13,%xmm0
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,73,15,126,200 ; movq %xmm1,%r8
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,4,131 ; movss (%rbx,%r8,4),%xmm0
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 102,15,20,205 ; unpcklpd %xmm5,%xmm1
- DB 102,15,254,116,36,32 ; paddd 0x20(%rsp),%xmm6
- DB 102,15,112,198,245 ; pshufd $0xf5,%xmm6,%xmm0
- DB 102,65,15,244,243 ; pmuludq %xmm11,%xmm6
- DB 102,65,15,244,195 ; pmuludq %xmm11,%xmm0
- DB 102,15,112,232,232 ; pshufd $0xe8,%xmm0,%xmm5
- DB 102,15,112,198,232 ; pshufd $0xe8,%xmm6,%xmm0
- DB 102,15,98,197 ; punpckldq %xmm5,%xmm0
- DB 102,65,15,126,240 ; movd %xmm6,%r8d
- DB 102,15,112,232,229 ; pshufd $0xe5,%xmm0,%xmm5
- DB 102,65,15,126,233 ; movd %xmm5,%r9d
- DB 102,15,112,232,78 ; pshufd $0x4e,%xmm0,%xmm5
- DB 102,65,15,126,234 ; movd %xmm5,%r10d
- DB 102,15,112,232,231 ; pshufd $0xe7,%xmm0,%xmm5
- DB 102,15,126,232 ; movd %xmm5,%eax
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 243,66,15,16,52,147 ; movss (%rbx,%r10,4),%xmm6
- DB 15,20,245 ; unpcklps %xmm5,%xmm6
- DB 243,66,15,16,44,139 ; movss (%rbx,%r9,4),%xmm5
- DB 243,70,15,16,60,131 ; movss (%rbx,%r8,4),%xmm15
- DB 68,15,20,253 ; unpcklps %xmm5,%xmm15
- DB 102,68,15,20,254 ; unpcklpd %xmm6,%xmm15
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,65,15,250,233 ; psubd %xmm9,%xmm5
- DB 102,15,112,245,78 ; pshufd $0x4e,%xmm5,%xmm6
- DB 102,73,15,126,240 ; movq %xmm6,%r8
- DB 102,72,15,126,232 ; movq %xmm5,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 243,70,15,16,28,139 ; movss (%rbx,%r9,4),%xmm11
- DB 68,15,20,221 ; unpcklps %xmm5,%xmm11
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,44,131 ; movss (%rbx,%r8,4),%xmm5
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 15,20,245 ; unpcklps %xmm5,%xmm6
- DB 102,68,15,20,222 ; unpcklpd %xmm6,%xmm11
- DB 102,65,15,254,197 ; paddd %xmm13,%xmm0
- DB 102,15,112,232,78 ; pshufd $0x4e,%xmm0,%xmm5
- DB 102,73,15,126,232 ; movq %xmm5,%r8
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 243,70,15,16,12,139 ; movss (%rbx,%r9,4),%xmm9
- DB 68,15,20,200 ; unpcklps %xmm0,%xmm9
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,4,131 ; movss (%rbx,%r8,4),%xmm0
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 102,68,15,20,205 ; unpcklpd %xmm5,%xmm9
- DB 69,15,92,248 ; subps %xmm8,%xmm15
- DB 69,15,89,254 ; mulps %xmm14,%xmm15
- DB 69,15,88,248 ; addps %xmm8,%xmm15
- DB 68,15,92,219 ; subps %xmm3,%xmm11
- DB 69,15,89,222 ; mulps %xmm14,%xmm11
- DB 68,15,88,219 ; addps %xmm3,%xmm11
- DB 68,15,92,201 ; subps %xmm1,%xmm9
- DB 69,15,89,206 ; mulps %xmm14,%xmm9
- DB 68,15,88,201 ; addps %xmm1,%xmm9
- DB 15,91,4,36 ; cvtdq2ps (%rsp),%xmm0
- DB 15,40,76,36,16 ; movaps 0x10(%rsp),%xmm1
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,41,76,36,16 ; movaps %xmm1,0x10(%rsp)
- DB 68,15,92,255 ; subps %xmm7,%xmm15
- DB 68,15,89,249 ; mulps %xmm1,%xmm15
- DB 68,15,88,255 ; addps %xmm7,%xmm15
- DB 68,15,92,220 ; subps %xmm4,%xmm11
- DB 68,15,89,217 ; mulps %xmm1,%xmm11
- DB 68,15,88,220 ; addps %xmm4,%xmm11
- DB 68,15,92,202 ; subps %xmm2,%xmm9
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 68,15,88,202 ; addps %xmm2,%xmm9
- DB 243,15,91,68,36,64 ; cvttps2dq 0x40(%rsp),%xmm0
- DB 102,15,127,4,36 ; movdqa %xmm0,(%rsp)
- DB 102,68,15,254,208 ; paddd %xmm0,%xmm10
- DB 102,15,111,116,36,48 ; movdqa 0x30(%rsp),%xmm6
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 102,65,15,254,202 ; paddd %xmm10,%xmm1
- DB 102,15,112,209,245 ; pshufd $0xf5,%xmm1,%xmm2
- DB 102,15,111,29,80,17,1,0 ; movdqa 0x11150(%rip),%xmm3 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,15,244,203 ; pmuludq %xmm3,%xmm1
- DB 102,15,244,211 ; pmuludq %xmm3,%xmm2
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,112,217,232 ; pshufd $0xe8,%xmm1,%xmm3
- DB 102,15,98,218 ; punpckldq %xmm2,%xmm3
- DB 102,65,15,126,200 ; movd %xmm1,%r8d
- DB 102,15,112,203,229 ; pshufd $0xe5,%xmm3,%xmm1
- DB 102,65,15,126,201 ; movd %xmm1,%r9d
- DB 102,15,112,203,78 ; pshufd $0x4e,%xmm3,%xmm1
- DB 102,65,15,126,202 ; movd %xmm1,%r10d
- DB 102,15,112,203,231 ; pshufd $0xe7,%xmm3,%xmm1
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 243,15,16,12,131 ; movss (%rbx,%rax,4),%xmm1
- DB 243,66,15,16,20,147 ; movss (%rbx,%r10,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 243,66,15,16,36,139 ; movss (%rbx,%r9,4),%xmm4
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 15,20,204 ; unpcklps %xmm4,%xmm1
- DB 102,15,20,202 ; unpcklpd %xmm2,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,69,15,118,237 ; pcmpeqd %xmm13,%xmm13
- DB 102,65,15,250,213 ; psubd %xmm13,%xmm2
- DB 102,15,112,226,78 ; pshufd $0x4e,%xmm2,%xmm4
- DB 102,73,15,126,224 ; movq %xmm4,%r8
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 15,20,212 ; unpcklps %xmm4,%xmm2
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,36,131 ; movss (%rbx,%r8,4),%xmm4
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 102,15,20,213 ; unpcklpd %xmm5,%xmm2
- DB 102,15,111,5,64,10,1,0 ; movdqa 0x10a40(%rip),%xmm0 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,15,254,216 ; paddd %xmm0,%xmm3
- DB 102,15,112,227,78 ; pshufd $0x4e,%xmm3,%xmm4
- DB 102,73,15,126,224 ; movq %xmm4,%r8
- DB 102,72,15,126,216 ; movq %xmm3,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
- DB 243,66,15,16,28,139 ; movss (%rbx,%r9,4),%xmm3
- DB 15,20,220 ; unpcklps %xmm4,%xmm3
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,36,131 ; movss (%rbx,%r8,4),%xmm4
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 102,15,20,221 ; unpcklpd %xmm5,%xmm3
- DB 102,68,15,254,84,36,32 ; paddd 0x20(%rsp),%xmm10
- DB 102,65,15,112,226,245 ; pshufd $0xf5,%xmm10,%xmm4
- DB 102,68,15,244,215 ; pmuludq %xmm7,%xmm10
- DB 102,15,244,231 ; pmuludq %xmm7,%xmm4
- DB 102,15,112,236,232 ; pshufd $0xe8,%xmm4,%xmm5
- DB 102,65,15,112,226,232 ; pshufd $0xe8,%xmm10,%xmm4
- DB 102,15,98,229 ; punpckldq %xmm5,%xmm4
- DB 102,69,15,126,208 ; movd %xmm10,%r8d
- DB 102,15,112,236,229 ; pshufd $0xe5,%xmm4,%xmm5
- DB 102,65,15,126,233 ; movd %xmm5,%r9d
- DB 102,15,112,236,78 ; pshufd $0x4e,%xmm4,%xmm5
- DB 102,65,15,126,234 ; movd %xmm5,%r10d
- DB 102,15,112,236,231 ; pshufd $0xe7,%xmm4,%xmm5
- DB 102,15,126,232 ; movd %xmm5,%eax
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 243,66,15,16,60,147 ; movss (%rbx,%r10,4),%xmm7
- DB 15,20,253 ; unpcklps %xmm5,%xmm7
- DB 243,66,15,16,44,139 ; movss (%rbx,%r9,4),%xmm5
- DB 243,70,15,16,4,131 ; movss (%rbx,%r8,4),%xmm8
- DB 68,15,20,197 ; unpcklps %xmm5,%xmm8
- DB 102,68,15,20,199 ; unpcklpd %xmm7,%xmm8
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,65,15,250,237 ; psubd %xmm13,%xmm5
- DB 102,15,112,253,78 ; pshufd $0x4e,%xmm5,%xmm7
- DB 102,73,15,126,248 ; movq %xmm7,%r8
- DB 102,72,15,126,232 ; movq %xmm5,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 243,70,15,16,44,139 ; movss (%rbx,%r9,4),%xmm13
- DB 68,15,20,237 ; unpcklps %xmm5,%xmm13
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,44,131 ; movss (%rbx,%r8,4),%xmm5
- DB 243,15,16,60,131 ; movss (%rbx,%rax,4),%xmm7
- DB 15,20,253 ; unpcklps %xmm5,%xmm7
- DB 102,68,15,20,239 ; unpcklpd %xmm7,%xmm13
- DB 102,15,254,224 ; paddd %xmm0,%xmm4
- DB 102,15,112,236,78 ; pshufd $0x4e,%xmm4,%xmm5
- DB 102,73,15,126,232 ; movq %xmm5,%r8
- DB 102,72,15,126,224 ; movq %xmm4,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
- DB 243,66,15,16,44,139 ; movss (%rbx,%r9,4),%xmm5
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,36,131 ; movss (%rbx,%r8,4),%xmm4
- DB 243,15,16,60,131 ; movss (%rbx,%rax,4),%xmm7
- DB 15,20,252 ; unpcklps %xmm4,%xmm7
- DB 102,15,20,239 ; unpcklpd %xmm7,%xmm5
- DB 68,15,92,193 ; subps %xmm1,%xmm8
- DB 69,15,89,198 ; mulps %xmm14,%xmm8
- DB 68,15,88,193 ; addps %xmm1,%xmm8
- DB 68,15,92,234 ; subps %xmm2,%xmm13
- DB 69,15,89,238 ; mulps %xmm14,%xmm13
- DB 68,15,88,234 ; addps %xmm2,%xmm13
- DB 15,92,235 ; subps %xmm3,%xmm5
- DB 65,15,89,238 ; mulps %xmm14,%xmm5
- DB 15,88,235 ; addps %xmm3,%xmm5
- DB 102,68,15,254,36,36 ; paddd (%rsp),%xmm12
- DB 102,15,111,214 ; movdqa %xmm6,%xmm2
- DB 102,65,15,254,212 ; paddd %xmm12,%xmm2
- DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,13,46,15,1,0 ; movdqa 0x10f2e(%rip),%xmm1 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,193 ; pmuludq %xmm1,%xmm0
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,112,200,232 ; pshufd $0xe8,%xmm0,%xmm1
- DB 102,15,112,194,232 ; pshufd $0xe8,%xmm2,%xmm0
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 102,65,15,126,208 ; movd %xmm2,%r8d
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,65,15,126,201 ; movd %xmm1,%r9d
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,65,15,126,202 ; movd %xmm1,%r10d
- DB 102,15,112,200,231 ; pshufd $0xe7,%xmm0,%xmm1
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 243,15,16,12,131 ; movss (%rbx,%rax,4),%xmm1
- DB 243,66,15,16,20,147 ; movss (%rbx,%r10,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 243,70,15,16,20,131 ; movss (%rbx,%r8,4),%xmm10
- DB 68,15,20,209 ; unpcklps %xmm1,%xmm10
- DB 102,68,15,20,210 ; unpcklpd %xmm2,%xmm10
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,250,13,211,14,1,0 ; psubd 0x10ed3(%rip),%xmm1 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,73,15,126,208 ; movq %xmm2,%r8
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,12,131 ; movss (%rbx,%rax,4),%xmm1
- DB 243,66,15,16,36,139 ; movss (%rbx,%r9,4),%xmm4
- DB 15,20,225 ; unpcklps %xmm1,%xmm4
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 243,15,16,20,131 ; movss (%rbx,%rax,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 102,15,20,226 ; unpcklpd %xmm2,%xmm4
- DB 102,15,254,5,30,8,1,0 ; paddd 0x1081e(%rip),%xmm0 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,73,15,126,200 ; movq %xmm1,%r8
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 243,66,15,16,28,139 ; movss (%rbx,%r9,4),%xmm3
- DB 15,20,216 ; unpcklps %xmm0,%xmm3
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,4,131 ; movss (%rbx,%r8,4),%xmm0
- DB 243,15,16,12,131 ; movss (%rbx,%rax,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 102,15,20,217 ; unpcklpd %xmm1,%xmm3
- DB 102,68,15,254,100,36,32 ; paddd 0x20(%rsp),%xmm12
- DB 102,65,15,112,196,245 ; pshufd $0xf5,%xmm12,%xmm0
- DB 102,68,15,244,230 ; pmuludq %xmm6,%xmm12
- DB 102,15,244,198 ; pmuludq %xmm6,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,65,15,112,212,232 ; pshufd $0xe8,%xmm12,%xmm2
- DB 102,15,98,208 ; punpckldq %xmm0,%xmm2
- DB 102,69,15,126,224 ; movd %xmm12,%r8d
- DB 102,15,112,194,229 ; pshufd $0xe5,%xmm2,%xmm0
- DB 102,65,15,126,193 ; movd %xmm0,%r9d
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,65,15,126,194 ; movd %xmm0,%r10d
- DB 102,15,112,194,231 ; pshufd $0xe7,%xmm2,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 243,66,15,16,12,147 ; movss (%rbx,%r10,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 243,66,15,16,60,139 ; movss (%rbx,%r9,4),%xmm7
- DB 243,66,15,16,4,131 ; movss (%rbx,%r8,4),%xmm0
- DB 15,20,199 ; unpcklps %xmm7,%xmm0
- DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,250,13,221,13,1,0 ; psubd 0x10ddd(%rip),%xmm1 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,15,112,249,78 ; pshufd $0x4e,%xmm1,%xmm7
- DB 102,73,15,126,248 ; movq %xmm7,%r8
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,60,131 ; movss (%rbx,%rax,4),%xmm7
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 15,20,207 ; unpcklps %xmm7,%xmm1
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,60,131 ; movss (%rbx,%r8,4),%xmm7
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 15,20,247 ; unpcklps %xmm7,%xmm6
- DB 102,15,20,206 ; unpcklpd %xmm6,%xmm1
- DB 102,15,254,21,40,7,1,0 ; paddd 0x10728(%rip),%xmm2 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,15,112,242,78 ; pshufd $0x4e,%xmm2,%xmm6
- DB 102,73,15,126,240 ; movq %xmm6,%r8
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 15,20,214 ; unpcklps %xmm6,%xmm2
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,52,131 ; movss (%rbx,%r8,4),%xmm6
- DB 243,15,16,60,131 ; movss (%rbx,%rax,4),%xmm7
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 102,15,20,215 ; unpcklpd %xmm7,%xmm2
- DB 65,15,92,194 ; subps %xmm10,%xmm0
- DB 65,15,89,198 ; mulps %xmm14,%xmm0
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 15,92,204 ; subps %xmm4,%xmm1
- DB 65,15,89,206 ; mulps %xmm14,%xmm1
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 65,15,89,214 ; mulps %xmm14,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 15,40,92,36,16 ; movaps 0x10(%rsp),%xmm3
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 65,15,92,205 ; subps %xmm13,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 65,15,88,205 ; addps %xmm13,%xmm1
- DB 15,92,213 ; subps %xmm5,%xmm2
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 15,91,92,36,80 ; cvtdq2ps 0x50(%rsp),%xmm3
- DB 15,40,100,36,96 ; movaps 0x60(%rsp),%xmm4
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 65,15,92,199 ; subps %xmm15,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 65,15,88,199 ; addps %xmm15,%xmm0
- DB 65,15,92,203 ; subps %xmm11,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 65,15,88,203 ; addps %xmm11,%xmm1
- DB 65,15,92,209 ; subps %xmm9,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 65,15,88,209 ; addps %xmm9,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,92,36,112 ; movaps 0x70(%rsp),%xmm3
- DB 15,40,164,36,128,0,0,0 ; movaps 0x80(%rsp),%xmm4
- DB 15,40,172,36,144,0,0,0 ; movaps 0x90(%rsp),%xmm5
- DB 15,40,180,36,160,0,0,0 ; movaps 0xa0(%rsp),%xmm6
- DB 15,40,188,36,176,0,0,0 ; movaps 0xb0(%rsp),%xmm7
- DB 72,129,196,192,0,0,0 ; add $0xc0,%rsp
- DB 91 ; pop %rbx
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clut_4D_sse2
-_sk_clut_4D_sse2 LABEL PROC
- DB 83 ; push %rbx
- DB 72,129,236,32,1,0,0 ; sub $0x120,%rsp
- DB 15,41,188,36,16,1,0,0 ; movaps %xmm7,0x110(%rsp)
- DB 15,41,180,36,0,1,0,0 ; movaps %xmm6,0x100(%rsp)
- DB 15,41,172,36,240,0,0,0 ; movaps %xmm5,0xf0(%rsp)
- DB 15,41,164,36,224,0,0,0 ; movaps %xmm4,0xe0(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,139,64,20 ; mov 0x14(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 102,65,15,110,225 ; movd %r9d,%xmm4
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 102,65,15,110,216 ; movd %r8d,%xmm3
- DB 102,15,112,251,0 ; pshufd $0x0,%xmm3,%xmm7
- DB 102,15,127,60,36 ; movdqa %xmm7,(%rsp)
- DB 68,139,64,16 ; mov 0x10(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 102,65,15,110,225 ; movd %r9d,%xmm4
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,226 ; mulps %xmm2,%xmm4
- DB 243,15,91,244 ; cvttps2dq %xmm4,%xmm6
- DB 102,15,127,116,36,80 ; movdqa %xmm6,0x50(%rsp)
- DB 68,15,40,252 ; movaps %xmm4,%xmm15
- DB 68,15,41,124,36,112 ; movaps %xmm15,0x70(%rsp)
- DB 102,15,112,214,245 ; pshufd $0xf5,%xmm6,%xmm2
- DB 102,15,244,215 ; pmuludq %xmm7,%xmm2
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,244,230 ; pmuludq %xmm6,%xmm4
- DB 102,68,15,112,244,232 ; pshufd $0xe8,%xmm4,%xmm14
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,68,15,98,242 ; punpckldq %xmm2,%xmm14
- DB 102,65,15,110,208 ; movd %r8d,%xmm2
- DB 102,15,244,211 ; pmuludq %xmm3,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,244,216 ; pmuludq %xmm0,%xmm3
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,15,98,211 ; punpckldq %xmm3,%xmm2
- DB 102,68,15,112,226,0 ; pshufd $0x0,%xmm2,%xmm12
- DB 68,139,64,12 ; mov 0xc(%rax),%r8d
- DB 69,141,72,255 ; lea -0x1(%r8),%r9d
- DB 102,65,15,110,217 ; movd %r9d,%xmm3
- DB 102,15,112,219,0 ; pshufd $0x0,%xmm3,%xmm3
- DB 68,15,91,219 ; cvtdq2ps %xmm3,%xmm11
- DB 68,15,89,217 ; mulps %xmm1,%xmm11
- DB 243,65,15,91,227 ; cvttps2dq %xmm11,%xmm4
- DB 102,15,127,100,36,64 ; movdqa %xmm4,0x40(%rsp)
- DB 68,15,41,92,36,16 ; movaps %xmm11,0x10(%rsp)
- DB 102,15,112,204,245 ; pshufd $0xf5,%xmm4,%xmm1
- DB 102,65,15,244,204 ; pmuludq %xmm12,%xmm1
- DB 102,65,15,111,220 ; movdqa %xmm12,%xmm3
- DB 102,15,244,220 ; pmuludq %xmm4,%xmm3
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,98,217 ; punpckldq %xmm1,%xmm3
- DB 102,15,127,156,36,128,0,0,0 ; movdqa %xmm3,0x80(%rsp)
- DB 102,65,15,110,200 ; movd %r8d,%xmm1
- DB 102,15,244,202 ; pmuludq %xmm2,%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 68,139,64,8 ; mov 0x8(%rax),%r8d
- DB 65,255,200 ; dec %r8d
- DB 102,65,15,110,208 ; movd %r8d,%xmm2
- DB 102,15,112,210,0 ; pshufd $0x0,%xmm2,%xmm2
- DB 68,15,91,234 ; cvtdq2ps %xmm2,%xmm13
- DB 68,15,89,232 ; mulps %xmm0,%xmm13
- DB 243,69,15,91,205 ; cvttps2dq %xmm13,%xmm9
- DB 102,65,15,112,193,245 ; pshufd $0xf5,%xmm9,%xmm0
- DB 102,15,244,193 ; pmuludq %xmm1,%xmm0
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,65,15,244,209 ; pmuludq %xmm9,%xmm2
- DB 102,15,112,226,232 ; pshufd $0xe8,%xmm2,%xmm4
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,98,224 ; punpckldq %xmm0,%xmm4
- DB 102,15,127,100,36,32 ; movdqa %xmm4,0x20(%rsp)
- DB 243,15,91,197 ; cvttps2dq %xmm5,%xmm0
- DB 102,15,127,132,36,176,0,0,0 ; movdqa %xmm0,0xb0(%rsp)
- DB 68,15,40,197 ; movaps %xmm5,%xmm8
- DB 68,15,41,132,36,208,0,0,0 ; movaps %xmm8,0xd0(%rsp)
- DB 102,69,15,111,214 ; movdqa %xmm14,%xmm10
- DB 102,68,15,254,208 ; paddd %xmm0,%xmm10
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,65,15,254,210 ; paddd %xmm10,%xmm2
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 102,15,254,218 ; paddd %xmm2,%xmm3
- DB 102,15,111,37,1,11,1,0 ; movdqa 0x10b01(%rip),%xmm4 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,15,112,195,245 ; pshufd $0xf5,%xmm3,%xmm0
- DB 102,15,244,220 ; pmuludq %xmm4,%xmm3
- DB 102,15,244,196 ; pmuludq %xmm4,%xmm0
- DB 102,15,112,224,232 ; pshufd $0xe8,%xmm0,%xmm4
- DB 102,15,112,195,232 ; pshufd $0xe8,%xmm3,%xmm0
- DB 102,15,98,196 ; punpckldq %xmm4,%xmm0
- DB 102,65,15,126,216 ; movd %xmm3,%r8d
- DB 102,15,112,216,229 ; pshufd $0xe5,%xmm0,%xmm3
- DB 102,65,15,126,217 ; movd %xmm3,%r9d
- DB 102,15,112,216,78 ; pshufd $0x4e,%xmm0,%xmm3
- DB 102,65,15,126,218 ; movd %xmm3,%r10d
- DB 102,15,112,216,231 ; pshufd $0xe7,%xmm0,%xmm3
- DB 102,65,15,126,219 ; movd %xmm3,%r11d
- DB 72,139,24 ; mov (%rax),%rbx
- DB 243,66,15,16,28,155 ; movss (%rbx,%r11,4),%xmm3
- DB 243,66,15,16,36,147 ; movss (%rbx,%r10,4),%xmm4
- DB 15,20,227 ; unpcklps %xmm3,%xmm4
- DB 243,66,15,16,28,139 ; movss (%rbx,%r9,4),%xmm3
- DB 243,66,15,16,60,131 ; movss (%rbx,%r8,4),%xmm7
- DB 15,20,251 ; unpcklps %xmm3,%xmm7
- DB 102,15,20,252 ; unpcklpd %xmm4,%xmm7
- DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,250,220 ; psubd %xmm4,%xmm3
- DB 102,15,112,227,78 ; pshufd $0x4e,%xmm3,%xmm4
- DB 102,73,15,126,224 ; movq %xmm4,%r8
- DB 102,73,15,126,217 ; movq %xmm3,%r9
- DB 69,137,202 ; mov %r9d,%r10d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 243,66,15,16,36,139 ; movss (%rbx,%r9,4),%xmm4
- DB 243,66,15,16,44,147 ; movss (%rbx,%r10,4),%xmm5
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,36,131 ; movss (%rbx,%r8,4),%xmm4
- DB 243,66,15,16,52,139 ; movss (%rbx,%r9,4),%xmm6
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 102,15,20,238 ; unpcklpd %xmm6,%xmm5
- DB 102,15,254,5,235,3,1,0 ; paddd 0x103eb(%rip),%xmm0 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,73,15,126,224 ; movq %xmm4,%r8
- DB 102,73,15,126,193 ; movq %xmm0,%r9
- DB 69,137,202 ; mov %r9d,%r10d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 243,66,15,16,36,139 ; movss (%rbx,%r9,4),%xmm4
- DB 243,66,15,16,28,147 ; movss (%rbx,%r10,4),%xmm3
- DB 15,20,220 ; unpcklps %xmm4,%xmm3
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,36,131 ; movss (%rbx,%r8,4),%xmm4
- DB 243,66,15,16,52,139 ; movss (%rbx,%r9,4),%xmm6
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 102,15,20,222 ; unpcklpd %xmm6,%xmm3
- DB 15,40,53,245,9,1,0 ; movaps 0x109f5(%rip),%xmm6 # 35b30 <_sk_srcover_bgra_8888_sse2_lowp+0x1318>
- DB 68,15,88,198 ; addps %xmm6,%xmm8
- DB 68,15,41,68,36,48 ; movaps %xmm8,0x30(%rsp)
- DB 68,15,88,254 ; addps %xmm6,%xmm15
- DB 68,15,41,188,36,192,0,0,0 ; movaps %xmm15,0xc0(%rsp)
- DB 69,15,40,195 ; movaps %xmm11,%xmm8
- DB 68,15,88,198 ; addps %xmm6,%xmm8
- DB 65,15,88,245 ; addps %xmm13,%xmm6
- DB 243,15,91,246 ; cvttps2dq %xmm6,%xmm6
- DB 102,15,112,198,245 ; pshufd $0xf5,%xmm6,%xmm0
- DB 102,15,244,193 ; pmuludq %xmm1,%xmm0
- DB 102,15,244,206 ; pmuludq %xmm6,%xmm1
- DB 102,68,15,112,249,232 ; pshufd $0xe8,%xmm1,%xmm15
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,68,15,98,248 ; punpckldq %xmm0,%xmm15
- DB 102,65,15,254,215 ; paddd %xmm15,%xmm2
- DB 102,68,15,127,124,36,96 ; movdqa %xmm15,0x60(%rsp)
- DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,13,168,9,1,0 ; movdqa 0x109a8(%rip),%xmm1 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,193 ; pmuludq %xmm1,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm1
- DB 102,15,98,200 ; punpckldq %xmm0,%xmm1
- DB 102,65,15,126,208 ; movd %xmm2,%r8d
- DB 102,15,112,193,229 ; pshufd $0xe5,%xmm1,%xmm0
- DB 102,65,15,126,193 ; movd %xmm0,%r9d
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,65,15,126,194 ; movd %xmm0,%r10d
- DB 102,15,112,193,231 ; pshufd $0xe7,%xmm1,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 243,66,15,16,20,147 ; movss (%rbx,%r10,4),%xmm2
- DB 15,20,208 ; unpcklps %xmm0,%xmm2
- DB 243,66,15,16,4,139 ; movss (%rbx,%r9,4),%xmm0
- DB 243,66,15,16,52,131 ; movss (%rbx,%r8,4),%xmm6
- DB 15,20,240 ; unpcklps %xmm0,%xmm6
- DB 102,15,20,242 ; unpcklpd %xmm2,%xmm6
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,250,5,83,9,1,0 ; psubd 0x10953(%rip),%xmm0 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,15,112,208,78 ; pshufd $0x4e,%xmm0,%xmm2
- DB 102,73,15,126,208 ; movq %xmm2,%r8
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 15,20,208 ; unpcklps %xmm0,%xmm2
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,4,131 ; movss (%rbx,%r8,4),%xmm0
- DB 243,68,15,16,28,131 ; movss (%rbx,%rax,4),%xmm11
- DB 68,15,20,216 ; unpcklps %xmm0,%xmm11
- DB 102,65,15,20,211 ; unpcklpd %xmm11,%xmm2
- DB 102,15,254,13,155,2,1,0 ; paddd 0x1029b(%rip),%xmm1 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,73,15,126,192 ; movq %xmm0,%r8
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,4,131 ; movss (%rbx,%r8,4),%xmm0
- DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
- DB 15,20,224 ; unpcklps %xmm0,%xmm4
- DB 102,15,20,204 ; unpcklpd %xmm4,%xmm1
- DB 65,15,91,193 ; cvtdq2ps %xmm9,%xmm0
- DB 68,15,92,232 ; subps %xmm0,%xmm13
- DB 15,92,247 ; subps %xmm7,%xmm6
- DB 65,15,89,245 ; mulps %xmm13,%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 15,92,213 ; subps %xmm5,%xmm2
- DB 65,15,89,213 ; mulps %xmm13,%xmm2
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 65,15,89,205 ; mulps %xmm13,%xmm1
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 243,65,15,91,192 ; cvttps2dq %xmm8,%xmm0
- DB 102,15,112,216,245 ; pshufd $0xf5,%xmm0,%xmm3
- DB 102,65,15,244,220 ; pmuludq %xmm12,%xmm3
- DB 102,68,15,244,224 ; pmuludq %xmm0,%xmm12
- DB 102,65,15,112,228,232 ; pshufd $0xe8,%xmm12,%xmm4
- DB 102,15,112,195,232 ; pshufd $0xe8,%xmm3,%xmm0
- DB 102,15,98,224 ; punpckldq %xmm0,%xmm4
- DB 102,15,127,164,36,144,0,0,0 ; movdqa %xmm4,0x90(%rsp)
- DB 102,68,15,254,212 ; paddd %xmm4,%xmm10
- DB 102,65,15,111,194 ; movdqa %xmm10,%xmm0
- DB 102,15,254,68,36,32 ; paddd 0x20(%rsp),%xmm0
- DB 102,15,112,216,245 ; pshufd $0xf5,%xmm0,%xmm3
- DB 102,15,111,37,79,8,1,0 ; movdqa 0x1084f(%rip),%xmm4 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,15,244,196 ; pmuludq %xmm4,%xmm0
- DB 102,15,244,220 ; pmuludq %xmm4,%xmm3
- DB 102,68,15,111,220 ; movdqa %xmm4,%xmm11
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,15,112,224,232 ; pshufd $0xe8,%xmm0,%xmm4
- DB 102,15,98,227 ; punpckldq %xmm3,%xmm4
- DB 102,65,15,126,192 ; movd %xmm0,%r8d
- DB 102,15,112,196,229 ; pshufd $0xe5,%xmm4,%xmm0
- DB 102,65,15,126,193 ; movd %xmm0,%r9d
- DB 102,15,112,196,78 ; pshufd $0x4e,%xmm4,%xmm0
- DB 102,65,15,126,194 ; movd %xmm0,%r10d
- DB 102,15,112,196,231 ; pshufd $0xe7,%xmm4,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 243,66,15,16,44,147 ; movss (%rbx,%r10,4),%xmm5
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 243,66,15,16,4,139 ; movss (%rbx,%r9,4),%xmm0
- DB 243,70,15,16,12,131 ; movss (%rbx,%r8,4),%xmm9
- DB 68,15,20,200 ; unpcklps %xmm0,%xmm9
- DB 102,68,15,20,205 ; unpcklpd %xmm5,%xmm9
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,69,15,118,228 ; pcmpeqd %xmm12,%xmm12
- DB 102,65,15,250,196 ; psubd %xmm12,%xmm0
- DB 102,15,112,232,78 ; pshufd $0x4e,%xmm0,%xmm5
- DB 102,73,15,126,232 ; movq %xmm5,%r8
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 243,66,15,16,4,139 ; movss (%rbx,%r9,4),%xmm0
- DB 15,20,197 ; unpcklps %xmm5,%xmm0
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,44,131 ; movss (%rbx,%r8,4),%xmm5
- DB 243,15,16,60,131 ; movss (%rbx,%rax,4),%xmm7
- DB 15,20,253 ; unpcklps %xmm5,%xmm7
- DB 102,15,20,199 ; unpcklpd %xmm7,%xmm0
- DB 102,68,15,111,5,59,1,1,0 ; movdqa 0x1013b(%rip),%xmm8 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,65,15,254,224 ; paddd %xmm8,%xmm4
- DB 102,15,112,236,78 ; pshufd $0x4e,%xmm4,%xmm5
- DB 102,73,15,126,232 ; movq %xmm5,%r8
- DB 102,72,15,126,224 ; movq %xmm4,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 243,66,15,16,36,139 ; movss (%rbx,%r9,4),%xmm4
- DB 15,20,229 ; unpcklps %xmm5,%xmm4
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,44,131 ; movss (%rbx,%r8,4),%xmm5
- DB 243,15,16,60,131 ; movss (%rbx,%rax,4),%xmm7
- DB 15,20,253 ; unpcklps %xmm5,%xmm7
- DB 102,15,20,231 ; unpcklpd %xmm7,%xmm4
- DB 102,69,15,254,215 ; paddd %xmm15,%xmm10
- DB 102,65,15,112,234,245 ; pshufd $0xf5,%xmm10,%xmm5
- DB 102,69,15,244,211 ; pmuludq %xmm11,%xmm10
- DB 102,65,15,244,235 ; pmuludq %xmm11,%xmm5
- DB 102,69,15,111,251 ; movdqa %xmm11,%xmm15
- DB 102,15,112,253,232 ; pshufd $0xe8,%xmm5,%xmm7
- DB 102,65,15,112,234,232 ; pshufd $0xe8,%xmm10,%xmm5
- DB 102,15,98,239 ; punpckldq %xmm7,%xmm5
- DB 102,69,15,126,208 ; movd %xmm10,%r8d
- DB 102,15,112,253,229 ; pshufd $0xe5,%xmm5,%xmm7
- DB 102,65,15,126,249 ; movd %xmm7,%r9d
- DB 102,15,112,253,78 ; pshufd $0x4e,%xmm5,%xmm7
- DB 102,65,15,126,250 ; movd %xmm7,%r10d
- DB 102,15,112,253,231 ; pshufd $0xe7,%xmm5,%xmm7
- DB 102,15,126,248 ; movd %xmm7,%eax
- DB 243,15,16,60,131 ; movss (%rbx,%rax,4),%xmm7
- DB 243,66,15,16,28,147 ; movss (%rbx,%r10,4),%xmm3
- DB 15,20,223 ; unpcklps %xmm7,%xmm3
- DB 243,66,15,16,60,139 ; movss (%rbx,%r9,4),%xmm7
- DB 243,70,15,16,28,131 ; movss (%rbx,%r8,4),%xmm11
- DB 68,15,20,223 ; unpcklps %xmm7,%xmm11
- DB 102,68,15,20,219 ; unpcklpd %xmm3,%xmm11
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 102,65,15,250,220 ; psubd %xmm12,%xmm3
- DB 102,15,112,251,78 ; pshufd $0x4e,%xmm3,%xmm7
- DB 102,73,15,126,248 ; movq %xmm7,%r8
- DB 102,72,15,126,216 ; movq %xmm3,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,28,131 ; movss (%rbx,%rax,4),%xmm3
- DB 243,70,15,16,20,139 ; movss (%rbx,%r9,4),%xmm10
- DB 68,15,20,211 ; unpcklps %xmm3,%xmm10
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 243,15,16,60,131 ; movss (%rbx,%rax,4),%xmm7
- DB 15,20,251 ; unpcklps %xmm3,%xmm7
- DB 102,68,15,20,215 ; unpcklpd %xmm7,%xmm10
- DB 102,65,15,254,232 ; paddd %xmm8,%xmm5
- DB 102,15,112,221,78 ; pshufd $0x4e,%xmm5,%xmm3
- DB 102,73,15,126,216 ; movq %xmm3,%r8
- DB 102,72,15,126,232 ; movq %xmm5,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,28,131 ; movss (%rbx,%rax,4),%xmm3
- DB 243,70,15,16,36,139 ; movss (%rbx,%r9,4),%xmm12
- DB 68,15,20,227 ; unpcklps %xmm3,%xmm12
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 243,15,16,60,131 ; movss (%rbx,%rax,4),%xmm7
- DB 15,20,251 ; unpcklps %xmm3,%xmm7
- DB 102,68,15,20,231 ; unpcklpd %xmm7,%xmm12
- DB 69,15,92,217 ; subps %xmm9,%xmm11
- DB 68,15,41,172,36,160,0,0,0 ; movaps %xmm13,0xa0(%rsp)
- DB 69,15,89,221 ; mulps %xmm13,%xmm11
- DB 69,15,88,217 ; addps %xmm9,%xmm11
- DB 68,15,92,208 ; subps %xmm0,%xmm10
- DB 69,15,89,213 ; mulps %xmm13,%xmm10
- DB 68,15,88,208 ; addps %xmm0,%xmm10
- DB 68,15,92,228 ; subps %xmm4,%xmm12
- DB 69,15,89,229 ; mulps %xmm13,%xmm12
- DB 68,15,88,228 ; addps %xmm4,%xmm12
- DB 15,91,68,36,64 ; cvtdq2ps 0x40(%rsp),%xmm0
- DB 15,40,92,36,16 ; movaps 0x10(%rsp),%xmm3
- DB 15,92,216 ; subps %xmm0,%xmm3
- DB 15,41,92,36,16 ; movaps %xmm3,0x10(%rsp)
- DB 68,15,92,222 ; subps %xmm6,%xmm11
- DB 68,15,89,219 ; mulps %xmm3,%xmm11
- DB 68,15,88,222 ; addps %xmm6,%xmm11
- DB 68,15,92,210 ; subps %xmm2,%xmm10
- DB 68,15,89,211 ; mulps %xmm3,%xmm10
- DB 68,15,88,210 ; addps %xmm2,%xmm10
- DB 68,15,92,225 ; subps %xmm1,%xmm12
- DB 68,15,89,227 ; mulps %xmm3,%xmm12
- DB 68,15,88,225 ; addps %xmm1,%xmm12
- DB 243,15,91,132,36,192,0,0,0 ; cvttps2dq 0xc0(%rsp),%xmm0
- DB 102,15,112,200,245 ; pshufd $0xf5,%xmm0,%xmm1
- DB 102,15,111,20,36 ; movdqa (%rsp),%xmm2
- DB 102,15,244,202 ; pmuludq %xmm2,%xmm1
- DB 102,15,244,208 ; pmuludq %xmm0,%xmm2
- DB 102,68,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm9
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,68,15,98,200 ; punpckldq %xmm0,%xmm9
- DB 102,68,15,127,12,36 ; movdqa %xmm9,(%rsp)
- DB 102,68,15,254,140,36,176,0,0,0 ; paddd 0xb0(%rsp),%xmm9
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,15,254,132,36,128,0,0,0 ; paddd 0x80(%rsp),%xmm0
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,68,15,111,68,36,32 ; movdqa 0x20(%rsp),%xmm8
- DB 102,65,15,254,208 ; paddd %xmm8,%xmm2
- DB 102,15,112,202,245 ; pshufd $0xf5,%xmm2,%xmm1
- DB 102,65,15,111,223 ; movdqa %xmm15,%xmm3
- DB 102,15,244,211 ; pmuludq %xmm3,%xmm2
- DB 102,15,244,203 ; pmuludq %xmm3,%xmm1
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,15,112,217,232 ; pshufd $0xe8,%xmm1,%xmm3
- DB 102,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm1
- DB 102,15,98,203 ; punpckldq %xmm3,%xmm1
- DB 102,65,15,126,208 ; movd %xmm2,%r8d
- DB 102,15,112,209,229 ; pshufd $0xe5,%xmm1,%xmm2
- DB 102,65,15,126,209 ; movd %xmm2,%r9d
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,65,15,126,210 ; movd %xmm2,%r10d
- DB 102,15,112,209,231 ; pshufd $0xe7,%xmm1,%xmm2
- DB 102,15,126,208 ; movd %xmm2,%eax
- DB 243,15,16,20,131 ; movss (%rbx,%rax,4),%xmm2
- DB 243,66,15,16,36,147 ; movss (%rbx,%r10,4),%xmm4
- DB 15,20,226 ; unpcklps %xmm2,%xmm4
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 102,15,20,220 ; unpcklpd %xmm4,%xmm3
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,118,237 ; pcmpeqd %xmm5,%xmm5
- DB 102,15,250,213 ; psubd %xmm5,%xmm2
- DB 102,15,112,226,78 ; pshufd $0x4e,%xmm2,%xmm4
- DB 102,73,15,126,224 ; movq %xmm4,%r8
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,20,131 ; movss (%rbx,%rax,4),%xmm2
- DB 243,66,15,16,60,139 ; movss (%rbx,%r9,4),%xmm7
- DB 15,20,250 ; unpcklps %xmm2,%xmm7
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,20,131 ; movss (%rbx,%r8,4),%xmm2
- DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
- DB 15,20,226 ; unpcklps %xmm2,%xmm4
- DB 102,15,20,252 ; unpcklpd %xmm4,%xmm7
- DB 102,68,15,111,61,138,254,0,0 ; movdqa 0xfe8a(%rip),%xmm15 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,65,15,254,207 ; paddd %xmm15,%xmm1
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,73,15,126,208 ; movq %xmm2,%r8
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,12,131 ; movss (%rbx,%rax,4),%xmm1
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
- DB 15,20,225 ; unpcklps %xmm1,%xmm4
- DB 102,15,20,212 ; unpcklpd %xmm4,%xmm2
- DB 102,68,15,111,108,36,96 ; movdqa 0x60(%rsp),%xmm13
- DB 102,65,15,254,197 ; paddd %xmm13,%xmm0
- DB 102,15,112,200,245 ; pshufd $0xf5,%xmm0,%xmm1
- DB 102,15,244,198 ; pmuludq %xmm6,%xmm0
- DB 102,15,244,206 ; pmuludq %xmm6,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,112,224,232 ; pshufd $0xe8,%xmm0,%xmm4
- DB 102,15,98,225 ; punpckldq %xmm1,%xmm4
- DB 102,65,15,126,192 ; movd %xmm0,%r8d
- DB 102,15,112,196,229 ; pshufd $0xe5,%xmm4,%xmm0
- DB 102,65,15,126,193 ; movd %xmm0,%r9d
- DB 102,15,112,196,78 ; pshufd $0x4e,%xmm4,%xmm0
- DB 102,65,15,126,194 ; movd %xmm0,%r10d
- DB 102,15,112,196,231 ; pshufd $0xe7,%xmm4,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 243,66,15,16,52,147 ; movss (%rbx,%r10,4),%xmm6
- DB 15,20,240 ; unpcklps %xmm0,%xmm6
- DB 243,66,15,16,4,139 ; movss (%rbx,%r9,4),%xmm0
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 102,15,20,206 ; unpcklpd %xmm6,%xmm1
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,250,197 ; psubd %xmm5,%xmm0
- DB 102,15,112,240,78 ; pshufd $0x4e,%xmm0,%xmm6
- DB 102,73,15,126,240 ; movq %xmm6,%r8
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 243,66,15,16,4,139 ; movss (%rbx,%r9,4),%xmm0
- DB 15,20,198 ; unpcklps %xmm6,%xmm0
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,52,131 ; movss (%rbx,%r8,4),%xmm6
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 15,20,238 ; unpcklps %xmm6,%xmm5
- DB 102,15,20,197 ; unpcklpd %xmm5,%xmm0
- DB 102,65,15,254,231 ; paddd %xmm15,%xmm4
- DB 102,15,112,236,78 ; pshufd $0x4e,%xmm4,%xmm5
- DB 102,73,15,126,232 ; movq %xmm5,%r8
- DB 102,72,15,126,224 ; movq %xmm4,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 243,66,15,16,36,139 ; movss (%rbx,%r9,4),%xmm4
- DB 15,20,229 ; unpcklps %xmm5,%xmm4
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,44,131 ; movss (%rbx,%r8,4),%xmm5
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 15,20,245 ; unpcklps %xmm5,%xmm6
- DB 102,15,20,230 ; unpcklpd %xmm6,%xmm4
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,40,172,36,160,0,0,0 ; movaps 0xa0(%rsp),%xmm5
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 15,92,199 ; subps %xmm7,%xmm0
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,92,226 ; subps %xmm2,%xmm4
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,226 ; addps %xmm2,%xmm4
- DB 102,68,15,254,140,36,144,0,0,0 ; paddd 0x90(%rsp),%xmm9
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,65,15,254,216 ; paddd %xmm8,%xmm3
- DB 102,15,112,211,245 ; pshufd $0xf5,%xmm3,%xmm2
- DB 102,15,111,45,115,3,1,0 ; movdqa 0x10373(%rip),%xmm5 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,15,244,221 ; pmuludq %xmm5,%xmm3
- DB 102,15,244,213 ; pmuludq %xmm5,%xmm2
- DB 102,15,112,234,232 ; pshufd $0xe8,%xmm2,%xmm5
- DB 102,15,112,211,232 ; pshufd $0xe8,%xmm3,%xmm2
- DB 102,15,98,213 ; punpckldq %xmm5,%xmm2
- DB 102,65,15,126,216 ; movd %xmm3,%r8d
- DB 102,15,112,218,229 ; pshufd $0xe5,%xmm2,%xmm3
- DB 102,65,15,126,217 ; movd %xmm3,%r9d
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,65,15,126,218 ; movd %xmm3,%r10d
- DB 102,15,112,218,231 ; pshufd $0xe7,%xmm2,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 243,15,16,28,131 ; movss (%rbx,%rax,4),%xmm3
- DB 243,66,15,16,44,147 ; movss (%rbx,%r10,4),%xmm5
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 243,66,15,16,52,139 ; movss (%rbx,%r9,4),%xmm6
- DB 243,70,15,16,4,131 ; movss (%rbx,%r8,4),%xmm8
- DB 68,15,20,198 ; unpcklps %xmm6,%xmm8
- DB 102,68,15,20,197 ; unpcklpd %xmm5,%xmm8
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,250,45,28,3,1,0 ; psubd 0x1031c(%rip),%xmm5 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,15,112,245,78 ; pshufd $0x4e,%xmm5,%xmm6
- DB 102,73,15,126,240 ; movq %xmm6,%r8
- DB 102,72,15,126,232 ; movq %xmm5,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 243,66,15,16,60,139 ; movss (%rbx,%r9,4),%xmm7
- DB 15,20,253 ; unpcklps %xmm5,%xmm7
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,44,131 ; movss (%rbx,%r8,4),%xmm5
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 15,20,245 ; unpcklps %xmm5,%xmm6
- DB 102,15,20,254 ; unpcklpd %xmm6,%xmm7
- DB 102,65,15,254,215 ; paddd %xmm15,%xmm2
- DB 102,15,112,234,78 ; pshufd $0x4e,%xmm2,%xmm5
- DB 102,73,15,126,232 ; movq %xmm5,%r8
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 15,20,213 ; unpcklps %xmm5,%xmm2
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,44,131 ; movss (%rbx,%r8,4),%xmm5
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 15,20,245 ; unpcklps %xmm5,%xmm6
- DB 102,15,20,214 ; unpcklpd %xmm6,%xmm2
- DB 102,69,15,254,205 ; paddd %xmm13,%xmm9
- DB 102,65,15,112,233,245 ; pshufd $0xf5,%xmm9,%xmm5
- DB 102,15,111,29,122,2,1,0 ; movdqa 0x1027a(%rip),%xmm3 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,68,15,244,203 ; pmuludq %xmm3,%xmm9
- DB 102,15,244,235 ; pmuludq %xmm3,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,69,15,112,249,232 ; pshufd $0xe8,%xmm9,%xmm15
- DB 102,68,15,98,253 ; punpckldq %xmm5,%xmm15
- DB 102,69,15,126,200 ; movd %xmm9,%r8d
- DB 102,65,15,112,239,229 ; pshufd $0xe5,%xmm15,%xmm5
- DB 102,65,15,126,233 ; movd %xmm5,%r9d
- DB 102,65,15,112,239,78 ; pshufd $0x4e,%xmm15,%xmm5
- DB 102,65,15,126,234 ; movd %xmm5,%r10d
- DB 102,65,15,112,239,231 ; pshufd $0xe7,%xmm15,%xmm5
- DB 102,15,126,232 ; movd %xmm5,%eax
- DB 243,68,15,16,12,131 ; movss (%rbx,%rax,4),%xmm9
- DB 243,66,15,16,44,147 ; movss (%rbx,%r10,4),%xmm5
- DB 65,15,20,233 ; unpcklps %xmm9,%xmm5
- DB 243,70,15,16,12,139 ; movss (%rbx,%r9,4),%xmm9
- DB 243,70,15,16,44,131 ; movss (%rbx,%r8,4),%xmm13
- DB 69,15,20,233 ; unpcklps %xmm9,%xmm13
- DB 102,68,15,20,237 ; unpcklpd %xmm5,%xmm13
- DB 102,65,15,111,239 ; movdqa %xmm15,%xmm5
- DB 102,15,250,45,26,2,1,0 ; psubd 0x1021a(%rip),%xmm5 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,15,112,221,78 ; pshufd $0x4e,%xmm5,%xmm3
- DB 102,73,15,126,216 ; movq %xmm3,%r8
- DB 102,72,15,126,232 ; movq %xmm5,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,28,131 ; movss (%rbx,%rax,4),%xmm3
- DB 243,66,15,16,52,139 ; movss (%rbx,%r9,4),%xmm6
- DB 15,20,243 ; unpcklps %xmm3,%xmm6
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 102,15,20,245 ; unpcklpd %xmm5,%xmm6
- DB 102,68,15,111,13,100,251,0,0 ; movdqa 0xfb64(%rip),%xmm9 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,69,15,254,249 ; paddd %xmm9,%xmm15
- DB 102,65,15,112,223,78 ; pshufd $0x4e,%xmm15,%xmm3
- DB 102,73,15,126,216 ; movq %xmm3,%r8
- DB 102,76,15,126,248 ; movq %xmm15,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,28,131 ; movss (%rbx,%rax,4),%xmm3
- DB 243,70,15,16,60,139 ; movss (%rbx,%r9,4),%xmm15
- DB 68,15,20,251 ; unpcklps %xmm3,%xmm15
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 102,68,15,20,253 ; unpcklpd %xmm5,%xmm15
- DB 69,15,92,232 ; subps %xmm8,%xmm13
- DB 15,40,156,36,160,0,0,0 ; movaps 0xa0(%rsp),%xmm3
- DB 68,15,89,235 ; mulps %xmm3,%xmm13
- DB 69,15,88,232 ; addps %xmm8,%xmm13
- DB 15,92,247 ; subps %xmm7,%xmm6
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 68,15,92,250 ; subps %xmm2,%xmm15
- DB 68,15,89,251 ; mulps %xmm3,%xmm15
- DB 68,15,40,195 ; movaps %xmm3,%xmm8
- DB 68,15,88,250 ; addps %xmm2,%xmm15
- DB 68,15,92,233 ; subps %xmm1,%xmm13
- DB 15,40,84,36,16 ; movaps 0x10(%rsp),%xmm2
- DB 68,15,89,234 ; mulps %xmm2,%xmm13
- DB 68,15,88,233 ; addps %xmm1,%xmm13
- DB 65,15,40,205 ; movaps %xmm13,%xmm1
- DB 15,92,240 ; subps %xmm0,%xmm6
- DB 15,89,242 ; mulps %xmm2,%xmm6
- DB 15,88,240 ; addps %xmm0,%xmm6
- DB 68,15,92,252 ; subps %xmm4,%xmm15
- DB 68,15,89,250 ; mulps %xmm2,%xmm15
- DB 68,15,88,252 ; addps %xmm4,%xmm15
- DB 15,91,68,36,80 ; cvtdq2ps 0x50(%rsp),%xmm0
- DB 15,40,84,36,112 ; movaps 0x70(%rsp),%xmm2
- DB 15,92,208 ; subps %xmm0,%xmm2
- DB 15,41,84,36,112 ; movaps %xmm2,0x70(%rsp)
- DB 65,15,92,203 ; subps %xmm11,%xmm1
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 65,15,88,203 ; addps %xmm11,%xmm1
- DB 15,41,76,36,80 ; movaps %xmm1,0x50(%rsp)
- DB 65,15,92,242 ; subps %xmm10,%xmm6
- DB 15,89,242 ; mulps %xmm2,%xmm6
- DB 65,15,88,242 ; addps %xmm10,%xmm6
- DB 15,41,116,36,64 ; movaps %xmm6,0x40(%rsp)
- DB 69,15,92,252 ; subps %xmm12,%xmm15
- DB 68,15,89,250 ; mulps %xmm2,%xmm15
- DB 69,15,88,252 ; addps %xmm12,%xmm15
- DB 243,15,91,68,36,48 ; cvttps2dq 0x30(%rsp),%xmm0
- DB 102,15,127,68,36,48 ; movdqa %xmm0,0x30(%rsp)
- DB 102,68,15,254,240 ; paddd %xmm0,%xmm14
- DB 102,15,111,156,36,128,0,0,0 ; movdqa 0x80(%rsp),%xmm3
- DB 102,65,15,254,222 ; paddd %xmm14,%xmm3
- DB 102,68,15,111,92,36,32 ; movdqa 0x20(%rsp),%xmm11
- DB 102,65,15,111,195 ; movdqa %xmm11,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 102,15,112,200,245 ; pshufd $0xf5,%xmm0,%xmm1
- DB 102,15,111,21,174,0,1,0 ; movdqa 0x100ae(%rip),%xmm2 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,15,244,194 ; pmuludq %xmm2,%xmm0
- DB 102,15,244,202 ; pmuludq %xmm2,%xmm1
- DB 102,68,15,111,234 ; movdqa %xmm2,%xmm13
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,112,208,232 ; pshufd $0xe8,%xmm0,%xmm2
- DB 102,15,98,209 ; punpckldq %xmm1,%xmm2
- DB 102,65,15,126,192 ; movd %xmm0,%r8d
- DB 102,15,112,194,229 ; pshufd $0xe5,%xmm2,%xmm0
- DB 102,65,15,126,193 ; movd %xmm0,%r9d
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,65,15,126,194 ; movd %xmm0,%r10d
- DB 102,15,112,194,231 ; pshufd $0xe7,%xmm2,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 243,66,15,16,36,147 ; movss (%rbx,%r10,4),%xmm4
- DB 15,20,224 ; unpcklps %xmm0,%xmm4
- DB 243,66,15,16,4,139 ; movss (%rbx,%r9,4),%xmm0
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 102,15,20,204 ; unpcklpd %xmm4,%xmm1
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,118,255 ; pcmpeqd %xmm7,%xmm7
- DB 102,15,250,199 ; psubd %xmm7,%xmm0
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,73,15,126,224 ; movq %xmm4,%r8
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
- DB 243,66,15,16,4,139 ; movss (%rbx,%r9,4),%xmm0
- DB 15,20,196 ; unpcklps %xmm4,%xmm0
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,36,131 ; movss (%rbx,%r8,4),%xmm4
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 102,15,20,197 ; unpcklpd %xmm5,%xmm0
- DB 102,65,15,254,209 ; paddd %xmm9,%xmm2
- DB 102,15,112,226,78 ; pshufd $0x4e,%xmm2,%xmm4
- DB 102,73,15,126,224 ; movq %xmm4,%r8
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 15,20,212 ; unpcklps %xmm4,%xmm2
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,36,131 ; movss (%rbx,%r8,4),%xmm4
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 102,15,20,213 ; unpcklpd %xmm5,%xmm2
- DB 102,68,15,111,84,36,96 ; movdqa 0x60(%rsp),%xmm10
- DB 102,65,15,254,218 ; paddd %xmm10,%xmm3
- DB 102,15,112,227,245 ; pshufd $0xf5,%xmm3,%xmm4
- DB 102,65,15,244,221 ; pmuludq %xmm13,%xmm3
- DB 102,65,15,244,229 ; pmuludq %xmm13,%xmm4
- DB 102,15,112,236,232 ; pshufd $0xe8,%xmm4,%xmm5
- DB 102,15,112,227,232 ; pshufd $0xe8,%xmm3,%xmm4
- DB 102,15,98,229 ; punpckldq %xmm5,%xmm4
- DB 102,65,15,126,216 ; movd %xmm3,%r8d
- DB 102,15,112,220,229 ; pshufd $0xe5,%xmm4,%xmm3
- DB 102,65,15,126,217 ; movd %xmm3,%r9d
- DB 102,15,112,220,78 ; pshufd $0x4e,%xmm4,%xmm3
- DB 102,65,15,126,218 ; movd %xmm3,%r10d
- DB 102,15,112,220,231 ; pshufd $0xe7,%xmm4,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 243,15,16,28,131 ; movss (%rbx,%rax,4),%xmm3
- DB 243,66,15,16,44,147 ; movss (%rbx,%r10,4),%xmm5
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 243,66,15,16,52,139 ; movss (%rbx,%r9,4),%xmm6
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 15,20,222 ; unpcklps %xmm6,%xmm3
- DB 102,15,20,221 ; unpcklpd %xmm5,%xmm3
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,250,239 ; psubd %xmm7,%xmm5
- DB 102,69,15,118,228 ; pcmpeqd %xmm12,%xmm12
- DB 102,15,112,245,78 ; pshufd $0x4e,%xmm5,%xmm6
- DB 102,73,15,126,240 ; movq %xmm6,%r8
- DB 102,72,15,126,232 ; movq %xmm5,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 243,66,15,16,44,139 ; movss (%rbx,%r9,4),%xmm5
- DB 15,20,238 ; unpcklps %xmm6,%xmm5
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,52,131 ; movss (%rbx,%r8,4),%xmm6
- DB 243,15,16,60,131 ; movss (%rbx,%rax,4),%xmm7
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 102,15,20,239 ; unpcklpd %xmm7,%xmm5
- DB 102,65,15,254,225 ; paddd %xmm9,%xmm4
- DB 102,15,112,244,78 ; pshufd $0x4e,%xmm4,%xmm6
- DB 102,73,15,126,240 ; movq %xmm6,%r8
- DB 102,72,15,126,224 ; movq %xmm4,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
- DB 243,66,15,16,60,139 ; movss (%rbx,%r9,4),%xmm7
- DB 15,20,252 ; unpcklps %xmm4,%xmm7
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,36,131 ; movss (%rbx,%r8,4),%xmm4
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 102,15,20,254 ; unpcklpd %xmm6,%xmm7
- DB 15,92,217 ; subps %xmm1,%xmm3
- DB 65,15,89,216 ; mulps %xmm8,%xmm3
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 15,92,232 ; subps %xmm0,%xmm5
- DB 65,15,89,232 ; mulps %xmm8,%xmm5
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 15,92,250 ; subps %xmm2,%xmm7
- DB 65,15,89,248 ; mulps %xmm8,%xmm7
- DB 15,88,250 ; addps %xmm2,%xmm7
- DB 102,68,15,254,180,36,144,0,0,0 ; paddd 0x90(%rsp),%xmm14
- DB 102,65,15,111,206 ; movdqa %xmm14,%xmm1
- DB 102,65,15,254,203 ; paddd %xmm11,%xmm1
- DB 102,15,112,193,245 ; pshufd $0xf5,%xmm1,%xmm0
- DB 102,65,15,244,205 ; pmuludq %xmm13,%xmm1
- DB 102,65,15,244,197 ; pmuludq %xmm13,%xmm0
- DB 102,15,112,208,232 ; pshufd $0xe8,%xmm0,%xmm2
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,98,194 ; punpckldq %xmm2,%xmm0
- DB 102,65,15,126,200 ; movd %xmm1,%r8d
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,65,15,126,201 ; movd %xmm1,%r9d
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,65,15,126,202 ; movd %xmm1,%r10d
- DB 102,15,112,200,231 ; pshufd $0xe7,%xmm0,%xmm1
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 243,15,16,12,131 ; movss (%rbx,%rax,4),%xmm1
- DB 243,66,15,16,36,147 ; movss (%rbx,%r10,4),%xmm4
- DB 15,20,225 ; unpcklps %xmm1,%xmm4
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 243,70,15,16,28,131 ; movss (%rbx,%r8,4),%xmm11
- DB 68,15,20,217 ; unpcklps %xmm1,%xmm11
- DB 102,68,15,20,220 ; unpcklpd %xmm4,%xmm11
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,65,15,250,204 ; psubd %xmm12,%xmm1
- DB 102,15,112,225,78 ; pshufd $0x4e,%xmm1,%xmm4
- DB 102,73,15,126,224 ; movq %xmm4,%r8
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 15,20,204 ; unpcklps %xmm4,%xmm1
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,36,131 ; movss (%rbx,%r8,4),%xmm4
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 102,15,20,206 ; unpcklpd %xmm6,%xmm1
- DB 102,65,15,254,193 ; paddd %xmm9,%xmm0
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,73,15,126,224 ; movq %xmm4,%r8
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
- DB 243,66,15,16,4,139 ; movss (%rbx,%r9,4),%xmm0
- DB 15,20,196 ; unpcklps %xmm4,%xmm0
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,36,131 ; movss (%rbx,%r8,4),%xmm4
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 102,15,20,198 ; unpcklpd %xmm6,%xmm0
- DB 102,69,15,254,242 ; paddd %xmm10,%xmm14
- DB 102,69,15,111,226 ; movdqa %xmm10,%xmm12
- DB 102,65,15,112,230,245 ; pshufd $0xf5,%xmm14,%xmm4
- DB 102,69,15,244,245 ; pmuludq %xmm13,%xmm14
- DB 102,65,15,244,229 ; pmuludq %xmm13,%xmm4
- DB 102,15,112,244,232 ; pshufd $0xe8,%xmm4,%xmm6
- DB 102,65,15,112,230,232 ; pshufd $0xe8,%xmm14,%xmm4
- DB 102,15,98,230 ; punpckldq %xmm6,%xmm4
- DB 102,69,15,126,240 ; movd %xmm14,%r8d
- DB 102,15,112,244,229 ; pshufd $0xe5,%xmm4,%xmm6
- DB 102,65,15,126,241 ; movd %xmm6,%r9d
- DB 102,15,112,244,78 ; pshufd $0x4e,%xmm4,%xmm6
- DB 102,65,15,126,242 ; movd %xmm6,%r10d
- DB 102,15,112,244,231 ; pshufd $0xe7,%xmm4,%xmm6
- DB 102,15,126,240 ; movd %xmm6,%eax
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 243,66,15,16,20,147 ; movss (%rbx,%r10,4),%xmm2
- DB 15,20,214 ; unpcklps %xmm6,%xmm2
- DB 243,66,15,16,52,139 ; movss (%rbx,%r9,4),%xmm6
- DB 243,70,15,16,44,131 ; movss (%rbx,%r8,4),%xmm13
- DB 68,15,20,238 ; unpcklps %xmm6,%xmm13
- DB 102,68,15,20,234 ; unpcklpd %xmm2,%xmm13
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,250,21,71,253,0,0 ; psubd 0xfd47(%rip),%xmm2 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,15,112,242,78 ; pshufd $0x4e,%xmm2,%xmm6
- DB 102,73,15,126,240 ; movq %xmm6,%r8
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,20,131 ; movss (%rbx,%rax,4),%xmm2
- DB 243,70,15,16,20,139 ; movss (%rbx,%r9,4),%xmm10
- DB 68,15,20,210 ; unpcklps %xmm2,%xmm10
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,20,131 ; movss (%rbx,%r8,4),%xmm2
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 15,20,242 ; unpcklps %xmm2,%xmm6
- DB 102,68,15,20,214 ; unpcklpd %xmm6,%xmm10
- DB 102,65,15,254,225 ; paddd %xmm9,%xmm4
- DB 102,15,112,212,78 ; pshufd $0x4e,%xmm4,%xmm2
- DB 102,73,15,126,208 ; movq %xmm2,%r8
- DB 102,72,15,126,224 ; movq %xmm4,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,20,131 ; movss (%rbx,%rax,4),%xmm2
- DB 243,70,15,16,12,139 ; movss (%rbx,%r9,4),%xmm9
- DB 68,15,20,202 ; unpcklps %xmm2,%xmm9
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,20,131 ; movss (%rbx,%r8,4),%xmm2
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 15,20,242 ; unpcklps %xmm2,%xmm6
- DB 102,68,15,20,206 ; unpcklpd %xmm6,%xmm9
- DB 69,15,92,235 ; subps %xmm11,%xmm13
- DB 69,15,89,232 ; mulps %xmm8,%xmm13
- DB 69,15,88,235 ; addps %xmm11,%xmm13
- DB 68,15,92,209 ; subps %xmm1,%xmm10
- DB 69,15,89,208 ; mulps %xmm8,%xmm10
- DB 68,15,88,209 ; addps %xmm1,%xmm10
- DB 68,15,92,200 ; subps %xmm0,%xmm9
- DB 69,15,89,200 ; mulps %xmm8,%xmm9
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 68,15,88,200 ; addps %xmm0,%xmm9
- DB 68,15,92,235 ; subps %xmm3,%xmm13
- DB 15,40,68,36,16 ; movaps 0x10(%rsp),%xmm0
- DB 68,15,89,232 ; mulps %xmm0,%xmm13
- DB 68,15,88,235 ; addps %xmm3,%xmm13
- DB 68,15,92,213 ; subps %xmm5,%xmm10
- DB 68,15,89,208 ; mulps %xmm0,%xmm10
- DB 68,15,88,213 ; addps %xmm5,%xmm10
- DB 68,15,92,207 ; subps %xmm7,%xmm9
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 68,15,88,207 ; addps %xmm7,%xmm9
- DB 102,15,111,4,36 ; movdqa (%rsp),%xmm0
- DB 102,15,254,68,36,48 ; paddd 0x30(%rsp),%xmm0
- DB 102,15,127,4,36 ; movdqa %xmm0,(%rsp)
- DB 102,15,111,140,36,128,0,0,0 ; movdqa 0x80(%rsp),%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,68,15,111,116,36,32 ; movdqa 0x20(%rsp),%xmm14
- DB 102,65,15,254,198 ; paddd %xmm14,%xmm0
- DB 102,15,112,200,245 ; pshufd $0xf5,%xmm0,%xmm1
- DB 102,68,15,111,5,36,252,0,0 ; movdqa 0xfc24(%rip),%xmm8 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,65,15,244,192 ; pmuludq %xmm8,%xmm0
- DB 102,65,15,244,200 ; pmuludq %xmm8,%xmm1
- DB 102,65,15,111,240 ; movdqa %xmm8,%xmm6
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,112,208,232 ; pshufd $0xe8,%xmm0,%xmm2
- DB 102,15,98,209 ; punpckldq %xmm1,%xmm2
- DB 102,65,15,126,192 ; movd %xmm0,%r8d
- DB 102,15,112,194,229 ; pshufd $0xe5,%xmm2,%xmm0
- DB 102,65,15,126,193 ; movd %xmm0,%r9d
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,65,15,126,194 ; movd %xmm0,%r10d
- DB 102,15,112,194,231 ; pshufd $0xe7,%xmm2,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 243,66,15,16,12,147 ; movss (%rbx,%r10,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 243,66,15,16,28,139 ; movss (%rbx,%r9,4),%xmm3
- DB 243,66,15,16,4,131 ; movss (%rbx,%r8,4),%xmm0
- DB 15,20,195 ; unpcklps %xmm3,%xmm0
- DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,118,255 ; pcmpeqd %xmm7,%xmm7
- DB 102,15,250,207 ; psubd %xmm7,%xmm1
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,73,15,126,216 ; movq %xmm3,%r8
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,28,131 ; movss (%rbx,%rax,4),%xmm3
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 15,20,203 ; unpcklps %xmm3,%xmm1
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 102,15,20,205 ; unpcklpd %xmm5,%xmm1
- DB 102,68,15,111,5,18,245,0,0 ; movdqa 0xf512(%rip),%xmm8 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,65,15,254,208 ; paddd %xmm8,%xmm2
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,73,15,126,216 ; movq %xmm3,%r8
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,28,131 ; movss (%rbx,%rax,4),%xmm3
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 15,20,211 ; unpcklps %xmm3,%xmm2
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 102,15,20,213 ; unpcklpd %xmm5,%xmm2
- DB 102,65,15,254,228 ; paddd %xmm12,%xmm4
- DB 102,15,112,220,245 ; pshufd $0xf5,%xmm4,%xmm3
- DB 102,15,244,230 ; pmuludq %xmm6,%xmm4
- DB 102,15,244,222 ; pmuludq %xmm6,%xmm3
- DB 102,15,112,235,232 ; pshufd $0xe8,%xmm3,%xmm5
- DB 102,15,112,220,232 ; pshufd $0xe8,%xmm4,%xmm3
- DB 102,15,98,221 ; punpckldq %xmm5,%xmm3
- DB 102,65,15,126,224 ; movd %xmm4,%r8d
- DB 102,15,112,235,229 ; pshufd $0xe5,%xmm3,%xmm5
- DB 102,65,15,126,233 ; movd %xmm5,%r9d
- DB 102,15,112,235,78 ; pshufd $0x4e,%xmm3,%xmm5
- DB 102,65,15,126,234 ; movd %xmm5,%r10d
- DB 102,15,112,235,231 ; pshufd $0xe7,%xmm3,%xmm5
- DB 102,15,126,232 ; movd %xmm5,%eax
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 243,66,15,16,52,147 ; movss (%rbx,%r10,4),%xmm6
- DB 15,20,245 ; unpcklps %xmm5,%xmm6
- DB 243,66,15,16,44,139 ; movss (%rbx,%r9,4),%xmm5
- DB 243,70,15,16,36,131 ; movss (%rbx,%r8,4),%xmm12
- DB 68,15,20,229 ; unpcklps %xmm5,%xmm12
- DB 102,68,15,20,230 ; unpcklpd %xmm6,%xmm12
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,250,239 ; psubd %xmm7,%xmm5
- DB 102,15,112,245,78 ; pshufd $0x4e,%xmm5,%xmm6
- DB 102,73,15,126,240 ; movq %xmm6,%r8
- DB 102,72,15,126,232 ; movq %xmm5,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,44,131 ; movss (%rbx,%rax,4),%xmm5
- DB 243,66,15,16,60,139 ; movss (%rbx,%r9,4),%xmm7
- DB 15,20,253 ; unpcklps %xmm5,%xmm7
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,44,131 ; movss (%rbx,%r8,4),%xmm5
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 15,20,245 ; unpcklps %xmm5,%xmm6
- DB 102,15,20,254 ; unpcklpd %xmm6,%xmm7
- DB 102,65,15,254,216 ; paddd %xmm8,%xmm3
- DB 102,15,112,235,78 ; pshufd $0x4e,%xmm3,%xmm5
- DB 102,73,15,126,232 ; movq %xmm5,%r8
- DB 102,72,15,126,216 ; movq %xmm3,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,28,131 ; movss (%rbx,%rax,4),%xmm3
- DB 243,66,15,16,44,139 ; movss (%rbx,%r9,4),%xmm5
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,28,131 ; movss (%rbx,%r8,4),%xmm3
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 15,20,243 ; unpcklps %xmm3,%xmm6
- DB 102,15,20,238 ; unpcklpd %xmm6,%xmm5
- DB 68,15,92,224 ; subps %xmm0,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 68,15,88,224 ; addps %xmm0,%xmm12
- DB 15,92,249 ; subps %xmm1,%xmm7
- DB 65,15,89,251 ; mulps %xmm11,%xmm7
- DB 15,88,249 ; addps %xmm1,%xmm7
- DB 15,92,234 ; subps %xmm2,%xmm5
- DB 65,15,89,235 ; mulps %xmm11,%xmm5
- DB 15,88,234 ; addps %xmm2,%xmm5
- DB 102,15,111,4,36 ; movdqa (%rsp),%xmm0
- DB 102,15,254,132,36,144,0,0,0 ; paddd 0x90(%rsp),%xmm0
- DB 102,65,15,111,214 ; movdqa %xmm14,%xmm2
- DB 102,15,254,208 ; paddd %xmm0,%xmm2
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,37,252,249,0,0 ; movdqa 0xf9fc(%rip),%xmm4 # 35b40 <_sk_srcover_bgra_8888_sse2_lowp+0x1328>
- DB 102,15,244,212 ; pmuludq %xmm4,%xmm2
- DB 102,15,244,196 ; pmuludq %xmm4,%xmm0
- DB 102,15,112,200,232 ; pshufd $0xe8,%xmm0,%xmm1
- DB 102,15,112,194,232 ; pshufd $0xe8,%xmm2,%xmm0
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 102,65,15,126,208 ; movd %xmm2,%r8d
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,65,15,126,201 ; movd %xmm1,%r9d
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,65,15,126,202 ; movd %xmm1,%r10d
- DB 102,15,112,200,231 ; pshufd $0xe7,%xmm0,%xmm1
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 243,15,16,12,131 ; movss (%rbx,%rax,4),%xmm1
- DB 243,66,15,16,20,147 ; movss (%rbx,%r10,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 243,70,15,16,4,131 ; movss (%rbx,%r8,4),%xmm8
- DB 68,15,20,193 ; unpcklps %xmm1,%xmm8
- DB 102,68,15,20,194 ; unpcklpd %xmm2,%xmm8
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,250,13,165,249,0,0 ; psubd 0xf9a5(%rip),%xmm1 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,73,15,126,208 ; movq %xmm2,%r8
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,12,131 ; movss (%rbx,%rax,4),%xmm1
- DB 243,70,15,16,52,139 ; movss (%rbx,%r9,4),%xmm14
- DB 68,15,20,241 ; unpcklps %xmm1,%xmm14
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 243,15,16,20,131 ; movss (%rbx,%rax,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 102,68,15,20,242 ; unpcklpd %xmm2,%xmm14
- DB 102,15,254,5,238,242,0,0 ; paddd 0xf2ee(%rip),%xmm0 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,73,15,126,200 ; movq %xmm1,%r8
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 243,66,15,16,28,139 ; movss (%rbx,%r9,4),%xmm3
- DB 15,20,216 ; unpcklps %xmm0,%xmm3
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,4,131 ; movss (%rbx,%r8,4),%xmm0
- DB 243,15,16,12,131 ; movss (%rbx,%rax,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 102,15,20,217 ; unpcklpd %xmm1,%xmm3
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 102,15,254,76,36,96 ; paddd 0x60(%rsp),%xmm1
- DB 102,15,112,193,245 ; pshufd $0xf5,%xmm1,%xmm0
- DB 102,15,244,204 ; pmuludq %xmm4,%xmm1
- DB 102,15,244,196 ; pmuludq %xmm4,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,112,209,232 ; pshufd $0xe8,%xmm1,%xmm2
- DB 102,15,98,208 ; punpckldq %xmm0,%xmm2
- DB 102,65,15,126,200 ; movd %xmm1,%r8d
- DB 102,15,112,194,229 ; pshufd $0xe5,%xmm2,%xmm0
- DB 102,65,15,126,193 ; movd %xmm0,%r9d
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,65,15,126,194 ; movd %xmm0,%r10d
- DB 102,15,112,194,231 ; pshufd $0xe7,%xmm2,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 243,15,16,4,131 ; movss (%rbx,%rax,4),%xmm0
- DB 243,66,15,16,12,147 ; movss (%rbx,%r10,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 243,66,15,16,52,139 ; movss (%rbx,%r9,4),%xmm6
- DB 243,66,15,16,4,131 ; movss (%rbx,%r8,4),%xmm0
- DB 15,20,198 ; unpcklps %xmm6,%xmm0
- DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,250,13,173,248,0,0 ; psubd 0xf8ad(%rip),%xmm1 # 35b50 <_sk_srcover_bgra_8888_sse2_lowp+0x1338>
- DB 102,15,112,241,78 ; pshufd $0x4e,%xmm1,%xmm6
- DB 102,73,15,126,240 ; movq %xmm6,%r8
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 15,20,206 ; unpcklps %xmm6,%xmm1
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,52,131 ; movss (%rbx,%r8,4),%xmm6
- DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
- DB 15,20,230 ; unpcklps %xmm6,%xmm4
- DB 102,15,20,204 ; unpcklpd %xmm4,%xmm1
- DB 102,15,254,21,248,241,0,0 ; paddd 0xf1f8(%rip),%xmm2 # 354e0 <_sk_srcover_bgra_8888_sse2_lowp+0xcc8>
- DB 102,15,112,226,78 ; pshufd $0x4e,%xmm2,%xmm4
- DB 102,73,15,126,224 ; movq %xmm4,%r8
- DB 102,72,15,126,208 ; movq %xmm2,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 243,15,16,36,131 ; movss (%rbx,%rax,4),%xmm4
- DB 243,66,15,16,20,139 ; movss (%rbx,%r9,4),%xmm2
- DB 15,20,212 ; unpcklps %xmm4,%xmm2
- DB 68,137,192 ; mov %r8d,%eax
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 243,66,15,16,36,131 ; movss (%rbx,%r8,4),%xmm4
- DB 243,15,16,52,131 ; movss (%rbx,%rax,4),%xmm6
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 102,15,20,214 ; unpcklpd %xmm6,%xmm2
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 65,15,89,195 ; mulps %xmm11,%xmm0
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 65,15,92,206 ; subps %xmm14,%xmm1
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 65,15,88,206 ; addps %xmm14,%xmm1
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 65,15,89,211 ; mulps %xmm11,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 65,15,92,196 ; subps %xmm12,%xmm0
- DB 15,40,92,36,16 ; movaps 0x10(%rsp),%xmm3
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 65,15,88,196 ; addps %xmm12,%xmm0
- DB 15,92,207 ; subps %xmm7,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 15,92,213 ; subps %xmm5,%xmm2
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 65,15,92,197 ; subps %xmm13,%xmm0
- DB 15,40,92,36,112 ; movaps 0x70(%rsp),%xmm3
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 65,15,88,197 ; addps %xmm13,%xmm0
- DB 65,15,92,202 ; subps %xmm10,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 65,15,92,209 ; subps %xmm9,%xmm2
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 65,15,88,209 ; addps %xmm9,%xmm2
- DB 15,91,156,36,176,0,0,0 ; cvtdq2ps 0xb0(%rsp),%xmm3
- DB 15,40,164,36,208,0,0,0 ; movaps 0xd0(%rsp),%xmm4
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 15,40,92,36,80 ; movaps 0x50(%rsp),%xmm3
- DB 15,92,195 ; subps %xmm3,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,195 ; addps %xmm3,%xmm0
- DB 15,40,92,36,64 ; movaps 0x40(%rsp),%xmm3
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 65,15,92,215 ; subps %xmm15,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 65,15,88,215 ; addps %xmm15,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,222,240,0,0 ; movaps 0xf0de(%rip),%xmm3 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,40,164,36,224,0,0,0 ; movaps 0xe0(%rsp),%xmm4
- DB 15,40,172,36,240,0,0,0 ; movaps 0xf0(%rsp),%xmm5
- DB 15,40,180,36,0,1,0,0 ; movaps 0x100(%rsp),%xmm6
- DB 15,40,188,36,16,1,0,0 ; movaps 0x110(%rsp),%xmm7
- DB 72,129,196,32,1,0,0 ; add $0x120,%rsp
- DB 91 ; pop %rbx
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gauss_a_to_rgba_sse2
-_sk_gauss_a_to_rgba_sse2 LABEL PROC
- DB 15,40,5,93,247,0,0 ; movaps 0xf75d(%rip),%xmm0 # 35b60 <_sk_srcover_bgra_8888_sse2_lowp+0x1348>
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,99,247,0,0 ; addps 0xf763(%rip),%xmm0 # 35b70 <_sk_srcover_bgra_8888_sse2_lowp+0x1358>
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,105,247,0,0 ; addps 0xf769(%rip),%xmm0 # 35b80 <_sk_srcover_bgra_8888_sse2_lowp+0x1368>
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,111,247,0,0 ; addps 0xf76f(%rip),%xmm0 # 35b90 <_sk_srcover_bgra_8888_sse2_lowp+0x1378>
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,5,117,247,0,0 ; addps 0xf775(%rip),%xmm0 # 35ba0 <_sk_srcover_bgra_8888_sse2_lowp+0x1388>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_bilerp_clamp_8888_sse2
-_sk_bilerp_clamp_8888_sse2 LABEL PROC
- DB 72,129,236,216,0,0,0 ; sub $0xd8,%rsp
- DB 15,41,124,36,48 ; movaps %xmm7,0x30(%rsp)
- DB 15,41,116,36,32 ; movaps %xmm6,0x20(%rsp)
- DB 15,41,108,36,16 ; movaps %xmm5,0x10(%rsp)
- DB 15,41,36,36 ; movaps %xmm4,(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,37,69,240,0,0 ; movaps 0xf045(%rip),%xmm4 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,41,132,36,192,0,0,0 ; movaps %xmm0,0xc0(%rsp)
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 15,88,236 ; addps %xmm4,%xmm5
- DB 243,15,91,197 ; cvttps2dq %xmm5,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,213 ; movaps %xmm5,%xmm2
- DB 15,194,208,1 ; cmpltps %xmm0,%xmm2
- DB 15,40,53,50,240,0,0 ; movaps 0xf032(%rip),%xmm6 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,84,214 ; andps %xmm6,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,92,194 ; subps %xmm2,%xmm0
- DB 15,92,232 ; subps %xmm0,%xmm5
- DB 15,41,140,36,128,0,0,0 ; movaps %xmm1,0x80(%rsp)
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 243,15,91,204 ; cvttps2dq %xmm4,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 15,194,209,1 ; cmpltps %xmm1,%xmm2
- DB 15,84,214 ; andps %xmm6,%xmm2
- DB 15,92,202 ; subps %xmm2,%xmm1
- DB 15,92,225 ; subps %xmm1,%xmm4
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,41,172,36,176,0,0,0 ; movaps %xmm5,0xb0(%rsp)
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,41,132,36,160,0,0,0 ; movaps %xmm0,0xa0(%rsp)
- DB 15,41,100,36,112 ; movaps %xmm4,0x70(%rsp)
- DB 15,92,244 ; subps %xmm4,%xmm6
- DB 15,41,116,36,64 ; movaps %xmm6,0x40(%rsp)
- DB 243,68,15,16,112,12 ; movss 0xc(%rax),%xmm14
- DB 69,15,198,246,0 ; shufps $0x0,%xmm14,%xmm14
- DB 102,15,118,201 ; pcmpeqd %xmm1,%xmm1
- DB 102,68,15,254,241 ; paddd %xmm1,%xmm14
- DB 243,15,16,64,16 ; movss 0x10(%rax),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,15,254,193 ; paddd %xmm1,%xmm0
- DB 102,15,127,68,36,96 ; movdqa %xmm0,0x60(%rsp)
- DB 76,139,0 ; mov (%rax),%r8
- DB 102,15,110,72,8 ; movd 0x8(%rax),%xmm1
- DB 102,15,112,193,0 ; pshufd $0x0,%xmm1,%xmm0
- DB 102,15,127,68,36,80 ; movdqa %xmm0,0x50(%rsp)
- DB 243,15,16,5,11,231,0,0 ; movss 0xe70b(%rip),%xmm0 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 102,15,111,45,71,240,0,0 ; movdqa 0xf047(%rip),%xmm5 # 35560 <_sk_srcover_bgra_8888_sse2_lowp+0xd48>
- DB 15,40,37,160,241,0,0 ; movaps 0xf1a0(%rip),%xmm4 # 356c0 <_sk_srcover_bgra_8888_sse2_lowp+0xea8>
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,40,247 ; movaps %xmm7,%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,88,180,36,128,0,0,0 ; addps 0x80(%rsp),%xmm6
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 15,95,206 ; maxps %xmm6,%xmm1
- DB 15,41,188,36,144,0,0,0 ; movaps %xmm7,0x90(%rsp)
- DB 15,46,61,253,230,0,0 ; ucomiss 0xe6fd(%rip),%xmm7 # 34c50 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- DB 68,15,40,124,36,112 ; movaps 0x70(%rsp),%xmm15
- DB 119,6 ; ja 26561 <_sk_bilerp_clamp_8888_sse2+0x129>
- DB 68,15,40,124,36,64 ; movaps 0x40(%rsp),%xmm15
- DB 15,93,76,36,96 ; minps 0x60(%rsp),%xmm1
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,15,111,68,36,80 ; movdqa 0x50(%rsp),%xmm0
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,244,241 ; pmuludq %xmm1,%xmm6
- DB 102,68,15,112,230,232 ; pshufd $0xe8,%xmm6,%xmm12
- DB 102,15,112,201,245 ; pshufd $0xf5,%xmm1,%xmm1
- DB 102,15,112,240,245 ; pshufd $0xf5,%xmm0,%xmm6
- DB 102,15,244,241 ; pmuludq %xmm1,%xmm6
- DB 102,15,112,206,232 ; pshufd $0xe8,%xmm6,%xmm1
- DB 102,68,15,98,225 ; punpckldq %xmm1,%xmm12
- DB 243,15,16,13,126,230,0,0 ; movss 0xe67e(%rip),%xmm1 # 34c1c <_sk_srcover_bgra_8888_sse2_lowp+0x404>
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,88,180,36,192,0,0,0 ; addps 0xc0(%rsp),%xmm6
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 15,95,254 ; maxps %xmm6,%xmm7
- DB 65,15,93,254 ; minps %xmm14,%xmm7
- DB 243,15,91,247 ; cvttps2dq %xmm7,%xmm6
- DB 102,65,15,254,244 ; paddd %xmm12,%xmm6
- DB 102,15,112,254,78 ; pshufd $0x4e,%xmm6,%xmm7
- DB 102,72,15,126,248 ; movq %xmm7,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,242 ; movq %xmm6,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,67,15,110,52,144 ; movd (%r8,%r10,4),%xmm6
- DB 102,67,15,110,4,152 ; movd (%r8,%r11,4),%xmm0
- DB 102,15,98,198 ; punpckldq %xmm6,%xmm0
- DB 102,65,15,110,52,128 ; movd (%r8,%rax,4),%xmm6
- DB 102,67,15,110,60,136 ; movd (%r8,%r9,4),%xmm7
- DB 102,15,98,254 ; punpckldq %xmm6,%xmm7
- DB 102,15,108,199 ; punpcklqdq %xmm7,%xmm0
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 68,15,91,238 ; cvtdq2ps %xmm6,%xmm13
- DB 68,15,89,236 ; mulps %xmm4,%xmm13
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,114,214,8 ; psrld $0x8,%xmm6
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,114,215,16 ; psrld $0x10,%xmm7
- DB 102,15,219,253 ; pand %xmm5,%xmm7
- DB 15,91,255 ; cvtdq2ps %xmm7,%xmm7
- DB 15,89,252 ; mulps %xmm4,%xmm7
- DB 102,15,114,208,24 ; psrld $0x18,%xmm0
- DB 68,15,91,208 ; cvtdq2ps %xmm0,%xmm10
- DB 68,15,89,212 ; mulps %xmm4,%xmm10
- DB 15,46,13,5,230,0,0 ; ucomiss 0xe605(%rip),%xmm1 # 34c50 <_sk_srcover_bgra_8888_sse2_lowp+0x438>
- DB 68,15,40,156,36,176,0,0,0 ; movaps 0xb0(%rsp),%xmm11
- DB 119,9 ; ja 2665f <_sk_bilerp_clamp_8888_sse2+0x227>
- DB 68,15,40,156,36,160,0,0,0 ; movaps 0xa0(%rsp),%xmm11
- DB 69,15,89,223 ; mulps %xmm15,%xmm11
- DB 69,15,89,235 ; mulps %xmm11,%xmm13
- DB 69,15,88,205 ; addps %xmm13,%xmm9
- DB 65,15,89,243 ; mulps %xmm11,%xmm6
- DB 68,15,88,198 ; addps %xmm6,%xmm8
- DB 65,15,89,251 ; mulps %xmm11,%xmm7
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 69,15,89,218 ; mulps %xmm10,%xmm11
- DB 65,15,88,219 ; addps %xmm11,%xmm3
- DB 243,15,88,13,62,228,0,0 ; addss 0xe43e(%rip),%xmm1 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 243,15,16,5,50,228,0,0 ; movss 0xe432(%rip),%xmm0 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 15,46,193 ; ucomiss %xmm1,%xmm0
- DB 15,131,3,255,255,255 ; jae 2659e <_sk_bilerp_clamp_8888_sse2+0x166>
- DB 15,40,188,36,144,0,0,0 ; movaps 0x90(%rsp),%xmm7
- DB 243,15,88,61,29,228,0,0 ; addss 0xe41d(%rip),%xmm7 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 243,15,16,5,17,228,0,0 ; movss 0xe411(%rip),%xmm0 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 15,46,199 ; ucomiss %xmm7,%xmm0
- DB 15,131,114,254,255,255 ; jae 2652e <_sk_bilerp_clamp_8888_sse2+0xf6>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,40,200 ; movaps %xmm8,%xmm1
- DB 15,40,36,36 ; movaps (%rsp),%xmm4
- DB 15,40,108,36,16 ; movaps 0x10(%rsp),%xmm5
- DB 15,40,116,36,32 ; movaps 0x20(%rsp),%xmm6
- DB 15,40,124,36,48 ; movaps 0x30(%rsp),%xmm7
- DB 72,129,196,216,0,0,0 ; add $0xd8,%rsp
- DB 255,224 ; jmpq *%rax
- DB 144 ; nop
- DB 144 ; nop
-
-PUBLIC _sk_start_pipeline_hsw_lowp
-_sk_start_pipeline_hsw_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 72,137,229 ; mov %rsp,%rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 86 ; push %rsi
- DB 87 ; push %rdi
- DB 83 ; push %rbx
- DB 72,129,236,200,0,0,0 ; sub $0xc8,%rsp
- DB 197,120,41,125,176 ; vmovaps %xmm15,-0x50(%rbp)
- DB 197,120,41,117,160 ; vmovaps %xmm14,-0x60(%rbp)
- DB 197,120,41,109,144 ; vmovaps %xmm13,-0x70(%rbp)
- DB 197,120,41,101,128 ; vmovaps %xmm12,-0x80(%rbp)
- DB 197,120,41,157,112,255,255,255 ; vmovaps %xmm11,-0x90(%rbp)
- DB 197,120,41,149,96,255,255,255 ; vmovaps %xmm10,-0xa0(%rbp)
- DB 197,120,41,141,80,255,255,255 ; vmovaps %xmm9,-0xb0(%rbp)
- DB 197,120,41,133,64,255,255,255 ; vmovaps %xmm8,-0xc0(%rbp)
- DB 197,248,41,189,48,255,255,255 ; vmovaps %xmm7,-0xd0(%rbp)
- DB 197,248,41,181,32,255,255,255 ; vmovaps %xmm6,-0xe0(%rbp)
- DB 77,137,199 ; mov %r8,%r15
- DB 72,137,211 ; mov %rdx,%rbx
- DB 72,137,141,24,255,255,255 ; mov %rcx,-0xe8(%rbp)
- DB 72,139,117,48 ; mov 0x30(%rbp),%rsi
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 73,137,197 ; mov %rax,%r13
- DB 73,137,246 ; mov %rsi,%r14
- DB 76,137,141,8,255,255,255 ; mov %r9,-0xf8(%rbp)
- DB 76,57,203 ; cmp %r9,%rbx
- DB 15,131,169,0,0,0 ; jae 26810 <_sk_start_pipeline_hsw_lowp+0x12c>
- DB 72,139,133,24,255,255,255 ; mov -0xe8(%rbp),%rax
- DB 72,141,64,16 ; lea 0x10(%rax),%rax
- DB 72,137,133,16,255,255,255 ; mov %rax,-0xf0(%rbp)
- DB 72,139,149,24,255,255,255 ; mov -0xe8(%rbp),%rdx
- DB 76,57,189,16,255,255,255 ; cmp %r15,-0xf0(%rbp)
- DB 119,70 ; ja 267cf <_sk_start_pipeline_hsw_lowp+0xeb>
- DB 76,139,165,24,255,255,255 ; mov -0xe8(%rbp),%r12
- DB 49,255 ; xor %edi,%edi
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 197,196,87,255 ; vxorps %ymm7,%ymm7,%ymm7
- DB 76,137,246 ; mov %r14,%rsi
- DB 76,137,226 ; mov %r12,%rdx
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 73,141,84,36,16 ; lea 0x10(%r12),%rdx
- DB 73,131,196,32 ; add $0x20,%r12
- DB 77,57,252 ; cmp %r15,%r12
- DB 73,137,212 ; mov %rdx,%r12
- DB 118,193 ; jbe 26790 <_sk_start_pipeline_hsw_lowp+0xac>
- DB 76,137,255 ; mov %r15,%rdi
- DB 72,41,215 ; sub %rdx,%rdi
- DB 116,41 ; je 26800 <_sk_start_pipeline_hsw_lowp+0x11c>
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 197,196,87,255 ; vxorps %ymm7,%ymm7,%ymm7
- DB 76,137,246 ; mov %r14,%rsi
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 72,255,195 ; inc %rbx
- DB 72,59,157,8,255,255,255 ; cmp -0xf8(%rbp),%rbx
- DB 15,133,105,255,255,255 ; jne 26779 <_sk_start_pipeline_hsw_lowp+0x95>
- DB 197,248,40,181,32,255,255,255 ; vmovaps -0xe0(%rbp),%xmm6
- DB 197,248,40,189,48,255,255,255 ; vmovaps -0xd0(%rbp),%xmm7
- DB 197,120,40,133,64,255,255,255 ; vmovaps -0xc0(%rbp),%xmm8
- DB 197,120,40,141,80,255,255,255 ; vmovaps -0xb0(%rbp),%xmm9
- DB 197,120,40,149,96,255,255,255 ; vmovaps -0xa0(%rbp),%xmm10
- DB 197,120,40,157,112,255,255,255 ; vmovaps -0x90(%rbp),%xmm11
- DB 197,120,40,101,128 ; vmovaps -0x80(%rbp),%xmm12
- DB 197,120,40,109,144 ; vmovaps -0x70(%rbp),%xmm13
- DB 197,120,40,117,160 ; vmovaps -0x60(%rbp),%xmm14
- DB 197,120,40,125,176 ; vmovaps -0x50(%rbp),%xmm15
- DB 72,129,196,200,0,0,0 ; add $0xc8,%rsp
- DB 91 ; pop %rbx
- DB 95 ; pop %rdi
- DB 94 ; pop %rsi
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 197,248,119 ; vzeroupper
- DB 195 ; retq
-
-PUBLIC _sk_just_return_hsw_lowp
-_sk_just_return_hsw_lowp LABEL PROC
- DB 195 ; retq
-
-PUBLIC _sk_seed_shader_hsw_lowp
-_sk_seed_shader_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,249,110,194 ; vmovd %edx,%xmm0
- DB 196,226,125,88,192 ; vpbroadcastd %xmm0,%ymm0
- DB 197,252,91,192 ; vcvtdq2ps %ymm0,%ymm0
- DB 197,252,88,72,32 ; vaddps 0x20(%rax),%ymm0,%ymm1
- DB 197,252,88,0 ; vaddps (%rax),%ymm0,%ymm0
- DB 197,249,110,209 ; vmovd %ecx,%xmm2
- DB 196,226,125,88,210 ; vpbroadcastd %xmm2,%ymm2
- DB 197,252,91,210 ; vcvtdq2ps %ymm2,%ymm2
- DB 196,226,125,24,29,42,226,0,0 ; vbroadcastss 0xe22a(%rip),%ymm3 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,236,88,211 ; vaddps %ymm3,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,218 ; vmovaps %ymm2,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_translate_hsw_lowp
-_sk_matrix_translate_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 196,193,124,88,192 ; vaddps %ymm8,%ymm0,%ymm0
- DB 196,193,116,88,200 ; vaddps %ymm8,%ymm1,%ymm1
- DB 196,98,125,24,64,4 ; vbroadcastss 0x4(%rax),%ymm8
- DB 196,193,108,88,208 ; vaddps %ymm8,%ymm2,%ymm2
- DB 196,193,100,88,216 ; vaddps %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_scale_translate_hsw_lowp
-_sk_matrix_scale_translate_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,0 ; vbroadcastss (%rax),%ymm8
- DB 196,98,125,24,72,8 ; vbroadcastss 0x8(%rax),%ymm9
- DB 196,194,61,168,193 ; vfmadd213ps %ymm9,%ymm8,%ymm0
- DB 196,194,61,168,201 ; vfmadd213ps %ymm9,%ymm8,%ymm1
- DB 196,98,125,24,64,4 ; vbroadcastss 0x4(%rax),%ymm8
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 196,194,61,168,209 ; vfmadd213ps %ymm9,%ymm8,%ymm2
- DB 196,194,61,168,217 ; vfmadd213ps %ymm9,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_2x3_hsw_lowp
-_sk_matrix_2x3_hsw_lowp LABEL PROC
- DB 197,124,40,192 ; vmovaps %ymm0,%ymm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,16 ; vbroadcastss (%rax),%ymm10
- DB 196,226,125,24,64,8 ; vbroadcastss 0x8(%rax),%ymm0
- DB 196,98,125,24,88,16 ; vbroadcastss 0x10(%rax),%ymm11
- DB 197,124,40,200 ; vmovaps %ymm0,%ymm9
- DB 196,66,101,168,203 ; vfmadd213ps %ymm11,%ymm3,%ymm9
- DB 196,194,109,168,195 ; vfmadd213ps %ymm11,%ymm2,%ymm0
- DB 196,194,61,184,194 ; vfmadd231ps %ymm10,%ymm8,%ymm0
- DB 196,66,117,184,202 ; vfmadd231ps %ymm10,%ymm1,%ymm9
- DB 196,98,125,24,80,4 ; vbroadcastss 0x4(%rax),%ymm10
- DB 196,98,125,24,88,12 ; vbroadcastss 0xc(%rax),%ymm11
- DB 196,98,125,24,96,20 ; vbroadcastss 0x14(%rax),%ymm12
- DB 196,194,37,168,220 ; vfmadd213ps %ymm12,%ymm11,%ymm3
- DB 196,66,109,168,220 ; vfmadd213ps %ymm12,%ymm2,%ymm11
- DB 196,66,45,168,195 ; vfmadd213ps %ymm11,%ymm10,%ymm8
- DB 196,194,117,184,218 ; vfmadd231ps %ymm10,%ymm1,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,41,201 ; vmovaps %ymm9,%ymm1
- DB 197,124,41,194 ; vmovaps %ymm8,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_perspective_hsw_lowp
-_sk_matrix_perspective_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,24,8 ; vbroadcastss (%rax),%ymm9
- DB 196,98,125,24,64,4 ; vbroadcastss 0x4(%rax),%ymm8
- DB 196,98,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm10
- DB 196,65,124,40,216 ; vmovaps %ymm8,%ymm11
- DB 196,66,109,168,218 ; vfmadd213ps %ymm10,%ymm2,%ymm11
- DB 196,66,101,168,194 ; vfmadd213ps %ymm10,%ymm3,%ymm8
- DB 196,66,117,184,193 ; vfmadd231ps %ymm9,%ymm1,%ymm8
- DB 196,66,125,184,217 ; vfmadd231ps %ymm9,%ymm0,%ymm11
- DB 196,98,125,24,72,12 ; vbroadcastss 0xc(%rax),%ymm9
- DB 196,98,125,24,80,16 ; vbroadcastss 0x10(%rax),%ymm10
- DB 196,98,125,24,96,20 ; vbroadcastss 0x14(%rax),%ymm12
- DB 196,65,124,40,234 ; vmovaps %ymm10,%ymm13
- DB 196,66,109,168,236 ; vfmadd213ps %ymm12,%ymm2,%ymm13
- DB 196,66,101,168,212 ; vfmadd213ps %ymm12,%ymm3,%ymm10
- DB 196,66,117,184,209 ; vfmadd231ps %ymm9,%ymm1,%ymm10
- DB 196,66,125,184,233 ; vfmadd231ps %ymm9,%ymm0,%ymm13
- DB 196,98,125,24,72,24 ; vbroadcastss 0x18(%rax),%ymm9
- DB 196,98,125,24,96,28 ; vbroadcastss 0x1c(%rax),%ymm12
- DB 196,98,125,24,112,32 ; vbroadcastss 0x20(%rax),%ymm14
- DB 196,194,29,168,214 ; vfmadd213ps %ymm14,%ymm12,%ymm2
- DB 196,66,101,168,230 ; vfmadd213ps %ymm14,%ymm3,%ymm12
- DB 196,194,53,168,204 ; vfmadd213ps %ymm12,%ymm9,%ymm1
- DB 196,194,125,184,209 ; vfmadd231ps %ymm9,%ymm0,%ymm2
- DB 197,252,83,210 ; vrcpps %ymm2,%ymm2
- DB 197,252,83,217 ; vrcpps %ymm1,%ymm3
- DB 197,164,89,194 ; vmulps %ymm2,%ymm11,%ymm0
- DB 197,188,89,203 ; vmulps %ymm3,%ymm8,%ymm1
- DB 197,148,89,210 ; vmulps %ymm2,%ymm13,%ymm2
- DB 197,172,89,219 ; vmulps %ymm3,%ymm10,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_uniform_color_hsw_lowp
-_sk_uniform_color_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,64,16 ; vpbroadcastw 0x10(%rax),%ymm0
- DB 196,226,125,121,72,18 ; vpbroadcastw 0x12(%rax),%ymm1
- DB 196,226,125,121,80,20 ; vpbroadcastw 0x14(%rax),%ymm2
- DB 196,226,125,121,88,22 ; vpbroadcastw 0x16(%rax),%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_black_color_hsw_lowp
-_sk_black_color_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,29,193,231,0,0 ; vpbroadcastw 0xe7c1(%rip),%ymm3 # 351e0 <_sk_srcover_bgra_8888_sse2_lowp+0x9c8>
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_white_color_hsw_lowp
-_sk_white_color_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,5,170,231,0,0 ; vpbroadcastw 0xe7aa(%rip),%ymm0 # 351e2 <_sk_srcover_bgra_8888_sse2_lowp+0x9ca>
- DB 197,253,111,200 ; vmovdqa %ymm0,%ymm1
- DB 197,253,111,208 ; vmovdqa %ymm0,%ymm2
- DB 197,253,111,216 ; vmovdqa %ymm0,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_set_rgb_hsw_lowp
-_sk_set_rgb_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,122,16,5,116,224,0,0 ; vmovss 0xe074(%rip),%xmm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,250,16,21,156,224,0,0 ; vmovss 0xe09c(%rip),%xmm2 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 197,250,16,0 ; vmovss (%rax),%xmm0
- DB 196,226,57,153,194 ; vfmadd132ss %xmm2,%xmm8,%xmm0
- DB 197,122,44,192 ; vcvttss2si %xmm0,%r8d
- DB 196,193,121,110,192 ; vmovd %r8d,%xmm0
- DB 196,226,125,121,192 ; vpbroadcastw %xmm0,%ymm0
- DB 197,250,16,72,4 ; vmovss 0x4(%rax),%xmm1
- DB 196,226,57,153,202 ; vfmadd132ss %xmm2,%xmm8,%xmm1
- DB 197,122,44,193 ; vcvttss2si %xmm1,%r8d
- DB 196,193,121,110,200 ; vmovd %r8d,%xmm1
- DB 196,226,125,121,201 ; vpbroadcastw %xmm1,%ymm1
- DB 196,226,57,153,80,8 ; vfmadd132ss 0x8(%rax),%xmm8,%xmm2
- DB 197,250,44,194 ; vcvttss2si %xmm2,%eax
- DB 197,249,110,208 ; vmovd %eax,%xmm2
- DB 196,226,125,121,210 ; vpbroadcastw %xmm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_a_hsw_lowp
-_sk_clamp_a_hsw_lowp LABEL PROC
- DB 196,226,125,58,195 ; vpminuw %ymm3,%ymm0,%ymm0
- DB 196,226,117,58,203 ; vpminuw %ymm3,%ymm1,%ymm1
- DB 196,226,109,58,211 ; vpminuw %ymm3,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_a_dst_hsw_lowp
-_sk_clamp_a_dst_hsw_lowp LABEL PROC
- DB 196,226,93,58,231 ; vpminuw %ymm7,%ymm4,%ymm4
- DB 196,226,85,58,239 ; vpminuw %ymm7,%ymm5,%ymm5
- DB 196,226,77,58,247 ; vpminuw %ymm7,%ymm6,%ymm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_hsw_lowp
-_sk_premul_hsw_lowp LABEL PROC
- DB 197,229,213,192 ; vpmullw %ymm0,%ymm3,%ymm0
- DB 196,98,125,121,5,19,231,0,0 ; vpbroadcastw 0xe713(%rip),%ymm8 # 351e4 <_sk_srcover_bgra_8888_sse2_lowp+0x9cc>
- DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,229,213,201 ; vpmullw %ymm1,%ymm3,%ymm1
- DB 196,193,117,253,200 ; vpaddw %ymm8,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,229,213,210 ; vpmullw %ymm2,%ymm3,%ymm2
- DB 196,193,109,253,208 ; vpaddw %ymm8,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_dst_hsw_lowp
-_sk_premul_dst_hsw_lowp LABEL PROC
- DB 197,197,213,228 ; vpmullw %ymm4,%ymm7,%ymm4
- DB 196,98,125,121,5,222,230,0,0 ; vpbroadcastw 0xe6de(%rip),%ymm8 # 351e6 <_sk_srcover_bgra_8888_sse2_lowp+0x9ce>
- DB 196,193,93,253,224 ; vpaddw %ymm8,%ymm4,%ymm4
- DB 197,221,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm4
- DB 197,197,213,237 ; vpmullw %ymm5,%ymm7,%ymm5
- DB 196,193,85,253,232 ; vpaddw %ymm8,%ymm5,%ymm5
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,197,213,246 ; vpmullw %ymm6,%ymm7,%ymm6
- DB 196,193,77,253,240 ; vpaddw %ymm8,%ymm6,%ymm6
- DB 197,205,113,214,8 ; vpsrlw $0x8,%ymm6,%ymm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_force_opaque_hsw_lowp
-_sk_force_opaque_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,29,171,230,0,0 ; vpbroadcastw 0xe6ab(%rip),%ymm3 # 351e8 <_sk_srcover_bgra_8888_sse2_lowp+0x9d0>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_force_opaque_dst_hsw_lowp
-_sk_force_opaque_dst_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,61,160,230,0,0 ; vpbroadcastw 0xe6a0(%rip),%ymm7 # 351ea <_sk_srcover_bgra_8888_sse2_lowp+0x9d2>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_swap_rb_hsw_lowp
-_sk_swap_rb_hsw_lowp LABEL PROC
- DB 197,124,40,192 ; vmovaps %ymm0,%ymm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,194 ; vmovaps %ymm2,%ymm0
- DB 197,124,41,194 ; vmovaps %ymm8,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_src_dst_hsw_lowp
-_sk_move_src_dst_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,224 ; vmovaps %ymm0,%ymm4
- DB 197,252,40,233 ; vmovaps %ymm1,%ymm5
- DB 197,252,40,242 ; vmovaps %ymm2,%ymm6
- DB 197,252,40,251 ; vmovaps %ymm3,%ymm7
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_dst_src_hsw_lowp
-_sk_move_dst_src_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,196 ; vmovaps %ymm4,%ymm0
- DB 197,252,40,205 ; vmovaps %ymm5,%ymm1
- DB 197,252,40,214 ; vmovaps %ymm6,%ymm2
- DB 197,252,40,223 ; vmovaps %ymm7,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_invert_hsw_lowp
-_sk_invert_hsw_lowp LABEL PROC
- DB 196,98,125,121,5,95,230,0,0 ; vpbroadcastw 0xe65f(%rip),%ymm8 # 351ec <_sk_srcover_bgra_8888_sse2_lowp+0x9d4>
- DB 197,189,249,192 ; vpsubw %ymm0,%ymm8,%ymm0
- DB 197,189,249,201 ; vpsubw %ymm1,%ymm8,%ymm1
- DB 197,189,249,210 ; vpsubw %ymm2,%ymm8,%ymm2
- DB 197,189,249,219 ; vpsubw %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clear_hsw_lowp
-_sk_clear_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,87,192 ; vxorps %ymm0,%ymm0,%ymm0
- DB 197,244,87,201 ; vxorps %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcatop_hsw_lowp
-_sk_srcatop_hsw_lowp LABEL PROC
- DB 197,197,213,192 ; vpmullw %ymm0,%ymm7,%ymm0
- DB 196,98,125,121,5,44,230,0,0 ; vpbroadcastw 0xe62c(%rip),%ymm8 # 351ee <_sk_srcover_bgra_8888_sse2_lowp+0x9d6>
- DB 197,189,249,219 ; vpsubw %ymm3,%ymm8,%ymm3
- DB 197,101,213,204 ; vpmullw %ymm4,%ymm3,%ymm9
- DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
- DB 197,181,253,192 ; vpaddw %ymm0,%ymm9,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,197,213,201 ; vpmullw %ymm1,%ymm7,%ymm1
- DB 197,101,213,205 ; vpmullw %ymm5,%ymm3,%ymm9
- DB 196,193,117,253,200 ; vpaddw %ymm8,%ymm1,%ymm1
- DB 197,181,253,201 ; vpaddw %ymm1,%ymm9,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,197,213,210 ; vpmullw %ymm2,%ymm7,%ymm2
- DB 197,229,213,222 ; vpmullw %ymm6,%ymm3,%ymm3
- DB 196,193,109,253,208 ; vpaddw %ymm8,%ymm2,%ymm2
- DB 197,229,253,210 ; vpaddw %ymm2,%ymm3,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 196,193,69,213,216 ; vpmullw %ymm8,%ymm7,%ymm3
- DB 196,193,101,253,216 ; vpaddw %ymm8,%ymm3,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstatop_hsw_lowp
-_sk_dstatop_hsw_lowp LABEL PROC
- DB 197,93,213,195 ; vpmullw %ymm3,%ymm4,%ymm8
- DB 196,98,125,121,13,204,229,0,0 ; vpbroadcastw 0xe5cc(%rip),%ymm9 # 351f0 <_sk_srcover_bgra_8888_sse2_lowp+0x9d8>
- DB 197,53,249,215 ; vpsubw %ymm7,%ymm9,%ymm10
- DB 197,173,213,192 ; vpmullw %ymm0,%ymm10,%ymm0
- DB 196,65,61,253,193 ; vpaddw %ymm9,%ymm8,%ymm8
- DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,85,213,195 ; vpmullw %ymm3,%ymm5,%ymm8
- DB 197,173,213,201 ; vpmullw %ymm1,%ymm10,%ymm1
- DB 196,65,61,253,193 ; vpaddw %ymm9,%ymm8,%ymm8
- DB 196,193,117,253,200 ; vpaddw %ymm8,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,77,213,195 ; vpmullw %ymm3,%ymm6,%ymm8
- DB 197,173,213,210 ; vpmullw %ymm2,%ymm10,%ymm2
- DB 196,65,61,253,193 ; vpaddw %ymm9,%ymm8,%ymm8
- DB 196,193,109,253,208 ; vpaddw %ymm8,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 196,193,101,213,217 ; vpmullw %ymm9,%ymm3,%ymm3
- DB 196,193,101,253,217 ; vpaddw %ymm9,%ymm3,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcin_hsw_lowp
-_sk_srcin_hsw_lowp LABEL PROC
- DB 197,197,213,192 ; vpmullw %ymm0,%ymm7,%ymm0
- DB 196,98,125,121,5,105,229,0,0 ; vpbroadcastw 0xe569(%rip),%ymm8 # 351f2 <_sk_srcover_bgra_8888_sse2_lowp+0x9da>
- DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,197,213,201 ; vpmullw %ymm1,%ymm7,%ymm1
- DB 196,193,117,253,200 ; vpaddw %ymm8,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,197,213,210 ; vpmullw %ymm2,%ymm7,%ymm2
- DB 196,193,109,253,208 ; vpaddw %ymm8,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,197,213,219 ; vpmullw %ymm3,%ymm7,%ymm3
- DB 196,193,101,253,216 ; vpaddw %ymm8,%ymm3,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstin_hsw_lowp
-_sk_dstin_hsw_lowp LABEL PROC
- DB 197,221,213,195 ; vpmullw %ymm3,%ymm4,%ymm0
- DB 196,98,125,121,5,38,229,0,0 ; vpbroadcastw 0xe526(%rip),%ymm8 # 351f4 <_sk_srcover_bgra_8888_sse2_lowp+0x9dc>
- DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,213,213,203 ; vpmullw %ymm3,%ymm5,%ymm1
- DB 196,193,117,253,200 ; vpaddw %ymm8,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,205,213,211 ; vpmullw %ymm3,%ymm6,%ymm2
- DB 196,193,109,253,208 ; vpaddw %ymm8,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,197,213,219 ; vpmullw %ymm3,%ymm7,%ymm3
- DB 196,193,101,253,216 ; vpaddw %ymm8,%ymm3,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcout_hsw_lowp
-_sk_srcout_hsw_lowp LABEL PROC
- DB 196,98,125,121,5,231,228,0,0 ; vpbroadcastw 0xe4e7(%rip),%ymm8 # 351f6 <_sk_srcover_bgra_8888_sse2_lowp+0x9de>
- DB 197,61,249,207 ; vpsubw %ymm7,%ymm8,%ymm9
- DB 197,181,213,192 ; vpmullw %ymm0,%ymm9,%ymm0
- DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,181,213,201 ; vpmullw %ymm1,%ymm9,%ymm1
- DB 196,193,117,253,200 ; vpaddw %ymm8,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,181,213,210 ; vpmullw %ymm2,%ymm9,%ymm2
- DB 196,193,109,253,208 ; vpaddw %ymm8,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,181,213,219 ; vpmullw %ymm3,%ymm9,%ymm3
- DB 196,193,101,253,216 ; vpaddw %ymm8,%ymm3,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstout_hsw_lowp
-_sk_dstout_hsw_lowp LABEL PROC
- DB 196,98,125,121,5,160,228,0,0 ; vpbroadcastw 0xe4a0(%rip),%ymm8 # 351f8 <_sk_srcover_bgra_8888_sse2_lowp+0x9e0>
- DB 197,189,249,219 ; vpsubw %ymm3,%ymm8,%ymm3
- DB 197,229,213,196 ; vpmullw %ymm4,%ymm3,%ymm0
- DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,229,213,205 ; vpmullw %ymm5,%ymm3,%ymm1
- DB 196,193,117,253,200 ; vpaddw %ymm8,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,229,213,214 ; vpmullw %ymm6,%ymm3,%ymm2
- DB 196,193,109,253,208 ; vpaddw %ymm8,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,229,213,223 ; vpmullw %ymm7,%ymm3,%ymm3
- DB 196,193,101,253,216 ; vpaddw %ymm8,%ymm3,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_hsw_lowp
-_sk_srcover_hsw_lowp LABEL PROC
- DB 196,98,125,121,5,89,228,0,0 ; vpbroadcastw 0xe459(%rip),%ymm8 # 351fa <_sk_srcover_bgra_8888_sse2_lowp+0x9e2>
- DB 197,61,249,203 ; vpsubw %ymm3,%ymm8,%ymm9
- DB 197,53,213,212 ; vpmullw %ymm4,%ymm9,%ymm10
- DB 196,65,45,253,208 ; vpaddw %ymm8,%ymm10,%ymm10
- DB 196,193,45,113,210,8 ; vpsrlw $0x8,%ymm10,%ymm10
- DB 197,173,253,192 ; vpaddw %ymm0,%ymm10,%ymm0
- DB 197,53,213,213 ; vpmullw %ymm5,%ymm9,%ymm10
- DB 196,65,45,253,208 ; vpaddw %ymm8,%ymm10,%ymm10
- DB 196,193,45,113,210,8 ; vpsrlw $0x8,%ymm10,%ymm10
- DB 197,173,253,201 ; vpaddw %ymm1,%ymm10,%ymm1
- DB 197,53,213,214 ; vpmullw %ymm6,%ymm9,%ymm10
- DB 196,65,45,253,208 ; vpaddw %ymm8,%ymm10,%ymm10
- DB 196,193,45,113,210,8 ; vpsrlw $0x8,%ymm10,%ymm10
- DB 197,173,253,210 ; vpaddw %ymm2,%ymm10,%ymm2
- DB 197,53,213,207 ; vpmullw %ymm7,%ymm9,%ymm9
- DB 196,65,53,253,192 ; vpaddw %ymm8,%ymm9,%ymm8
- DB 196,193,61,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm8
- DB 197,189,253,219 ; vpaddw %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstover_hsw_lowp
-_sk_dstover_hsw_lowp LABEL PROC
- DB 196,98,125,121,5,254,227,0,0 ; vpbroadcastw 0xe3fe(%rip),%ymm8 # 351fc <_sk_srcover_bgra_8888_sse2_lowp+0x9e4>
- DB 197,61,249,207 ; vpsubw %ymm7,%ymm8,%ymm9
- DB 197,181,213,192 ; vpmullw %ymm0,%ymm9,%ymm0
- DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,253,253,196 ; vpaddw %ymm4,%ymm0,%ymm0
- DB 197,181,213,201 ; vpmullw %ymm1,%ymm9,%ymm1
- DB 196,193,117,253,200 ; vpaddw %ymm8,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,245,253,205 ; vpaddw %ymm5,%ymm1,%ymm1
- DB 197,181,213,210 ; vpmullw %ymm2,%ymm9,%ymm2
- DB 196,193,109,253,208 ; vpaddw %ymm8,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,237,253,214 ; vpaddw %ymm6,%ymm2,%ymm2
- DB 197,181,213,219 ; vpmullw %ymm3,%ymm9,%ymm3
- DB 196,193,101,253,216 ; vpaddw %ymm8,%ymm3,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 197,229,253,223 ; vpaddw %ymm7,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_modulate_hsw_lowp
-_sk_modulate_hsw_lowp LABEL PROC
- DB 197,221,213,192 ; vpmullw %ymm0,%ymm4,%ymm0
- DB 196,98,125,121,5,163,227,0,0 ; vpbroadcastw 0xe3a3(%rip),%ymm8 # 351fe <_sk_srcover_bgra_8888_sse2_lowp+0x9e6>
- DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,213,213,201 ; vpmullw %ymm1,%ymm5,%ymm1
- DB 196,193,117,253,200 ; vpaddw %ymm8,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,205,213,210 ; vpmullw %ymm2,%ymm6,%ymm2
- DB 196,193,109,253,208 ; vpaddw %ymm8,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,197,213,219 ; vpmullw %ymm3,%ymm7,%ymm3
- DB 196,193,101,253,216 ; vpaddw %ymm8,%ymm3,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_multiply_hsw_lowp
-_sk_multiply_hsw_lowp LABEL PROC
- DB 196,98,125,121,5,100,227,0,0 ; vpbroadcastw 0xe364(%rip),%ymm8 # 35200 <_sk_srcover_bgra_8888_sse2_lowp+0x9e8>
- DB 197,61,249,203 ; vpsubw %ymm3,%ymm8,%ymm9
- DB 197,53,213,212 ; vpmullw %ymm4,%ymm9,%ymm10
- DB 196,65,93,253,216 ; vpaddw %ymm8,%ymm4,%ymm11
- DB 197,37,249,223 ; vpsubw %ymm7,%ymm11,%ymm11
- DB 197,165,213,192 ; vpmullw %ymm0,%ymm11,%ymm0
- DB 196,65,45,253,208 ; vpaddw %ymm8,%ymm10,%ymm10
- DB 196,193,125,253,194 ; vpaddw %ymm10,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,53,213,213 ; vpmullw %ymm5,%ymm9,%ymm10
- DB 196,65,85,253,216 ; vpaddw %ymm8,%ymm5,%ymm11
- DB 197,37,249,223 ; vpsubw %ymm7,%ymm11,%ymm11
- DB 197,165,213,201 ; vpmullw %ymm1,%ymm11,%ymm1
- DB 196,65,45,253,208 ; vpaddw %ymm8,%ymm10,%ymm10
- DB 196,193,117,253,202 ; vpaddw %ymm10,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,53,213,214 ; vpmullw %ymm6,%ymm9,%ymm10
- DB 196,65,77,253,216 ; vpaddw %ymm8,%ymm6,%ymm11
- DB 197,37,249,223 ; vpsubw %ymm7,%ymm11,%ymm11
- DB 197,165,213,210 ; vpmullw %ymm2,%ymm11,%ymm2
- DB 196,65,45,253,208 ; vpaddw %ymm8,%ymm10,%ymm10
- DB 196,193,109,253,210 ; vpaddw %ymm10,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,53,213,207 ; vpmullw %ymm7,%ymm9,%ymm9
- DB 196,193,101,213,216 ; vpmullw %ymm8,%ymm3,%ymm3
- DB 196,193,101,253,216 ; vpaddw %ymm8,%ymm3,%ymm3
- DB 197,181,253,219 ; vpaddw %ymm3,%ymm9,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_plus__hsw_lowp
-_sk_plus__hsw_lowp LABEL PROC
- DB 197,221,253,192 ; vpaddw %ymm0,%ymm4,%ymm0
- DB 196,98,125,121,5,218,226,0,0 ; vpbroadcastw 0xe2da(%rip),%ymm8 # 35202 <_sk_srcover_bgra_8888_sse2_lowp+0x9ea>
- DB 196,194,125,58,192 ; vpminuw %ymm8,%ymm0,%ymm0
- DB 197,213,253,201 ; vpaddw %ymm1,%ymm5,%ymm1
- DB 196,194,117,58,200 ; vpminuw %ymm8,%ymm1,%ymm1
- DB 197,205,253,210 ; vpaddw %ymm2,%ymm6,%ymm2
- DB 196,194,109,58,208 ; vpminuw %ymm8,%ymm2,%ymm2
- DB 197,197,253,219 ; vpaddw %ymm3,%ymm7,%ymm3
- DB 196,194,101,58,216 ; vpminuw %ymm8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_screen_hsw_lowp
-_sk_screen_hsw_lowp LABEL PROC
- DB 197,93,253,192 ; vpaddw %ymm0,%ymm4,%ymm8
- DB 197,221,213,192 ; vpmullw %ymm0,%ymm4,%ymm0
- DB 196,98,125,121,13,167,226,0,0 ; vpbroadcastw 0xe2a7(%rip),%ymm9 # 35204 <_sk_srcover_bgra_8888_sse2_lowp+0x9ec>
- DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,189,249,192 ; vpsubw %ymm0,%ymm8,%ymm0
- DB 197,85,253,193 ; vpaddw %ymm1,%ymm5,%ymm8
- DB 197,213,213,201 ; vpmullw %ymm1,%ymm5,%ymm1
- DB 196,193,117,253,201 ; vpaddw %ymm9,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,189,249,201 ; vpsubw %ymm1,%ymm8,%ymm1
- DB 197,77,253,194 ; vpaddw %ymm2,%ymm6,%ymm8
- DB 197,205,213,210 ; vpmullw %ymm2,%ymm6,%ymm2
- DB 196,193,109,253,209 ; vpaddw %ymm9,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,189,249,210 ; vpsubw %ymm2,%ymm8,%ymm2
- DB 197,69,253,195 ; vpaddw %ymm3,%ymm7,%ymm8
- DB 197,197,213,219 ; vpmullw %ymm3,%ymm7,%ymm3
- DB 196,193,101,253,217 ; vpaddw %ymm9,%ymm3,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 197,189,249,219 ; vpsubw %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xor__hsw_lowp
-_sk_xor__hsw_lowp LABEL PROC
- DB 196,98,125,121,5,76,226,0,0 ; vpbroadcastw 0xe24c(%rip),%ymm8 # 35206 <_sk_srcover_bgra_8888_sse2_lowp+0x9ee>
- DB 197,61,249,207 ; vpsubw %ymm7,%ymm8,%ymm9
- DB 197,181,213,192 ; vpmullw %ymm0,%ymm9,%ymm0
- DB 197,61,249,211 ; vpsubw %ymm3,%ymm8,%ymm10
- DB 197,45,213,220 ; vpmullw %ymm4,%ymm10,%ymm11
- DB 197,165,253,192 ; vpaddw %ymm0,%ymm11,%ymm0
- DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,181,213,201 ; vpmullw %ymm1,%ymm9,%ymm1
- DB 197,45,213,221 ; vpmullw %ymm5,%ymm10,%ymm11
- DB 197,165,253,201 ; vpaddw %ymm1,%ymm11,%ymm1
- DB 196,193,117,253,200 ; vpaddw %ymm8,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,181,213,210 ; vpmullw %ymm2,%ymm9,%ymm2
- DB 197,45,213,222 ; vpmullw %ymm6,%ymm10,%ymm11
- DB 197,165,253,210 ; vpaddw %ymm2,%ymm11,%ymm2
- DB 196,193,109,253,208 ; vpaddw %ymm8,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,181,213,219 ; vpmullw %ymm3,%ymm9,%ymm3
- DB 197,45,213,207 ; vpmullw %ymm7,%ymm10,%ymm9
- DB 197,181,253,219 ; vpaddw %ymm3,%ymm9,%ymm3
- DB 196,193,101,253,216 ; vpaddw %ymm8,%ymm3,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_darken_hsw_lowp
-_sk_darken_hsw_lowp LABEL PROC
- DB 197,93,253,192 ; vpaddw %ymm0,%ymm4,%ymm8
- DB 197,197,213,192 ; vpmullw %ymm0,%ymm7,%ymm0
- DB 197,93,213,203 ; vpmullw %ymm3,%ymm4,%ymm9
- DB 196,194,125,62,193 ; vpmaxuw %ymm9,%ymm0,%ymm0
- DB 196,98,125,121,13,208,225,0,0 ; vpbroadcastw 0xe1d0(%rip),%ymm9 # 35208 <_sk_srcover_bgra_8888_sse2_lowp+0x9f0>
- DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,189,249,192 ; vpsubw %ymm0,%ymm8,%ymm0
- DB 197,85,253,193 ; vpaddw %ymm1,%ymm5,%ymm8
- DB 197,197,213,201 ; vpmullw %ymm1,%ymm7,%ymm1
- DB 197,85,213,211 ; vpmullw %ymm3,%ymm5,%ymm10
- DB 196,194,117,62,202 ; vpmaxuw %ymm10,%ymm1,%ymm1
- DB 196,193,117,253,201 ; vpaddw %ymm9,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,189,249,201 ; vpsubw %ymm1,%ymm8,%ymm1
- DB 197,77,253,194 ; vpaddw %ymm2,%ymm6,%ymm8
- DB 197,197,213,210 ; vpmullw %ymm2,%ymm7,%ymm2
- DB 197,77,213,211 ; vpmullw %ymm3,%ymm6,%ymm10
- DB 196,194,109,62,210 ; vpmaxuw %ymm10,%ymm2,%ymm2
- DB 196,193,109,253,209 ; vpaddw %ymm9,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,189,249,210 ; vpsubw %ymm2,%ymm8,%ymm2
- DB 197,53,249,195 ; vpsubw %ymm3,%ymm9,%ymm8
- DB 197,61,213,199 ; vpmullw %ymm7,%ymm8,%ymm8
- DB 196,65,61,253,193 ; vpaddw %ymm9,%ymm8,%ymm8
- DB 196,193,61,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm8
- DB 197,189,253,219 ; vpaddw %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lighten_hsw_lowp
-_sk_lighten_hsw_lowp LABEL PROC
- DB 197,93,253,192 ; vpaddw %ymm0,%ymm4,%ymm8
- DB 197,197,213,192 ; vpmullw %ymm0,%ymm7,%ymm0
- DB 197,93,213,203 ; vpmullw %ymm3,%ymm4,%ymm9
- DB 196,194,125,58,193 ; vpminuw %ymm9,%ymm0,%ymm0
- DB 196,98,125,121,13,81,225,0,0 ; vpbroadcastw 0xe151(%rip),%ymm9 # 3520a <_sk_srcover_bgra_8888_sse2_lowp+0x9f2>
- DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,189,249,192 ; vpsubw %ymm0,%ymm8,%ymm0
- DB 197,85,253,193 ; vpaddw %ymm1,%ymm5,%ymm8
- DB 197,197,213,201 ; vpmullw %ymm1,%ymm7,%ymm1
- DB 197,85,213,211 ; vpmullw %ymm3,%ymm5,%ymm10
- DB 196,194,117,58,202 ; vpminuw %ymm10,%ymm1,%ymm1
- DB 196,193,117,253,201 ; vpaddw %ymm9,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,189,249,201 ; vpsubw %ymm1,%ymm8,%ymm1
- DB 197,77,253,194 ; vpaddw %ymm2,%ymm6,%ymm8
- DB 197,197,213,210 ; vpmullw %ymm2,%ymm7,%ymm2
- DB 197,77,213,211 ; vpmullw %ymm3,%ymm6,%ymm10
- DB 196,194,109,58,210 ; vpminuw %ymm10,%ymm2,%ymm2
- DB 196,193,109,253,209 ; vpaddw %ymm9,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,189,249,210 ; vpsubw %ymm2,%ymm8,%ymm2
- DB 197,53,249,195 ; vpsubw %ymm3,%ymm9,%ymm8
- DB 197,61,213,199 ; vpmullw %ymm7,%ymm8,%ymm8
- DB 196,65,61,253,193 ; vpaddw %ymm9,%ymm8,%ymm8
- DB 196,193,61,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm8
- DB 197,189,253,219 ; vpaddw %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_difference_hsw_lowp
-_sk_difference_hsw_lowp LABEL PROC
- DB 197,93,253,192 ; vpaddw %ymm0,%ymm4,%ymm8
- DB 197,197,213,192 ; vpmullw %ymm0,%ymm7,%ymm0
- DB 197,93,213,203 ; vpmullw %ymm3,%ymm4,%ymm9
- DB 196,194,125,58,193 ; vpminuw %ymm9,%ymm0,%ymm0
- DB 196,98,125,121,13,210,224,0,0 ; vpbroadcastw 0xe0d2(%rip),%ymm9 # 3520c <_sk_srcover_bgra_8888_sse2_lowp+0x9f4>
- DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
- DB 197,253,113,208,7 ; vpsrlw $0x7,%ymm0,%ymm0
- DB 196,98,125,121,21,193,224,0,0 ; vpbroadcastw 0xe0c1(%rip),%ymm10 # 3520e <_sk_srcover_bgra_8888_sse2_lowp+0x9f6>
- DB 196,193,125,219,194 ; vpand %ymm10,%ymm0,%ymm0
- DB 197,189,249,192 ; vpsubw %ymm0,%ymm8,%ymm0
- DB 197,85,253,193 ; vpaddw %ymm1,%ymm5,%ymm8
- DB 197,197,213,201 ; vpmullw %ymm1,%ymm7,%ymm1
- DB 197,85,213,219 ; vpmullw %ymm3,%ymm5,%ymm11
- DB 196,194,117,58,203 ; vpminuw %ymm11,%ymm1,%ymm1
- DB 196,193,117,253,201 ; vpaddw %ymm9,%ymm1,%ymm1
- DB 197,245,113,209,7 ; vpsrlw $0x7,%ymm1,%ymm1
- DB 196,193,117,219,202 ; vpand %ymm10,%ymm1,%ymm1
- DB 197,189,249,201 ; vpsubw %ymm1,%ymm8,%ymm1
- DB 197,77,253,194 ; vpaddw %ymm2,%ymm6,%ymm8
- DB 197,197,213,210 ; vpmullw %ymm2,%ymm7,%ymm2
- DB 197,77,213,219 ; vpmullw %ymm3,%ymm6,%ymm11
- DB 196,194,109,58,211 ; vpminuw %ymm11,%ymm2,%ymm2
- DB 196,193,109,253,209 ; vpaddw %ymm9,%ymm2,%ymm2
- DB 197,237,113,210,7 ; vpsrlw $0x7,%ymm2,%ymm2
- DB 196,193,109,219,210 ; vpand %ymm10,%ymm2,%ymm2
- DB 197,189,249,210 ; vpsubw %ymm2,%ymm8,%ymm2
- DB 197,53,249,195 ; vpsubw %ymm3,%ymm9,%ymm8
- DB 197,61,213,199 ; vpmullw %ymm7,%ymm8,%ymm8
- DB 196,65,61,253,193 ; vpaddw %ymm9,%ymm8,%ymm8
- DB 196,193,61,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm8
- DB 197,189,253,219 ; vpaddw %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_exclusion_hsw_lowp
-_sk_exclusion_hsw_lowp LABEL PROC
- DB 197,93,253,192 ; vpaddw %ymm0,%ymm4,%ymm8
- DB 197,221,213,192 ; vpmullw %ymm0,%ymm4,%ymm0
- DB 196,98,125,121,13,70,224,0,0 ; vpbroadcastw 0xe046(%rip),%ymm9 # 35210 <_sk_srcover_bgra_8888_sse2_lowp+0x9f8>
- DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
- DB 197,253,113,208,7 ; vpsrlw $0x7,%ymm0,%ymm0
- DB 196,98,125,121,21,53,224,0,0 ; vpbroadcastw 0xe035(%rip),%ymm10 # 35212 <_sk_srcover_bgra_8888_sse2_lowp+0x9fa>
- DB 196,193,125,219,194 ; vpand %ymm10,%ymm0,%ymm0
- DB 197,189,249,192 ; vpsubw %ymm0,%ymm8,%ymm0
- DB 197,85,253,193 ; vpaddw %ymm1,%ymm5,%ymm8
- DB 197,213,213,201 ; vpmullw %ymm1,%ymm5,%ymm1
- DB 196,193,117,253,201 ; vpaddw %ymm9,%ymm1,%ymm1
- DB 197,245,113,209,7 ; vpsrlw $0x7,%ymm1,%ymm1
- DB 196,193,117,219,202 ; vpand %ymm10,%ymm1,%ymm1
- DB 197,189,249,201 ; vpsubw %ymm1,%ymm8,%ymm1
- DB 197,77,253,194 ; vpaddw %ymm2,%ymm6,%ymm8
- DB 197,205,213,210 ; vpmullw %ymm2,%ymm6,%ymm2
- DB 196,193,109,253,209 ; vpaddw %ymm9,%ymm2,%ymm2
- DB 197,237,113,210,7 ; vpsrlw $0x7,%ymm2,%ymm2
- DB 196,193,109,219,210 ; vpand %ymm10,%ymm2,%ymm2
- DB 197,189,249,210 ; vpsubw %ymm2,%ymm8,%ymm2
- DB 197,53,249,195 ; vpsubw %ymm3,%ymm9,%ymm8
- DB 197,61,213,199 ; vpmullw %ymm7,%ymm8,%ymm8
- DB 196,65,61,253,193 ; vpaddw %ymm9,%ymm8,%ymm8
- DB 196,193,61,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm8
- DB 197,189,253,219 ; vpaddw %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hardlight_hsw_lowp
-_sk_hardlight_hsw_lowp LABEL PROC
- DB 197,125,253,192 ; vpaddw %ymm0,%ymm0,%ymm8
- DB 196,98,125,121,13,210,223,0,0 ; vpbroadcastw 0xdfd2(%rip),%ymm9 # 35216 <_sk_srcover_bgra_8888_sse2_lowp+0x9fe>
- DB 196,65,101,239,209 ; vpxor %ymm9,%ymm3,%ymm10
- DB 196,65,61,239,217 ; vpxor %ymm9,%ymm8,%ymm11
- DB 196,65,37,101,218 ; vpcmpgtw %ymm10,%ymm11,%ymm11
- DB 197,61,213,228 ; vpmullw %ymm4,%ymm8,%ymm12
- DB 197,69,213,195 ; vpmullw %ymm3,%ymm7,%ymm8
- DB 197,101,249,232 ; vpsubw %ymm0,%ymm3,%ymm13
- DB 197,69,249,244 ; vpsubw %ymm4,%ymm7,%ymm14
- DB 196,65,21,213,238 ; vpmullw %ymm14,%ymm13,%ymm13
- DB 196,65,21,253,237 ; vpaddw %ymm13,%ymm13,%ymm13
- DB 196,65,61,249,237 ; vpsubw %ymm13,%ymm8,%ymm13
- DB 196,67,29,76,221,176 ; vpblendvb %ymm11,%ymm13,%ymm12,%ymm11
- DB 197,117,253,225 ; vpaddw %ymm1,%ymm1,%ymm12
- DB 197,101,249,233 ; vpsubw %ymm1,%ymm3,%ymm13
- DB 197,69,249,245 ; vpsubw %ymm5,%ymm7,%ymm14
- DB 196,65,21,213,238 ; vpmullw %ymm14,%ymm13,%ymm13
- DB 196,65,29,239,241 ; vpxor %ymm9,%ymm12,%ymm14
- DB 196,65,13,101,242 ; vpcmpgtw %ymm10,%ymm14,%ymm14
- DB 197,29,213,229 ; vpmullw %ymm5,%ymm12,%ymm12
- DB 196,65,21,253,237 ; vpaddw %ymm13,%ymm13,%ymm13
- DB 196,65,61,249,237 ; vpsubw %ymm13,%ymm8,%ymm13
- DB 196,67,29,76,229,224 ; vpblendvb %ymm14,%ymm13,%ymm12,%ymm12
- DB 197,109,253,234 ; vpaddw %ymm2,%ymm2,%ymm13
- DB 196,65,21,239,201 ; vpxor %ymm9,%ymm13,%ymm9
- DB 196,65,53,101,202 ; vpcmpgtw %ymm10,%ymm9,%ymm9
- DB 197,101,249,210 ; vpsubw %ymm2,%ymm3,%ymm10
- DB 197,69,249,246 ; vpsubw %ymm6,%ymm7,%ymm14
- DB 196,65,45,213,214 ; vpmullw %ymm14,%ymm10,%ymm10
- DB 196,98,125,121,53,73,223,0,0 ; vpbroadcastw 0xdf49(%rip),%ymm14 # 35214 <_sk_srcover_bgra_8888_sse2_lowp+0x9fc>
- DB 196,65,45,253,210 ; vpaddw %ymm10,%ymm10,%ymm10
- DB 196,65,61,249,194 ; vpsubw %ymm10,%ymm8,%ymm8
- DB 197,13,249,215 ; vpsubw %ymm7,%ymm14,%ymm10
- DB 197,173,213,192 ; vpmullw %ymm0,%ymm10,%ymm0
- DB 197,21,213,238 ; vpmullw %ymm6,%ymm13,%ymm13
- DB 196,67,21,76,192,144 ; vpblendvb %ymm9,%ymm8,%ymm13,%ymm8
- DB 197,13,249,203 ; vpsubw %ymm3,%ymm14,%ymm9
- DB 197,53,213,236 ; vpmullw %ymm4,%ymm9,%ymm13
- DB 197,149,253,192 ; vpaddw %ymm0,%ymm13,%ymm0
- DB 196,65,37,253,222 ; vpaddw %ymm14,%ymm11,%ymm11
- DB 196,193,125,253,195 ; vpaddw %ymm11,%ymm0,%ymm0
- DB 197,173,213,201 ; vpmullw %ymm1,%ymm10,%ymm1
- DB 197,53,213,221 ; vpmullw %ymm5,%ymm9,%ymm11
- DB 197,165,253,201 ; vpaddw %ymm1,%ymm11,%ymm1
- DB 196,65,29,253,222 ; vpaddw %ymm14,%ymm12,%ymm11
- DB 196,193,117,253,203 ; vpaddw %ymm11,%ymm1,%ymm1
- DB 197,173,213,210 ; vpmullw %ymm2,%ymm10,%ymm2
- DB 197,53,213,214 ; vpmullw %ymm6,%ymm9,%ymm10
- DB 197,173,253,210 ; vpaddw %ymm2,%ymm10,%ymm2
- DB 196,65,61,253,198 ; vpaddw %ymm14,%ymm8,%ymm8
- DB 196,193,109,253,208 ; vpaddw %ymm8,%ymm2,%ymm2
- DB 197,53,213,199 ; vpmullw %ymm7,%ymm9,%ymm8
- DB 196,65,61,253,198 ; vpaddw %ymm14,%ymm8,%ymm8
- DB 196,193,61,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm8
- DB 197,189,253,219 ; vpaddw %ymm3,%ymm8,%ymm3
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_overlay_hsw_lowp
-_sk_overlay_hsw_lowp LABEL PROC
- DB 197,93,253,196 ; vpaddw %ymm4,%ymm4,%ymm8
- DB 196,98,125,121,13,190,222,0,0 ; vpbroadcastw 0xdebe(%rip),%ymm9 # 3521a <_sk_srcover_bgra_8888_sse2_lowp+0xa02>
- DB 196,65,69,239,209 ; vpxor %ymm9,%ymm7,%ymm10
- DB 196,65,61,239,193 ; vpxor %ymm9,%ymm8,%ymm8
- DB 196,65,61,101,218 ; vpcmpgtw %ymm10,%ymm8,%ymm11
- DB 197,125,213,196 ; vpmullw %ymm4,%ymm0,%ymm8
- DB 196,65,61,253,224 ; vpaddw %ymm8,%ymm8,%ymm12
- DB 197,69,213,195 ; vpmullw %ymm3,%ymm7,%ymm8
- DB 197,101,249,232 ; vpsubw %ymm0,%ymm3,%ymm13
- DB 197,69,249,244 ; vpsubw %ymm4,%ymm7,%ymm14
- DB 196,65,21,213,238 ; vpmullw %ymm14,%ymm13,%ymm13
- DB 196,65,21,253,237 ; vpaddw %ymm13,%ymm13,%ymm13
- DB 196,65,61,249,237 ; vpsubw %ymm13,%ymm8,%ymm13
- DB 196,67,29,76,221,176 ; vpblendvb %ymm11,%ymm13,%ymm12,%ymm11
- DB 197,85,253,229 ; vpaddw %ymm5,%ymm5,%ymm12
- DB 196,65,29,239,225 ; vpxor %ymm9,%ymm12,%ymm12
- DB 196,65,29,101,226 ; vpcmpgtw %ymm10,%ymm12,%ymm12
- DB 197,101,249,233 ; vpsubw %ymm1,%ymm3,%ymm13
- DB 197,69,249,245 ; vpsubw %ymm5,%ymm7,%ymm14
- DB 196,65,21,213,238 ; vpmullw %ymm14,%ymm13,%ymm13
- DB 197,117,213,245 ; vpmullw %ymm5,%ymm1,%ymm14
- DB 196,65,13,253,246 ; vpaddw %ymm14,%ymm14,%ymm14
- DB 196,65,21,253,237 ; vpaddw %ymm13,%ymm13,%ymm13
- DB 196,65,61,249,237 ; vpsubw %ymm13,%ymm8,%ymm13
- DB 196,67,13,76,229,192 ; vpblendvb %ymm12,%ymm13,%ymm14,%ymm12
- DB 196,98,125,121,45,70,222,0,0 ; vpbroadcastw 0xde46(%rip),%ymm13 # 35218 <_sk_srcover_bgra_8888_sse2_lowp+0xa00>
- DB 197,77,253,246 ; vpaddw %ymm6,%ymm6,%ymm14
- DB 196,65,13,239,201 ; vpxor %ymm9,%ymm14,%ymm9
- DB 196,65,53,101,202 ; vpcmpgtw %ymm10,%ymm9,%ymm9
- DB 197,101,249,210 ; vpsubw %ymm2,%ymm3,%ymm10
- DB 197,69,249,246 ; vpsubw %ymm6,%ymm7,%ymm14
- DB 196,65,45,213,214 ; vpmullw %ymm14,%ymm10,%ymm10
- DB 197,21,249,247 ; vpsubw %ymm7,%ymm13,%ymm14
- DB 197,141,213,192 ; vpmullw %ymm0,%ymm14,%ymm0
- DB 196,65,45,253,210 ; vpaddw %ymm10,%ymm10,%ymm10
- DB 196,65,61,249,194 ; vpsubw %ymm10,%ymm8,%ymm8
- DB 197,109,213,214 ; vpmullw %ymm6,%ymm2,%ymm10
- DB 196,65,45,253,210 ; vpaddw %ymm10,%ymm10,%ymm10
- DB 196,67,45,76,192,144 ; vpblendvb %ymm9,%ymm8,%ymm10,%ymm8
- DB 197,21,249,203 ; vpsubw %ymm3,%ymm13,%ymm9
- DB 197,53,213,212 ; vpmullw %ymm4,%ymm9,%ymm10
- DB 197,173,253,192 ; vpaddw %ymm0,%ymm10,%ymm0
- DB 196,65,37,253,213 ; vpaddw %ymm13,%ymm11,%ymm10
- DB 196,193,125,253,194 ; vpaddw %ymm10,%ymm0,%ymm0
- DB 197,141,213,201 ; vpmullw %ymm1,%ymm14,%ymm1
- DB 197,53,213,213 ; vpmullw %ymm5,%ymm9,%ymm10
- DB 197,173,253,201 ; vpaddw %ymm1,%ymm10,%ymm1
- DB 196,65,29,253,213 ; vpaddw %ymm13,%ymm12,%ymm10
- DB 196,193,117,253,202 ; vpaddw %ymm10,%ymm1,%ymm1
- DB 197,141,213,210 ; vpmullw %ymm2,%ymm14,%ymm2
- DB 197,53,213,214 ; vpmullw %ymm6,%ymm9,%ymm10
- DB 197,173,253,210 ; vpaddw %ymm2,%ymm10,%ymm2
- DB 196,65,61,253,197 ; vpaddw %ymm13,%ymm8,%ymm8
- DB 196,193,109,253,208 ; vpaddw %ymm8,%ymm2,%ymm2
- DB 197,53,213,199 ; vpmullw %ymm7,%ymm9,%ymm8
- DB 196,65,61,253,197 ; vpaddw %ymm13,%ymm8,%ymm8
- DB 196,193,61,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm8
- DB 197,189,253,219 ; vpaddw %ymm3,%ymm8,%ymm3
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_8888_hsw_lowp
-_sk_load_8888_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,55 ; ja 274c8 <_sk_load_8888_hsw_lowp+0x52>
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,161,1,0,0 ; lea 0x1a1(%rip),%r9 # 27640 <_sk_load_8888_hsw_lowp+0x1ca>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 197,237,239,210 ; vpxor %ymm2,%ymm2,%ymm2
- DB 196,65,61,239,192 ; vpxor %ymm8,%ymm8,%ymm8
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,110,12,144 ; vmovd (%r8,%rdx,4),%xmm1
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 233,39,1,0,0 ; jmpq 275ef <_sk_load_8888_hsw_lowp+0x179>
- DB 196,193,126,111,12,144 ; vmovdqu (%r8,%rdx,4),%ymm1
- DB 196,193,126,111,68,144,32 ; vmovdqu 0x20(%r8,%rdx,4),%ymm0
- DB 233,21,1,0,0 ; jmpq 275ef <_sk_load_8888_hsw_lowp+0x179>
- DB 196,193,121,110,68,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm0
- DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 196,227,101,2,192,4 ; vpblendd $0x4,%ymm0,%ymm3,%ymm0
- DB 196,194,121,53,12,144 ; vpmovzxdq (%r8,%rdx,4),%xmm1
- DB 197,249,112,201,232 ; vpshufd $0xe8,%xmm1,%xmm1
- DB 196,227,125,2,201,3 ; vpblendd $0x3,%ymm1,%ymm0,%ymm1
- DB 197,253,111,195 ; vmovdqa %ymm3,%ymm0
- DB 233,229,0,0,0 ; jmpq 275ef <_sk_load_8888_hsw_lowp+0x179>
- DB 196,193,121,110,68,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm0
- DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,192,64 ; vpblendd $0x40,%ymm0,%ymm1,%ymm0
- DB 196,227,125,57,194,1 ; vextracti128 $0x1,%ymm0,%xmm2
- DB 196,195,105,34,84,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm2,%xmm2
- DB 196,227,125,56,194,1 ; vinserti128 $0x1,%xmm2,%ymm0,%ymm0
- DB 197,253,111,209 ; vmovdqa %ymm1,%ymm2
- DB 196,227,125,57,193,1 ; vextracti128 $0x1,%ymm0,%xmm1
- DB 196,195,113,34,76,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm1,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 197,125,111,194 ; vmovdqa %ymm2,%ymm8
- DB 196,193,122,111,12,144 ; vmovdqu (%r8,%rdx,4),%xmm1
- DB 196,227,117,2,200,240 ; vpblendd $0xf0,%ymm0,%ymm1,%ymm1
- DB 197,125,127,192 ; vmovdqa %ymm8,%ymm0
- DB 233,138,0,0,0 ; jmpq 275ef <_sk_load_8888_hsw_lowp+0x179>
- DB 196,193,121,110,68,144,40 ; vmovd 0x28(%r8,%rdx,4),%xmm0
- DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,192,4 ; vpblendd $0x4,%ymm0,%ymm1,%ymm0
- DB 196,195,121,34,76,144,36,1 ; vpinsrd $0x1,0x24(%r8,%rdx,4),%xmm0,%xmm1
- DB 196,227,125,2,193,15 ; vpblendd $0xf,%ymm1,%ymm0,%ymm0
- DB 196,193,121,110,76,144,32 ; vmovd 0x20(%r8,%rdx,4),%xmm1
- DB 196,227,125,2,193,1 ; vpblendd $0x1,%ymm1,%ymm0,%ymm0
- DB 196,193,126,111,12,144 ; vmovdqu (%r8,%rdx,4),%ymm1
- DB 235,81 ; jmp 275ef <_sk_load_8888_hsw_lowp+0x179>
- DB 196,193,121,110,68,144,56 ; vmovd 0x38(%r8,%rdx,4),%xmm0
- DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,192,64 ; vpblendd $0x40,%ymm0,%ymm1,%ymm0
- DB 196,227,125,57,193,1 ; vextracti128 $0x1,%ymm0,%xmm1
- DB 196,195,113,34,76,144,52,1 ; vpinsrd $0x1,0x34(%r8,%rdx,4),%xmm1,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,227,125,57,193,1 ; vextracti128 $0x1,%ymm0,%xmm1
- DB 196,195,113,34,76,144,48,0 ; vpinsrd $0x0,0x30(%r8,%rdx,4),%xmm1,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,193,126,111,12,144 ; vmovdqu (%r8,%rdx,4),%ymm1
- DB 196,193,122,111,84,144,32 ; vmovdqu 0x20(%r8,%rdx,4),%xmm2
- DB 196,227,109,2,192,240 ; vpblendd $0xf0,%ymm0,%ymm2,%ymm0
- DB 196,227,117,56,208,1 ; vinserti128 $0x1,%xmm0,%ymm1,%ymm2
- DB 196,227,117,70,216,49 ; vperm2i128 $0x31,%ymm0,%ymm1,%ymm3
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 196,227,101,14,200,170 ; vpblendw $0xaa,%ymm0,%ymm3,%ymm1
- DB 196,227,109,14,192,170 ; vpblendw $0xaa,%ymm0,%ymm2,%ymm0
- DB 196,226,125,43,201 ; vpackusdw %ymm1,%ymm0,%ymm1
- DB 197,125,111,5,8,220,0,0 ; vmovdqa 0xdc08(%rip),%ymm8 # 35220 <_sk_srcover_bgra_8888_sse2_lowp+0xa08>
- DB 196,193,117,219,192 ; vpand %ymm8,%ymm1,%ymm0
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,229,114,211,16 ; vpsrld $0x10,%ymm3,%ymm3
- DB 197,237,114,210,16 ; vpsrld $0x10,%ymm2,%ymm2
- DB 196,226,109,43,219 ; vpackusdw %ymm3,%ymm2,%ymm3
- DB 196,193,101,219,208 ; vpand %ymm8,%ymm3,%ymm2
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 144 ; nop
- DB 121,254 ; jns 27640 <_sk_load_8888_hsw_lowp+0x1ca>
- DB 255 ; (bad)
- DB 255,176,254,255,255,154 ; pushq -0x65000002(%rax)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,16 ; callq *(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 248 ; clc
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,224 ; jmpq *%rax
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,202 ; dec %edx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,86,255 ; callq *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,73,255 ; decl -0x1(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 59,255 ; cmp %edi,%edi
- DB 255 ; (bad)
- DB 255,37,255,255,255,156 ; jmpq *-0x63000001(%rip) # ffffffff9d02766c <_sk_srcover_bgra_8888_sse2_lowp+0xffffffff9cff2e54>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,136,255,255,255,116 ; decl 0x74ffffff(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,94,255 ; lcall *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_8888_dst_hsw_lowp
-_sk_load_8888_dst_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,55 ; ja 276ce <_sk_load_8888_dst_hsw_lowp+0x52>
- DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,163,1,0,0 ; lea 0x1a3(%rip),%r9 # 27848 <_sk_load_8888_dst_hsw_lowp+0x1cc>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 197,205,239,246 ; vpxor %ymm6,%ymm6,%ymm6
- DB 196,65,61,239,192 ; vpxor %ymm8,%ymm8,%ymm8
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,110,44,144 ; vmovd (%r8,%rdx,4),%xmm5
- DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 233,39,1,0,0 ; jmpq 277f5 <_sk_load_8888_dst_hsw_lowp+0x179>
- DB 196,193,126,111,44,144 ; vmovdqu (%r8,%rdx,4),%ymm5
- DB 196,193,126,111,100,144,32 ; vmovdqu 0x20(%r8,%rdx,4),%ymm4
- DB 233,21,1,0,0 ; jmpq 277f5 <_sk_load_8888_dst_hsw_lowp+0x179>
- DB 196,193,121,110,100,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm4
- DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 196,227,69,2,228,4 ; vpblendd $0x4,%ymm4,%ymm7,%ymm4
- DB 196,194,121,53,44,144 ; vpmovzxdq (%r8,%rdx,4),%xmm5
- DB 197,249,112,237,232 ; vpshufd $0xe8,%xmm5,%xmm5
- DB 196,227,93,2,237,3 ; vpblendd $0x3,%ymm5,%ymm4,%ymm5
- DB 197,253,111,231 ; vmovdqa %ymm7,%ymm4
- DB 233,229,0,0,0 ; jmpq 277f5 <_sk_load_8888_dst_hsw_lowp+0x179>
- DB 196,193,121,110,100,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm4
- DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,228,64 ; vpblendd $0x40,%ymm4,%ymm5,%ymm4
- DB 196,227,125,57,230,1 ; vextracti128 $0x1,%ymm4,%xmm6
- DB 196,195,73,34,116,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm6,%xmm6
- DB 196,227,93,56,230,1 ; vinserti128 $0x1,%xmm6,%ymm4,%ymm4
- DB 197,253,111,245 ; vmovdqa %ymm5,%ymm6
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,195,81,34,108,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 197,125,111,198 ; vmovdqa %ymm6,%ymm8
- DB 196,193,122,111,44,144 ; vmovdqu (%r8,%rdx,4),%xmm5
- DB 196,227,85,2,236,240 ; vpblendd $0xf0,%ymm4,%ymm5,%ymm5
- DB 197,125,127,196 ; vmovdqa %ymm8,%ymm4
- DB 233,138,0,0,0 ; jmpq 277f5 <_sk_load_8888_dst_hsw_lowp+0x179>
- DB 196,193,121,110,100,144,40 ; vmovd 0x28(%r8,%rdx,4),%xmm4
- DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,228,4 ; vpblendd $0x4,%ymm4,%ymm5,%ymm4
- DB 196,195,89,34,108,144,36,1 ; vpinsrd $0x1,0x24(%r8,%rdx,4),%xmm4,%xmm5
- DB 196,227,93,2,229,15 ; vpblendd $0xf,%ymm5,%ymm4,%ymm4
- DB 196,193,121,110,108,144,32 ; vmovd 0x20(%r8,%rdx,4),%xmm5
- DB 196,227,93,2,229,1 ; vpblendd $0x1,%ymm5,%ymm4,%ymm4
- DB 196,193,126,111,44,144 ; vmovdqu (%r8,%rdx,4),%ymm5
- DB 235,81 ; jmp 277f5 <_sk_load_8888_dst_hsw_lowp+0x179>
- DB 196,193,121,110,100,144,56 ; vmovd 0x38(%r8,%rdx,4),%xmm4
- DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,228,64 ; vpblendd $0x40,%ymm4,%ymm5,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,195,81,34,108,144,52,1 ; vpinsrd $0x1,0x34(%r8,%rdx,4),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,195,81,34,108,144,48,0 ; vpinsrd $0x0,0x30(%r8,%rdx,4),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,193,126,111,44,144 ; vmovdqu (%r8,%rdx,4),%ymm5
- DB 196,193,122,111,116,144,32 ; vmovdqu 0x20(%r8,%rdx,4),%xmm6
- DB 196,227,77,2,228,240 ; vpblendd $0xf0,%ymm4,%ymm6,%ymm4
- DB 196,227,85,56,244,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm6
- DB 196,227,85,70,252,49 ; vperm2i128 $0x31,%ymm4,%ymm5,%ymm7
- DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 196,227,69,14,236,170 ; vpblendw $0xaa,%ymm4,%ymm7,%ymm5
- DB 196,227,77,14,228,170 ; vpblendw $0xaa,%ymm4,%ymm6,%ymm4
- DB 196,226,93,43,237 ; vpackusdw %ymm5,%ymm4,%ymm5
- DB 197,125,111,5,34,218,0,0 ; vmovdqa 0xda22(%rip),%ymm8 # 35240 <_sk_srcover_bgra_8888_sse2_lowp+0xa28>
- DB 196,193,85,219,224 ; vpand %ymm8,%ymm5,%ymm4
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,197,114,215,16 ; vpsrld $0x10,%ymm7,%ymm7
- DB 197,205,114,214,16 ; vpsrld $0x10,%ymm6,%ymm6
- DB 196,226,77,43,255 ; vpackusdw %ymm7,%ymm6,%ymm7
- DB 196,193,69,219,240 ; vpand %ymm8,%ymm7,%ymm6
- DB 197,197,113,215,8 ; vpsrlw $0x8,%ymm7,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 119,254 ; ja 27848 <_sk_load_8888_dst_hsw_lowp+0x1cc>
- DB 255 ; (bad)
- DB 255,174,254,255,255,152 ; ljmp *-0x67000002(%rsi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,246 ; push %rsi
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 222,254 ; fdivrp %st,%st(6)
- DB 255 ; (bad)
- DB 255,200 ; dec %eax
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,84,255,255 ; callq *-0x1(%rdi,%rdi,8)
- DB 255,71,255 ; incl -0x1(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 57,255 ; cmp %edi,%edi
- DB 255 ; (bad)
- DB 255,35 ; jmpq *(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,154,255,255,255,134 ; lcall *-0x79000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,114,255 ; pushq -0x1(%rdx)
- DB 255 ; (bad)
- DB 255,92,255,255 ; lcall *-0x1(%rdi,%rdi,8)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_8888_hsw_lowp
-_sk_store_8888_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 197,189,113,241,8 ; vpsllw $0x8,%ymm1,%ymm8
- DB 197,61,235,192 ; vpor %ymm0,%ymm8,%ymm8
- DB 196,66,125,51,200 ; vpmovzxwd %xmm8,%ymm9
- DB 196,67,125,57,192,1 ; vextracti128 $0x1,%ymm8,%xmm8
- DB 196,66,125,51,208 ; vpmovzxwd %xmm8,%ymm10
- DB 197,189,113,243,8 ; vpsllw $0x8,%ymm3,%ymm8
- DB 197,61,235,194 ; vpor %ymm2,%ymm8,%ymm8
- DB 196,67,125,57,195,1 ; vextracti128 $0x1,%ymm8,%xmm11
- DB 196,66,125,51,219 ; vpmovzxwd %xmm11,%ymm11
- DB 196,66,125,51,192 ; vpmovzxwd %xmm8,%ymm8
- DB 196,193,61,114,240,16 ; vpslld $0x10,%ymm8,%ymm8
- DB 196,65,61,235,193 ; vpor %ymm9,%ymm8,%ymm8
- DB 196,193,53,114,243,16 ; vpslld $0x10,%ymm11,%ymm9
- DB 196,65,53,235,202 ; vpor %ymm10,%ymm9,%ymm9
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,30 ; ja 27905 <_sk_store_8888_hsw_lowp+0x81>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,195,0,0,0 ; lea 0xc3(%rip),%r9 # 279b4 <_sk_store_8888_hsw_lowp+0x130>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,126,4,144 ; vmovd %xmm8,(%r8,%rdx,4)
- DB 233,171,0,0,0 ; jmpq 279b0 <_sk_store_8888_hsw_lowp+0x12c>
- DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
- DB 196,65,126,127,76,144,32 ; vmovdqu %ymm9,0x20(%r8,%rdx,4)
- DB 233,153,0,0,0 ; jmpq 279b0 <_sk_store_8888_hsw_lowp+0x12c>
- DB 196,67,121,22,68,144,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 196,65,121,214,4,144 ; vmovq %xmm8,(%r8,%rdx,4)
- DB 233,134,0,0,0 ; jmpq 279b0 <_sk_store_8888_hsw_lowp+0x12c>
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,24,2 ; vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,20,1 ; vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,121,126,76,144,16 ; vmovd %xmm9,0x10(%r8,%rdx,4)
- DB 196,65,122,127,4,144 ; vmovdqu %xmm8,(%r8,%rdx,4)
- DB 235,85 ; jmp 279b0 <_sk_store_8888_hsw_lowp+0x12c>
- DB 196,67,121,22,76,144,40,2 ; vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
- DB 196,67,121,22,76,144,36,1 ; vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
- DB 196,65,121,126,76,144,32 ; vmovd %xmm9,0x20(%r8,%rdx,4)
- DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
- DB 235,54 ; jmp 279b0 <_sk_store_8888_hsw_lowp+0x12c>
- DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
- DB 196,67,121,22,84,144,56,2 ; vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
- DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
- DB 196,67,121,22,84,144,52,1 ; vpextrd $0x1,%xmm10,0x34(%r8,%rdx,4)
- DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
- DB 196,65,121,126,84,144,48 ; vmovd %xmm10,0x30(%r8,%rdx,4)
- DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
- DB 196,65,122,127,76,144,32 ; vmovdqu %xmm9,0x20(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 70,255 ; rex.RX (bad)
- DB 255 ; (bad)
- DB 255,107,255 ; ljmp *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,99,255 ; jmpq *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,159,255,255,255,146 ; lcall *-0x6d000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,132,255,255,255,118,255 ; incl -0x890001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 190,255,255,255,183 ; mov $0xb7ffffff,%esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,175,255,255,255,167 ; ljmp *-0x58000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 239 ; out %eax,(%dx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,226 ; jmpq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,212 ; callq *%rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_hsw_lowp
-_sk_load_bgra_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,55 ; ja 27a42 <_sk_load_bgra_hsw_lowp+0x52>
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,163,1,0,0 ; lea 0x1a3(%rip),%r9 # 27bbc <_sk_load_bgra_hsw_lowp+0x1cc>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 197,237,239,210 ; vpxor %ymm2,%ymm2,%ymm2
- DB 196,65,61,239,192 ; vpxor %ymm8,%ymm8,%ymm8
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,110,12,144 ; vmovd (%r8,%rdx,4),%xmm1
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 233,39,1,0,0 ; jmpq 27b69 <_sk_load_bgra_hsw_lowp+0x179>
- DB 196,193,126,111,12,144 ; vmovdqu (%r8,%rdx,4),%ymm1
- DB 196,193,126,111,68,144,32 ; vmovdqu 0x20(%r8,%rdx,4),%ymm0
- DB 233,21,1,0,0 ; jmpq 27b69 <_sk_load_bgra_hsw_lowp+0x179>
- DB 196,193,121,110,68,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm0
- DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 196,227,101,2,192,4 ; vpblendd $0x4,%ymm0,%ymm3,%ymm0
- DB 196,194,121,53,12,144 ; vpmovzxdq (%r8,%rdx,4),%xmm1
- DB 197,249,112,201,232 ; vpshufd $0xe8,%xmm1,%xmm1
- DB 196,227,125,2,201,3 ; vpblendd $0x3,%ymm1,%ymm0,%ymm1
- DB 197,253,111,195 ; vmovdqa %ymm3,%ymm0
- DB 233,229,0,0,0 ; jmpq 27b69 <_sk_load_bgra_hsw_lowp+0x179>
- DB 196,193,121,110,68,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm0
- DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,192,64 ; vpblendd $0x40,%ymm0,%ymm1,%ymm0
- DB 196,227,125,57,194,1 ; vextracti128 $0x1,%ymm0,%xmm2
- DB 196,195,105,34,84,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm2,%xmm2
- DB 196,227,125,56,194,1 ; vinserti128 $0x1,%xmm2,%ymm0,%ymm0
- DB 197,253,111,209 ; vmovdqa %ymm1,%ymm2
- DB 196,227,125,57,193,1 ; vextracti128 $0x1,%ymm0,%xmm1
- DB 196,195,113,34,76,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm1,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 197,125,111,194 ; vmovdqa %ymm2,%ymm8
- DB 196,193,122,111,12,144 ; vmovdqu (%r8,%rdx,4),%xmm1
- DB 196,227,117,2,200,240 ; vpblendd $0xf0,%ymm0,%ymm1,%ymm1
- DB 197,125,127,192 ; vmovdqa %ymm8,%ymm0
- DB 233,138,0,0,0 ; jmpq 27b69 <_sk_load_bgra_hsw_lowp+0x179>
- DB 196,193,121,110,68,144,40 ; vmovd 0x28(%r8,%rdx,4),%xmm0
- DB 196,226,121,89,192 ; vpbroadcastq %xmm0,%xmm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,192,4 ; vpblendd $0x4,%ymm0,%ymm1,%ymm0
- DB 196,195,121,34,76,144,36,1 ; vpinsrd $0x1,0x24(%r8,%rdx,4),%xmm0,%xmm1
- DB 196,227,125,2,193,15 ; vpblendd $0xf,%ymm1,%ymm0,%ymm0
- DB 196,193,121,110,76,144,32 ; vmovd 0x20(%r8,%rdx,4),%xmm1
- DB 196,227,125,2,193,1 ; vpblendd $0x1,%ymm1,%ymm0,%ymm0
- DB 196,193,126,111,12,144 ; vmovdqu (%r8,%rdx,4),%ymm1
- DB 235,81 ; jmp 27b69 <_sk_load_bgra_hsw_lowp+0x179>
- DB 196,193,121,110,68,144,56 ; vmovd 0x38(%r8,%rdx,4),%xmm0
- DB 196,226,125,89,192 ; vpbroadcastq %xmm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,117,2,192,64 ; vpblendd $0x40,%ymm0,%ymm1,%ymm0
- DB 196,227,125,57,193,1 ; vextracti128 $0x1,%ymm0,%xmm1
- DB 196,195,113,34,76,144,52,1 ; vpinsrd $0x1,0x34(%r8,%rdx,4),%xmm1,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,227,125,57,193,1 ; vextracti128 $0x1,%ymm0,%xmm1
- DB 196,195,113,34,76,144,48,0 ; vpinsrd $0x0,0x30(%r8,%rdx,4),%xmm1,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,193,126,111,12,144 ; vmovdqu (%r8,%rdx,4),%ymm1
- DB 196,193,122,111,84,144,32 ; vmovdqu 0x20(%r8,%rdx,4),%xmm2
- DB 196,227,109,2,192,240 ; vpblendd $0xf0,%ymm0,%ymm2,%ymm0
- DB 196,227,117,56,216,1 ; vinserti128 $0x1,%xmm0,%ymm1,%ymm3
- DB 196,227,117,70,192,49 ; vperm2i128 $0x31,%ymm0,%ymm1,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 196,227,125,14,209,170 ; vpblendw $0xaa,%ymm1,%ymm0,%ymm2
- DB 196,227,101,14,201,170 ; vpblendw $0xaa,%ymm1,%ymm3,%ymm1
- DB 196,226,117,43,202 ; vpackusdw %ymm2,%ymm1,%ymm1
- DB 197,125,111,5,206,214,0,0 ; vmovdqa 0xd6ce(%rip),%ymm8 # 35260 <_sk_srcover_bgra_8888_sse2_lowp+0xa48>
- DB 196,193,117,219,208 ; vpand %ymm8,%ymm1,%ymm2
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,253,114,208,16 ; vpsrld $0x10,%ymm0,%ymm0
- DB 197,229,114,211,16 ; vpsrld $0x10,%ymm3,%ymm3
- DB 196,226,101,43,216 ; vpackusdw %ymm0,%ymm3,%ymm3
- DB 196,193,101,219,192 ; vpand %ymm8,%ymm3,%ymm0
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 119,254 ; ja 27bbc <_sk_load_bgra_hsw_lowp+0x1cc>
- DB 255 ; (bad)
- DB 255,174,254,255,255,152 ; ljmp *-0x67000002(%rsi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,246 ; push %rsi
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 222,254 ; fdivrp %st,%st(6)
- DB 255 ; (bad)
- DB 255,200 ; dec %eax
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,84,255,255 ; callq *-0x1(%rdi,%rdi,8)
- DB 255,71,255 ; incl -0x1(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 57,255 ; cmp %edi,%edi
- DB 255 ; (bad)
- DB 255,35 ; jmpq *(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,154,255,255,255,134 ; lcall *-0x79000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,114,255 ; pushq -0x1(%rdx)
- DB 255 ; (bad)
- DB 255,92,255,255 ; lcall *-0x1(%rdi,%rdi,8)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_dst_hsw_lowp
-_sk_load_bgra_dst_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,55 ; ja 27c4a <_sk_load_bgra_dst_hsw_lowp+0x52>
- DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,163,1,0,0 ; lea 0x1a3(%rip),%r9 # 27dc4 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 197,205,239,246 ; vpxor %ymm6,%ymm6,%ymm6
- DB 196,65,61,239,192 ; vpxor %ymm8,%ymm8,%ymm8
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,110,44,144 ; vmovd (%r8,%rdx,4),%xmm5
- DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 233,39,1,0,0 ; jmpq 27d71 <_sk_load_bgra_dst_hsw_lowp+0x179>
- DB 196,193,126,111,44,144 ; vmovdqu (%r8,%rdx,4),%ymm5
- DB 196,193,126,111,100,144,32 ; vmovdqu 0x20(%r8,%rdx,4),%ymm4
- DB 233,21,1,0,0 ; jmpq 27d71 <_sk_load_bgra_dst_hsw_lowp+0x179>
- DB 196,193,121,110,100,144,8 ; vmovd 0x8(%r8,%rdx,4),%xmm4
- DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 196,227,69,2,228,4 ; vpblendd $0x4,%ymm4,%ymm7,%ymm4
- DB 196,194,121,53,44,144 ; vpmovzxdq (%r8,%rdx,4),%xmm5
- DB 197,249,112,237,232 ; vpshufd $0xe8,%xmm5,%xmm5
- DB 196,227,93,2,237,3 ; vpblendd $0x3,%ymm5,%ymm4,%ymm5
- DB 197,253,111,231 ; vmovdqa %ymm7,%ymm4
- DB 233,229,0,0,0 ; jmpq 27d71 <_sk_load_bgra_dst_hsw_lowp+0x179>
- DB 196,193,121,110,100,144,24 ; vmovd 0x18(%r8,%rdx,4),%xmm4
- DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,228,64 ; vpblendd $0x40,%ymm4,%ymm5,%ymm4
- DB 196,227,125,57,230,1 ; vextracti128 $0x1,%ymm4,%xmm6
- DB 196,195,73,34,116,144,20,1 ; vpinsrd $0x1,0x14(%r8,%rdx,4),%xmm6,%xmm6
- DB 196,227,93,56,230,1 ; vinserti128 $0x1,%xmm6,%ymm4,%ymm4
- DB 197,253,111,245 ; vmovdqa %ymm5,%ymm6
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,195,81,34,108,144,16,0 ; vpinsrd $0x0,0x10(%r8,%rdx,4),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 197,125,111,198 ; vmovdqa %ymm6,%ymm8
- DB 196,193,122,111,44,144 ; vmovdqu (%r8,%rdx,4),%xmm5
- DB 196,227,85,2,236,240 ; vpblendd $0xf0,%ymm4,%ymm5,%ymm5
- DB 197,125,127,196 ; vmovdqa %ymm8,%ymm4
- DB 233,138,0,0,0 ; jmpq 27d71 <_sk_load_bgra_dst_hsw_lowp+0x179>
- DB 196,193,121,110,100,144,40 ; vmovd 0x28(%r8,%rdx,4),%xmm4
- DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,228,4 ; vpblendd $0x4,%ymm4,%ymm5,%ymm4
- DB 196,195,89,34,108,144,36,1 ; vpinsrd $0x1,0x24(%r8,%rdx,4),%xmm4,%xmm5
- DB 196,227,93,2,229,15 ; vpblendd $0xf,%ymm5,%ymm4,%ymm4
- DB 196,193,121,110,108,144,32 ; vmovd 0x20(%r8,%rdx,4),%xmm5
- DB 196,227,93,2,229,1 ; vpblendd $0x1,%ymm5,%ymm4,%ymm4
- DB 196,193,126,111,44,144 ; vmovdqu (%r8,%rdx,4),%ymm5
- DB 235,81 ; jmp 27d71 <_sk_load_bgra_dst_hsw_lowp+0x179>
- DB 196,193,121,110,100,144,56 ; vmovd 0x38(%r8,%rdx,4),%xmm4
- DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,228,64 ; vpblendd $0x40,%ymm4,%ymm5,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,195,81,34,108,144,52,1 ; vpinsrd $0x1,0x34(%r8,%rdx,4),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,195,81,34,108,144,48,0 ; vpinsrd $0x0,0x30(%r8,%rdx,4),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,193,126,111,44,144 ; vmovdqu (%r8,%rdx,4),%ymm5
- DB 196,193,122,111,116,144,32 ; vmovdqu 0x20(%r8,%rdx,4),%xmm6
- DB 196,227,77,2,228,240 ; vpblendd $0xf0,%ymm4,%ymm6,%ymm4
- DB 196,227,85,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm7
- DB 196,227,85,70,228,49 ; vperm2i128 $0x31,%ymm4,%ymm5,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,93,14,245,170 ; vpblendw $0xaa,%ymm5,%ymm4,%ymm6
- DB 196,227,69,14,237,170 ; vpblendw $0xaa,%ymm5,%ymm7,%ymm5
- DB 196,226,85,43,238 ; vpackusdw %ymm6,%ymm5,%ymm5
- DB 197,125,111,5,230,212,0,0 ; vmovdqa 0xd4e6(%rip),%ymm8 # 35280 <_sk_srcover_bgra_8888_sse2_lowp+0xa68>
- DB 196,193,85,219,240 ; vpand %ymm8,%ymm5,%ymm6
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,221,114,212,16 ; vpsrld $0x10,%ymm4,%ymm4
- DB 197,197,114,215,16 ; vpsrld $0x10,%ymm7,%ymm7
- DB 196,226,69,43,252 ; vpackusdw %ymm4,%ymm7,%ymm7
- DB 196,193,69,219,224 ; vpand %ymm8,%ymm7,%ymm4
- DB 197,197,113,215,8 ; vpsrlw $0x8,%ymm7,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 119,254 ; ja 27dc4 <_sk_load_bgra_dst_hsw_lowp+0x1cc>
- DB 255 ; (bad)
- DB 255,174,254,255,255,152 ; ljmp *-0x67000002(%rsi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,246 ; push %rsi
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 222,254 ; fdivrp %st,%st(6)
- DB 255 ; (bad)
- DB 255,200 ; dec %eax
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,84,255,255 ; callq *-0x1(%rdi,%rdi,8)
- DB 255,71,255 ; incl -0x1(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 57,255 ; cmp %edi,%edi
- DB 255 ; (bad)
- DB 255,35 ; jmpq *(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,154,255,255,255,134 ; lcall *-0x79000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,114,255 ; pushq -0x1(%rdx)
- DB 255 ; (bad)
- DB 255,92,255,255 ; lcall *-0x1(%rdi,%rdi,8)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_bgra_hsw_lowp
-_sk_store_bgra_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 197,189,113,241,8 ; vpsllw $0x8,%ymm1,%ymm8
- DB 197,61,235,194 ; vpor %ymm2,%ymm8,%ymm8
- DB 196,66,125,51,200 ; vpmovzxwd %xmm8,%ymm9
- DB 196,67,125,57,192,1 ; vextracti128 $0x1,%ymm8,%xmm8
- DB 196,66,125,51,208 ; vpmovzxwd %xmm8,%ymm10
- DB 197,189,113,243,8 ; vpsllw $0x8,%ymm3,%ymm8
- DB 197,61,235,192 ; vpor %ymm0,%ymm8,%ymm8
- DB 196,67,125,57,195,1 ; vextracti128 $0x1,%ymm8,%xmm11
- DB 196,66,125,51,219 ; vpmovzxwd %xmm11,%ymm11
- DB 196,66,125,51,192 ; vpmovzxwd %xmm8,%ymm8
- DB 196,193,61,114,240,16 ; vpslld $0x10,%ymm8,%ymm8
- DB 196,65,61,235,193 ; vpor %ymm9,%ymm8,%ymm8
- DB 196,193,53,114,243,16 ; vpslld $0x10,%ymm11,%ymm9
- DB 196,65,53,235,202 ; vpor %ymm10,%ymm9,%ymm9
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,30 ; ja 27e81 <_sk_store_bgra_hsw_lowp+0x81>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,195,0,0,0 ; lea 0xc3(%rip),%r9 # 27f30 <_sk_store_bgra_hsw_lowp+0x130>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,126,4,144 ; vmovd %xmm8,(%r8,%rdx,4)
- DB 233,171,0,0,0 ; jmpq 27f2c <_sk_store_bgra_hsw_lowp+0x12c>
- DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
- DB 196,65,126,127,76,144,32 ; vmovdqu %ymm9,0x20(%r8,%rdx,4)
- DB 233,153,0,0,0 ; jmpq 27f2c <_sk_store_bgra_hsw_lowp+0x12c>
- DB 196,67,121,22,68,144,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 196,65,121,214,4,144 ; vmovq %xmm8,(%r8,%rdx,4)
- DB 233,134,0,0,0 ; jmpq 27f2c <_sk_store_bgra_hsw_lowp+0x12c>
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,24,2 ; vpextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,76,144,20,1 ; vpextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,121,126,76,144,16 ; vmovd %xmm9,0x10(%r8,%rdx,4)
- DB 196,65,122,127,4,144 ; vmovdqu %xmm8,(%r8,%rdx,4)
- DB 235,85 ; jmp 27f2c <_sk_store_bgra_hsw_lowp+0x12c>
- DB 196,67,121,22,76,144,40,2 ; vpextrd $0x2,%xmm9,0x28(%r8,%rdx,4)
- DB 196,67,121,22,76,144,36,1 ; vpextrd $0x1,%xmm9,0x24(%r8,%rdx,4)
- DB 196,65,121,126,76,144,32 ; vmovd %xmm9,0x20(%r8,%rdx,4)
- DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
- DB 235,54 ; jmp 27f2c <_sk_store_bgra_hsw_lowp+0x12c>
- DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
- DB 196,67,121,22,84,144,56,2 ; vpextrd $0x2,%xmm10,0x38(%r8,%rdx,4)
- DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
- DB 196,67,121,22,84,144,52,1 ; vpextrd $0x1,%xmm10,0x34(%r8,%rdx,4)
- DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
- DB 196,65,121,126,84,144,48 ; vmovd %xmm10,0x30(%r8,%rdx,4)
- DB 196,65,126,127,4,144 ; vmovdqu %ymm8,(%r8,%rdx,4)
- DB 196,65,122,127,76,144,32 ; vmovdqu %xmm9,0x20(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 70,255 ; rex.RX (bad)
- DB 255 ; (bad)
- DB 255,107,255 ; ljmp *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,99,255 ; jmpq *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,159,255,255,255,146 ; lcall *-0x6d000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,132,255,255,255,118,255 ; incl -0x890001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 190,255,255,255,183 ; mov $0xb7ffffff,%esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,175,255,255,255,167 ; ljmp *-0x58000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 239 ; out %eax,(%dx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,226 ; jmpq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,212 ; callq *%rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_8888_hsw_lowp
-_sk_gather_8888_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,88,64,12 ; vpbroadcastd 0xc(%rax),%ymm8
- DB 196,65,53,118,201 ; vpcmpeqd %ymm9,%ymm9,%ymm9
- DB 196,65,61,254,193 ; vpaddd %ymm9,%ymm8,%ymm8
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 196,193,124,95,194 ; vmaxps %ymm10,%ymm0,%ymm0
- DB 196,193,116,95,202 ; vmaxps %ymm10,%ymm1,%ymm1
- DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 196,98,125,88,64,16 ; vpbroadcastd 0x10(%rax),%ymm8
- DB 196,65,61,254,193 ; vpaddd %ymm9,%ymm8,%ymm8
- DB 196,193,100,95,218 ; vmaxps %ymm10,%ymm3,%ymm3
- DB 196,193,108,95,210 ; vmaxps %ymm10,%ymm2,%ymm2
- DB 196,193,108,93,208 ; vminps %ymm8,%ymm2,%ymm2
- DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,219 ; vcvttps2dq %ymm3,%ymm3
- DB 197,254,91,210 ; vcvttps2dq %ymm2,%ymm2
- DB 196,98,125,88,64,8 ; vpbroadcastd 0x8(%rax),%ymm8
- DB 196,226,61,64,210 ; vpmulld %ymm2,%ymm8,%ymm2
- DB 196,226,61,64,219 ; vpmulld %ymm3,%ymm8,%ymm3
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,237,254,192 ; vpaddd %ymm0,%ymm2,%ymm0
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 197,229,254,201 ; vpaddd %ymm1,%ymm3,%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 196,194,109,144,28,128 ; vpgatherdd %ymm2,(%r8,%ymm0,4),%ymm3
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 196,194,53,144,4,136 ; vpgatherdd %ymm9,(%r8,%ymm1,4),%ymm0
- DB 196,227,101,56,208,1 ; vinserti128 $0x1,%xmm0,%ymm3,%ymm2
- DB 196,227,101,70,216,49 ; vperm2i128 $0x31,%ymm0,%ymm3,%ymm3
- DB 196,195,101,14,194,170 ; vpblendw $0xaa,%ymm10,%ymm3,%ymm0
- DB 196,195,109,14,202,170 ; vpblendw $0xaa,%ymm10,%ymm2,%ymm1
- DB 196,226,117,43,200 ; vpackusdw %ymm0,%ymm1,%ymm1
- DB 197,125,111,5,130,210,0,0 ; vmovdqa 0xd282(%rip),%ymm8 # 352a0 <_sk_srcover_bgra_8888_sse2_lowp+0xa88>
- DB 196,193,117,219,192 ; vpand %ymm8,%ymm1,%ymm0
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,229,114,211,16 ; vpsrld $0x10,%ymm3,%ymm3
- DB 197,237,114,210,16 ; vpsrld $0x10,%ymm2,%ymm2
- DB 196,226,109,43,219 ; vpackusdw %ymm3,%ymm2,%ymm3
- DB 196,193,101,219,208 ; vpand %ymm8,%ymm3,%ymm2
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gather_bgra_hsw_lowp
-_sk_gather_bgra_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,88,64,12 ; vpbroadcastd 0xc(%rax),%ymm8
- DB 196,65,53,118,201 ; vpcmpeqd %ymm9,%ymm9,%ymm9
- DB 196,65,61,254,193 ; vpaddd %ymm9,%ymm8,%ymm8
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 196,193,124,95,194 ; vmaxps %ymm10,%ymm0,%ymm0
- DB 196,193,116,95,202 ; vmaxps %ymm10,%ymm1,%ymm1
- DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 196,98,125,88,64,16 ; vpbroadcastd 0x10(%rax),%ymm8
- DB 196,65,61,254,193 ; vpaddd %ymm9,%ymm8,%ymm8
- DB 196,193,100,95,218 ; vmaxps %ymm10,%ymm3,%ymm3
- DB 196,193,108,95,210 ; vmaxps %ymm10,%ymm2,%ymm2
- DB 196,193,108,93,208 ; vminps %ymm8,%ymm2,%ymm2
- DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,219 ; vcvttps2dq %ymm3,%ymm3
- DB 197,254,91,210 ; vcvttps2dq %ymm2,%ymm2
- DB 196,98,125,88,64,8 ; vpbroadcastd 0x8(%rax),%ymm8
- DB 196,226,61,64,210 ; vpmulld %ymm2,%ymm8,%ymm2
- DB 196,226,61,64,219 ; vpmulld %ymm3,%ymm8,%ymm3
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,237,254,192 ; vpaddd %ymm0,%ymm2,%ymm0
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 197,229,254,201 ; vpaddd %ymm1,%ymm3,%ymm1
- DB 197,237,118,210 ; vpcmpeqd %ymm2,%ymm2,%ymm2
- DB 197,229,239,219 ; vpxor %ymm3,%ymm3,%ymm3
- DB 196,194,109,144,28,128 ; vpgatherdd %ymm2,(%r8,%ymm0,4),%ymm3
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 196,194,53,144,4,136 ; vpgatherdd %ymm9,(%r8,%ymm1,4),%ymm0
- DB 196,99,101,56,192,1 ; vinserti128 $0x1,%xmm0,%ymm3,%ymm8
- DB 196,227,101,70,192,49 ; vperm2i128 $0x31,%ymm0,%ymm3,%ymm0
- DB 196,195,125,14,202,170 ; vpblendw $0xaa,%ymm10,%ymm0,%ymm1
- DB 196,195,61,14,210,170 ; vpblendw $0xaa,%ymm10,%ymm8,%ymm2
- DB 196,226,109,43,201 ; vpackusdw %ymm1,%ymm2,%ymm1
- DB 197,253,111,29,201,209,0,0 ; vmovdqa 0xd1c9(%rip),%ymm3 # 352c0 <_sk_srcover_bgra_8888_sse2_lowp+0xaa8>
- DB 197,245,219,211 ; vpand %ymm3,%ymm1,%ymm2
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,253,114,208,16 ; vpsrld $0x10,%ymm0,%ymm0
- DB 196,193,61,114,208,16 ; vpsrld $0x10,%ymm8,%ymm8
- DB 196,98,61,43,192 ; vpackusdw %ymm0,%ymm8,%ymm8
- DB 197,189,219,195 ; vpand %ymm3,%ymm8,%ymm0
- DB 196,193,101,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_565_hsw_lowp
-_sk_load_565_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,37 ; ja 2815d <_sk_load_565_hsw_lowp+0x3f>
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,130,1,0,0 ; lea 0x182(%rip),%r9 # 282c8 <_sk_load_565_hsw_lowp+0x1aa>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 233,8,1,0,0 ; jmpq 28265 <_sk_load_565_hsw_lowp+0x147>
- DB 196,193,126,111,4,80 ; vmovdqu (%r8,%rdx,2),%ymm0
- DB 233,253,0,0,0 ; jmpq 28265 <_sk_load_565_hsw_lowp+0x147>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,76,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
- DB 196,227,117,56,192,1 ; vinserti128 $0x1,%xmm0,%ymm1,%ymm0
- DB 196,193,121,110,12,80 ; vmovd (%r8,%rdx,2),%xmm1
- DB 196,227,125,2,193,1 ; vpblendd $0x1,%ymm1,%ymm0,%ymm0
- DB 233,218,0,0,0 ; jmpq 28265 <_sk_load_565_hsw_lowp+0x147>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,76,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
- DB 196,227,117,56,192,1 ; vinserti128 $0x1,%xmm0,%ymm1,%ymm0
- DB 196,193,121,196,76,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm1
- DB 196,227,125,2,193,15 ; vpblendd $0xf,%ymm1,%ymm0,%ymm0
- DB 196,193,121,196,76,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm1
- DB 196,227,125,2,193,15 ; vpblendd $0xf,%ymm1,%ymm0,%ymm0
- DB 196,193,122,126,12,80 ; vmovq (%r8,%rdx,2),%xmm1
- DB 196,227,125,2,193,3 ; vpblendd $0x3,%ymm1,%ymm0,%ymm0
- DB 233,155,0,0,0 ; jmpq 28265 <_sk_load_565_hsw_lowp+0x147>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,76,80,20,2 ; vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,227,125,57,193,1 ; vextracti128 $0x1,%ymm0,%xmm1
- DB 196,193,113,196,76,80,18,1 ; vpinsrw $0x1,0x12(%r8,%rdx,2),%xmm1,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,227,125,57,193,1 ; vextracti128 $0x1,%ymm0,%xmm1
- DB 196,193,113,196,76,80,16,0 ; vpinsrw $0x0,0x10(%r8,%rdx,2),%xmm1,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,193,122,111,12,80 ; vmovdqu (%r8,%rdx,2),%xmm1
- DB 196,227,117,2,192,240 ; vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- DB 235,83 ; jmp 28265 <_sk_load_565_hsw_lowp+0x147>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,76,80,28,6 ; vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,227,125,57,193,1 ; vextracti128 $0x1,%ymm0,%xmm1
- DB 196,193,113,196,76,80,26,5 ; vpinsrw $0x5,0x1a(%r8,%rdx,2),%xmm1,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,227,125,57,193,1 ; vextracti128 $0x1,%ymm0,%xmm1
- DB 196,193,113,196,76,80,24,4 ; vpinsrw $0x4,0x18(%r8,%rdx,2),%xmm1,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,193,122,126,76,80,16 ; vmovq 0x10(%r8,%rdx,2),%xmm1
- DB 196,193,122,111,20,80 ; vmovdqu (%r8,%rdx,2),%xmm2
- DB 196,227,109,56,201,1 ; vinserti128 $0x1,%xmm1,%ymm2,%ymm1
- DB 196,227,117,2,192,192 ; vpblendd $0xc0,%ymm0,%ymm1,%ymm0
- DB 196,226,125,121,13,114,208,0,0 ; vpbroadcastw 0xd072(%rip),%ymm1 # 352e0 <_sk_srcover_bgra_8888_sse2_lowp+0xac8>
- DB 197,237,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm2
- DB 197,237,219,201 ; vpand %ymm1,%ymm2,%ymm1
- DB 197,237,113,208,5 ; vpsrlw $0x5,%ymm0,%ymm2
- DB 196,226,125,121,29,93,208,0,0 ; vpbroadcastw 0xd05d(%rip),%ymm3 # 352e2 <_sk_srcover_bgra_8888_sse2_lowp+0xaca>
- DB 197,237,219,211 ; vpand %ymm3,%ymm2,%ymm2
- DB 196,226,125,121,29,82,208,0,0 ; vpbroadcastw 0xd052(%rip),%ymm3 # 352e4 <_sk_srcover_bgra_8888_sse2_lowp+0xacc>
- DB 197,253,219,219 ; vpand %ymm3,%ymm0,%ymm3
- DB 197,253,113,208,13 ; vpsrlw $0xd,%ymm0,%ymm0
- DB 197,245,235,192 ; vpor %ymm0,%ymm1,%ymm0
- DB 197,245,113,242,2 ; vpsllw $0x2,%ymm2,%ymm1
- DB 197,237,113,210,4 ; vpsrlw $0x4,%ymm2,%ymm2
- DB 197,245,235,202 ; vpor %ymm2,%ymm1,%ymm1
- DB 197,237,113,243,3 ; vpsllw $0x3,%ymm3,%ymm2
- DB 197,229,113,211,2 ; vpsrlw $0x2,%ymm3,%ymm3
- DB 197,237,235,211 ; vpor %ymm3,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,29,32,208,0,0 ; vpbroadcastw 0xd020(%rip),%ymm3 # 352e6 <_sk_srcover_bgra_8888_sse2_lowp+0xace>
- DB 255,224 ; jmpq *%rax
- DB 135,254 ; xchg %edi,%esi
- DB 255 ; (bad)
- DB 255,178,254,255,255,160 ; pushq -0x5f000002(%rdx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,241 ; push %rcx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,227 ; jmpq *%rbx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,195 ; inc %ebx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 60,255 ; cmp $0xff,%al
- DB 255 ; (bad)
- DB 255,40 ; ljmp *(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,20,255 ; callq *(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,2 ; incl (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,132,255,255,255,112,255 ; incl -0x8f0001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,92,255,255 ; lcall *-0x1(%rdi,%rdi,8)
- DB 255,74,255 ; decl -0x1(%rdx)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_565_dst_hsw_lowp
-_sk_load_565_dst_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,37 ; ja 28343 <_sk_load_565_dst_hsw_lowp+0x3f>
- DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,132,1,0,0 ; lea 0x184(%rip),%r9 # 284b0 <_sk_load_565_dst_hsw_lowp+0x1ac>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 233,8,1,0,0 ; jmpq 2844b <_sk_load_565_dst_hsw_lowp+0x147>
- DB 196,193,126,111,36,80 ; vmovdqu (%r8,%rdx,2),%ymm4
- DB 233,253,0,0,0 ; jmpq 2844b <_sk_load_565_dst_hsw_lowp+0x147>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,108,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
- DB 196,227,85,56,228,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm4
- DB 196,193,121,110,44,80 ; vmovd (%r8,%rdx,2),%xmm5
- DB 196,227,93,2,229,1 ; vpblendd $0x1,%ymm5,%ymm4,%ymm4
- DB 233,218,0,0,0 ; jmpq 2844b <_sk_load_565_dst_hsw_lowp+0x147>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,108,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
- DB 196,227,85,56,228,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm4
- DB 196,193,89,196,108,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm5
- DB 196,227,93,2,229,15 ; vpblendd $0xf,%ymm5,%ymm4,%ymm4
- DB 196,193,89,196,108,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm5
- DB 196,227,93,2,229,15 ; vpblendd $0xf,%ymm5,%ymm4,%ymm4
- DB 196,193,122,126,44,80 ; vmovq (%r8,%rdx,2),%xmm5
- DB 196,227,93,2,229,3 ; vpblendd $0x3,%ymm5,%ymm4,%ymm4
- DB 233,155,0,0,0 ; jmpq 2844b <_sk_load_565_dst_hsw_lowp+0x147>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,108,80,20,2 ; vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,193,81,196,108,80,18,1 ; vpinsrw $0x1,0x12(%r8,%rdx,2),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,193,81,196,108,80,16,0 ; vpinsrw $0x0,0x10(%r8,%rdx,2),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,193,122,111,44,80 ; vmovdqu (%r8,%rdx,2),%xmm5
- DB 196,227,85,2,228,240 ; vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- DB 235,83 ; jmp 2844b <_sk_load_565_dst_hsw_lowp+0x147>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,108,80,28,6 ; vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,193,81,196,108,80,26,5 ; vpinsrw $0x5,0x1a(%r8,%rdx,2),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,193,81,196,108,80,24,4 ; vpinsrw $0x4,0x18(%r8,%rdx,2),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,193,122,126,108,80,16 ; vmovq 0x10(%r8,%rdx,2),%xmm5
- DB 196,193,122,111,52,80 ; vmovdqu (%r8,%rdx,2),%xmm6
- DB 196,227,77,56,237,1 ; vinserti128 $0x1,%xmm5,%ymm6,%ymm5
- DB 196,227,85,2,228,192 ; vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- DB 196,226,125,121,45,148,206,0,0 ; vpbroadcastw 0xce94(%rip),%ymm5 # 352e8 <_sk_srcover_bgra_8888_sse2_lowp+0xad0>
- DB 197,205,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm6
- DB 197,205,219,237 ; vpand %ymm5,%ymm6,%ymm5
- DB 197,205,113,212,5 ; vpsrlw $0x5,%ymm4,%ymm6
- DB 196,226,125,121,61,127,206,0,0 ; vpbroadcastw 0xce7f(%rip),%ymm7 # 352ea <_sk_srcover_bgra_8888_sse2_lowp+0xad2>
- DB 197,205,219,247 ; vpand %ymm7,%ymm6,%ymm6
- DB 196,226,125,121,61,116,206,0,0 ; vpbroadcastw 0xce74(%rip),%ymm7 # 352ec <_sk_srcover_bgra_8888_sse2_lowp+0xad4>
- DB 197,221,219,255 ; vpand %ymm7,%ymm4,%ymm7
- DB 197,221,113,212,13 ; vpsrlw $0xd,%ymm4,%ymm4
- DB 197,213,235,228 ; vpor %ymm4,%ymm5,%ymm4
- DB 197,213,113,246,2 ; vpsllw $0x2,%ymm6,%ymm5
- DB 197,205,113,214,4 ; vpsrlw $0x4,%ymm6,%ymm6
- DB 197,213,235,238 ; vpor %ymm6,%ymm5,%ymm5
- DB 197,205,113,247,3 ; vpsllw $0x3,%ymm7,%ymm6
- DB 197,197,113,215,2 ; vpsrlw $0x2,%ymm7,%ymm7
- DB 197,205,235,247 ; vpor %ymm7,%ymm6,%ymm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,61,66,206,0,0 ; vpbroadcastw 0xce42(%rip),%ymm7 # 352ee <_sk_srcover_bgra_8888_sse2_lowp+0xad6>
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 133,254 ; test %edi,%esi
- DB 255 ; (bad)
- DB 255,176,254,255,255,158 ; pushq -0x61000002(%rax)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 239 ; out %eax,(%dx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,225 ; jmpq *%rcx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,211 ; callq *%rbx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,193 ; inc %ecx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 58,255 ; cmp %bh,%bh
- DB 255 ; (bad)
- DB 255,38 ; jmpq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,18 ; callq *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,130,255,255,255,110 ; incl 0x6effffff(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,90,255 ; lcall *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,72,255 ; decl -0x1(%rax)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_565_hsw_lowp
-_sk_store_565_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,98,125,121,5,235,205,0,0 ; vpbroadcastw 0xcdeb(%rip),%ymm8 # 352f0 <_sk_srcover_bgra_8888_sse2_lowp+0xad8>
- DB 197,181,113,240,8 ; vpsllw $0x8,%ymm0,%ymm9
- DB 196,65,53,219,192 ; vpand %ymm8,%ymm9,%ymm8
- DB 196,98,125,121,13,218,205,0,0 ; vpbroadcastw 0xcdda(%rip),%ymm9 # 352f2 <_sk_srcover_bgra_8888_sse2_lowp+0xada>
- DB 197,173,113,241,3 ; vpsllw $0x3,%ymm1,%ymm10
- DB 196,65,45,219,201 ; vpand %ymm9,%ymm10,%ymm9
- DB 196,65,53,235,192 ; vpor %ymm8,%ymm9,%ymm8
- DB 197,181,113,210,3 ; vpsrlw $0x3,%ymm2,%ymm9
- DB 196,65,61,235,193 ; vpor %ymm9,%ymm8,%ymm8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,31 ; ja 2855a <_sk_store_565_hsw_lowp+0x6e>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,195,0,0,0 ; lea 0xc3(%rip),%r9 # 28608 <_sk_store_565_hsw_lowp+0x11c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,67,121,21,4,80,0 ; vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- DB 233,167,0,0,0 ; jmpq 28601 <_sk_store_565_hsw_lowp+0x115>
- DB 196,65,126,127,4,80 ; vmovdqu %ymm8,(%r8,%rdx,2)
- DB 233,156,0,0,0 ; jmpq 28601 <_sk_store_565_hsw_lowp+0x115>
- DB 196,67,121,21,68,80,4,2 ; vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- DB 196,65,121,126,4,80 ; vmovd %xmm8,(%r8,%rdx,2)
- DB 233,137,0,0,0 ; jmpq 28601 <_sk_store_565_hsw_lowp+0x115>
- DB 196,67,121,21,68,80,12,6 ; vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- DB 196,67,121,21,68,80,10,5 ; vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- DB 196,67,121,21,68,80,8,4 ; vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- DB 196,65,121,214,4,80 ; vmovq %xmm8,(%r8,%rdx,2)
- DB 235,105 ; jmp 28601 <_sk_store_565_hsw_lowp+0x115>
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,21,76,80,20,2 ; vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,21,76,80,18,1 ; vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,21,76,80,16,0 ; vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- DB 235,55 ; jmp 285fb <_sk_store_565_hsw_lowp+0x10f>
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,21,76,80,28,6 ; vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,21,76,80,26,5 ; vpextrw $0x5,%xmm9,0x1a(%r8,%rdx,2)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,21,76,80,24,4 ; vpextrw $0x4,%xmm9,0x18(%r8,%rdx,2)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,121,214,76,80,16 ; vmovq %xmm9,0x10(%r8,%rdx,2)
- DB 196,65,122,127,4,80 ; vmovdqu %xmm8,(%r8,%rdx,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 70,255 ; rex.RX (bad)
- DB 255 ; (bad)
- DB 255,101,255 ; jmpq *-0x1(%rbp)
- DB 255 ; (bad)
- DB 255,93,255 ; lcall *-0x1(%rbp)
- DB 255 ; (bad)
- DB 255,136,255,255,255,128 ; decl -0x7f000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 120,255 ; js 2861d <_sk_store_565_hsw_lowp+0x131>
- DB 255 ; (bad)
- DB 255,112,255 ; pushq -0x1(%rax)
- DB 255 ; (bad)
- DB 255,243 ; push %rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,172,255,255,255,158,255 ; ljmp *-0x610001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,144,255,255,255,230 ; callq *-0x19000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 216,255 ; fdivr %st(7),%st
- DB 255 ; (bad)
- DB 255,202 ; dec %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 188 ; .byte 0xbc
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_565_hsw_lowp
-_sk_gather_565_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,88,64,12 ; vpbroadcastd 0xc(%rax),%ymm8
- DB 196,65,53,118,201 ; vpcmpeqd %ymm9,%ymm9,%ymm9
- DB 196,65,61,254,193 ; vpaddd %ymm9,%ymm8,%ymm8
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 196,193,124,95,194 ; vmaxps %ymm10,%ymm0,%ymm0
- DB 196,193,116,95,202 ; vmaxps %ymm10,%ymm1,%ymm1
- DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 196,98,125,88,64,16 ; vpbroadcastd 0x10(%rax),%ymm8
- DB 196,65,61,254,193 ; vpaddd %ymm9,%ymm8,%ymm8
- DB 196,193,100,95,218 ; vmaxps %ymm10,%ymm3,%ymm3
- DB 196,193,108,95,210 ; vmaxps %ymm10,%ymm2,%ymm2
- DB 196,193,108,93,208 ; vminps %ymm8,%ymm2,%ymm2
- DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,219 ; vcvttps2dq %ymm3,%ymm3
- DB 197,254,91,210 ; vcvttps2dq %ymm2,%ymm2
- DB 196,98,125,88,64,8 ; vpbroadcastd 0x8(%rax),%ymm8
- DB 196,226,61,64,210 ; vpmulld %ymm2,%ymm8,%ymm2
- DB 196,226,61,64,219 ; vpmulld %ymm3,%ymm8,%ymm3
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,237,254,192 ; vpaddd %ymm0,%ymm2,%ymm0
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 197,229,254,201 ; vpaddd %ymm1,%ymm3,%ymm1
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,249,110,208 ; vmovd %eax,%xmm2
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,183,4,72 ; movzwl (%r8,%r9,2),%eax
- DB 197,233,196,208,1 ; vpinsrw $0x1,%eax,%xmm2,%xmm2
- DB 68,137,208 ; mov %r10d,%eax
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,201,1 ; vextracti128 $0x1,%ymm1,%xmm1
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,233,196,208,2 ; vpinsrw $0x2,%eax,%xmm2,%xmm2
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 67,15,183,4,80 ; movzwl (%r8,%r10,2),%eax
- DB 197,233,196,208,3 ; vpinsrw $0x3,%eax,%xmm2,%xmm2
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,233,196,208,4 ; vpinsrw $0x4,%eax,%xmm2,%xmm2
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,183,4,72 ; movzwl (%r8,%r9,2),%eax
- DB 197,233,196,200,5 ; vpinsrw $0x5,%eax,%xmm2,%xmm1
- DB 68,137,208 ; mov %r10d,%eax
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,241,196,200,6 ; vpinsrw $0x6,%eax,%xmm1,%xmm1
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 67,15,183,4,80 ; movzwl (%r8,%r10,2),%eax
- DB 197,241,196,200,7 ; vpinsrw $0x7,%eax,%xmm1,%xmm1
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,249,110,208 ; vmovd %eax,%xmm2
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,183,4,72 ; movzwl (%r8,%r9,2),%eax
- DB 197,233,196,208,1 ; vpinsrw $0x1,%eax,%xmm2,%xmm2
- DB 68,137,208 ; mov %r10d,%eax
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,192,1 ; vextracti128 $0x1,%ymm0,%xmm0
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,233,196,208,2 ; vpinsrw $0x2,%eax,%xmm2,%xmm2
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 67,15,183,4,80 ; movzwl (%r8,%r10,2),%eax
- DB 197,233,196,208,3 ; vpinsrw $0x3,%eax,%xmm2,%xmm2
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,233,196,208,4 ; vpinsrw $0x4,%eax,%xmm2,%xmm2
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,183,4,72 ; movzwl (%r8,%r9,2),%eax
- DB 197,233,196,192,5 ; vpinsrw $0x5,%eax,%xmm2,%xmm0
- DB 68,137,208 ; mov %r10d,%eax
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,249,196,192,6 ; vpinsrw $0x6,%eax,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 67,15,183,4,80 ; movzwl (%r8,%r10,2),%eax
- DB 197,249,196,192,7 ; vpinsrw $0x7,%eax,%xmm0,%xmm0
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,226,125,121,13,30,203,0,0 ; vpbroadcastw 0xcb1e(%rip),%ymm1 # 352f4 <_sk_srcover_bgra_8888_sse2_lowp+0xadc>
- DB 197,237,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm2
- DB 197,237,219,201 ; vpand %ymm1,%ymm2,%ymm1
- DB 197,237,113,208,5 ; vpsrlw $0x5,%ymm0,%ymm2
- DB 196,226,125,121,29,9,203,0,0 ; vpbroadcastw 0xcb09(%rip),%ymm3 # 352f6 <_sk_srcover_bgra_8888_sse2_lowp+0xade>
- DB 197,237,219,211 ; vpand %ymm3,%ymm2,%ymm2
- DB 196,226,125,121,29,254,202,0,0 ; vpbroadcastw 0xcafe(%rip),%ymm3 # 352f8 <_sk_srcover_bgra_8888_sse2_lowp+0xae0>
- DB 197,253,219,219 ; vpand %ymm3,%ymm0,%ymm3
- DB 197,253,113,208,13 ; vpsrlw $0xd,%ymm0,%ymm0
- DB 197,245,235,192 ; vpor %ymm0,%ymm1,%ymm0
- DB 197,245,113,242,2 ; vpsllw $0x2,%ymm2,%ymm1
- DB 197,237,113,210,4 ; vpsrlw $0x4,%ymm2,%ymm2
- DB 197,245,235,202 ; vpor %ymm2,%ymm1,%ymm1
- DB 197,237,113,243,3 ; vpsllw $0x3,%ymm3,%ymm2
- DB 197,229,113,211,2 ; vpsrlw $0x2,%ymm3,%ymm3
- DB 197,237,235,211 ; vpor %ymm3,%ymm2,%ymm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,29,204,202,0,0 ; vpbroadcastw 0xcacc(%rip),%ymm3 # 352fa <_sk_srcover_bgra_8888_sse2_lowp+0xae2>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_4444_hsw_lowp
-_sk_load_4444_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,37 ; ja 2886f <_sk_load_4444_hsw_lowp+0x3f>
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,112,1,0,0 ; lea 0x170(%rip),%r9 # 289c8 <_sk_load_4444_hsw_lowp+0x198>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 233,8,1,0,0 ; jmpq 28977 <_sk_load_4444_hsw_lowp+0x147>
- DB 196,193,126,111,4,80 ; vmovdqu (%r8,%rdx,2),%ymm0
- DB 233,253,0,0,0 ; jmpq 28977 <_sk_load_4444_hsw_lowp+0x147>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,76,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm0,%xmm1
- DB 196,227,117,56,192,1 ; vinserti128 $0x1,%xmm0,%ymm1,%ymm0
- DB 196,193,121,110,12,80 ; vmovd (%r8,%rdx,2),%xmm1
- DB 196,227,125,2,193,1 ; vpblendd $0x1,%ymm1,%ymm0,%ymm0
- DB 233,218,0,0,0 ; jmpq 28977 <_sk_load_4444_hsw_lowp+0x147>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,76,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm0,%xmm1
- DB 196,227,117,56,192,1 ; vinserti128 $0x1,%xmm0,%ymm1,%ymm0
- DB 196,193,121,196,76,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm0,%xmm1
- DB 196,227,125,2,193,15 ; vpblendd $0xf,%ymm1,%ymm0,%ymm0
- DB 196,193,121,196,76,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm0,%xmm1
- DB 196,227,125,2,193,15 ; vpblendd $0xf,%ymm1,%ymm0,%ymm0
- DB 196,193,122,126,12,80 ; vmovq (%r8,%rdx,2),%xmm1
- DB 196,227,125,2,193,3 ; vpblendd $0x3,%ymm1,%ymm0,%ymm0
- DB 233,155,0,0,0 ; jmpq 28977 <_sk_load_4444_hsw_lowp+0x147>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,76,80,20,2 ; vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm0,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,227,125,57,193,1 ; vextracti128 $0x1,%ymm0,%xmm1
- DB 196,193,113,196,76,80,18,1 ; vpinsrw $0x1,0x12(%r8,%rdx,2),%xmm1,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,227,125,57,193,1 ; vextracti128 $0x1,%ymm0,%xmm1
- DB 196,193,113,196,76,80,16,0 ; vpinsrw $0x0,0x10(%r8,%rdx,2),%xmm1,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,193,122,111,12,80 ; vmovdqu (%r8,%rdx,2),%xmm1
- DB 196,227,117,2,192,240 ; vpblendd $0xf0,%ymm0,%ymm1,%ymm0
- DB 235,83 ; jmp 28977 <_sk_load_4444_hsw_lowp+0x147>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,193,121,196,76,80,28,6 ; vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm0,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,227,125,57,193,1 ; vextracti128 $0x1,%ymm0,%xmm1
- DB 196,193,113,196,76,80,26,5 ; vpinsrw $0x5,0x1a(%r8,%rdx,2),%xmm1,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,227,125,57,193,1 ; vextracti128 $0x1,%ymm0,%xmm1
- DB 196,193,113,196,76,80,24,4 ; vpinsrw $0x4,0x18(%r8,%rdx,2),%xmm1,%xmm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,193,122,126,76,80,16 ; vmovq 0x10(%r8,%rdx,2),%xmm1
- DB 196,193,122,111,20,80 ; vmovdqu (%r8,%rdx,2),%xmm2
- DB 196,227,109,56,201,1 ; vinserti128 $0x1,%xmm1,%ymm2,%ymm1
- DB 196,227,117,2,192,192 ; vpblendd $0xc0,%ymm0,%ymm1,%ymm0
- DB 197,245,113,208,12 ; vpsrlw $0xc,%ymm0,%ymm1
- DB 197,237,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm2
- DB 196,226,125,121,29,114,201,0,0 ; vpbroadcastw 0xc972(%rip),%ymm3 # 352fc <_sk_srcover_bgra_8888_sse2_lowp+0xae4>
- DB 197,237,219,211 ; vpand %ymm3,%ymm2,%ymm2
- DB 197,189,113,208,4 ; vpsrlw $0x4,%ymm0,%ymm8
- DB 197,61,219,195 ; vpand %ymm3,%ymm8,%ymm8
- DB 197,253,219,219 ; vpand %ymm3,%ymm0,%ymm3
- DB 197,253,113,241,4 ; vpsllw $0x4,%ymm1,%ymm0
- DB 197,253,235,193 ; vpor %ymm1,%ymm0,%ymm0
- DB 197,245,113,242,4 ; vpsllw $0x4,%ymm2,%ymm1
- DB 197,245,235,202 ; vpor %ymm2,%ymm1,%ymm1
- DB 196,193,109,113,240,4 ; vpsllw $0x4,%ymm8,%ymm2
- DB 196,193,109,235,208 ; vpor %ymm8,%ymm2,%ymm2
- DB 197,189,113,243,4 ; vpsllw $0x4,%ymm3,%ymm8
- DB 197,189,235,219 ; vpor %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 153 ; cltd
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,196 ; inc %esp
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,178,254,255,255,3 ; pushq 0x3fffffe(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,245 ; push %rbp
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,78,255 ; decl -0x1(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 58,255 ; cmp %bh,%bh
- DB 255 ; (bad)
- DB 255,38 ; jmpq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,20,255 ; callq *(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,150,255,255,255,130 ; callq *-0x7d000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,110,255 ; ljmp *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,92,255,255 ; lcall *-0x1(%rdi,%rdi,8)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_4444_dst_hsw_lowp
-_sk_load_4444_dst_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,37 ; ja 28a43 <_sk_load_4444_dst_hsw_lowp+0x3f>
- DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,112,1,0,0 ; lea 0x170(%rip),%r9 # 28b9c <_sk_load_4444_dst_hsw_lowp+0x198>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 233,8,1,0,0 ; jmpq 28b4b <_sk_load_4444_dst_hsw_lowp+0x147>
- DB 196,193,126,111,36,80 ; vmovdqu (%r8,%rdx,2),%ymm4
- DB 233,253,0,0,0 ; jmpq 28b4b <_sk_load_4444_dst_hsw_lowp+0x147>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,108,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm4,%xmm5
- DB 196,227,85,56,228,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm4
- DB 196,193,121,110,44,80 ; vmovd (%r8,%rdx,2),%xmm5
- DB 196,227,93,2,229,1 ; vpblendd $0x1,%ymm5,%ymm4,%ymm4
- DB 233,218,0,0,0 ; jmpq 28b4b <_sk_load_4444_dst_hsw_lowp+0x147>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,108,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm4,%xmm5
- DB 196,227,85,56,228,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm4
- DB 196,193,89,196,108,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm4,%xmm5
- DB 196,227,93,2,229,15 ; vpblendd $0xf,%ymm5,%ymm4,%ymm4
- DB 196,193,89,196,108,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm4,%xmm5
- DB 196,227,93,2,229,15 ; vpblendd $0xf,%ymm5,%ymm4,%ymm4
- DB 196,193,122,126,44,80 ; vmovq (%r8,%rdx,2),%xmm5
- DB 196,227,93,2,229,3 ; vpblendd $0x3,%ymm5,%ymm4,%ymm4
- DB 233,155,0,0,0 ; jmpq 28b4b <_sk_load_4444_dst_hsw_lowp+0x147>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,108,80,20,2 ; vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm4,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,193,81,196,108,80,18,1 ; vpinsrw $0x1,0x12(%r8,%rdx,2),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,193,81,196,108,80,16,0 ; vpinsrw $0x0,0x10(%r8,%rdx,2),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,193,122,111,44,80 ; vmovdqu (%r8,%rdx,2),%xmm5
- DB 196,227,85,2,228,240 ; vpblendd $0xf0,%ymm4,%ymm5,%ymm4
- DB 235,83 ; jmp 28b4b <_sk_load_4444_dst_hsw_lowp+0x147>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,193,89,196,108,80,28,6 ; vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm4,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,193,81,196,108,80,26,5 ; vpinsrw $0x5,0x1a(%r8,%rdx,2),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,193,81,196,108,80,24,4 ; vpinsrw $0x4,0x18(%r8,%rdx,2),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,193,122,126,108,80,16 ; vmovq 0x10(%r8,%rdx,2),%xmm5
- DB 196,193,122,111,52,80 ; vmovdqu (%r8,%rdx,2),%xmm6
- DB 196,227,77,56,237,1 ; vinserti128 $0x1,%xmm5,%ymm6,%ymm5
- DB 196,227,85,2,228,192 ; vpblendd $0xc0,%ymm4,%ymm5,%ymm4
- DB 197,213,113,212,12 ; vpsrlw $0xc,%ymm4,%ymm5
- DB 197,205,113,212,8 ; vpsrlw $0x8,%ymm4,%ymm6
- DB 196,226,125,121,61,160,199,0,0 ; vpbroadcastw 0xc7a0(%rip),%ymm7 # 352fe <_sk_srcover_bgra_8888_sse2_lowp+0xae6>
- DB 197,205,219,247 ; vpand %ymm7,%ymm6,%ymm6
- DB 197,189,113,212,4 ; vpsrlw $0x4,%ymm4,%ymm8
- DB 197,61,219,199 ; vpand %ymm7,%ymm8,%ymm8
- DB 197,221,219,255 ; vpand %ymm7,%ymm4,%ymm7
- DB 197,221,113,245,4 ; vpsllw $0x4,%ymm5,%ymm4
- DB 197,221,235,229 ; vpor %ymm5,%ymm4,%ymm4
- DB 197,213,113,246,4 ; vpsllw $0x4,%ymm6,%ymm5
- DB 197,213,235,238 ; vpor %ymm6,%ymm5,%ymm5
- DB 196,193,77,113,240,4 ; vpsllw $0x4,%ymm8,%ymm6
- DB 196,193,77,235,240 ; vpor %ymm8,%ymm6,%ymm6
- DB 197,189,113,247,4 ; vpsllw $0x4,%ymm7,%ymm8
- DB 197,189,235,255 ; vpor %ymm7,%ymm8,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 153 ; cltd
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,196 ; inc %esp
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,178,254,255,255,3 ; pushq 0x3fffffe(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,245 ; push %rbp
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,231 ; jmpq *%rdi
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,78,255 ; decl -0x1(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 58,255 ; cmp %bh,%bh
- DB 255 ; (bad)
- DB 255,38 ; jmpq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,20,255 ; callq *(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,150,255,255,255,130 ; callq *-0x7d000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,110,255 ; ljmp *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,92,255,255 ; lcall *-0x1(%rdi,%rdi,8)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_4444_hsw_lowp
-_sk_store_4444_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,98,125,121,5,15,199,0,0 ; vpbroadcastw 0xc70f(%rip),%ymm8 # 35300 <_sk_srcover_bgra_8888_sse2_lowp+0xae8>
- DB 197,181,113,240,8 ; vpsllw $0x8,%ymm0,%ymm9
- DB 196,65,53,219,192 ; vpand %ymm8,%ymm9,%ymm8
- DB 197,181,113,241,4 ; vpsllw $0x4,%ymm1,%ymm9
- DB 197,53,219,13,24,199,0,0 ; vpand 0xc718(%rip),%ymm9,%ymm9 # 35320 <_sk_srcover_bgra_8888_sse2_lowp+0xb08>
- DB 196,65,53,235,192 ; vpor %ymm8,%ymm9,%ymm8
- DB 196,98,125,121,13,42,199,0,0 ; vpbroadcastw 0xc72a(%rip),%ymm9 # 35340 <_sk_srcover_bgra_8888_sse2_lowp+0xb28>
- DB 196,65,109,219,201 ; vpand %ymm9,%ymm2,%ymm9
- DB 197,173,113,211,4 ; vpsrlw $0x4,%ymm3,%ymm10
- DB 196,65,53,235,202 ; vpor %ymm10,%ymm9,%ymm9
- DB 196,65,61,235,193 ; vpor %ymm9,%ymm8,%ymm8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,31 ; ja 28c53 <_sk_store_4444_hsw_lowp+0x7b>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,194,0,0,0 ; lea 0xc2(%rip),%r9 # 28d00 <_sk_store_4444_hsw_lowp+0x128>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,67,121,21,4,80,0 ; vpextrw $0x0,%xmm8,(%r8,%rdx,2)
- DB 233,167,0,0,0 ; jmpq 28cfa <_sk_store_4444_hsw_lowp+0x122>
- DB 196,65,126,127,4,80 ; vmovdqu %ymm8,(%r8,%rdx,2)
- DB 233,156,0,0,0 ; jmpq 28cfa <_sk_store_4444_hsw_lowp+0x122>
- DB 196,67,121,21,68,80,4,2 ; vpextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- DB 196,65,121,126,4,80 ; vmovd %xmm8,(%r8,%rdx,2)
- DB 233,137,0,0,0 ; jmpq 28cfa <_sk_store_4444_hsw_lowp+0x122>
- DB 196,67,121,21,68,80,12,6 ; vpextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- DB 196,67,121,21,68,80,10,5 ; vpextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- DB 196,67,121,21,68,80,8,4 ; vpextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- DB 196,65,121,214,4,80 ; vmovq %xmm8,(%r8,%rdx,2)
- DB 235,105 ; jmp 28cfa <_sk_store_4444_hsw_lowp+0x122>
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,21,76,80,20,2 ; vpextrw $0x2,%xmm9,0x14(%r8,%rdx,2)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,21,76,80,18,1 ; vpextrw $0x1,%xmm9,0x12(%r8,%rdx,2)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,21,76,80,16,0 ; vpextrw $0x0,%xmm9,0x10(%r8,%rdx,2)
- DB 235,55 ; jmp 28cf4 <_sk_store_4444_hsw_lowp+0x11c>
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,21,76,80,28,6 ; vpextrw $0x6,%xmm9,0x1c(%r8,%rdx,2)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,21,76,80,26,5 ; vpextrw $0x5,%xmm9,0x1a(%r8,%rdx,2)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,21,76,80,24,4 ; vpextrw $0x4,%xmm9,0x18(%r8,%rdx,2)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,121,214,76,80,16 ; vmovq %xmm9,0x10(%r8,%rdx,2)
- DB 196,65,122,127,4,80 ; vmovdqu %xmm8,(%r8,%rdx,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 71,255 ; rex.RXB (bad)
- DB 255 ; (bad)
- DB 255,102,255 ; jmpq *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,94,255 ; lcall *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,137,255,255,255,129 ; decl -0x7e000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 121,255 ; jns 28d15 <_sk_store_4444_hsw_lowp+0x13d>
- DB 255 ; (bad)
- DB 255,113,255 ; pushq -0x1(%rcx)
- DB 255 ; (bad)
- DB 255,244 ; push %rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,173,255,255,255,159 ; ljmp *-0x60000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,145,255,255,255,231 ; callq *-0x18000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 217,255 ; fcos
- DB 255 ; (bad)
- DB 255,203 ; dec %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 189 ; .byte 0xbd
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_4444_hsw_lowp
-_sk_gather_4444_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,88,64,12 ; vpbroadcastd 0xc(%rax),%ymm8
- DB 196,65,53,118,201 ; vpcmpeqd %ymm9,%ymm9,%ymm9
- DB 196,65,61,254,193 ; vpaddd %ymm9,%ymm8,%ymm8
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 196,193,124,95,194 ; vmaxps %ymm10,%ymm0,%ymm0
- DB 196,193,116,95,202 ; vmaxps %ymm10,%ymm1,%ymm1
- DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 196,98,125,88,64,16 ; vpbroadcastd 0x10(%rax),%ymm8
- DB 196,65,61,254,193 ; vpaddd %ymm9,%ymm8,%ymm8
- DB 196,193,100,95,218 ; vmaxps %ymm10,%ymm3,%ymm3
- DB 196,193,108,95,210 ; vmaxps %ymm10,%ymm2,%ymm2
- DB 196,193,108,93,208 ; vminps %ymm8,%ymm2,%ymm2
- DB 196,193,100,93,216 ; vminps %ymm8,%ymm3,%ymm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,219 ; vcvttps2dq %ymm3,%ymm3
- DB 197,254,91,210 ; vcvttps2dq %ymm2,%ymm2
- DB 196,98,125,88,64,8 ; vpbroadcastd 0x8(%rax),%ymm8
- DB 196,226,61,64,210 ; vpmulld %ymm2,%ymm8,%ymm2
- DB 196,226,61,64,219 ; vpmulld %ymm3,%ymm8,%ymm3
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,237,254,192 ; vpaddd %ymm0,%ymm2,%ymm0
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 197,229,254,201 ; vpaddd %ymm1,%ymm3,%ymm1
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,249,110,208 ; vmovd %eax,%xmm2
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,183,4,72 ; movzwl (%r8,%r9,2),%eax
- DB 197,233,196,208,1 ; vpinsrw $0x1,%eax,%xmm2,%xmm2
- DB 68,137,208 ; mov %r10d,%eax
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,201,1 ; vextracti128 $0x1,%ymm1,%xmm1
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,233,196,208,2 ; vpinsrw $0x2,%eax,%xmm2,%xmm2
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 67,15,183,4,80 ; movzwl (%r8,%r10,2),%eax
- DB 197,233,196,208,3 ; vpinsrw $0x3,%eax,%xmm2,%xmm2
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,233,196,208,4 ; vpinsrw $0x4,%eax,%xmm2,%xmm2
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,183,4,72 ; movzwl (%r8,%r9,2),%eax
- DB 197,233,196,200,5 ; vpinsrw $0x5,%eax,%xmm2,%xmm1
- DB 68,137,208 ; mov %r10d,%eax
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,241,196,200,6 ; vpinsrw $0x6,%eax,%xmm1,%xmm1
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 67,15,183,4,80 ; movzwl (%r8,%r10,2),%eax
- DB 197,241,196,200,7 ; vpinsrw $0x7,%eax,%xmm1,%xmm1
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,249,110,208 ; vmovd %eax,%xmm2
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,183,4,72 ; movzwl (%r8,%r9,2),%eax
- DB 197,233,196,208,1 ; vpinsrw $0x1,%eax,%xmm2,%xmm2
- DB 68,137,208 ; mov %r10d,%eax
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,192,1 ; vextracti128 $0x1,%ymm0,%xmm0
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,233,196,208,2 ; vpinsrw $0x2,%eax,%xmm2,%xmm2
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 67,15,183,4,80 ; movzwl (%r8,%r10,2),%eax
- DB 197,233,196,208,3 ; vpinsrw $0x3,%eax,%xmm2,%xmm2
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,233,196,208,4 ; vpinsrw $0x4,%eax,%xmm2,%xmm2
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,183,4,72 ; movzwl (%r8,%r9,2),%eax
- DB 197,233,196,192,5 ; vpinsrw $0x5,%eax,%xmm2,%xmm0
- DB 68,137,208 ; mov %r10d,%eax
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 197,249,196,192,6 ; vpinsrw $0x6,%eax,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 67,15,183,4,80 ; movzwl (%r8,%r10,2),%eax
- DB 197,249,196,192,7 ; vpinsrw $0x7,%eax,%xmm0,%xmm0
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 197,245,113,208,12 ; vpsrlw $0xc,%ymm0,%ymm1
- DB 197,237,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm2
- DB 196,226,125,121,29,106,196,0,0 ; vpbroadcastw 0xc46a(%rip),%ymm3 # 35342 <_sk_srcover_bgra_8888_sse2_lowp+0xb2a>
- DB 197,237,219,211 ; vpand %ymm3,%ymm2,%ymm2
- DB 197,189,113,208,4 ; vpsrlw $0x4,%ymm0,%ymm8
- DB 197,61,219,195 ; vpand %ymm3,%ymm8,%ymm8
- DB 197,253,219,219 ; vpand %ymm3,%ymm0,%ymm3
- DB 197,253,113,241,4 ; vpsllw $0x4,%ymm1,%ymm0
- DB 197,253,235,193 ; vpor %ymm1,%ymm0,%ymm0
- DB 197,245,113,242,4 ; vpsllw $0x4,%ymm2,%ymm1
- DB 197,245,235,202 ; vpor %ymm2,%ymm1,%ymm1
- DB 196,193,109,113,240,4 ; vpsllw $0x4,%ymm8,%ymm2
- DB 196,193,109,235,208 ; vpor %ymm8,%ymm2,%ymm2
- DB 197,189,113,243,4 ; vpsllw $0x4,%ymm3,%ymm8
- DB 197,189,235,219 ; vpor %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_a8_hsw_lowp
-_sk_load_a8_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,37 ; ja 28f4f <_sk_load_a8_hsw_lowp+0x3c>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,220,0,0,0 ; lea 0xdc(%rip),%r9 # 29014 <_sk_load_a8_hsw_lowp+0x101>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 233,175,0,0,0 ; jmpq 28ffe <_sk_load_a8_hsw_lowp+0xeb>
- DB 196,193,122,111,4,16 ; vmovdqu (%r8,%rdx,1),%xmm0
- DB 233,164,0,0,0 ; jmpq 28ffe <_sk_load_a8_hsw_lowp+0xeb>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,195,121,32,68,16,2,2 ; vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,249,110,200 ; vmovd %eax,%xmm1
- DB 196,227,121,14,193,1 ; vpblendw $0x1,%xmm1,%xmm0,%xmm0
- DB 233,132,0,0,0 ; jmpq 28ffe <_sk_load_a8_hsw_lowp+0xeb>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,195,121,32,68,16,6,6 ; vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,195,121,32,68,16,5,5 ; vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,195,121,32,68,16,4,4 ; vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,193,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm1
- DB 196,227,121,2,193,1 ; vpblendd $0x1,%xmm1,%xmm0,%xmm0
- DB 235,90 ; jmp 28ffe <_sk_load_a8_hsw_lowp+0xeb>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,195,121,32,68,16,10,10 ; vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,195,121,32,68,16,9,9 ; vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,195,121,32,68,16,8,8 ; vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,193,122,126,12,16 ; vmovq (%r8,%rdx,1),%xmm1
- DB 196,227,113,2,192,12 ; vpblendd $0xc,%xmm0,%xmm1,%xmm0
- DB 235,48 ; jmp 28ffe <_sk_load_a8_hsw_lowp+0xeb>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,195,121,32,68,16,14,14 ; vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,195,121,32,68,16,13,13 ; vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,195,121,32,68,16,12,12 ; vpinsrb $0xc,0xc(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,193,122,126,12,16 ; vmovq (%r8,%rdx,1),%xmm1
- DB 196,195,113,34,76,16,8,2 ; vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm1,%xmm1
- DB 196,227,113,2,192,8 ; vpblendd $0x8,%xmm0,%xmm1,%xmm0
- DB 196,226,125,48,216 ; vpmovzxbw %xmm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 255,224 ; jmpq *%rax
- DB 144 ; nop
- DB 45,255,255,255,82 ; sub $0x52ffffff,%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,70,255 ; incl -0x1(%rsi)
- DB 255 ; (bad)
- DB 255,130,255,255,255,122 ; incl 0x7affffff(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,114,255 ; pushq -0x1(%rdx)
- DB 255 ; (bad)
- DB 255,102,255 ; jmpq *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,172,255,255,255,164,255 ; ljmp *-0x5b0001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,156,255,255,255,144,255 ; lcall *-0x6f0001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,214 ; callq *%rsi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,206 ; dec %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 186 ; .byte 0xba
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_a8_dst_hsw_lowp
-_sk_load_a8_dst_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,37 ; ja 2908c <_sk_load_a8_dst_hsw_lowp+0x3c>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,219,0,0,0 ; lea 0xdb(%rip),%r9 # 29150 <_sk_load_a8_dst_hsw_lowp+0x100>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 233,175,0,0,0 ; jmpq 2913b <_sk_load_a8_dst_hsw_lowp+0xeb>
- DB 196,193,122,111,36,16 ; vmovdqu (%r8,%rdx,1),%xmm4
- DB 233,164,0,0,0 ; jmpq 2913b <_sk_load_a8_dst_hsw_lowp+0xeb>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,195,89,32,100,16,2,2 ; vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,249,110,232 ; vmovd %eax,%xmm5
- DB 196,227,89,14,229,1 ; vpblendw $0x1,%xmm5,%xmm4,%xmm4
- DB 233,132,0,0,0 ; jmpq 2913b <_sk_load_a8_dst_hsw_lowp+0xeb>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,195,89,32,100,16,6,6 ; vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,195,89,32,100,16,5,5 ; vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,195,89,32,100,16,4,4 ; vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,193,121,110,44,16 ; vmovd (%r8,%rdx,1),%xmm5
- DB 196,227,89,2,229,1 ; vpblendd $0x1,%xmm5,%xmm4,%xmm4
- DB 235,90 ; jmp 2913b <_sk_load_a8_dst_hsw_lowp+0xeb>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,195,89,32,100,16,10,10 ; vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,195,89,32,100,16,9,9 ; vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,195,89,32,100,16,8,8 ; vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,193,122,126,44,16 ; vmovq (%r8,%rdx,1),%xmm5
- DB 196,227,81,2,228,12 ; vpblendd $0xc,%xmm4,%xmm5,%xmm4
- DB 235,48 ; jmp 2913b <_sk_load_a8_dst_hsw_lowp+0xeb>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,195,89,32,100,16,14,14 ; vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,195,89,32,100,16,13,13 ; vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,195,89,32,100,16,12,12 ; vpinsrb $0xc,0xc(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,193,122,126,44,16 ; vmovq (%r8,%rdx,1),%xmm5
- DB 196,195,81,34,108,16,8,2 ; vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm5,%xmm5
- DB 196,227,81,2,228,8 ; vpblendd $0x8,%xmm4,%xmm5,%xmm4
- DB 196,226,125,48,252 ; vpmovzxbw %xmm4,%ymm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 255,224 ; jmpq *%rax
- DB 46,255 ; cs (bad)
- DB 255 ; (bad)
- DB 255,83,255 ; callq *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,71,255 ; incl -0x1(%rdi)
- DB 255 ; (bad)
- DB 255,131,255,255,255,123 ; incl 0x7bffffff(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,115,255 ; pushq -0x1(%rbx)
- DB 255 ; (bad)
- DB 255,103,255 ; jmpq *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255,173,255,255,255,165 ; ljmp *-0x5a000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,157,255,255,255,145 ; lcall *-0x6e000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,215 ; callq *%rdi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,207 ; dec %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 187 ; .byte 0xbb
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_a8_hsw_lowp
-_sk_store_a8_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 196,195,125,57,216,1 ; vextracti128 $0x1,%ymm3,%xmm8
- DB 197,121,111,13,25,202,0,0 ; vmovdqa 0xca19(%rip),%xmm9 # 35bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
- DB 196,66,57,0,193 ; vpshufb %xmm9,%xmm8,%xmm8
- DB 196,66,97,0,201 ; vpshufb %xmm9,%xmm3,%xmm9
- DB 196,65,49,108,192 ; vpunpcklqdq %xmm8,%xmm9,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,28 ; ja 291dc <_sk_store_a8_hsw_lowp+0x50>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,146,0,0,0 ; lea 0x92(%rip),%r9 # 2925c <_sk_store_a8_hsw_lowp+0xd0>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,67,121,20,4,16,0 ; vpextrb $0x0,%xmm8,(%r8,%rdx,1)
- DB 235,121 ; jmp 29255 <_sk_store_a8_hsw_lowp+0xc9>
- DB 196,65,122,127,4,16 ; vmovdqu %xmm8,(%r8,%rdx,1)
- DB 235,113 ; jmp 29255 <_sk_store_a8_hsw_lowp+0xc9>
- DB 196,67,121,20,68,16,2,2 ; vpextrb $0x2,%xmm8,0x2(%r8,%rdx,1)
- DB 196,67,121,21,4,16,0 ; vpextrw $0x0,%xmm8,(%r8,%rdx,1)
- DB 235,96 ; jmp 29255 <_sk_store_a8_hsw_lowp+0xc9>
- DB 196,67,121,20,68,16,6,6 ; vpextrb $0x6,%xmm8,0x6(%r8,%rdx,1)
- DB 196,67,121,20,68,16,5,5 ; vpextrb $0x5,%xmm8,0x5(%r8,%rdx,1)
- DB 196,67,121,20,68,16,4,4 ; vpextrb $0x4,%xmm8,0x4(%r8,%rdx,1)
- DB 196,65,121,126,4,16 ; vmovd %xmm8,(%r8,%rdx,1)
- DB 235,64 ; jmp 29255 <_sk_store_a8_hsw_lowp+0xc9>
- DB 196,67,121,20,68,16,10,10 ; vpextrb $0xa,%xmm8,0xa(%r8,%rdx,1)
- DB 196,67,121,20,68,16,9,9 ; vpextrb $0x9,%xmm8,0x9(%r8,%rdx,1)
- DB 196,67,121,20,68,16,8,8 ; vpextrb $0x8,%xmm8,0x8(%r8,%rdx,1)
- DB 235,32 ; jmp 2924f <_sk_store_a8_hsw_lowp+0xc3>
- DB 196,67,121,20,68,16,14,14 ; vpextrb $0xe,%xmm8,0xe(%r8,%rdx,1)
- DB 196,67,121,20,68,16,13,13 ; vpextrb $0xd,%xmm8,0xd(%r8,%rdx,1)
- DB 196,67,121,20,68,16,12,12 ; vpextrb $0xc,%xmm8,0xc(%r8,%rdx,1)
- DB 196,67,121,22,68,16,8,2 ; vpextrd $0x2,%xmm8,0x8(%r8,%rdx,1)
- DB 196,65,121,214,4,16 ; vmovq %xmm8,(%r8,%rdx,1)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 119,255 ; ja 2925d <_sk_store_a8_hsw_lowp+0xd1>
- DB 255 ; (bad)
- DB 255,144,255,255,255,136 ; callq *-0x77000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,177,255,255,255,169 ; pushq -0x56000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,161,255,255,255,153 ; jmpq *-0x66000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,243 ; push %rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,193 ; inc %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 185,255,255,255,235 ; mov $0xebffffff,%ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,227 ; jmpq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 219,255 ; (bad)
- DB 255 ; (bad)
- DB 255,211 ; callq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_a8_hsw_lowp
-_sk_gather_a8_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,88,64,12 ; vpbroadcastd 0xc(%rax),%ymm8
- DB 196,65,53,118,201 ; vpcmpeqd %ymm9,%ymm9,%ymm9
- DB 196,65,61,254,193 ; vpaddd %ymm9,%ymm8,%ymm8
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 196,193,124,95,194 ; vmaxps %ymm10,%ymm0,%ymm0
- DB 196,193,116,95,202 ; vmaxps %ymm10,%ymm1,%ymm1
- DB 196,65,116,93,216 ; vminps %ymm8,%ymm1,%ymm11
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 196,226,125,88,72,16 ; vpbroadcastd 0x10(%rax),%ymm1
- DB 196,193,117,254,201 ; vpaddd %ymm9,%ymm1,%ymm1
- DB 196,193,100,95,218 ; vmaxps %ymm10,%ymm3,%ymm3
- DB 196,193,108,95,210 ; vmaxps %ymm10,%ymm2,%ymm2
- DB 197,236,93,209 ; vminps %ymm1,%ymm2,%ymm2
- DB 197,228,93,201 ; vminps %ymm1,%ymm3,%ymm1
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 197,254,91,210 ; vcvttps2dq %ymm2,%ymm2
- DB 196,226,125,88,88,8 ; vpbroadcastd 0x8(%rax),%ymm3
- DB 196,226,101,64,210 ; vpmulld %ymm2,%ymm3,%ymm2
- DB 196,226,101,64,217 ; vpmulld %ymm1,%ymm3,%ymm3
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,237,254,200 ; vpaddd %ymm0,%ymm2,%ymm1
- DB 196,193,126,91,195 ; vcvttps2dq %ymm11,%ymm0
- DB 197,229,254,192 ; vpaddd %ymm0,%ymm3,%ymm0
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 197,249,110,208 ; vmovd %eax,%xmm2
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,182,4,8 ; movzbl (%r8,%r9,1),%eax
- DB 196,227,105,32,208,1 ; vpinsrb $0x1,%eax,%xmm2,%xmm2
- DB 68,137,208 ; mov %r10d,%eax
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,201,1 ; vextracti128 $0x1,%ymm1,%xmm1
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,105,32,208,2 ; vpinsrb $0x2,%eax,%xmm2,%xmm2
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 67,15,182,4,16 ; movzbl (%r8,%r10,1),%eax
- DB 196,227,105,32,208,3 ; vpinsrb $0x3,%eax,%xmm2,%xmm2
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,105,32,208,4 ; vpinsrb $0x4,%eax,%xmm2,%xmm2
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,182,4,8 ; movzbl (%r8,%r9,1),%eax
- DB 196,227,105,32,200,5 ; vpinsrb $0x5,%eax,%xmm2,%xmm1
- DB 68,137,208 ; mov %r10d,%eax
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,113,32,200,6 ; vpinsrb $0x6,%eax,%xmm1,%xmm1
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 67,15,182,4,16 ; movzbl (%r8,%r10,1),%eax
- DB 196,227,113,32,200,7 ; vpinsrb $0x7,%eax,%xmm1,%xmm1
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,113,32,200,8 ; vpinsrb $0x8,%eax,%xmm1,%xmm1
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,182,4,8 ; movzbl (%r8,%r9,1),%eax
- DB 196,227,113,32,200,9 ; vpinsrb $0x9,%eax,%xmm1,%xmm1
- DB 68,137,208 ; mov %r10d,%eax
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,192,1 ; vextracti128 $0x1,%ymm0,%xmm0
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,113,32,200,10 ; vpinsrb $0xa,%eax,%xmm1,%xmm1
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 67,15,182,4,16 ; movzbl (%r8,%r10,1),%eax
- DB 196,227,113,32,200,11 ; vpinsrb $0xb,%eax,%xmm1,%xmm1
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,113,32,200,12 ; vpinsrb $0xc,%eax,%xmm1,%xmm1
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,182,4,8 ; movzbl (%r8,%r9,1),%eax
- DB 196,227,113,32,192,13 ; vpinsrb $0xd,%eax,%xmm1,%xmm0
- DB 68,137,208 ; mov %r10d,%eax
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,121,32,192,14 ; vpinsrb $0xe,%eax,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 67,15,182,4,16 ; movzbl (%r8,%r10,1),%eax
- DB 196,227,121,32,192,15 ; vpinsrb $0xf,%eax,%xmm0,%xmm0
- DB 196,226,125,48,216 ; vpmovzxbw %xmm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 197,237,239,210 ; vpxor %ymm2,%ymm2,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_g8_hsw_lowp
-_sk_load_g8_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,37 ; ja 2947b <_sk_load_g8_hsw_lowp+0x3c>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,224,0,0,0 ; lea 0xe0(%rip),%r9 # 29544 <_sk_load_g8_hsw_lowp+0x105>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,249,110,192 ; vmovd %eax,%xmm0
- DB 233,175,0,0,0 ; jmpq 2952a <_sk_load_g8_hsw_lowp+0xeb>
- DB 196,193,122,111,4,16 ; vmovdqu (%r8,%rdx,1),%xmm0
- DB 233,164,0,0,0 ; jmpq 2952a <_sk_load_g8_hsw_lowp+0xeb>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,195,121,32,68,16,2,2 ; vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm0,%xmm0
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,249,110,200 ; vmovd %eax,%xmm1
- DB 196,227,121,14,193,1 ; vpblendw $0x1,%xmm1,%xmm0,%xmm0
- DB 233,132,0,0,0 ; jmpq 2952a <_sk_load_g8_hsw_lowp+0xeb>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,195,121,32,68,16,6,6 ; vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,195,121,32,68,16,5,5 ; vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,195,121,32,68,16,4,4 ; vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,193,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm1
- DB 196,227,121,2,193,1 ; vpblendd $0x1,%xmm1,%xmm0,%xmm0
- DB 235,90 ; jmp 2952a <_sk_load_g8_hsw_lowp+0xeb>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,195,121,32,68,16,10,10 ; vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,195,121,32,68,16,9,9 ; vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,195,121,32,68,16,8,8 ; vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,193,122,126,12,16 ; vmovq (%r8,%rdx,1),%xmm1
- DB 196,227,113,2,192,12 ; vpblendd $0xc,%xmm0,%xmm1,%xmm0
- DB 235,48 ; jmp 2952a <_sk_load_g8_hsw_lowp+0xeb>
- DB 197,249,239,192 ; vpxor %xmm0,%xmm0,%xmm0
- DB 196,195,121,32,68,16,14,14 ; vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,195,121,32,68,16,13,13 ; vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,195,121,32,68,16,12,12 ; vpinsrb $0xc,0xc(%r8,%rdx,1),%xmm0,%xmm0
- DB 196,193,122,126,12,16 ; vmovq (%r8,%rdx,1),%xmm1
- DB 196,195,113,34,76,16,8,2 ; vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm1,%xmm1
- DB 196,227,113,2,192,8 ; vpblendd $0x8,%xmm0,%xmm1,%xmm0
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,29,10,190,0,0 ; vpbroadcastw 0xbe0a(%rip),%ymm3 # 35344 <_sk_srcover_bgra_8888_sse2_lowp+0xb2c>
- DB 197,253,111,200 ; vmovdqa %ymm0,%ymm1
- DB 197,253,111,208 ; vmovdqa %ymm0,%ymm2
- DB 255,224 ; jmpq *%rax
- DB 41,255 ; sub %edi,%edi
- DB 255 ; (bad)
- DB 255,78,255 ; decl -0x1(%rsi)
- DB 255 ; (bad)
- DB 255,66,255 ; incl -0x1(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 126,255 ; jle 29551 <_sk_load_g8_hsw_lowp+0x112>
- DB 255 ; (bad)
- DB 255,118,255 ; pushq -0x1(%rsi)
- DB 255 ; (bad)
- DB 255,110,255 ; ljmp *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,98,255 ; jmpq *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,168,255,255,255,160 ; ljmp *-0x5f000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,152,255,255,255,140 ; lcall *-0x73000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,202 ; dec %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 182,255 ; mov $0xff,%dh
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_g8_dst_hsw_lowp
-_sk_load_g8_dst_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,37 ; ja 295bc <_sk_load_g8_dst_hsw_lowp+0x3c>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,227,0,0,0 ; lea 0xe3(%rip),%r9 # 29688 <_sk_load_g8_dst_hsw_lowp+0x108>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,249,110,224 ; vmovd %eax,%xmm4
- DB 233,175,0,0,0 ; jmpq 2966b <_sk_load_g8_dst_hsw_lowp+0xeb>
- DB 196,193,122,111,36,16 ; vmovdqu (%r8,%rdx,1),%xmm4
- DB 233,164,0,0,0 ; jmpq 2966b <_sk_load_g8_dst_hsw_lowp+0xeb>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,195,89,32,100,16,2,2 ; vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm4,%xmm4
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,249,110,232 ; vmovd %eax,%xmm5
- DB 196,227,89,14,229,1 ; vpblendw $0x1,%xmm5,%xmm4,%xmm4
- DB 233,132,0,0,0 ; jmpq 2966b <_sk_load_g8_dst_hsw_lowp+0xeb>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,195,89,32,100,16,6,6 ; vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,195,89,32,100,16,5,5 ; vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,195,89,32,100,16,4,4 ; vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,193,121,110,44,16 ; vmovd (%r8,%rdx,1),%xmm5
- DB 196,227,89,2,229,1 ; vpblendd $0x1,%xmm5,%xmm4,%xmm4
- DB 235,90 ; jmp 2966b <_sk_load_g8_dst_hsw_lowp+0xeb>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,195,89,32,100,16,10,10 ; vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,195,89,32,100,16,9,9 ; vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,195,89,32,100,16,8,8 ; vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,193,122,126,44,16 ; vmovq (%r8,%rdx,1),%xmm5
- DB 196,227,81,2,228,12 ; vpblendd $0xc,%xmm4,%xmm5,%xmm4
- DB 235,48 ; jmp 2966b <_sk_load_g8_dst_hsw_lowp+0xeb>
- DB 197,217,239,228 ; vpxor %xmm4,%xmm4,%xmm4
- DB 196,195,89,32,100,16,14,14 ; vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,195,89,32,100,16,13,13 ; vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,195,89,32,100,16,12,12 ; vpinsrb $0xc,0xc(%r8,%rdx,1),%xmm4,%xmm4
- DB 196,193,122,126,44,16 ; vmovq (%r8,%rdx,1),%xmm5
- DB 196,195,81,34,108,16,8,2 ; vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm5,%xmm5
- DB 196,227,81,2,228,8 ; vpblendd $0x8,%xmm4,%xmm5,%xmm4
- DB 196,226,125,48,228 ; vpmovzxbw %xmm4,%ymm4
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,61,203,188,0,0 ; vpbroadcastw 0xbccb(%rip),%ymm7 # 35346 <_sk_srcover_bgra_8888_sse2_lowp+0xb2e>
- DB 197,253,111,236 ; vmovdqa %ymm4,%ymm5
- DB 197,253,111,244 ; vmovdqa %ymm4,%ymm6
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 38,255 ; es (bad)
- DB 255 ; (bad)
- DB 255,75,255 ; decl -0x1(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 63 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 123,255 ; jnp 29695 <_sk_load_g8_dst_hsw_lowp+0x115>
- DB 255 ; (bad)
- DB 255,115,255 ; pushq -0x1(%rbx)
- DB 255 ; (bad)
- DB 255,107,255 ; ljmp *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,95,255 ; lcall *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255,165,255,255,255,157 ; jmpq *-0x62000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,149,255,255,255,137 ; callq *-0x76000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,207 ; dec %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 191,255,255,255,179 ; mov $0xb3ffffff,%edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_luminance_to_alpha_hsw_lowp
-_sk_luminance_to_alpha_hsw_lowp LABEL PROC
- DB 196,226,125,121,29,123,188,0,0 ; vpbroadcastw 0xbc7b(%rip),%ymm3 # 35348 <_sk_srcover_bgra_8888_sse2_lowp+0xb30>
- DB 197,253,213,195 ; vpmullw %ymm3,%ymm0,%ymm0
- DB 196,226,125,121,29,112,188,0,0 ; vpbroadcastw 0xbc70(%rip),%ymm3 # 3534a <_sk_srcover_bgra_8888_sse2_lowp+0xb32>
- DB 197,245,213,203 ; vpmullw %ymm3,%ymm1,%ymm1
- DB 197,245,253,192 ; vpaddw %ymm0,%ymm1,%ymm0
- DB 196,226,125,121,13,97,188,0,0 ; vpbroadcastw 0xbc61(%rip),%ymm1 # 3534c <_sk_srcover_bgra_8888_sse2_lowp+0xb34>
- DB 197,237,213,201 ; vpmullw %ymm1,%ymm2,%ymm1
- DB 197,253,253,193 ; vpaddw %ymm1,%ymm0,%ymm0
- DB 197,229,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,253,239,192 ; vpxor %ymm0,%ymm0,%ymm0
- DB 197,245,239,201 ; vpxor %ymm1,%ymm1,%ymm1
- DB 197,237,239,210 ; vpxor %ymm2,%ymm2,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gather_g8_hsw_lowp
-_sk_gather_g8_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,98,125,88,64,12 ; vpbroadcastd 0xc(%rax),%ymm8
- DB 196,65,53,118,201 ; vpcmpeqd %ymm9,%ymm9,%ymm9
- DB 196,65,61,254,193 ; vpaddd %ymm9,%ymm8,%ymm8
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 196,193,124,95,194 ; vmaxps %ymm10,%ymm0,%ymm0
- DB 196,193,116,95,202 ; vmaxps %ymm10,%ymm1,%ymm1
- DB 196,65,116,93,216 ; vminps %ymm8,%ymm1,%ymm11
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 196,226,125,88,72,16 ; vpbroadcastd 0x10(%rax),%ymm1
- DB 196,193,117,254,201 ; vpaddd %ymm9,%ymm1,%ymm1
- DB 196,193,100,95,218 ; vmaxps %ymm10,%ymm3,%ymm3
- DB 196,193,108,95,210 ; vmaxps %ymm10,%ymm2,%ymm2
- DB 197,236,93,209 ; vminps %ymm1,%ymm2,%ymm2
- DB 197,228,93,201 ; vminps %ymm1,%ymm3,%ymm1
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,254,91,201 ; vcvttps2dq %ymm1,%ymm1
- DB 197,254,91,210 ; vcvttps2dq %ymm2,%ymm2
- DB 196,226,125,88,88,8 ; vpbroadcastd 0x8(%rax),%ymm3
- DB 196,226,101,64,210 ; vpmulld %ymm2,%ymm3,%ymm2
- DB 196,226,101,64,217 ; vpmulld %ymm1,%ymm3,%ymm3
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 197,237,254,200 ; vpaddd %ymm0,%ymm2,%ymm1
- DB 196,193,126,91,195 ; vcvttps2dq %ymm11,%ymm0
- DB 197,229,254,192 ; vpaddd %ymm0,%ymm3,%ymm0
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 197,249,110,208 ; vmovd %eax,%xmm2
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,182,4,8 ; movzbl (%r8,%r9,1),%eax
- DB 196,227,105,32,208,1 ; vpinsrb $0x1,%eax,%xmm2,%xmm2
- DB 68,137,208 ; mov %r10d,%eax
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,201,1 ; vextracti128 $0x1,%ymm1,%xmm1
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,105,32,208,2 ; vpinsrb $0x2,%eax,%xmm2,%xmm2
- DB 196,193,249,126,201 ; vmovq %xmm1,%r9
- DB 67,15,182,4,16 ; movzbl (%r8,%r10,1),%eax
- DB 196,227,105,32,208,3 ; vpinsrb $0x3,%eax,%xmm2,%xmm2
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,105,32,208,4 ; vpinsrb $0x4,%eax,%xmm2,%xmm2
- DB 196,195,249,22,202,1 ; vpextrq $0x1,%xmm1,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,182,4,8 ; movzbl (%r8,%r9,1),%eax
- DB 196,227,105,32,200,5 ; vpinsrb $0x5,%eax,%xmm2,%xmm1
- DB 68,137,208 ; mov %r10d,%eax
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,113,32,200,6 ; vpinsrb $0x6,%eax,%xmm1,%xmm1
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 67,15,182,4,16 ; movzbl (%r8,%r10,1),%eax
- DB 196,227,113,32,200,7 ; vpinsrb $0x7,%eax,%xmm1,%xmm1
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,113,32,200,8 ; vpinsrb $0x8,%eax,%xmm1,%xmm1
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,182,4,8 ; movzbl (%r8,%r9,1),%eax
- DB 196,227,113,32,200,9 ; vpinsrb $0x9,%eax,%xmm1,%xmm1
- DB 68,137,208 ; mov %r10d,%eax
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 196,227,125,57,192,1 ; vextracti128 $0x1,%ymm0,%xmm0
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,113,32,200,10 ; vpinsrb $0xa,%eax,%xmm1,%xmm1
- DB 196,193,249,126,193 ; vmovq %xmm0,%r9
- DB 67,15,182,4,16 ; movzbl (%r8,%r10,1),%eax
- DB 196,227,113,32,200,11 ; vpinsrb $0xb,%eax,%xmm1,%xmm1
- DB 68,137,200 ; mov %r9d,%eax
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,113,32,200,12 ; vpinsrb $0xc,%eax,%xmm1,%xmm1
- DB 196,195,249,22,194,1 ; vpextrq $0x1,%xmm0,%r10
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 67,15,182,4,8 ; movzbl (%r8,%r9,1),%eax
- DB 196,227,113,32,192,13 ; vpinsrb $0xd,%eax,%xmm1,%xmm0
- DB 68,137,208 ; mov %r10d,%eax
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 196,227,121,32,192,14 ; vpinsrb $0xe,%eax,%xmm0,%xmm0
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 67,15,182,4,16 ; movzbl (%r8,%r10,1),%eax
- DB 196,227,121,32,192,15 ; vpinsrb $0xf,%eax,%xmm0,%xmm0
- DB 196,226,125,48,192 ; vpmovzxbw %xmm0,%ymm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,121,29,164,186,0,0 ; vpbroadcastw 0xbaa4(%rip),%ymm3 # 3534e <_sk_srcover_bgra_8888_sse2_lowp+0xb36>
- DB 197,253,111,200 ; vmovdqa %ymm0,%ymm1
- DB 197,253,111,208 ; vmovdqa %ymm0,%ymm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_1_float_hsw_lowp
-_sk_scale_1_float_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,122,16,0 ; vmovss (%rax),%xmm8
- DB 197,122,16,13,50,178,0,0 ; vmovss 0xb232(%rip),%xmm9 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,98,57,169,13,249,177,0,0 ; vfmadd213ss 0xb1f9(%rip),%xmm8,%xmm9 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,193,122,44,193 ; vcvttss2si %xmm9,%eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 196,66,125,121,192 ; vpbroadcastw %xmm8,%ymm8
- DB 197,189,213,192 ; vpmullw %ymm0,%ymm8,%ymm0
- DB 196,98,125,121,13,106,186,0,0 ; vpbroadcastw 0xba6a(%rip),%ymm9 # 35350 <_sk_srcover_bgra_8888_sse2_lowp+0xb38>
- DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,189,213,201 ; vpmullw %ymm1,%ymm8,%ymm1
- DB 196,193,117,253,201 ; vpaddw %ymm9,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,189,213,210 ; vpmullw %ymm2,%ymm8,%ymm2
- DB 196,193,109,253,209 ; vpaddw %ymm9,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,189,213,219 ; vpmullw %ymm3,%ymm8,%ymm3
- DB 196,193,101,253,217 ; vpaddw %ymm9,%ymm3,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lerp_1_float_hsw_lowp
-_sk_lerp_1_float_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,122,16,0 ; vmovss (%rax),%xmm8
- DB 197,122,16,13,200,177,0,0 ; vmovss 0xb1c8(%rip),%xmm9 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,98,57,169,13,143,177,0,0 ; vfmadd213ss 0xb18f(%rip),%xmm8,%xmm9 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,193,122,44,193 ; vcvttss2si %xmm9,%eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 196,66,125,121,192 ; vpbroadcastw %xmm8,%ymm8
- DB 196,98,125,121,13,6,186,0,0 ; vpbroadcastw 0xba06(%rip),%ymm9 # 35352 <_sk_srcover_bgra_8888_sse2_lowp+0xb3a>
- DB 196,65,53,249,208 ; vpsubw %ymm8,%ymm9,%ymm10
- DB 197,45,213,220 ; vpmullw %ymm4,%ymm10,%ymm11
- DB 197,189,213,192 ; vpmullw %ymm0,%ymm8,%ymm0
- DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
- DB 197,165,253,192 ; vpaddw %ymm0,%ymm11,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,45,213,221 ; vpmullw %ymm5,%ymm10,%ymm11
- DB 197,189,213,201 ; vpmullw %ymm1,%ymm8,%ymm1
- DB 196,193,117,253,201 ; vpaddw %ymm9,%ymm1,%ymm1
- DB 197,165,253,201 ; vpaddw %ymm1,%ymm11,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,45,213,222 ; vpmullw %ymm6,%ymm10,%ymm11
- DB 197,189,213,210 ; vpmullw %ymm2,%ymm8,%ymm2
- DB 196,193,109,253,209 ; vpaddw %ymm9,%ymm2,%ymm2
- DB 197,165,253,210 ; vpaddw %ymm2,%ymm11,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,45,213,215 ; vpmullw %ymm7,%ymm10,%ymm10
- DB 197,189,213,219 ; vpmullw %ymm3,%ymm8,%ymm3
- DB 196,193,101,253,217 ; vpaddw %ymm9,%ymm3,%ymm3
- DB 197,173,253,219 ; vpaddw %ymm3,%ymm10,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_u8_hsw_lowp
-_sk_scale_u8_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,38 ; ja 299ea <_sk_scale_u8_hsw_lowp+0x3d>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,21,1,0,0 ; lea 0x115(%rip),%r9 # 29ae8 <_sk_scale_u8_hsw_lowp+0x13b>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 233,179,0,0,0 ; jmpq 29a9d <_sk_scale_u8_hsw_lowp+0xf0>
- DB 196,65,122,111,4,16 ; vmovdqu (%r8,%rdx,1),%xmm8
- DB 233,168,0,0,0 ; jmpq 29a9d <_sk_scale_u8_hsw_lowp+0xf0>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,67,57,32,68,16,2,2 ; vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,121,110,200 ; vmovd %eax,%xmm9
- DB 196,67,57,14,193,1 ; vpblendw $0x1,%xmm9,%xmm8,%xmm8
- DB 233,135,0,0,0 ; jmpq 29a9d <_sk_scale_u8_hsw_lowp+0xf0>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,67,57,32,68,16,6,6 ; vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,67,57,32,68,16,5,5 ; vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,67,57,32,68,16,4,4 ; vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,65,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm9
- DB 196,67,57,2,193,1 ; vpblendd $0x1,%xmm9,%xmm8,%xmm8
- DB 235,92 ; jmp 29a9d <_sk_scale_u8_hsw_lowp+0xf0>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,67,57,32,68,16,10,10 ; vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,67,57,32,68,16,9,9 ; vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,67,57,32,68,16,8,8 ; vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,65,122,126,12,16 ; vmovq (%r8,%rdx,1),%xmm9
- DB 196,67,49,2,192,12 ; vpblendd $0xc,%xmm8,%xmm9,%xmm8
- DB 235,49 ; jmp 29a9d <_sk_scale_u8_hsw_lowp+0xf0>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,67,57,32,68,16,14,14 ; vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,67,57,32,68,16,13,13 ; vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,67,57,32,68,16,12,12 ; vpinsrb $0xc,0xc(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,65,122,126,12,16 ; vmovq (%r8,%rdx,1),%xmm9
- DB 196,67,49,34,76,16,8,2 ; vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
- DB 196,67,49,2,192,8 ; vpblendd $0x8,%xmm8,%xmm9,%xmm8
- DB 196,66,125,48,192 ; vpmovzxbw %xmm8,%ymm8
- DB 197,189,213,192 ; vpmullw %ymm0,%ymm8,%ymm0
- DB 196,98,125,121,13,165,184,0,0 ; vpbroadcastw 0xb8a5(%rip),%ymm9 # 35354 <_sk_srcover_bgra_8888_sse2_lowp+0xb3c>
- DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,189,213,201 ; vpmullw %ymm1,%ymm8,%ymm1
- DB 196,193,117,253,201 ; vpaddw %ymm9,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,189,213,210 ; vpmullw %ymm2,%ymm8,%ymm2
- DB 196,193,109,253,209 ; vpaddw %ymm9,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,189,213,219 ; vpmullw %ymm3,%ymm8,%ymm3
- DB 196,193,101,253,217 ; vpaddw %ymm9,%ymm3,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 144 ; nop
- DB 244 ; hlt
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,26 ; lcall *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,13,255,255,255,75 ; decl 0x4bffffff(%rip) # 4c029af4 <_sk_srcover_bgra_8888_sse2_lowp+0x4bff52dc>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,67,255 ; incl -0x1(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 59,255 ; cmp %edi,%edi
- DB 255 ; (bad)
- DB 255,46 ; ljmp *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,118,255 ; pushq -0x1(%rsi)
- DB 255 ; (bad)
- DB 255,110,255 ; ljmp *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,102,255 ; jmpq *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,89,255 ; lcall *-0x1(%rcx)
- DB 255 ; (bad)
- DB 255,161,255,255,255,153 ; jmpq *-0x66000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,145,255,255,255,132 ; callq *-0x7b000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_lerp_u8_hsw_lowp
-_sk_lerp_u8_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,38 ; ja 29b61 <_sk_lerp_u8_hsw_lowp+0x3d>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,58,1,0,0 ; lea 0x13a(%rip),%r9 # 29c84 <_sk_lerp_u8_hsw_lowp+0x160>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 233,179,0,0,0 ; jmpq 29c14 <_sk_lerp_u8_hsw_lowp+0xf0>
- DB 196,65,122,111,4,16 ; vmovdqu (%r8,%rdx,1),%xmm8
- DB 233,168,0,0,0 ; jmpq 29c14 <_sk_lerp_u8_hsw_lowp+0xf0>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,67,57,32,68,16,2,2 ; vpinsrb $0x2,0x2(%r8,%rdx,1),%xmm8,%xmm8
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 197,121,110,200 ; vmovd %eax,%xmm9
- DB 196,67,57,14,193,1 ; vpblendw $0x1,%xmm9,%xmm8,%xmm8
- DB 233,135,0,0,0 ; jmpq 29c14 <_sk_lerp_u8_hsw_lowp+0xf0>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,67,57,32,68,16,6,6 ; vpinsrb $0x6,0x6(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,67,57,32,68,16,5,5 ; vpinsrb $0x5,0x5(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,67,57,32,68,16,4,4 ; vpinsrb $0x4,0x4(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,65,121,110,12,16 ; vmovd (%r8,%rdx,1),%xmm9
- DB 196,67,57,2,193,1 ; vpblendd $0x1,%xmm9,%xmm8,%xmm8
- DB 235,92 ; jmp 29c14 <_sk_lerp_u8_hsw_lowp+0xf0>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,67,57,32,68,16,10,10 ; vpinsrb $0xa,0xa(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,67,57,32,68,16,9,9 ; vpinsrb $0x9,0x9(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,67,57,32,68,16,8,8 ; vpinsrb $0x8,0x8(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,65,122,126,12,16 ; vmovq (%r8,%rdx,1),%xmm9
- DB 196,67,49,2,192,12 ; vpblendd $0xc,%xmm8,%xmm9,%xmm8
- DB 235,49 ; jmp 29c14 <_sk_lerp_u8_hsw_lowp+0xf0>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,67,57,32,68,16,14,14 ; vpinsrb $0xe,0xe(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,67,57,32,68,16,13,13 ; vpinsrb $0xd,0xd(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,67,57,32,68,16,12,12 ; vpinsrb $0xc,0xc(%r8,%rdx,1),%xmm8,%xmm8
- DB 196,65,122,126,12,16 ; vmovq (%r8,%rdx,1),%xmm9
- DB 196,67,49,34,76,16,8,2 ; vpinsrd $0x2,0x8(%r8,%rdx,1),%xmm9,%xmm9
- DB 196,67,49,2,192,8 ; vpblendd $0x8,%xmm8,%xmm9,%xmm8
- DB 196,66,125,48,192 ; vpmovzxbw %xmm8,%ymm8
- DB 196,98,125,121,13,52,183,0,0 ; vpbroadcastw 0xb734(%rip),%ymm9 # 35356 <_sk_srcover_bgra_8888_sse2_lowp+0xb3e>
- DB 196,65,61,239,209 ; vpxor %ymm9,%ymm8,%ymm10
- DB 197,45,213,220 ; vpmullw %ymm4,%ymm10,%ymm11
- DB 197,189,213,192 ; vpmullw %ymm0,%ymm8,%ymm0
- DB 196,193,125,253,193 ; vpaddw %ymm9,%ymm0,%ymm0
- DB 197,165,253,192 ; vpaddw %ymm0,%ymm11,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,45,213,221 ; vpmullw %ymm5,%ymm10,%ymm11
- DB 197,189,213,201 ; vpmullw %ymm1,%ymm8,%ymm1
- DB 196,193,117,253,201 ; vpaddw %ymm9,%ymm1,%ymm1
- DB 197,165,253,201 ; vpaddw %ymm1,%ymm11,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,45,213,222 ; vpmullw %ymm6,%ymm10,%ymm11
- DB 197,189,213,210 ; vpmullw %ymm2,%ymm8,%ymm2
- DB 196,193,109,253,209 ; vpaddw %ymm9,%ymm2,%ymm2
- DB 197,165,253,210 ; vpaddw %ymm2,%ymm11,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,45,213,215 ; vpmullw %ymm7,%ymm10,%ymm10
- DB 197,189,213,219 ; vpmullw %ymm3,%ymm8,%ymm3
- DB 196,193,101,253,217 ; vpaddw %ymm9,%ymm3,%ymm3
- DB 197,173,253,219 ; vpaddw %ymm3,%ymm10,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 144 ; nop
- DB 207 ; iret
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,245 ; push %rbp
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,254,255,255,38 ; callq 27029c8f <_sk_srcover_bgra_8888_sse2_lowp+0x26ff5477>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,30 ; lcall *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,22 ; callq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,9 ; decl (%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,81,255 ; callq *-0x1(%rcx)
- DB 255 ; (bad)
- DB 255,73,255 ; decl -0x1(%rcx)
- DB 255 ; (bad)
- DB 255,65,255 ; incl -0x1(%rcx)
- DB 255 ; (bad)
- DB 255,52,255 ; pushq (%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 124,255 ; jl 29cb1 <_sk_lerp_u8_hsw_lowp+0x18d>
- DB 255 ; (bad)
- DB 255,116,255,255 ; pushq -0x1(%rdi,%rdi,8)
- DB 255,108,255,255 ; ljmp *-0x1(%rdi,%rdi,8)
- DB 255,95,255 ; lcall *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_scale_565_hsw_lowp
-_sk_scale_565_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,38 ; ja 29d00 <_sk_scale_565_hsw_lowp+0x40>
- DB 196,65,61,239,192 ; vpxor %ymm8,%ymm8,%ymm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,255,1,0,0 ; lea 0x1ff(%rip),%r9 # 29ee8 <_sk_scale_565_hsw_lowp+0x228>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 233,12,1,0,0 ; jmpq 29e0c <_sk_scale_565_hsw_lowp+0x14c>
- DB 196,65,126,111,4,80 ; vmovdqu (%r8,%rdx,2),%ymm8
- DB 233,1,1,0,0 ; jmpq 29e0c <_sk_scale_565_hsw_lowp+0x14c>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,76,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
- DB 196,67,53,56,192,1 ; vinserti128 $0x1,%xmm8,%ymm9,%ymm8
- DB 196,65,121,110,12,80 ; vmovd (%r8,%rdx,2),%xmm9
- DB 196,67,61,2,193,1 ; vpblendd $0x1,%ymm9,%ymm8,%ymm8
- DB 233,221,0,0,0 ; jmpq 29e0c <_sk_scale_565_hsw_lowp+0x14c>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,76,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
- DB 196,67,53,56,192,1 ; vinserti128 $0x1,%xmm8,%ymm9,%ymm8
- DB 196,65,57,196,76,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm9
- DB 196,67,61,2,193,15 ; vpblendd $0xf,%ymm9,%ymm8,%ymm8
- DB 196,65,57,196,76,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm9
- DB 196,67,61,2,193,15 ; vpblendd $0xf,%ymm9,%ymm8,%ymm8
- DB 196,65,122,126,12,80 ; vmovq (%r8,%rdx,2),%xmm9
- DB 196,67,61,2,193,3 ; vpblendd $0x3,%ymm9,%ymm8,%ymm8
- DB 233,157,0,0,0 ; jmpq 29e0c <_sk_scale_565_hsw_lowp+0x14c>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,76,80,20,2 ; vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
- DB 196,67,61,56,193,1 ; vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,49,196,76,80,18,1 ; vpinsrw $0x1,0x12(%r8,%rdx,2),%xmm9,%xmm9
- DB 196,67,61,56,193,1 ; vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,49,196,76,80,16,0 ; vpinsrw $0x0,0x10(%r8,%rdx,2),%xmm9,%xmm9
- DB 196,67,61,56,193,1 ; vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- DB 196,65,122,111,12,80 ; vmovdqu (%r8,%rdx,2),%xmm9
- DB 196,67,53,2,192,240 ; vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- DB 235,84 ; jmp 29e0c <_sk_scale_565_hsw_lowp+0x14c>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,76,80,28,6 ; vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
- DB 196,67,61,56,193,1 ; vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,49,196,76,80,26,5 ; vpinsrw $0x5,0x1a(%r8,%rdx,2),%xmm9,%xmm9
- DB 196,67,61,56,193,1 ; vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,49,196,76,80,24,4 ; vpinsrw $0x4,0x18(%r8,%rdx,2),%xmm9,%xmm9
- DB 196,67,61,56,193,1 ; vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- DB 196,65,122,126,76,80,16 ; vmovq 0x10(%r8,%rdx,2),%xmm9
- DB 196,65,122,111,20,80 ; vmovdqu (%r8,%rdx,2),%xmm10
- DB 196,67,45,56,201,1 ; vinserti128 $0x1,%xmm9,%ymm10,%ymm9
- DB 196,67,53,2,192,192 ; vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- DB 196,98,125,121,13,67,181,0,0 ; vpbroadcastw 0xb543(%rip),%ymm9 # 35358 <_sk_srcover_bgra_8888_sse2_lowp+0xb40>
- DB 196,193,45,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm10
- DB 196,65,45,219,201 ; vpand %ymm9,%ymm10,%ymm9
- DB 196,193,45,113,208,5 ; vpsrlw $0x5,%ymm8,%ymm10
- DB 196,98,125,121,29,43,181,0,0 ; vpbroadcastw 0xb52b(%rip),%ymm11 # 3535a <_sk_srcover_bgra_8888_sse2_lowp+0xb42>
- DB 196,65,45,219,211 ; vpand %ymm11,%ymm10,%ymm10
- DB 196,98,125,121,29,31,181,0,0 ; vpbroadcastw 0xb51f(%rip),%ymm11 # 3535c <_sk_srcover_bgra_8888_sse2_lowp+0xb44>
- DB 196,65,61,219,219 ; vpand %ymm11,%ymm8,%ymm11
- DB 196,193,61,113,208,13 ; vpsrlw $0xd,%ymm8,%ymm8
- DB 196,65,53,235,192 ; vpor %ymm8,%ymm9,%ymm8
- DB 196,193,53,113,242,2 ; vpsllw $0x2,%ymm10,%ymm9
- DB 196,193,45,113,210,4 ; vpsrlw $0x4,%ymm10,%ymm10
- DB 196,65,53,235,202 ; vpor %ymm10,%ymm9,%ymm9
- DB 196,193,45,113,243,3 ; vpsllw $0x3,%ymm11,%ymm10
- DB 196,193,37,113,211,2 ; vpsrlw $0x2,%ymm11,%ymm11
- DB 196,65,45,235,211 ; vpor %ymm11,%ymm10,%ymm10
- DB 196,98,125,121,29,230,180,0,0 ; vpbroadcastw 0xb4e6(%rip),%ymm11 # 3535e <_sk_srcover_bgra_8888_sse2_lowp+0xb46>
- DB 196,65,101,239,227 ; vpxor %ymm11,%ymm3,%ymm12
- DB 196,65,69,239,219 ; vpxor %ymm11,%ymm7,%ymm11
- DB 196,65,37,101,220 ; vpcmpgtw %ymm12,%ymm11,%ymm11
- DB 196,66,53,58,226 ; vpminuw %ymm10,%ymm9,%ymm12
- DB 196,66,29,58,224 ; vpminuw %ymm8,%ymm12,%ymm12
- DB 196,66,53,62,234 ; vpmaxuw %ymm10,%ymm9,%ymm13
- DB 196,66,21,62,232 ; vpmaxuw %ymm8,%ymm13,%ymm13
- DB 196,67,21,76,220,176 ; vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
- DB 197,189,213,192 ; vpmullw %ymm0,%ymm8,%ymm0
- DB 196,98,125,121,5,178,180,0,0 ; vpbroadcastw 0xb4b2(%rip),%ymm8 # 35360 <_sk_srcover_bgra_8888_sse2_lowp+0xb48>
- DB 196,193,125,253,192 ; vpaddw %ymm8,%ymm0,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 197,181,213,201 ; vpmullw %ymm1,%ymm9,%ymm1
- DB 196,193,117,253,200 ; vpaddw %ymm8,%ymm1,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 197,173,213,210 ; vpmullw %ymm2,%ymm10,%ymm2
- DB 196,193,109,253,208 ; vpaddw %ymm8,%ymm2,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 197,165,213,219 ; vpmullw %ymm3,%ymm11,%ymm3
- DB 196,193,101,253,216 ; vpaddw %ymm8,%ymm3,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 10,254 ; or %dh,%bh
- DB 255 ; (bad)
- DB 255,54 ; pushq (%rsi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,35 ; jmpq *(%rbx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,118,254 ; pushq -0x2(%rsi)
- DB 255 ; (bad)
- DB 255,104,254 ; ljmp *-0x2(%rax)
- DB 255 ; (bad)
- DB 255,90,254 ; lcall *-0x2(%rdx)
- DB 255 ; (bad)
- DB 255,71,254 ; incl -0x2(%rdi)
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,174,254,255,255,154 ; ljmp *-0x65000002(%rsi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,135,254,255,255,11 ; incl 0xbfffffe(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,247 ; push %rdi
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,227 ; jmpq *%rbx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,208 ; callq *%rax
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_lerp_565_hsw_lowp
-_sk_lerp_565_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,15 ; and $0xf,%al
- DB 254,200 ; dec %al
- DB 60,14 ; cmp $0xe,%al
- DB 119,38 ; ja 29f64 <_sk_lerp_565_hsw_lowp+0x40>
- DB 196,65,61,239,192 ; vpxor %ymm8,%ymm8,%ymm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,51,2,0,0 ; lea 0x233(%rip),%r9 # 2a180 <_sk_lerp_565_hsw_lowp+0x25c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 197,121,110,192 ; vmovd %eax,%xmm8
- DB 233,12,1,0,0 ; jmpq 2a070 <_sk_lerp_565_hsw_lowp+0x14c>
- DB 196,65,126,111,4,80 ; vmovdqu (%r8,%rdx,2),%ymm8
- DB 233,1,1,0,0 ; jmpq 2a070 <_sk_lerp_565_hsw_lowp+0x14c>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,76,80,4,2 ; vpinsrw $0x2,0x4(%r8,%rdx,2),%xmm8,%xmm9
- DB 196,67,53,56,192,1 ; vinserti128 $0x1,%xmm8,%ymm9,%ymm8
- DB 196,65,121,110,12,80 ; vmovd (%r8,%rdx,2),%xmm9
- DB 196,67,61,2,193,1 ; vpblendd $0x1,%ymm9,%ymm8,%ymm8
- DB 233,221,0,0,0 ; jmpq 2a070 <_sk_lerp_565_hsw_lowp+0x14c>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,76,80,12,6 ; vpinsrw $0x6,0xc(%r8,%rdx,2),%xmm8,%xmm9
- DB 196,67,53,56,192,1 ; vinserti128 $0x1,%xmm8,%ymm9,%ymm8
- DB 196,65,57,196,76,80,10,5 ; vpinsrw $0x5,0xa(%r8,%rdx,2),%xmm8,%xmm9
- DB 196,67,61,2,193,15 ; vpblendd $0xf,%ymm9,%ymm8,%ymm8
- DB 196,65,57,196,76,80,8,4 ; vpinsrw $0x4,0x8(%r8,%rdx,2),%xmm8,%xmm9
- DB 196,67,61,2,193,15 ; vpblendd $0xf,%ymm9,%ymm8,%ymm8
- DB 196,65,122,126,12,80 ; vmovq (%r8,%rdx,2),%xmm9
- DB 196,67,61,2,193,3 ; vpblendd $0x3,%ymm9,%ymm8,%ymm8
- DB 233,157,0,0,0 ; jmpq 2a070 <_sk_lerp_565_hsw_lowp+0x14c>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,76,80,20,2 ; vpinsrw $0x2,0x14(%r8,%rdx,2),%xmm8,%xmm9
- DB 196,67,61,56,193,1 ; vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,49,196,76,80,18,1 ; vpinsrw $0x1,0x12(%r8,%rdx,2),%xmm9,%xmm9
- DB 196,67,61,56,193,1 ; vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,49,196,76,80,16,0 ; vpinsrw $0x0,0x10(%r8,%rdx,2),%xmm9,%xmm9
- DB 196,67,61,56,193,1 ; vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- DB 196,65,122,111,12,80 ; vmovdqu (%r8,%rdx,2),%xmm9
- DB 196,67,53,2,192,240 ; vpblendd $0xf0,%ymm8,%ymm9,%ymm8
- DB 235,84 ; jmp 2a070 <_sk_lerp_565_hsw_lowp+0x14c>
- DB 196,65,57,239,192 ; vpxor %xmm8,%xmm8,%xmm8
- DB 196,65,57,196,76,80,28,6 ; vpinsrw $0x6,0x1c(%r8,%rdx,2),%xmm8,%xmm9
- DB 196,67,61,56,193,1 ; vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,49,196,76,80,26,5 ; vpinsrw $0x5,0x1a(%r8,%rdx,2),%xmm9,%xmm9
- DB 196,67,61,56,193,1 ; vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,49,196,76,80,24,4 ; vpinsrw $0x4,0x18(%r8,%rdx,2),%xmm9,%xmm9
- DB 196,67,61,56,193,1 ; vinserti128 $0x1,%xmm9,%ymm8,%ymm8
- DB 196,65,122,126,76,80,16 ; vmovq 0x10(%r8,%rdx,2),%xmm9
- DB 196,65,122,111,20,80 ; vmovdqu (%r8,%rdx,2),%xmm10
- DB 196,67,45,56,201,1 ; vinserti128 $0x1,%xmm9,%ymm10,%ymm9
- DB 196,67,53,2,192,192 ; vpblendd $0xc0,%ymm8,%ymm9,%ymm8
- DB 196,98,125,121,13,233,178,0,0 ; vpbroadcastw 0xb2e9(%rip),%ymm9 # 35362 <_sk_srcover_bgra_8888_sse2_lowp+0xb4a>
- DB 196,193,45,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm10
- DB 196,65,45,219,201 ; vpand %ymm9,%ymm10,%ymm9
- DB 196,193,45,113,208,5 ; vpsrlw $0x5,%ymm8,%ymm10
- DB 196,98,125,121,29,209,178,0,0 ; vpbroadcastw 0xb2d1(%rip),%ymm11 # 35364 <_sk_srcover_bgra_8888_sse2_lowp+0xb4c>
- DB 196,65,45,219,211 ; vpand %ymm11,%ymm10,%ymm10
- DB 196,98,125,121,29,197,178,0,0 ; vpbroadcastw 0xb2c5(%rip),%ymm11 # 35366 <_sk_srcover_bgra_8888_sse2_lowp+0xb4e>
- DB 196,65,61,219,219 ; vpand %ymm11,%ymm8,%ymm11
- DB 196,193,61,113,208,13 ; vpsrlw $0xd,%ymm8,%ymm8
- DB 196,65,53,235,192 ; vpor %ymm8,%ymm9,%ymm8
- DB 196,193,53,113,242,2 ; vpsllw $0x2,%ymm10,%ymm9
- DB 196,193,45,113,210,4 ; vpsrlw $0x4,%ymm10,%ymm10
- DB 196,65,53,235,202 ; vpor %ymm10,%ymm9,%ymm9
- DB 196,193,45,113,243,3 ; vpsllw $0x3,%ymm11,%ymm10
- DB 196,193,37,113,211,2 ; vpsrlw $0x2,%ymm11,%ymm11
- DB 196,65,45,235,211 ; vpor %ymm11,%ymm10,%ymm10
- DB 196,98,125,121,29,140,178,0,0 ; vpbroadcastw 0xb28c(%rip),%ymm11 # 35368 <_sk_srcover_bgra_8888_sse2_lowp+0xb50>
- DB 196,65,101,239,227 ; vpxor %ymm11,%ymm3,%ymm12
- DB 196,65,69,239,219 ; vpxor %ymm11,%ymm7,%ymm11
- DB 196,65,37,101,220 ; vpcmpgtw %ymm12,%ymm11,%ymm11
- DB 196,66,53,58,226 ; vpminuw %ymm10,%ymm9,%ymm12
- DB 196,66,29,58,224 ; vpminuw %ymm8,%ymm12,%ymm12
- DB 196,66,53,62,234 ; vpmaxuw %ymm10,%ymm9,%ymm13
- DB 196,66,21,62,232 ; vpmaxuw %ymm8,%ymm13,%ymm13
- DB 196,67,21,76,220,176 ; vpblendvb %ymm11,%ymm12,%ymm13,%ymm11
- DB 196,98,125,121,37,92,178,0,0 ; vpbroadcastw 0xb25c(%rip),%ymm12 # 3536a <_sk_srcover_bgra_8888_sse2_lowp+0xb52>
- DB 196,65,61,239,236 ; vpxor %ymm12,%ymm8,%ymm13
- DB 197,21,213,236 ; vpmullw %ymm4,%ymm13,%ymm13
- DB 197,189,213,192 ; vpmullw %ymm0,%ymm8,%ymm0
- DB 196,193,125,253,196 ; vpaddw %ymm12,%ymm0,%ymm0
- DB 197,149,253,192 ; vpaddw %ymm0,%ymm13,%ymm0
- DB 197,253,113,208,8 ; vpsrlw $0x8,%ymm0,%ymm0
- DB 196,65,53,239,196 ; vpxor %ymm12,%ymm9,%ymm8
- DB 197,61,213,197 ; vpmullw %ymm5,%ymm8,%ymm8
- DB 197,181,213,201 ; vpmullw %ymm1,%ymm9,%ymm1
- DB 196,193,117,253,204 ; vpaddw %ymm12,%ymm1,%ymm1
- DB 197,189,253,201 ; vpaddw %ymm1,%ymm8,%ymm1
- DB 197,245,113,209,8 ; vpsrlw $0x8,%ymm1,%ymm1
- DB 196,65,45,239,196 ; vpxor %ymm12,%ymm10,%ymm8
- DB 197,61,213,198 ; vpmullw %ymm6,%ymm8,%ymm8
- DB 197,173,213,210 ; vpmullw %ymm2,%ymm10,%ymm2
- DB 196,193,109,253,212 ; vpaddw %ymm12,%ymm2,%ymm2
- DB 197,189,253,210 ; vpaddw %ymm2,%ymm8,%ymm2
- DB 197,237,113,210,8 ; vpsrlw $0x8,%ymm2,%ymm2
- DB 196,65,37,239,196 ; vpxor %ymm12,%ymm11,%ymm8
- DB 197,61,213,199 ; vpmullw %ymm7,%ymm8,%ymm8
- DB 197,165,213,219 ; vpmullw %ymm3,%ymm11,%ymm3
- DB 196,193,101,253,220 ; vpaddw %ymm12,%ymm3,%ymm3
- DB 197,189,253,219 ; vpaddw %ymm3,%ymm8,%ymm3
- DB 197,229,113,211,8 ; vpsrlw $0x8,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 214 ; (bad)
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,2 ; incl (%rdx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 239 ; out %eax,(%dx)
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,66,254 ; incl -0x2(%rdx)
- DB 255 ; (bad)
- DB 255,52,254 ; pushq (%rsi,%rdi,8)
- DB 255 ; (bad)
- DB 255,38 ; jmpq *(%rsi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,19 ; callq *(%rbx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,142,254,255,255,122 ; decl 0x7afffffe(%rsi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,102,254 ; jmpq *-0x2(%rsi)
- DB 255 ; (bad)
- DB 255,83,254 ; callq *-0x2(%rbx)
- DB 255 ; (bad)
- DB 255,215 ; callq *%rdi
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,195 ; inc %ebx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,175,254,255,255,156 ; ljmp *-0x63000002(%rdi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_clamp_x_1_hsw_lowp
-_sk_clamp_x_1_hsw_lowp LABEL PROC
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,193,116,95,200 ; vmaxps %ymm8,%ymm1,%ymm1
- DB 196,193,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,5,244,168,0,0 ; vbroadcastss 0xa8f4(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_repeat_x_1_hsw_lowp
-_sk_repeat_x_1_hsw_lowp LABEL PROC
- DB 196,99,125,8,192,1 ; vroundps $0x1,%ymm0,%ymm8
- DB 196,99,125,8,201,1 ; vroundps $0x1,%ymm1,%ymm9
- DB 196,193,124,92,192 ; vsubps %ymm8,%ymm0,%ymm0
- DB 196,193,116,92,201 ; vsubps %ymm9,%ymm1,%ymm1
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,193,116,95,200 ; vmaxps %ymm8,%ymm1,%ymm1
- DB 196,193,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,5,184,168,0,0 ; vbroadcastss 0xa8b8(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_x_1_hsw_lowp
-_sk_mirror_x_1_hsw_lowp LABEL PROC
- DB 196,98,125,24,5,185,168,0,0 ; vbroadcastss 0xa8b9(%rip),%ymm8 # 34ae0 <_sk_srcover_bgra_8888_sse2_lowp+0x2c8>
- DB 196,193,124,88,192 ; vaddps %ymm8,%ymm0,%ymm0
- DB 196,193,116,88,200 ; vaddps %ymm8,%ymm1,%ymm1
- DB 196,98,125,24,13,138,168,0,0 ; vbroadcastss 0xa88a(%rip),%ymm9 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,65,116,89,209 ; vmulps %ymm9,%ymm1,%ymm10
- DB 196,65,124,89,201 ; vmulps %ymm9,%ymm0,%ymm9
- DB 196,67,125,8,201,1 ; vroundps $0x1,%ymm9,%ymm9
- DB 196,67,125,8,210,1 ; vroundps $0x1,%ymm10,%ymm10
- DB 196,65,44,88,210 ; vaddps %ymm10,%ymm10,%ymm10
- DB 196,65,52,88,201 ; vaddps %ymm9,%ymm9,%ymm9
- DB 196,193,124,92,193 ; vsubps %ymm9,%ymm0,%ymm0
- DB 196,193,116,92,202 ; vsubps %ymm10,%ymm1,%ymm1
- DB 196,193,116,88,200 ; vaddps %ymm8,%ymm1,%ymm1
- DB 196,193,124,88,192 ; vaddps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,5,229,169,0,0 ; vbroadcastss 0xa9e5(%rip),%ymm8 # 34c5c <_sk_srcover_bgra_8888_sse2_lowp+0x444>
- DB 196,193,124,84,192 ; vandps %ymm8,%ymm0,%ymm0
- DB 196,193,116,84,200 ; vandps %ymm8,%ymm1,%ymm1
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,193,116,95,200 ; vmaxps %ymm8,%ymm1,%ymm1
- DB 196,193,124,95,192 ; vmaxps %ymm8,%ymm0,%ymm0
- DB 196,98,125,24,5,47,168,0,0 ; vbroadcastss 0xa82f(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 196,193,124,93,192 ; vminps %ymm8,%ymm0,%ymm0
- DB 196,193,116,93,200 ; vminps %ymm8,%ymm1,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_x_hsw_lowp
-_sk_decal_x_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,194,201,2 ; vcmpleps %ymm1,%ymm8,%ymm9
- DB 196,67,125,25,202,1 ; vextractf128 $0x1,%ymm9,%xmm10
- DB 196,65,49,99,202 ; vpacksswb %xmm10,%xmm9,%xmm9
- DB 197,121,111,21,250,184,0,0 ; vmovdqa 0xb8fa(%rip),%xmm10 # 35bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
- DB 196,66,49,0,202 ; vpshufb %xmm10,%xmm9,%xmm9
- DB 197,60,194,192,2 ; vcmpleps %ymm0,%ymm8,%ymm8
- DB 196,67,125,25,195,1 ; vextractf128 $0x1,%ymm8,%xmm11
- DB 196,65,57,99,195 ; vpacksswb %xmm11,%xmm8,%xmm8
- DB 196,66,57,0,194 ; vpshufb %xmm10,%xmm8,%xmm8
- DB 196,65,57,108,193 ; vpunpcklqdq %xmm9,%xmm8,%xmm8
- DB 196,98,125,24,72,64 ; vbroadcastss 0x40(%rax),%ymm9
- DB 196,65,116,194,217,1 ; vcmpltps %ymm9,%ymm1,%ymm11
- DB 196,67,125,25,220,1 ; vextractf128 $0x1,%ymm11,%xmm12
- DB 196,65,33,99,220 ; vpacksswb %xmm12,%xmm11,%xmm11
- DB 196,66,33,0,218 ; vpshufb %xmm10,%xmm11,%xmm11
- DB 196,65,124,194,201,1 ; vcmpltps %ymm9,%ymm0,%ymm9
- DB 196,67,125,25,204,1 ; vextractf128 $0x1,%ymm9,%xmm12
- DB 196,65,49,99,204 ; vpacksswb %xmm12,%xmm9,%xmm9
- DB 196,66,49,0,202 ; vpshufb %xmm10,%xmm9,%xmm9
- DB 196,65,49,108,203 ; vpunpcklqdq %xmm11,%xmm9,%xmm9
- DB 196,65,49,219,192 ; vpand %xmm8,%xmm9,%xmm8
- DB 196,66,125,48,192 ; vpmovzxbw %xmm8,%ymm8
- DB 196,193,61,113,240,15 ; vpsllw $0xf,%ymm8,%ymm8
- DB 196,193,61,113,224,15 ; vpsraw $0xf,%ymm8,%ymm8
- DB 197,126,127,0 ; vmovdqu %ymm8,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_y_hsw_lowp
-_sk_decal_y_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,60,194,203,2 ; vcmpleps %ymm3,%ymm8,%ymm9
- DB 196,67,125,25,202,1 ; vextractf128 $0x1,%ymm9,%xmm10
- DB 196,65,49,99,202 ; vpacksswb %xmm10,%xmm9,%xmm9
- DB 197,121,111,21,103,184,0,0 ; vmovdqa 0xb867(%rip),%xmm10 # 35bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
- DB 196,66,49,0,202 ; vpshufb %xmm10,%xmm9,%xmm9
- DB 197,60,194,194,2 ; vcmpleps %ymm2,%ymm8,%ymm8
- DB 196,67,125,25,195,1 ; vextractf128 $0x1,%ymm8,%xmm11
- DB 196,65,57,99,195 ; vpacksswb %xmm11,%xmm8,%xmm8
- DB 196,66,57,0,194 ; vpshufb %xmm10,%xmm8,%xmm8
- DB 196,65,57,108,193 ; vpunpcklqdq %xmm9,%xmm8,%xmm8
- DB 196,98,125,24,72,68 ; vbroadcastss 0x44(%rax),%ymm9
- DB 196,65,100,194,217,1 ; vcmpltps %ymm9,%ymm3,%ymm11
- DB 196,67,125,25,220,1 ; vextractf128 $0x1,%ymm11,%xmm12
- DB 196,65,33,99,220 ; vpacksswb %xmm12,%xmm11,%xmm11
- DB 196,66,33,0,218 ; vpshufb %xmm10,%xmm11,%xmm11
- DB 196,65,108,194,201,1 ; vcmpltps %ymm9,%ymm2,%ymm9
- DB 196,67,125,25,204,1 ; vextractf128 $0x1,%ymm9,%xmm12
- DB 196,65,49,99,204 ; vpacksswb %xmm12,%xmm9,%xmm9
- DB 196,66,49,0,202 ; vpshufb %xmm10,%xmm9,%xmm9
- DB 196,65,49,108,203 ; vpunpcklqdq %xmm11,%xmm9,%xmm9
- DB 196,65,49,219,192 ; vpand %xmm8,%xmm9,%xmm8
- DB 196,66,125,48,192 ; vpmovzxbw %xmm8,%ymm8
- DB 196,193,61,113,240,15 ; vpsllw $0xf,%ymm8,%ymm8
- DB 196,193,61,113,224,15 ; vpsraw $0xf,%ymm8,%ymm8
- DB 197,126,127,0 ; vmovdqu %ymm8,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_x_and_y_hsw_lowp
-_sk_decal_x_and_y_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,52,194,193,2 ; vcmpleps %ymm1,%ymm9,%ymm8
- DB 196,67,125,25,194,1 ; vextractf128 $0x1,%ymm8,%xmm10
- DB 196,65,57,99,210 ; vpacksswb %xmm10,%xmm8,%xmm10
- DB 197,121,111,5,212,183,0,0 ; vmovdqa 0xb7d4(%rip),%xmm8 # 35bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
- DB 196,66,41,0,208 ; vpshufb %xmm8,%xmm10,%xmm10
- DB 197,52,194,216,2 ; vcmpleps %ymm0,%ymm9,%ymm11
- DB 196,67,125,25,220,1 ; vextractf128 $0x1,%ymm11,%xmm12
- DB 196,65,33,99,220 ; vpacksswb %xmm12,%xmm11,%xmm11
- DB 196,66,33,0,216 ; vpshufb %xmm8,%xmm11,%xmm11
- DB 196,65,33,108,210 ; vpunpcklqdq %xmm10,%xmm11,%xmm10
- DB 196,98,125,24,88,64 ; vbroadcastss 0x40(%rax),%ymm11
- DB 196,65,116,194,227,1 ; vcmpltps %ymm11,%ymm1,%ymm12
- DB 196,67,125,25,229,1 ; vextractf128 $0x1,%ymm12,%xmm13
- DB 196,65,25,99,229 ; vpacksswb %xmm13,%xmm12,%xmm12
- DB 196,66,25,0,224 ; vpshufb %xmm8,%xmm12,%xmm12
- DB 196,65,124,194,219,1 ; vcmpltps %ymm11,%ymm0,%ymm11
- DB 196,67,125,25,221,1 ; vextractf128 $0x1,%ymm11,%xmm13
- DB 196,65,33,99,221 ; vpacksswb %xmm13,%xmm11,%xmm11
- DB 196,66,33,0,216 ; vpshufb %xmm8,%xmm11,%xmm11
- DB 196,65,33,108,220 ; vpunpcklqdq %xmm12,%xmm11,%xmm11
- DB 197,52,194,227,2 ; vcmpleps %ymm3,%ymm9,%ymm12
- DB 196,67,125,25,229,1 ; vextractf128 $0x1,%ymm12,%xmm13
- DB 196,65,25,99,229 ; vpacksswb %xmm13,%xmm12,%xmm12
- DB 196,66,25,0,224 ; vpshufb %xmm8,%xmm12,%xmm12
- DB 197,52,194,202,2 ; vcmpleps %ymm2,%ymm9,%ymm9
- DB 196,67,125,25,205,1 ; vextractf128 $0x1,%ymm9,%xmm13
- DB 196,65,49,99,205 ; vpacksswb %xmm13,%xmm9,%xmm9
- DB 196,66,49,0,200 ; vpshufb %xmm8,%xmm9,%xmm9
- DB 196,65,49,108,204 ; vpunpcklqdq %xmm12,%xmm9,%xmm9
- DB 196,65,49,219,202 ; vpand %xmm10,%xmm9,%xmm9
- DB 196,65,49,219,203 ; vpand %xmm11,%xmm9,%xmm9
- DB 196,98,125,24,80,68 ; vbroadcastss 0x44(%rax),%ymm10
- DB 196,65,100,194,218,1 ; vcmpltps %ymm10,%ymm3,%ymm11
- DB 196,67,125,25,220,1 ; vextractf128 $0x1,%ymm11,%xmm12
- DB 196,65,33,99,220 ; vpacksswb %xmm12,%xmm11,%xmm11
- DB 196,66,33,0,216 ; vpshufb %xmm8,%xmm11,%xmm11
- DB 196,65,108,194,210,1 ; vcmpltps %ymm10,%ymm2,%ymm10
- DB 196,67,125,25,212,1 ; vextractf128 $0x1,%ymm10,%xmm12
- DB 196,65,41,99,212 ; vpacksswb %xmm12,%xmm10,%xmm10
- DB 196,66,41,0,192 ; vpshufb %xmm8,%xmm10,%xmm8
- DB 196,65,57,108,195 ; vpunpcklqdq %xmm11,%xmm8,%xmm8
- DB 196,65,49,219,192 ; vpand %xmm8,%xmm9,%xmm8
- DB 196,66,125,48,192 ; vpmovzxbw %xmm8,%ymm8
- DB 196,193,61,113,240,15 ; vpsllw $0xf,%ymm8,%ymm8
- DB 196,193,61,113,224,15 ; vpsraw $0xf,%ymm8,%ymm8
- DB 197,126,127,0 ; vmovdqu %ymm8,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_check_decal_mask_hsw_lowp
-_sk_check_decal_mask_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,124,16,0 ; vmovups (%rax),%ymm8
- DB 197,188,84,192 ; vandps %ymm0,%ymm8,%ymm0
- DB 197,188,84,201 ; vandps %ymm1,%ymm8,%ymm1
- DB 197,188,84,210 ; vandps %ymm2,%ymm8,%ymm2
- DB 197,188,84,219 ; vandps %ymm3,%ymm8,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gradient_hsw_lowp
-_sk_gradient_hsw_lowp LABEL PROC
- DB 72,129,236,24,1,0,0 ; sub $0x118,%rsp
- DB 197,254,127,188,36,224,0,0,0 ; vmovdqu %ymm7,0xe0(%rsp)
- DB 197,252,17,180,36,192,0,0,0 ; vmovups %ymm6,0xc0(%rsp)
- DB 197,254,127,172,36,160,0,0,0 ; vmovdqu %ymm5,0xa0(%rsp)
- DB 197,254,127,164,36,128,0,0,0 ; vmovdqu %ymm4,0x80(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 73,131,248,2 ; cmp $0x2,%r8
- DB 114,60 ; jb 2a564 <_sk_gradient_hsw_lowp+0x7a>
- DB 76,139,72,72 ; mov 0x48(%rax),%r9
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 65,186,1,0,0,0 ; mov $0x1,%r10d
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,130,125,24,20,145 ; vbroadcastss (%r9,%r10,4),%ymm2
- DB 197,236,194,216,2 ; vcmpleps %ymm0,%ymm2,%ymm3
- DB 197,197,250,251 ; vpsubd %ymm3,%ymm7,%ymm7
- DB 197,236,194,209,2 ; vcmpleps %ymm1,%ymm2,%ymm2
- DB 197,213,250,234 ; vpsubd %ymm2,%ymm5,%ymm5
- DB 73,255,194 ; inc %r10
- DB 77,57,208 ; cmp %r10,%r8
- DB 117,224 ; jne 2a53a <_sk_gradient_hsw_lowp+0x50>
- DB 73,131,248,8 ; cmp $0x8,%r8
- DB 15,135,179,0,0,0 ; ja 2a617 <_sk_gradient_hsw_lowp+0x12d>
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 76,139,72,16 ; mov 0x10(%rax),%r9
- DB 196,193,124,16,24 ; vmovups (%r8),%ymm3
- DB 196,226,69,22,211 ; vpermps %ymm3,%ymm7,%ymm2
- DB 196,226,85,22,219 ; vpermps %ymm3,%ymm5,%ymm3
- DB 76,139,64,40 ; mov 0x28(%rax),%r8
- DB 196,193,124,16,32 ; vmovups (%r8),%ymm4
- DB 196,98,69,22,244 ; vpermps %ymm4,%ymm7,%ymm14
- DB 196,226,85,22,228 ; vpermps %ymm4,%ymm5,%ymm4
- DB 197,252,17,100,36,96 ; vmovups %ymm4,0x60(%rsp)
- DB 196,193,124,16,33 ; vmovups (%r9),%ymm4
- DB 196,98,69,22,196 ; vpermps %ymm4,%ymm7,%ymm8
- DB 196,98,85,22,204 ; vpermps %ymm4,%ymm5,%ymm9
- DB 76,139,64,48 ; mov 0x30(%rax),%r8
- DB 196,193,124,16,32 ; vmovups (%r8),%ymm4
- DB 196,98,69,22,236 ; vpermps %ymm4,%ymm7,%ymm13
- DB 196,226,85,22,228 ; vpermps %ymm4,%ymm5,%ymm4
- DB 197,252,17,36,36 ; vmovups %ymm4,(%rsp)
- DB 76,139,64,24 ; mov 0x18(%rax),%r8
- DB 196,193,124,16,32 ; vmovups (%r8),%ymm4
- DB 196,98,69,22,212 ; vpermps %ymm4,%ymm7,%ymm10
- DB 196,98,85,22,220 ; vpermps %ymm4,%ymm5,%ymm11
- DB 76,139,64,56 ; mov 0x38(%rax),%r8
- DB 196,193,124,16,48 ; vmovups (%r8),%ymm6
- DB 196,226,69,22,230 ; vpermps %ymm6,%ymm7,%ymm4
- DB 196,226,85,22,246 ; vpermps %ymm6,%ymm5,%ymm6
- DB 76,139,64,32 ; mov 0x20(%rax),%r8
- DB 196,65,124,16,32 ; vmovups (%r8),%ymm12
- DB 196,66,69,22,252 ; vpermps %ymm12,%ymm7,%ymm15
- DB 197,124,17,124,36,64 ; vmovups %ymm15,0x40(%rsp)
- DB 196,66,85,22,228 ; vpermps %ymm12,%ymm5,%ymm12
- DB 197,124,17,100,36,32 ; vmovups %ymm12,0x20(%rsp)
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 197,124,16,56 ; vmovups (%rax),%ymm15
- DB 196,66,69,22,231 ; vpermps %ymm15,%ymm7,%ymm12
- DB 196,194,85,22,255 ; vpermps %ymm15,%ymm5,%ymm7
- DB 233,33,1,0,0 ; jmpq 2a738 <_sk_gradient_hsw_lowp+0x24e>
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 76,139,72,16 ; mov 0x10(%rax),%r9
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 196,194,101,146,20,184 ; vgatherdps %ymm3,(%r8,%ymm7,4),%ymm2
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 196,194,93,146,28,168 ; vgatherdps %ymm4,(%r8,%ymm5,4),%ymm3
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 196,66,93,146,4,185 ; vgatherdps %ymm4,(%r9,%ymm7,4),%ymm8
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 196,66,93,146,12,169 ; vgatherdps %ymm4,(%r9,%ymm5,4),%ymm9
- DB 76,139,64,24 ; mov 0x18(%rax),%r8
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 196,66,93,146,20,184 ; vgatherdps %ymm4,(%r8,%ymm7,4),%ymm10
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,65,36,87,219 ; vxorps %ymm11,%ymm11,%ymm11
- DB 196,66,93,146,28,168 ; vgatherdps %ymm4,(%r8,%ymm5,4),%ymm11
- DB 76,139,64,32 ; mov 0x20(%rax),%r8
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 196,194,93,146,52,184 ; vgatherdps %ymm4,(%r8,%ymm7,4),%ymm6
- DB 197,252,17,116,36,64 ; vmovups %ymm6,0x40(%rsp)
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 196,194,93,146,52,168 ; vgatherdps %ymm4,(%r8,%ymm5,4),%ymm6
- DB 197,252,17,116,36,32 ; vmovups %ymm6,0x20(%rsp)
- DB 76,139,64,40 ; mov 0x28(%rax),%r8
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,65,12,87,246 ; vxorps %ymm14,%ymm14,%ymm14
- DB 196,66,93,146,52,184 ; vgatherdps %ymm4,(%r8,%ymm7,4),%ymm14
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 196,194,93,146,52,168 ; vgatherdps %ymm4,(%r8,%ymm5,4),%ymm6
- DB 197,252,17,116,36,96 ; vmovups %ymm6,0x60(%rsp)
- DB 76,139,64,48 ; mov 0x30(%rax),%r8
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,65,20,87,237 ; vxorps %ymm13,%ymm13,%ymm13
- DB 196,66,93,146,44,184 ; vgatherdps %ymm4,(%r8,%ymm7,4),%ymm13
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 196,194,93,146,52,168 ; vgatherdps %ymm4,(%r8,%ymm5,4),%ymm6
- DB 197,252,17,52,36 ; vmovups %ymm6,(%rsp)
- DB 76,139,64,56 ; mov 0x38(%rax),%r8
- DB 197,205,118,246 ; vpcmpeqd %ymm6,%ymm6,%ymm6
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 196,194,77,146,36,184 ; vgatherdps %ymm6,(%r8,%ymm7,4),%ymm4
- DB 196,65,29,118,228 ; vpcmpeqd %ymm12,%ymm12,%ymm12
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 196,194,29,146,52,168 ; vgatherdps %ymm12,(%r8,%ymm5,4),%ymm6
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 196,65,5,118,255 ; vpcmpeqd %ymm15,%ymm15,%ymm15
- DB 196,65,28,87,228 ; vxorps %ymm12,%ymm12,%ymm12
- DB 196,98,5,146,36,184 ; vgatherdps %ymm15,(%rax,%ymm7,4),%ymm12
- DB 196,65,5,118,255 ; vpcmpeqd %ymm15,%ymm15,%ymm15
- DB 197,196,87,255 ; vxorps %ymm7,%ymm7,%ymm7
- DB 196,226,5,146,60,168 ; vgatherdps %ymm15,(%rax,%ymm5,4),%ymm7
- DB 196,194,125,168,214 ; vfmadd213ps %ymm14,%ymm0,%ymm2
- DB 196,66,125,168,197 ; vfmadd213ps %ymm13,%ymm0,%ymm8
- DB 196,98,125,168,212 ; vfmadd213ps %ymm4,%ymm0,%ymm10
- DB 196,98,125,184,100,36,64 ; vfmadd231ps 0x40(%rsp),%ymm0,%ymm12
- DB 196,226,117,168,92,36,96 ; vfmadd213ps 0x60(%rsp),%ymm1,%ymm3
- DB 196,98,117,168,12,36 ; vfmadd213ps (%rsp),%ymm1,%ymm9
- DB 196,98,117,168,222 ; vfmadd213ps %ymm6,%ymm1,%ymm11
- DB 196,226,117,184,124,36,32 ; vfmadd231ps 0x20(%rsp),%ymm1,%ymm7
- DB 196,226,125,24,5,132,163,0,0 ; vbroadcastss 0xa384(%rip),%ymm0 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,226,125,24,13,75,163,0,0 ; vbroadcastss 0xa34b(%rip),%ymm1 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,226,125,168,217 ; vfmadd213ps %ymm1,%ymm0,%ymm3
- DB 196,226,125,168,209 ; vfmadd213ps %ymm1,%ymm0,%ymm2
- DB 196,98,125,168,201 ; vfmadd213ps %ymm1,%ymm0,%ymm9
- DB 196,98,125,168,193 ; vfmadd213ps %ymm1,%ymm0,%ymm8
- DB 196,98,125,168,217 ; vfmadd213ps %ymm1,%ymm0,%ymm11
- DB 196,98,125,168,209 ; vfmadd213ps %ymm1,%ymm0,%ymm10
- DB 196,226,125,168,249 ; vfmadd213ps %ymm1,%ymm0,%ymm7
- DB 196,98,125,168,225 ; vfmadd213ps %ymm1,%ymm0,%ymm12
- DB 197,254,91,194 ; vcvttps2dq %ymm2,%ymm0
- DB 197,253,111,37,211,171,0,0 ; vmovdqa 0xabd3(%rip),%ymm4 # 35380 <_sk_srcover_bgra_8888_sse2_lowp+0xb68>
- DB 196,226,125,0,196 ; vpshufb %ymm4,%ymm0,%ymm0
- DB 196,227,253,0,192,232 ; vpermq $0xe8,%ymm0,%ymm0
- DB 197,254,91,203 ; vcvttps2dq %ymm3,%ymm1
- DB 196,226,117,0,204 ; vpshufb %ymm4,%ymm1,%ymm1
- DB 196,227,253,0,201,232 ; vpermq $0xe8,%ymm1,%ymm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,193,126,91,200 ; vcvttps2dq %ymm8,%ymm1
- DB 196,226,117,0,204 ; vpshufb %ymm4,%ymm1,%ymm1
- DB 196,227,253,0,201,232 ; vpermq $0xe8,%ymm1,%ymm1
- DB 196,193,126,91,209 ; vcvttps2dq %ymm9,%ymm2
- DB 196,226,109,0,212 ; vpshufb %ymm4,%ymm2,%ymm2
- DB 196,227,253,0,210,232 ; vpermq $0xe8,%ymm2,%ymm2
- DB 196,227,117,56,202,1 ; vinserti128 $0x1,%xmm2,%ymm1,%ymm1
- DB 196,193,126,91,210 ; vcvttps2dq %ymm10,%ymm2
- DB 196,226,109,0,212 ; vpshufb %ymm4,%ymm2,%ymm2
- DB 196,227,253,0,210,232 ; vpermq $0xe8,%ymm2,%ymm2
- DB 196,193,126,91,219 ; vcvttps2dq %ymm11,%ymm3
- DB 196,226,101,0,220 ; vpshufb %ymm4,%ymm3,%ymm3
- DB 196,227,253,0,219,232 ; vpermq $0xe8,%ymm3,%ymm3
- DB 196,227,109,56,211,1 ; vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,193,126,91,220 ; vcvttps2dq %ymm12,%ymm3
- DB 196,226,101,0,220 ; vpshufb %ymm4,%ymm3,%ymm3
- DB 197,254,91,239 ; vcvttps2dq %ymm7,%ymm5
- DB 196,226,85,0,228 ; vpshufb %ymm4,%ymm5,%ymm4
- DB 196,227,253,0,219,232 ; vpermq $0xe8,%ymm3,%ymm3
- DB 196,227,253,0,228,232 ; vpermq $0xe8,%ymm4,%ymm4
- DB 196,227,101,56,220,1 ; vinserti128 $0x1,%xmm4,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,164,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm4
- DB 197,252,16,172,36,160,0,0,0 ; vmovups 0xa0(%rsp),%ymm5
- DB 197,252,16,180,36,192,0,0,0 ; vmovups 0xc0(%rsp),%ymm6
- DB 197,252,16,188,36,224,0,0,0 ; vmovups 0xe0(%rsp),%ymm7
- DB 72,129,196,24,1,0,0 ; add $0x118,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_evenly_spaced_gradient_hsw_lowp
-_sk_evenly_spaced_gradient_hsw_lowp LABEL PROC
- DB 72,129,236,24,1,0,0 ; sub $0x118,%rsp
- DB 197,252,17,188,36,224,0,0,0 ; vmovups %ymm7,0xe0(%rsp)
- DB 197,252,17,180,36,192,0,0,0 ; vmovups %ymm6,0xc0(%rsp)
- DB 197,252,17,172,36,160,0,0,0 ; vmovups %ymm5,0xa0(%rsp)
- DB 197,254,127,164,36,128,0,0,0 ; vmovdqu %ymm4,0x80(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 77,137,193 ; mov %r8,%r9
- DB 73,255,201 ; dec %r9
- DB 120,7 ; js 2a8ac <_sk_evenly_spaced_gradient_hsw_lowp+0x3f>
- DB 196,193,234,42,209 ; vcvtsi2ss %r9,%xmm2,%xmm2
- DB 235,22 ; jmp 2a8c2 <_sk_evenly_spaced_gradient_hsw_lowp+0x55>
- DB 77,137,202 ; mov %r9,%r10
- DB 73,209,234 ; shr %r10
- DB 65,131,225,1 ; and $0x1,%r9d
- DB 77,9,209 ; or %r10,%r9
- DB 196,193,234,42,209 ; vcvtsi2ss %r9,%xmm2,%xmm2
- DB 197,234,88,210 ; vaddss %xmm2,%xmm2,%xmm2
- DB 196,226,125,24,210 ; vbroadcastss %xmm2,%ymm2
- DB 197,252,89,218 ; vmulps %ymm2,%ymm0,%ymm3
- DB 197,244,89,210 ; vmulps %ymm2,%ymm1,%ymm2
- DB 197,126,91,242 ; vcvttps2dq %ymm2,%ymm14
- DB 197,254,91,251 ; vcvttps2dq %ymm3,%ymm7
- DB 73,131,248,8 ; cmp $0x8,%r8
- DB 15,135,179,0,0,0 ; ja 2a994 <_sk_evenly_spaced_gradient_hsw_lowp+0x127>
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 76,139,72,16 ; mov 0x10(%rax),%r9
- DB 196,193,124,16,24 ; vmovups (%r8),%ymm3
- DB 196,226,69,22,211 ; vpermps %ymm3,%ymm7,%ymm2
- DB 196,226,13,22,219 ; vpermps %ymm3,%ymm14,%ymm3
- DB 76,139,64,40 ; mov 0x28(%rax),%r8
- DB 196,193,124,16,32 ; vmovups (%r8),%ymm4
- DB 196,98,69,22,236 ; vpermps %ymm4,%ymm7,%ymm13
- DB 196,226,13,22,228 ; vpermps %ymm4,%ymm14,%ymm4
- DB 197,252,17,100,36,96 ; vmovups %ymm4,0x60(%rsp)
- DB 196,193,124,16,33 ; vmovups (%r9),%ymm4
- DB 196,98,69,22,196 ; vpermps %ymm4,%ymm7,%ymm8
- DB 196,98,13,22,204 ; vpermps %ymm4,%ymm14,%ymm9
- DB 76,139,64,48 ; mov 0x30(%rax),%r8
- DB 196,193,124,16,40 ; vmovups (%r8),%ymm5
- DB 196,226,69,22,229 ; vpermps %ymm5,%ymm7,%ymm4
- DB 196,226,13,22,237 ; vpermps %ymm5,%ymm14,%ymm5
- DB 197,252,17,44,36 ; vmovups %ymm5,(%rsp)
- DB 76,139,64,24 ; mov 0x18(%rax),%r8
- DB 196,193,124,16,40 ; vmovups (%r8),%ymm5
- DB 196,98,69,22,213 ; vpermps %ymm5,%ymm7,%ymm10
- DB 196,98,13,22,221 ; vpermps %ymm5,%ymm14,%ymm11
- DB 76,139,64,56 ; mov 0x38(%rax),%r8
- DB 196,193,124,16,48 ; vmovups (%r8),%ymm6
- DB 196,226,69,22,238 ; vpermps %ymm6,%ymm7,%ymm5
- DB 196,226,13,22,246 ; vpermps %ymm6,%ymm14,%ymm6
- DB 76,139,64,32 ; mov 0x20(%rax),%r8
- DB 196,65,124,16,32 ; vmovups (%r8),%ymm12
- DB 196,66,69,22,252 ; vpermps %ymm12,%ymm7,%ymm15
- DB 197,124,17,124,36,64 ; vmovups %ymm15,0x40(%rsp)
- DB 196,66,13,22,228 ; vpermps %ymm12,%ymm14,%ymm12
- DB 197,124,17,100,36,32 ; vmovups %ymm12,0x20(%rsp)
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 197,124,16,56 ; vmovups (%rax),%ymm15
- DB 196,66,69,22,231 ; vpermps %ymm15,%ymm7,%ymm12
- DB 196,194,13,22,255 ; vpermps %ymm15,%ymm14,%ymm7
- DB 233,32,1,0,0 ; jmpq 2aab4 <_sk_evenly_spaced_gradient_hsw_lowp+0x247>
- DB 76,139,64,8 ; mov 0x8(%rax),%r8
- DB 76,139,72,16 ; mov 0x10(%rax),%r9
- DB 197,236,87,210 ; vxorps %ymm2,%ymm2,%ymm2
- DB 197,229,118,219 ; vpcmpeqd %ymm3,%ymm3,%ymm3
- DB 196,194,101,146,20,184 ; vgatherdps %ymm3,(%r8,%ymm7,4),%ymm2
- DB 197,228,87,219 ; vxorps %ymm3,%ymm3,%ymm3
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,130,93,146,28,176 ; vgatherdps %ymm4,(%r8,%ymm14,4),%ymm3
- DB 196,65,60,87,192 ; vxorps %ymm8,%ymm8,%ymm8
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,66,93,146,4,185 ; vgatherdps %ymm4,(%r9,%ymm7,4),%ymm8
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,2,93,146,12,177 ; vgatherdps %ymm4,(%r9,%ymm14,4),%ymm9
- DB 76,139,64,24 ; mov 0x18(%rax),%r8
- DB 196,65,44,87,210 ; vxorps %ymm10,%ymm10,%ymm10
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,66,93,146,20,184 ; vgatherdps %ymm4,(%r8,%ymm7,4),%ymm10
- DB 196,65,36,87,219 ; vxorps %ymm11,%ymm11,%ymm11
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,2,93,146,28,176 ; vgatherdps %ymm4,(%r8,%ymm14,4),%ymm11
- DB 76,139,64,32 ; mov 0x20(%rax),%r8
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,194,93,146,44,184 ; vgatherdps %ymm4,(%r8,%ymm7,4),%ymm5
- DB 197,252,17,108,36,64 ; vmovups %ymm5,0x40(%rsp)
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,130,93,146,44,176 ; vgatherdps %ymm4,(%r8,%ymm14,4),%ymm5
- DB 197,252,17,108,36,32 ; vmovups %ymm5,0x20(%rsp)
- DB 76,139,64,40 ; mov 0x28(%rax),%r8
- DB 196,65,20,87,237 ; vxorps %ymm13,%ymm13,%ymm13
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,66,93,146,44,184 ; vgatherdps %ymm4,(%r8,%ymm7,4),%ymm13
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,221,118,228 ; vpcmpeqd %ymm4,%ymm4,%ymm4
- DB 196,130,93,146,44,176 ; vgatherdps %ymm4,(%r8,%ymm14,4),%ymm5
- DB 197,252,17,108,36,96 ; vmovups %ymm5,0x60(%rsp)
- DB 76,139,64,48 ; mov 0x30(%rax),%r8
- DB 197,220,87,228 ; vxorps %ymm4,%ymm4,%ymm4
- DB 197,213,118,237 ; vpcmpeqd %ymm5,%ymm5,%ymm5
- DB 196,194,85,146,36,184 ; vgatherdps %ymm5,(%r8,%ymm7,4),%ymm4
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 197,213,118,237 ; vpcmpeqd %ymm5,%ymm5,%ymm5
- DB 196,130,85,146,52,176 ; vgatherdps %ymm5,(%r8,%ymm14,4),%ymm6
- DB 197,252,17,52,36 ; vmovups %ymm6,(%rsp)
- DB 76,139,64,56 ; mov 0x38(%rax),%r8
- DB 197,212,87,237 ; vxorps %ymm5,%ymm5,%ymm5
- DB 197,205,118,246 ; vpcmpeqd %ymm6,%ymm6,%ymm6
- DB 196,194,77,146,44,184 ; vgatherdps %ymm6,(%r8,%ymm7,4),%ymm5
- DB 197,204,87,246 ; vxorps %ymm6,%ymm6,%ymm6
- DB 196,65,29,118,228 ; vpcmpeqd %ymm12,%ymm12,%ymm12
- DB 196,130,29,146,52,176 ; vgatherdps %ymm12,(%r8,%ymm14,4),%ymm6
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 196,65,28,87,228 ; vxorps %ymm12,%ymm12,%ymm12
- DB 196,65,5,118,255 ; vpcmpeqd %ymm15,%ymm15,%ymm15
- DB 196,98,5,146,36,184 ; vgatherdps %ymm15,(%rax,%ymm7,4),%ymm12
- DB 196,65,5,118,255 ; vpcmpeqd %ymm15,%ymm15,%ymm15
- DB 197,196,87,255 ; vxorps %ymm7,%ymm7,%ymm7
- DB 196,162,5,146,60,176 ; vgatherdps %ymm15,(%rax,%ymm14,4),%ymm7
- DB 196,194,125,168,213 ; vfmadd213ps %ymm13,%ymm0,%ymm2
- DB 196,98,125,168,196 ; vfmadd213ps %ymm4,%ymm0,%ymm8
- DB 196,98,125,168,213 ; vfmadd213ps %ymm5,%ymm0,%ymm10
- DB 196,98,125,184,100,36,64 ; vfmadd231ps 0x40(%rsp),%ymm0,%ymm12
- DB 196,226,117,168,92,36,96 ; vfmadd213ps 0x60(%rsp),%ymm1,%ymm3
- DB 196,98,117,168,12,36 ; vfmadd213ps (%rsp),%ymm1,%ymm9
- DB 196,98,117,168,222 ; vfmadd213ps %ymm6,%ymm1,%ymm11
- DB 196,226,117,184,124,36,32 ; vfmadd231ps 0x20(%rsp),%ymm1,%ymm7
- DB 196,226,125,24,5,8,160,0,0 ; vbroadcastss 0xa008(%rip),%ymm0 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,226,125,24,13,207,159,0,0 ; vbroadcastss 0x9fcf(%rip),%ymm1 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,226,125,168,217 ; vfmadd213ps %ymm1,%ymm0,%ymm3
- DB 196,226,125,168,209 ; vfmadd213ps %ymm1,%ymm0,%ymm2
- DB 196,98,125,168,201 ; vfmadd213ps %ymm1,%ymm0,%ymm9
- DB 196,98,125,168,193 ; vfmadd213ps %ymm1,%ymm0,%ymm8
- DB 196,98,125,168,217 ; vfmadd213ps %ymm1,%ymm0,%ymm11
- DB 196,98,125,168,209 ; vfmadd213ps %ymm1,%ymm0,%ymm10
- DB 196,226,125,168,249 ; vfmadd213ps %ymm1,%ymm0,%ymm7
- DB 196,98,125,168,225 ; vfmadd213ps %ymm1,%ymm0,%ymm12
- DB 197,254,91,194 ; vcvttps2dq %ymm2,%ymm0
- DB 197,253,111,37,119,168,0,0 ; vmovdqa 0xa877(%rip),%ymm4 # 353a0 <_sk_srcover_bgra_8888_sse2_lowp+0xb88>
- DB 196,226,125,0,196 ; vpshufb %ymm4,%ymm0,%ymm0
- DB 196,227,253,0,192,232 ; vpermq $0xe8,%ymm0,%ymm0
- DB 197,254,91,203 ; vcvttps2dq %ymm3,%ymm1
- DB 196,226,117,0,204 ; vpshufb %ymm4,%ymm1,%ymm1
- DB 196,227,253,0,201,232 ; vpermq $0xe8,%ymm1,%ymm1
- DB 196,227,125,56,193,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm0
- DB 196,193,126,91,200 ; vcvttps2dq %ymm8,%ymm1
- DB 196,226,117,0,204 ; vpshufb %ymm4,%ymm1,%ymm1
- DB 196,227,253,0,201,232 ; vpermq $0xe8,%ymm1,%ymm1
- DB 196,193,126,91,209 ; vcvttps2dq %ymm9,%ymm2
- DB 196,226,109,0,212 ; vpshufb %ymm4,%ymm2,%ymm2
- DB 196,227,253,0,210,232 ; vpermq $0xe8,%ymm2,%ymm2
- DB 196,227,117,56,202,1 ; vinserti128 $0x1,%xmm2,%ymm1,%ymm1
- DB 196,193,126,91,210 ; vcvttps2dq %ymm10,%ymm2
- DB 196,226,109,0,212 ; vpshufb %ymm4,%ymm2,%ymm2
- DB 196,227,253,0,210,232 ; vpermq $0xe8,%ymm2,%ymm2
- DB 196,193,126,91,219 ; vcvttps2dq %ymm11,%ymm3
- DB 196,226,101,0,220 ; vpshufb %ymm4,%ymm3,%ymm3
- DB 196,227,253,0,219,232 ; vpermq $0xe8,%ymm3,%ymm3
- DB 196,227,109,56,211,1 ; vinserti128 $0x1,%xmm3,%ymm2,%ymm2
- DB 196,193,126,91,220 ; vcvttps2dq %ymm12,%ymm3
- DB 196,226,101,0,220 ; vpshufb %ymm4,%ymm3,%ymm3
- DB 197,254,91,239 ; vcvttps2dq %ymm7,%ymm5
- DB 196,226,85,0,228 ; vpshufb %ymm4,%ymm5,%ymm4
- DB 196,227,253,0,219,232 ; vpermq $0xe8,%ymm3,%ymm3
- DB 196,227,253,0,228,232 ; vpermq $0xe8,%ymm4,%ymm4
- DB 196,227,101,56,220,1 ; vinserti128 $0x1,%xmm4,%ymm3,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,16,164,36,128,0,0,0 ; vmovups 0x80(%rsp),%ymm4
- DB 197,252,16,172,36,160,0,0,0 ; vmovups 0xa0(%rsp),%ymm5
- DB 197,252,16,180,36,192,0,0,0 ; vmovups 0xc0(%rsp),%ymm6
- DB 197,252,16,188,36,224,0,0,0 ; vmovups 0xe0(%rsp),%ymm7
- DB 72,129,196,24,1,0,0 ; add $0x118,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_evenly_spaced_2_stop_gradient_hsw_lowp
-_sk_evenly_spaced_2_stop_gradient_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 196,226,125,24,16 ; vbroadcastss (%rax),%ymm2
- DB 196,226,125,24,88,16 ; vbroadcastss 0x10(%rax),%ymm3
- DB 197,124,40,194 ; vmovaps %ymm2,%ymm8
- DB 196,98,125,168,195 ; vfmadd213ps %ymm3,%ymm0,%ymm8
- DB 196,226,117,168,211 ; vfmadd213ps %ymm3,%ymm1,%ymm2
- DB 196,226,125,24,29,231,158,0,0 ; vbroadcastss 0x9ee7(%rip),%ymm3 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 196,98,125,24,29,174,158,0,0 ; vbroadcastss 0x9eae(%rip),%ymm11 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 196,194,101,168,211 ; vfmadd213ps %ymm11,%ymm3,%ymm2
- DB 196,66,101,168,195 ; vfmadd213ps %ymm11,%ymm3,%ymm8
- DB 196,65,126,91,192 ; vcvttps2dq %ymm8,%ymm8
- DB 197,125,111,21,147,167,0,0 ; vmovdqa 0xa793(%rip),%ymm10 # 353c0 <_sk_srcover_bgra_8888_sse2_lowp+0xba8>
- DB 196,66,61,0,194 ; vpshufb %ymm10,%ymm8,%ymm8
- DB 196,67,253,0,192,232 ; vpermq $0xe8,%ymm8,%ymm8
- DB 197,254,91,210 ; vcvttps2dq %ymm2,%ymm2
- DB 196,194,109,0,210 ; vpshufb %ymm10,%ymm2,%ymm2
- DB 196,227,253,0,210,232 ; vpermq $0xe8,%ymm2,%ymm2
- DB 196,99,61,56,194,1 ; vinserti128 $0x1,%xmm2,%ymm8,%ymm8
- DB 196,226,125,24,80,4 ; vbroadcastss 0x4(%rax),%ymm2
- DB 196,98,125,24,72,20 ; vbroadcastss 0x14(%rax),%ymm9
- DB 197,124,40,226 ; vmovaps %ymm2,%ymm12
- DB 196,66,125,168,225 ; vfmadd213ps %ymm9,%ymm0,%ymm12
- DB 196,194,117,168,209 ; vfmadd213ps %ymm9,%ymm1,%ymm2
- DB 196,194,101,168,211 ; vfmadd213ps %ymm11,%ymm3,%ymm2
- DB 196,66,101,168,227 ; vfmadd213ps %ymm11,%ymm3,%ymm12
- DB 196,65,126,91,204 ; vcvttps2dq %ymm12,%ymm9
- DB 196,66,53,0,202 ; vpshufb %ymm10,%ymm9,%ymm9
- DB 196,67,253,0,201,232 ; vpermq $0xe8,%ymm9,%ymm9
- DB 197,254,91,210 ; vcvttps2dq %ymm2,%ymm2
- DB 196,194,109,0,210 ; vpshufb %ymm10,%ymm2,%ymm2
- DB 196,227,253,0,210,232 ; vpermq $0xe8,%ymm2,%ymm2
- DB 196,99,53,56,202,1 ; vinserti128 $0x1,%xmm2,%ymm9,%ymm9
- DB 196,226,125,24,80,8 ; vbroadcastss 0x8(%rax),%ymm2
- DB 196,98,125,24,96,24 ; vbroadcastss 0x18(%rax),%ymm12
- DB 197,124,40,234 ; vmovaps %ymm2,%ymm13
- DB 196,66,125,168,236 ; vfmadd213ps %ymm12,%ymm0,%ymm13
- DB 196,194,117,168,212 ; vfmadd213ps %ymm12,%ymm1,%ymm2
- DB 196,194,101,168,211 ; vfmadd213ps %ymm11,%ymm3,%ymm2
- DB 196,66,101,168,235 ; vfmadd213ps %ymm11,%ymm3,%ymm13
- DB 196,65,126,91,229 ; vcvttps2dq %ymm13,%ymm12
- DB 196,66,29,0,226 ; vpshufb %ymm10,%ymm12,%ymm12
- DB 196,67,253,0,228,232 ; vpermq $0xe8,%ymm12,%ymm12
- DB 197,254,91,210 ; vcvttps2dq %ymm2,%ymm2
- DB 196,194,109,0,210 ; vpshufb %ymm10,%ymm2,%ymm2
- DB 196,227,253,0,210,232 ; vpermq $0xe8,%ymm2,%ymm2
- DB 196,227,29,56,210,1 ; vinserti128 $0x1,%xmm2,%ymm12,%ymm2
- DB 196,98,125,24,96,12 ; vbroadcastss 0xc(%rax),%ymm12
- DB 196,98,125,24,104,28 ; vbroadcastss 0x1c(%rax),%ymm13
- DB 196,194,29,168,197 ; vfmadd213ps %ymm13,%ymm12,%ymm0
- DB 196,66,117,168,229 ; vfmadd213ps %ymm13,%ymm1,%ymm12
- DB 196,66,101,168,227 ; vfmadd213ps %ymm11,%ymm3,%ymm12
- DB 196,194,101,168,195 ; vfmadd213ps %ymm11,%ymm3,%ymm0
- DB 197,254,91,192 ; vcvttps2dq %ymm0,%ymm0
- DB 196,194,125,0,194 ; vpshufb %ymm10,%ymm0,%ymm0
- DB 196,227,253,0,192,232 ; vpermq $0xe8,%ymm0,%ymm0
- DB 196,193,126,91,204 ; vcvttps2dq %ymm12,%ymm1
- DB 196,194,117,0,202 ; vpshufb %ymm10,%ymm1,%ymm1
- DB 196,227,253,0,201,232 ; vpermq $0xe8,%ymm1,%ymm1
- DB 196,227,125,56,217,1 ; vinserti128 $0x1,%xmm1,%ymm0,%ymm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,125,127,192 ; vmovdqa %ymm8,%ymm0
- DB 197,125,127,201 ; vmovdqa %ymm9,%ymm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_unit_angle_hsw_lowp
-_sk_xy_to_unit_angle_hsw_lowp LABEL PROC
- DB 72,131,236,56 ; sub $0x38,%rsp
- DB 197,252,17,60,36 ; vmovups %ymm7,(%rsp)
- DB 197,252,40,254 ; vmovaps %ymm6,%ymm7
- DB 197,252,40,245 ; vmovaps %ymm5,%ymm6
- DB 197,252,40,236 ; vmovaps %ymm4,%ymm5
- DB 197,252,40,227 ; vmovaps %ymm3,%ymm4
- DB 197,252,40,217 ; vmovaps %ymm1,%ymm3
- DB 197,252,40,200 ; vmovaps %ymm0,%ymm1
- DB 196,98,125,24,5,2,159,0,0 ; vbroadcastss 0x9f02(%rip),%ymm8 # 34c5c <_sk_srcover_bgra_8888_sse2_lowp+0x444>
- DB 196,65,116,84,200 ; vandps %ymm8,%ymm1,%ymm9
- DB 196,65,100,84,208 ; vandps %ymm8,%ymm3,%ymm10
- DB 196,65,108,84,216 ; vandps %ymm8,%ymm2,%ymm11
- DB 196,65,92,84,192 ; vandps %ymm8,%ymm4,%ymm8
- DB 196,65,44,194,224,1 ; vcmpltps %ymm8,%ymm10,%ymm12
- DB 196,65,52,194,235,1 ; vcmpltps %ymm11,%ymm9,%ymm13
- DB 196,67,37,74,241,208 ; vblendvps %ymm13,%ymm9,%ymm11,%ymm14
- DB 196,67,61,74,250,192 ; vblendvps %ymm12,%ymm10,%ymm8,%ymm15
- DB 196,67,53,74,203,208 ; vblendvps %ymm13,%ymm11,%ymm9,%ymm9
- DB 196,65,12,94,201 ; vdivps %ymm9,%ymm14,%ymm9
- DB 196,67,45,74,192,192 ; vblendvps %ymm12,%ymm8,%ymm10,%ymm8
- DB 196,65,4,94,192 ; vdivps %ymm8,%ymm15,%ymm8
- DB 196,65,60,89,208 ; vmulps %ymm8,%ymm8,%ymm10
- DB 196,98,125,24,29,90,158,0,0 ; vbroadcastss 0x9e5a(%rip),%ymm11 # 34c04 <_sk_srcover_bgra_8888_sse2_lowp+0x3ec>
- DB 196,98,125,24,53,85,158,0,0 ; vbroadcastss 0x9e55(%rip),%ymm14 # 34c08 <_sk_srcover_bgra_8888_sse2_lowp+0x3f0>
- DB 196,65,124,40,251 ; vmovaps %ymm11,%ymm15
- DB 196,66,45,168,254 ; vfmadd213ps %ymm14,%ymm10,%ymm15
- DB 196,193,52,89,193 ; vmulps %ymm9,%ymm9,%ymm0
- DB 196,66,125,168,222 ; vfmadd213ps %ymm14,%ymm0,%ymm11
- DB 196,98,125,24,53,60,158,0,0 ; vbroadcastss 0x9e3c(%rip),%ymm14 # 34c0c <_sk_srcover_bgra_8888_sse2_lowp+0x3f4>
- DB 196,66,125,168,222 ; vfmadd213ps %ymm14,%ymm0,%ymm11
- DB 196,66,45,168,254 ; vfmadd213ps %ymm14,%ymm10,%ymm15
- DB 196,98,125,24,53,45,158,0,0 ; vbroadcastss 0x9e2d(%rip),%ymm14 # 34c10 <_sk_srcover_bgra_8888_sse2_lowp+0x3f8>
- DB 196,66,45,168,254 ; vfmadd213ps %ymm14,%ymm10,%ymm15
- DB 196,66,125,168,222 ; vfmadd213ps %ymm14,%ymm0,%ymm11
- DB 196,193,52,89,195 ; vmulps %ymm11,%ymm9,%ymm0
- DB 196,98,125,24,13,25,158,0,0 ; vbroadcastss 0x9e19(%rip),%ymm9 # 34c14 <_sk_srcover_bgra_8888_sse2_lowp+0x3fc>
- DB 197,52,92,208 ; vsubps %ymm0,%ymm9,%ymm10
- DB 196,195,125,74,194,208 ; vblendvps %ymm13,%ymm10,%ymm0,%ymm0
- DB 196,65,60,89,199 ; vmulps %ymm15,%ymm8,%ymm8
- DB 196,65,52,92,200 ; vsubps %ymm8,%ymm9,%ymm9
- DB 196,67,61,74,193,192 ; vblendvps %ymm12,%ymm9,%ymm8,%ymm8
- DB 196,65,52,87,201 ; vxorps %ymm9,%ymm9,%ymm9
- DB 196,193,116,194,201,1 ; vcmpltps %ymm9,%ymm1,%ymm1
- DB 196,98,125,24,21,155,156,0,0 ; vbroadcastss 0x9c9b(%rip),%ymm10 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 197,44,92,216 ; vsubps %ymm0,%ymm10,%ymm11
- DB 196,195,125,74,195,16 ; vblendvps %ymm1,%ymm11,%ymm0,%ymm0
- DB 196,193,100,194,201,1 ; vcmpltps %ymm9,%ymm3,%ymm1
- DB 196,193,44,92,216 ; vsubps %ymm8,%ymm10,%ymm3
- DB 196,227,61,74,203,16 ; vblendvps %ymm1,%ymm3,%ymm8,%ymm1
- DB 196,193,108,194,217,1 ; vcmpltps %ymm9,%ymm2,%ymm3
- DB 196,98,125,24,5,117,156,0,0 ; vbroadcastss 0x9c75(%rip),%ymm8 # 34ac8 <_sk_srcover_bgra_8888_sse2_lowp+0x2b0>
- DB 197,60,92,208 ; vsubps %ymm0,%ymm8,%ymm10
- DB 196,195,125,74,194,48 ; vblendvps %ymm3,%ymm10,%ymm0,%ymm0
- DB 196,193,92,194,217,1 ; vcmpltps %ymm9,%ymm4,%ymm3
- DB 197,60,92,193 ; vsubps %ymm1,%ymm8,%ymm8
- DB 196,195,117,74,200,48 ; vblendvps %ymm3,%ymm8,%ymm1,%ymm1
- DB 196,193,124,194,217,7 ; vcmpordps %ymm9,%ymm0,%ymm3
- DB 197,228,84,192 ; vandps %ymm0,%ymm3,%ymm0
- DB 196,193,116,194,217,7 ; vcmpordps %ymm9,%ymm1,%ymm3
- DB 197,228,84,201 ; vandps %ymm1,%ymm3,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 197,252,40,220 ; vmovaps %ymm4,%ymm3
- DB 197,252,40,229 ; vmovaps %ymm5,%ymm4
- DB 197,252,40,238 ; vmovaps %ymm6,%ymm5
- DB 197,252,40,247 ; vmovaps %ymm7,%ymm6
- DB 197,252,16,60,36 ; vmovups (%rsp),%ymm7
- DB 72,131,196,56 ; add $0x38,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_radius_hsw_lowp
-_sk_xy_to_radius_hsw_lowp LABEL PROC
- DB 197,108,89,194 ; vmulps %ymm2,%ymm2,%ymm8
- DB 197,100,89,203 ; vmulps %ymm3,%ymm3,%ymm9
- DB 196,98,117,184,201 ; vfmadd231ps %ymm1,%ymm1,%ymm9
- DB 196,98,125,184,192 ; vfmadd231ps %ymm0,%ymm0,%ymm8
- DB 196,193,124,81,192 ; vsqrtps %ymm8,%ymm0
- DB 196,193,124,81,201 ; vsqrtps %ymm9,%ymm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_rgba_8888_hsw_lowp
-_sk_srcover_rgba_8888_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 77,141,12,144 ; lea (%r8,%rdx,4),%r9
- DB 65,137,250 ; mov %edi,%r10d
- DB 65,128,226,15 ; and $0xf,%r10b
- DB 65,254,202 ; dec %r10b
- DB 69,15,182,194 ; movzbl %r10b,%r8d
- DB 65,128,248,14 ; cmp $0xe,%r8b
- DB 119,51 ; ja 2af1a <_sk_srcover_rgba_8888_hsw_lowp+0x5c>
- DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 76,141,29,234,2,0,0 ; lea 0x2ea(%rip),%r11 # 2b1dc <_sk_srcover_rgba_8888_hsw_lowp+0x31e>
- DB 75,99,4,131 ; movslq (%r11,%r8,4),%rax
- DB 76,1,216 ; add %r11,%rax
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 197,205,239,246 ; vpxor %ymm6,%ymm6,%ymm6
- DB 196,65,61,239,192 ; vpxor %ymm8,%ymm8,%ymm8
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,110,41 ; vmovd (%r9),%xmm5
- DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 233,22,1,0,0 ; jmpq 2b030 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
- DB 196,193,126,111,41 ; vmovdqu (%r9),%ymm5
- DB 196,193,126,111,97,32 ; vmovdqu 0x20(%r9),%ymm4
- DB 233,6,1,0,0 ; jmpq 2b030 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
- DB 196,193,121,110,97,8 ; vmovd 0x8(%r9),%xmm4
- DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 196,227,69,2,228,4 ; vpblendd $0x4,%ymm4,%ymm7,%ymm4
- DB 196,194,121,53,41 ; vpmovzxdq (%r9),%xmm5
- DB 197,249,112,237,232 ; vpshufd $0xe8,%xmm5,%xmm5
- DB 196,227,93,2,237,3 ; vpblendd $0x3,%ymm5,%ymm4,%ymm5
- DB 197,253,111,231 ; vmovdqa %ymm7,%ymm4
- DB 233,216,0,0,0 ; jmpq 2b030 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
- DB 196,193,121,110,97,24 ; vmovd 0x18(%r9),%xmm4
- DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,228,64 ; vpblendd $0x40,%ymm4,%ymm5,%ymm4
- DB 196,227,125,57,230,1 ; vextracti128 $0x1,%ymm4,%xmm6
- DB 196,195,73,34,113,20,1 ; vpinsrd $0x1,0x14(%r9),%xmm6,%xmm6
- DB 196,227,93,56,230,1 ; vinserti128 $0x1,%xmm6,%ymm4,%ymm4
- DB 197,253,111,245 ; vmovdqa %ymm5,%ymm6
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,195,81,34,105,16,0 ; vpinsrd $0x0,0x10(%r9),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 197,125,111,198 ; vmovdqa %ymm6,%ymm8
- DB 196,193,122,111,41 ; vmovdqu (%r9),%xmm5
- DB 196,227,85,2,236,240 ; vpblendd $0xf0,%ymm4,%ymm5,%ymm5
- DB 197,125,127,196 ; vmovdqa %ymm8,%ymm4
- DB 233,129,0,0,0 ; jmpq 2b030 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
- DB 196,193,121,110,97,40 ; vmovd 0x28(%r9),%xmm4
- DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,228,4 ; vpblendd $0x4,%ymm4,%ymm5,%ymm4
- DB 196,195,89,34,105,36,1 ; vpinsrd $0x1,0x24(%r9),%xmm4,%xmm5
- DB 196,227,93,2,229,15 ; vpblendd $0xf,%ymm5,%ymm4,%ymm4
- DB 196,193,121,110,105,32 ; vmovd 0x20(%r9),%xmm5
- DB 196,227,93,2,229,1 ; vpblendd $0x1,%ymm5,%ymm4,%ymm4
- DB 196,193,126,111,41 ; vmovdqu (%r9),%ymm5
- DB 235,76 ; jmp 2b030 <_sk_srcover_rgba_8888_hsw_lowp+0x172>
- DB 196,193,121,110,97,56 ; vmovd 0x38(%r9),%xmm4
- DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,228,64 ; vpblendd $0x40,%ymm4,%ymm5,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,195,81,34,105,52,1 ; vpinsrd $0x1,0x34(%r9),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,195,81,34,105,48,0 ; vpinsrd $0x0,0x30(%r9),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,193,126,111,41 ; vmovdqu (%r9),%ymm5
- DB 196,193,122,111,113,32 ; vmovdqu 0x20(%r9),%xmm6
- DB 196,227,77,2,228,240 ; vpblendd $0xf0,%ymm4,%ymm6,%ymm4
- DB 196,227,85,56,244,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm6
- DB 196,227,85,70,252,49 ; vperm2i128 $0x31,%ymm4,%ymm5,%ymm7
- DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 196,227,69,14,236,170 ; vpblendw $0xaa,%ymm4,%ymm7,%ymm5
- DB 196,227,77,14,228,170 ; vpblendw $0xaa,%ymm4,%ymm6,%ymm4
- DB 196,226,93,43,237 ; vpackusdw %ymm5,%ymm4,%ymm5
- DB 197,125,111,5,135,163,0,0 ; vmovdqa 0xa387(%rip),%ymm8 # 353e0 <_sk_srcover_bgra_8888_sse2_lowp+0xbc8>
- DB 196,193,85,219,224 ; vpand %ymm8,%ymm5,%ymm4
- DB 196,98,125,121,13,153,163,0,0 ; vpbroadcastw 0xa399(%rip),%ymm9 # 35400 <_sk_srcover_bgra_8888_sse2_lowp+0xbe8>
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,197,114,215,16 ; vpsrld $0x10,%ymm7,%ymm7
- DB 197,205,114,214,16 ; vpsrld $0x10,%ymm6,%ymm6
- DB 196,226,77,43,255 ; vpackusdw %ymm7,%ymm6,%ymm7
- DB 196,193,69,219,240 ; vpand %ymm8,%ymm7,%ymm6
- DB 197,197,113,215,8 ; vpsrlw $0x8,%ymm7,%ymm7
- DB 197,53,249,195 ; vpsubw %ymm3,%ymm9,%ymm8
- DB 196,65,93,213,208 ; vpmullw %ymm8,%ymm4,%ymm10
- DB 196,65,45,253,209 ; vpaddw %ymm9,%ymm10,%ymm10
- DB 196,193,45,113,210,8 ; vpsrlw $0x8,%ymm10,%ymm10
- DB 197,173,253,192 ; vpaddw %ymm0,%ymm10,%ymm0
- DB 196,65,85,213,208 ; vpmullw %ymm8,%ymm5,%ymm10
- DB 196,65,45,253,209 ; vpaddw %ymm9,%ymm10,%ymm10
- DB 196,193,45,113,210,8 ; vpsrlw $0x8,%ymm10,%ymm10
- DB 197,173,253,201 ; vpaddw %ymm1,%ymm10,%ymm1
- DB 196,65,77,213,208 ; vpmullw %ymm8,%ymm6,%ymm10
- DB 196,65,45,253,209 ; vpaddw %ymm9,%ymm10,%ymm10
- DB 196,193,45,113,210,8 ; vpsrlw $0x8,%ymm10,%ymm10
- DB 197,173,253,210 ; vpaddw %ymm2,%ymm10,%ymm2
- DB 196,65,69,213,192 ; vpmullw %ymm8,%ymm7,%ymm8
- DB 196,65,61,253,193 ; vpaddw %ymm9,%ymm8,%ymm8
- DB 196,193,61,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm8
- DB 197,189,253,219 ; vpaddw %ymm3,%ymm8,%ymm3
- DB 197,189,113,241,8 ; vpsllw $0x8,%ymm1,%ymm8
- DB 197,61,235,192 ; vpor %ymm0,%ymm8,%ymm8
- DB 196,66,125,51,200 ; vpmovzxwd %xmm8,%ymm9
- DB 196,67,125,57,192,1 ; vextracti128 $0x1,%ymm8,%xmm8
- DB 196,66,125,51,208 ; vpmovzxwd %xmm8,%ymm10
- DB 197,189,113,243,8 ; vpsllw $0x8,%ymm3,%ymm8
- DB 197,61,235,194 ; vpor %ymm2,%ymm8,%ymm8
- DB 196,67,125,57,195,1 ; vextracti128 $0x1,%ymm8,%xmm11
- DB 196,66,125,51,219 ; vpmovzxwd %xmm11,%ymm11
- DB 196,66,125,51,192 ; vpmovzxwd %xmm8,%ymm8
- DB 196,193,61,114,240,16 ; vpslld $0x10,%ymm8,%ymm8
- DB 196,65,61,235,193 ; vpor %ymm9,%ymm8,%ymm8
- DB 196,193,53,114,243,16 ; vpslld $0x10,%ymm11,%ymm9
- DB 196,65,53,235,202 ; vpor %ymm10,%ymm9,%ymm9
- DB 65,128,250,14 ; cmp $0xe,%r10b
- DB 119,26 ; ja 2b141 <_sk_srcover_rgba_8888_hsw_lowp+0x283>
- DB 76,141,21,234,0,0,0 ; lea 0xea(%rip),%r10 # 2b218 <_sk_srcover_rgba_8888_hsw_lowp+0x35a>
- DB 75,99,4,130 ; movslq (%r10,%r8,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,126,1 ; vmovd %xmm8,(%r9)
- DB 233,151,0,0,0 ; jmpq 2b1d8 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
- DB 196,65,126,127,1 ; vmovdqu %ymm8,(%r9)
- DB 196,65,126,127,73,32 ; vmovdqu %ymm9,0x20(%r9)
- DB 233,135,0,0,0 ; jmpq 2b1d8 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
- DB 196,67,121,22,65,8,2 ; vpextrd $0x2,%xmm8,0x8(%r9)
- DB 196,65,121,214,1 ; vmovq %xmm8,(%r9)
- DB 235,121 ; jmp 2b1d8 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,73,24,2 ; vpextrd $0x2,%xmm9,0x18(%r9)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,73,20,1 ; vpextrd $0x1,%xmm9,0x14(%r9)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,121,126,73,16 ; vmovd %xmm9,0x10(%r9)
- DB 196,65,122,127,1 ; vmovdqu %xmm8,(%r9)
- DB 235,76 ; jmp 2b1d8 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
- DB 196,67,121,22,73,40,2 ; vpextrd $0x2,%xmm9,0x28(%r9)
- DB 196,67,121,22,73,36,1 ; vpextrd $0x1,%xmm9,0x24(%r9)
- DB 196,65,121,126,73,32 ; vmovd %xmm9,0x20(%r9)
- DB 196,65,126,127,1 ; vmovdqu %ymm8,(%r9)
- DB 235,49 ; jmp 2b1d8 <_sk_srcover_rgba_8888_hsw_lowp+0x31a>
- DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
- DB 196,67,121,22,81,56,2 ; vpextrd $0x2,%xmm10,0x38(%r9)
- DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
- DB 196,67,121,22,81,52,1 ; vpextrd $0x1,%xmm10,0x34(%r9)
- DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
- DB 196,65,121,126,81,48 ; vmovd %xmm10,0x30(%r9)
- DB 196,65,126,127,1 ; vmovdqu %ymm8,(%r9)
- DB 196,65,122,127,73,32 ; vmovdqu %xmm9,0x20(%r9)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 48,253 ; xor %bh,%ch
- DB 255 ; (bad)
- DB 255,99,253 ; jmpq *-0x3(%rbx)
- DB 255 ; (bad)
- DB 255,78,253 ; decl -0x3(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 191,253,255,255,168 ; mov $0xa8fffffd,%edi
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,145,253,255,255,124 ; callq *0x7cfffffd(%rcx)
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,1 ; incl (%rcx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,245 ; push %rbp
- DB 253 ; std
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 232,253,255,255,211 ; callq ffffffffd402b202 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffd3ff69ea>
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,67,254 ; incl -0x2(%rbx)
- DB 255 ; (bad)
- DB 255,48 ; pushq (%rax)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,29,254,255,255,8 ; lcall *0x8fffffe(%rip) # 902b213 <_sk_srcover_bgra_8888_sse2_lowp+0x8ff69fb>
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,31 ; lcall *(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,64,255 ; incl -0x1(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 57,255 ; cmp %edi,%edi
- DB 255 ; (bad)
- DB 255,109,255 ; ljmp *-0x1(%rbp)
- DB 255 ; (bad)
- DB 255,97,255 ; jmpq *-0x1(%rcx)
- DB 255 ; (bad)
- DB 255,84,255,255 ; callq *-0x1(%rdi,%rdi,8)
- DB 255,71,255 ; incl -0x1(%rdi)
- DB 255 ; (bad)
- DB 255,136,255,255,255,130 ; decl -0x7d000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 123,255 ; jnp 2b23d <_sk_srcover_rgba_8888_hsw_lowp+0x37f>
- DB 255 ; (bad)
- DB 255,116,255,255 ; pushq -0x1(%rdi,%rdi,8)
- DB 255,181,255,255,255,169 ; pushq -0x56000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,156,255,255,255,143,255 ; lcall *-0x700001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_srcover_bgra_8888_hsw_lowp
-_sk_srcover_bgra_8888_hsw_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 77,141,12,144 ; lea (%r8,%rdx,4),%r9
- DB 65,137,250 ; mov %edi,%r10d
- DB 65,128,226,15 ; and $0xf,%r10b
- DB 65,254,202 ; dec %r10b
- DB 69,15,182,194 ; movzbl %r10b,%r8d
- DB 65,128,248,14 ; cmp $0xe,%r8b
- DB 119,51 ; ja 2b2b0 <_sk_srcover_bgra_8888_hsw_lowp+0x5c>
- DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 76,141,29,236,2,0,0 ; lea 0x2ec(%rip),%r11 # 2b574 <_sk_srcover_bgra_8888_hsw_lowp+0x320>
- DB 75,99,4,131 ; movslq (%r11,%r8,4),%rax
- DB 76,1,216 ; add %r11,%rax
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 197,205,239,246 ; vpxor %ymm6,%ymm6,%ymm6
- DB 196,65,61,239,192 ; vpxor %ymm8,%ymm8,%ymm8
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 255,224 ; jmpq *%rax
- DB 196,193,121,110,41 ; vmovd (%r9),%xmm5
- DB 197,221,239,228 ; vpxor %ymm4,%ymm4,%ymm4
- DB 233,22,1,0,0 ; jmpq 2b3c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
- DB 196,193,126,111,41 ; vmovdqu (%r9),%ymm5
- DB 196,193,126,111,97,32 ; vmovdqu 0x20(%r9),%ymm4
- DB 233,6,1,0,0 ; jmpq 2b3c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
- DB 196,193,121,110,97,8 ; vmovd 0x8(%r9),%xmm4
- DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
- DB 197,197,239,255 ; vpxor %ymm7,%ymm7,%ymm7
- DB 196,227,69,2,228,4 ; vpblendd $0x4,%ymm4,%ymm7,%ymm4
- DB 196,194,121,53,41 ; vpmovzxdq (%r9),%xmm5
- DB 197,249,112,237,232 ; vpshufd $0xe8,%xmm5,%xmm5
- DB 196,227,93,2,237,3 ; vpblendd $0x3,%ymm5,%ymm4,%ymm5
- DB 197,253,111,231 ; vmovdqa %ymm7,%ymm4
- DB 233,216,0,0,0 ; jmpq 2b3c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
- DB 196,193,121,110,97,24 ; vmovd 0x18(%r9),%xmm4
- DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,228,64 ; vpblendd $0x40,%ymm4,%ymm5,%ymm4
- DB 196,227,125,57,230,1 ; vextracti128 $0x1,%ymm4,%xmm6
- DB 196,195,73,34,113,20,1 ; vpinsrd $0x1,0x14(%r9),%xmm6,%xmm6
- DB 196,227,93,56,230,1 ; vinserti128 $0x1,%xmm6,%ymm4,%ymm4
- DB 197,253,111,245 ; vmovdqa %ymm5,%ymm6
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,195,81,34,105,16,0 ; vpinsrd $0x0,0x10(%r9),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 197,125,111,198 ; vmovdqa %ymm6,%ymm8
- DB 196,193,122,111,41 ; vmovdqu (%r9),%xmm5
- DB 196,227,85,2,236,240 ; vpblendd $0xf0,%ymm4,%ymm5,%ymm5
- DB 197,125,127,196 ; vmovdqa %ymm8,%ymm4
- DB 233,129,0,0,0 ; jmpq 2b3c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
- DB 196,193,121,110,97,40 ; vmovd 0x28(%r9),%xmm4
- DB 196,226,121,89,228 ; vpbroadcastq %xmm4,%xmm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,228,4 ; vpblendd $0x4,%ymm4,%ymm5,%ymm4
- DB 196,195,89,34,105,36,1 ; vpinsrd $0x1,0x24(%r9),%xmm4,%xmm5
- DB 196,227,93,2,229,15 ; vpblendd $0xf,%ymm5,%ymm4,%ymm4
- DB 196,193,121,110,105,32 ; vmovd 0x20(%r9),%xmm5
- DB 196,227,93,2,229,1 ; vpblendd $0x1,%ymm5,%ymm4,%ymm4
- DB 196,193,126,111,41 ; vmovdqu (%r9),%ymm5
- DB 235,76 ; jmp 2b3c6 <_sk_srcover_bgra_8888_hsw_lowp+0x172>
- DB 196,193,121,110,97,56 ; vmovd 0x38(%r9),%xmm4
- DB 196,226,125,89,228 ; vpbroadcastq %xmm4,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,85,2,228,64 ; vpblendd $0x40,%ymm4,%ymm5,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,195,81,34,105,52,1 ; vpinsrd $0x1,0x34(%r9),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,227,125,57,229,1 ; vextracti128 $0x1,%ymm4,%xmm5
- DB 196,195,81,34,105,48,0 ; vpinsrd $0x0,0x30(%r9),%xmm5,%xmm5
- DB 196,227,93,56,229,1 ; vinserti128 $0x1,%xmm5,%ymm4,%ymm4
- DB 196,193,126,111,41 ; vmovdqu (%r9),%ymm5
- DB 196,193,122,111,113,32 ; vmovdqu 0x20(%r9),%xmm6
- DB 196,227,77,2,228,240 ; vpblendd $0xf0,%ymm4,%ymm6,%ymm4
- DB 196,227,85,56,252,1 ; vinserti128 $0x1,%xmm4,%ymm5,%ymm7
- DB 196,227,85,70,228,49 ; vperm2i128 $0x31,%ymm4,%ymm5,%ymm4
- DB 197,213,239,237 ; vpxor %ymm5,%ymm5,%ymm5
- DB 196,227,93,14,245,170 ; vpblendw $0xaa,%ymm5,%ymm4,%ymm6
- DB 196,227,69,14,237,170 ; vpblendw $0xaa,%ymm5,%ymm7,%ymm5
- DB 196,226,85,43,238 ; vpackusdw %ymm6,%ymm5,%ymm5
- DB 197,125,111,5,49,160,0,0 ; vmovdqa 0xa031(%rip),%ymm8 # 35420 <_sk_srcover_bgra_8888_sse2_lowp+0xc08>
- DB 196,193,85,219,240 ; vpand %ymm8,%ymm5,%ymm6
- DB 196,98,125,121,13,67,160,0,0 ; vpbroadcastw 0xa043(%rip),%ymm9 # 35440 <_sk_srcover_bgra_8888_sse2_lowp+0xc28>
- DB 197,213,113,213,8 ; vpsrlw $0x8,%ymm5,%ymm5
- DB 197,221,114,212,16 ; vpsrld $0x10,%ymm4,%ymm4
- DB 197,197,114,215,16 ; vpsrld $0x10,%ymm7,%ymm7
- DB 196,226,69,43,252 ; vpackusdw %ymm4,%ymm7,%ymm7
- DB 196,193,69,219,224 ; vpand %ymm8,%ymm7,%ymm4
- DB 197,197,113,215,8 ; vpsrlw $0x8,%ymm7,%ymm7
- DB 197,53,249,195 ; vpsubw %ymm3,%ymm9,%ymm8
- DB 196,65,93,213,208 ; vpmullw %ymm8,%ymm4,%ymm10
- DB 196,65,45,253,209 ; vpaddw %ymm9,%ymm10,%ymm10
- DB 196,193,45,113,210,8 ; vpsrlw $0x8,%ymm10,%ymm10
- DB 197,173,253,192 ; vpaddw %ymm0,%ymm10,%ymm0
- DB 196,65,85,213,208 ; vpmullw %ymm8,%ymm5,%ymm10
- DB 196,65,45,253,209 ; vpaddw %ymm9,%ymm10,%ymm10
- DB 196,193,45,113,210,8 ; vpsrlw $0x8,%ymm10,%ymm10
- DB 197,173,253,201 ; vpaddw %ymm1,%ymm10,%ymm1
- DB 196,65,77,213,208 ; vpmullw %ymm8,%ymm6,%ymm10
- DB 196,65,45,253,209 ; vpaddw %ymm9,%ymm10,%ymm10
- DB 196,193,45,113,210,8 ; vpsrlw $0x8,%ymm10,%ymm10
- DB 197,173,253,210 ; vpaddw %ymm2,%ymm10,%ymm2
- DB 196,65,69,213,192 ; vpmullw %ymm8,%ymm7,%ymm8
- DB 196,65,61,253,193 ; vpaddw %ymm9,%ymm8,%ymm8
- DB 196,193,61,113,208,8 ; vpsrlw $0x8,%ymm8,%ymm8
- DB 197,189,253,219 ; vpaddw %ymm3,%ymm8,%ymm3
- DB 197,189,113,241,8 ; vpsllw $0x8,%ymm1,%ymm8
- DB 197,61,235,194 ; vpor %ymm2,%ymm8,%ymm8
- DB 196,66,125,51,200 ; vpmovzxwd %xmm8,%ymm9
- DB 196,67,125,57,192,1 ; vextracti128 $0x1,%ymm8,%xmm8
- DB 196,66,125,51,208 ; vpmovzxwd %xmm8,%ymm10
- DB 197,189,113,243,8 ; vpsllw $0x8,%ymm3,%ymm8
- DB 197,61,235,192 ; vpor %ymm0,%ymm8,%ymm8
- DB 196,67,125,57,195,1 ; vextracti128 $0x1,%ymm8,%xmm11
- DB 196,66,125,51,219 ; vpmovzxwd %xmm11,%ymm11
- DB 196,66,125,51,192 ; vpmovzxwd %xmm8,%ymm8
- DB 196,193,61,114,240,16 ; vpslld $0x10,%ymm8,%ymm8
- DB 196,65,61,235,193 ; vpor %ymm9,%ymm8,%ymm8
- DB 196,193,53,114,243,16 ; vpslld $0x10,%ymm11,%ymm9
- DB 196,65,53,235,202 ; vpor %ymm10,%ymm9,%ymm9
- DB 65,128,250,14 ; cmp $0xe,%r10b
- DB 119,26 ; ja 2b4d7 <_sk_srcover_bgra_8888_hsw_lowp+0x283>
- DB 76,141,21,236,0,0,0 ; lea 0xec(%rip),%r10 # 2b5b0 <_sk_srcover_bgra_8888_hsw_lowp+0x35c>
- DB 75,99,4,130 ; movslq (%r10,%r8,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 196,65,121,126,1 ; vmovd %xmm8,(%r9)
- DB 233,151,0,0,0 ; jmpq 2b56e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
- DB 196,65,126,127,1 ; vmovdqu %ymm8,(%r9)
- DB 196,65,126,127,73,32 ; vmovdqu %ymm9,0x20(%r9)
- DB 233,135,0,0,0 ; jmpq 2b56e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
- DB 196,67,121,22,65,8,2 ; vpextrd $0x2,%xmm8,0x8(%r9)
- DB 196,65,121,214,1 ; vmovq %xmm8,(%r9)
- DB 235,121 ; jmp 2b56e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,73,24,2 ; vpextrd $0x2,%xmm9,0x18(%r9)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,67,121,22,73,20,1 ; vpextrd $0x1,%xmm9,0x14(%r9)
- DB 196,67,125,57,193,1 ; vextracti128 $0x1,%ymm8,%xmm9
- DB 196,65,121,126,73,16 ; vmovd %xmm9,0x10(%r9)
- DB 196,65,122,127,1 ; vmovdqu %xmm8,(%r9)
- DB 235,76 ; jmp 2b56e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
- DB 196,67,121,22,73,40,2 ; vpextrd $0x2,%xmm9,0x28(%r9)
- DB 196,67,121,22,73,36,1 ; vpextrd $0x1,%xmm9,0x24(%r9)
- DB 196,65,121,126,73,32 ; vmovd %xmm9,0x20(%r9)
- DB 196,65,126,127,1 ; vmovdqu %ymm8,(%r9)
- DB 235,49 ; jmp 2b56e <_sk_srcover_bgra_8888_hsw_lowp+0x31a>
- DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
- DB 196,67,121,22,81,56,2 ; vpextrd $0x2,%xmm10,0x38(%r9)
- DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
- DB 196,67,121,22,81,52,1 ; vpextrd $0x1,%xmm10,0x34(%r9)
- DB 196,67,125,57,202,1 ; vextracti128 $0x1,%ymm9,%xmm10
- DB 196,65,121,126,81,48 ; vmovd %xmm10,0x30(%r9)
- DB 196,65,126,127,1 ; vmovdqu %ymm8,(%r9)
- DB 196,65,122,127,73,32 ; vmovdqu %xmm9,0x20(%r9)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 46,253 ; cs std
- DB 255 ; (bad)
- DB 255,97,253 ; jmpq *-0x3(%rcx)
- DB 255 ; (bad)
- DB 255,76,253,255 ; decl -0x1(%rbp,%rdi,8)
- DB 255 ; (bad)
- DB 189,253,255,255,166 ; mov $0xa6fffffd,%ebp
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,143,253,255,255,122 ; decl 0x7afffffd(%rdi)
- DB 253 ; std
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,243 ; push %rbx
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,230 ; jmpq *%rsi
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,65,254 ; incl -0x2(%rcx)
- DB 255 ; (bad)
- DB 255,46 ; ljmp *(%rsi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,27 ; lcall *(%rbx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,6 ; incl (%rsi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,29,255,255,255,62 ; lcall *0x3effffff(%rip) # 3f02b5b4 <_sk_srcover_bgra_8888_sse2_lowp+0x3eff6d9c>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,55 ; pushq (%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,107,255 ; ljmp *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,95,255 ; lcall *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255,82,255 ; callq *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,69,255 ; incl -0x1(%rbp)
- DB 255 ; (bad)
- DB 255,134,255,255,255,128 ; incl -0x7f000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 121,255 ; jns 2b5d5 <_sk_srcover_bgra_8888_hsw_lowp+0x381>
- DB 255 ; (bad)
- DB 255,114,255 ; pushq -0x1(%rdx)
- DB 255 ; (bad)
- DB 255,179,255,255,255,167 ; pushq -0x58000001(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,154,255,255,255,141 ; lcall *-0x72000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_start_pipeline_sse41_lowp
-_sk_start_pipeline_sse41_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 72,137,229 ; mov %rsp,%rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 86 ; push %rsi
- DB 87 ; push %rdi
- DB 83 ; push %rbx
- DB 72,129,236,200,0,0,0 ; sub $0xc8,%rsp
- DB 68,15,41,125,176 ; movaps %xmm15,-0x50(%rbp)
- DB 68,15,41,117,160 ; movaps %xmm14,-0x60(%rbp)
- DB 68,15,41,109,144 ; movaps %xmm13,-0x70(%rbp)
- DB 68,15,41,101,128 ; movaps %xmm12,-0x80(%rbp)
- DB 68,15,41,157,112,255,255,255 ; movaps %xmm11,-0x90(%rbp)
- DB 68,15,41,149,96,255,255,255 ; movaps %xmm10,-0xa0(%rbp)
- DB 68,15,41,141,80,255,255,255 ; movaps %xmm9,-0xb0(%rbp)
- DB 68,15,41,133,64,255,255,255 ; movaps %xmm8,-0xc0(%rbp)
- DB 15,41,189,48,255,255,255 ; movaps %xmm7,-0xd0(%rbp)
- DB 15,41,181,32,255,255,255 ; movaps %xmm6,-0xe0(%rbp)
- DB 77,137,199 ; mov %r8,%r15
- DB 72,137,211 ; mov %rdx,%rbx
- DB 72,137,141,24,255,255,255 ; mov %rcx,-0xe8(%rbp)
- DB 72,139,117,48 ; mov 0x30(%rbp),%rsi
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 73,137,197 ; mov %rax,%r13
- DB 73,137,246 ; mov %rsi,%r14
- DB 76,137,141,8,255,255,255 ; mov %r9,-0xf8(%rbp)
- DB 76,57,203 ; cmp %r9,%rbx
- DB 15,131,153,0,0,0 ; jae 2b706 <_sk_start_pipeline_sse41_lowp+0x11a>
- DB 72,139,133,24,255,255,255 ; mov -0xe8(%rbp),%rax
- DB 72,141,64,8 ; lea 0x8(%rax),%rax
- DB 72,137,133,16,255,255,255 ; mov %rax,-0xf0(%rbp)
- DB 76,57,189,16,255,255,255 ; cmp %r15,-0xf0(%rbp)
- DB 72,139,149,24,255,255,255 ; mov -0xe8(%rbp),%rdx
- DB 119,62 ; ja 2b6cd <_sk_start_pipeline_sse41_lowp+0xe1>
- DB 76,139,165,24,255,255,255 ; mov -0xe8(%rbp),%r12
- DB 49,255 ; xor %edi,%edi
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 76,137,246 ; mov %r14,%rsi
- DB 76,137,226 ; mov %r12,%rdx
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 73,141,84,36,8 ; lea 0x8(%r12),%rdx
- DB 73,131,196,16 ; add $0x10,%r12
- DB 77,57,252 ; cmp %r15,%r12
- DB 73,137,212 ; mov %rdx,%r12
- DB 118,201 ; jbe 2b696 <_sk_start_pipeline_sse41_lowp+0xaa>
- DB 76,137,255 ; mov %r15,%rdi
- DB 72,41,215 ; sub %rdx,%rdi
- DB 116,33 ; je 2b6f6 <_sk_start_pipeline_sse41_lowp+0x10a>
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 76,137,246 ; mov %r14,%rsi
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 72,255,195 ; inc %rbx
- DB 72,59,157,8,255,255,255 ; cmp -0xf8(%rbp),%rbx
- DB 15,133,121,255,255,255 ; jne 2b67f <_sk_start_pipeline_sse41_lowp+0x93>
- DB 15,40,181,32,255,255,255 ; movaps -0xe0(%rbp),%xmm6
- DB 15,40,189,48,255,255,255 ; movaps -0xd0(%rbp),%xmm7
- DB 68,15,40,133,64,255,255,255 ; movaps -0xc0(%rbp),%xmm8
- DB 68,15,40,141,80,255,255,255 ; movaps -0xb0(%rbp),%xmm9
- DB 68,15,40,149,96,255,255,255 ; movaps -0xa0(%rbp),%xmm10
- DB 68,15,40,157,112,255,255,255 ; movaps -0x90(%rbp),%xmm11
- DB 68,15,40,101,128 ; movaps -0x80(%rbp),%xmm12
- DB 68,15,40,109,144 ; movaps -0x70(%rbp),%xmm13
- DB 68,15,40,117,160 ; movaps -0x60(%rbp),%xmm14
- DB 68,15,40,125,176 ; movaps -0x50(%rbp),%xmm15
- DB 72,129,196,200,0,0,0 ; add $0xc8,%rsp
- DB 91 ; pop %rbx
- DB 95 ; pop %rdi
- DB 94 ; pop %rsi
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 195 ; retq
-
-PUBLIC _sk_just_return_sse41_lowp
-_sk_just_return_sse41_lowp LABEL PROC
- DB 195 ; retq
-
-PUBLIC _sk_seed_shader_sse41_lowp
-_sk_seed_shader_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,110,194 ; movd %edx,%xmm0
- DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
- DB 15,91,208 ; cvtdq2ps %xmm0,%xmm2
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 15,16,72,16 ; movups 0x10(%rax),%xmm1
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 102,15,110,209 ; movd %ecx,%xmm2
- DB 102,15,112,210,0 ; pshufd $0x0,%xmm2,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,88,21,21,157,0,0 ; addps 0x9d15(%rip),%xmm2 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_translate_sse41_lowp
-_sk_matrix_translate_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 65,15,88,209 ; addps %xmm9,%xmm2
- DB 65,15,88,217 ; addps %xmm9,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_scale_translate_sse41_lowp
-_sk_matrix_scale_translate_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 65,15,89,217 ; mulps %xmm9,%xmm3
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 65,15,88,208 ; addps %xmm8,%xmm2
- DB 65,15,88,216 ; addps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_2x3_sse41_lowp
-_sk_matrix_2x3_sse41_lowp LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,68,15,16,88,4 ; movss 0x4(%rax),%xmm11
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,72,16 ; movss 0x10(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,40,226 ; movaps %xmm2,%xmm12
- DB 69,15,89,226 ; mulps %xmm10,%xmm12
- DB 68,15,89,211 ; mulps %xmm3,%xmm10
- DB 69,15,88,209 ; addps %xmm9,%xmm10
- DB 69,15,88,225 ; addps %xmm9,%xmm12
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,88,196 ; addps %xmm12,%xmm0
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,80,12 ; movss 0xc(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,96,20 ; movss 0x14(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 65,15,89,210 ; mulps %xmm10,%xmm2
- DB 68,15,89,211 ; mulps %xmm3,%xmm10
- DB 69,15,88,212 ; addps %xmm12,%xmm10
- DB 65,15,88,212 ; addps %xmm12,%xmm2
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 68,15,88,209 ; addps %xmm1,%xmm10
- DB 69,15,89,216 ; mulps %xmm8,%xmm11
- DB 65,15,88,211 ; addps %xmm11,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 65,15,40,218 ; movaps %xmm10,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_perspective_sse41_lowp
-_sk_matrix_perspective_sse41_lowp LABEL PROC
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,8 ; movss (%rax),%xmm1
- DB 243,68,15,16,80,4 ; movss 0x4(%rax),%xmm10
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,72,8 ; movss 0x8(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,40,219 ; movaps %xmm3,%xmm11
- DB 69,15,89,218 ; mulps %xmm10,%xmm11
- DB 68,15,89,210 ; mulps %xmm2,%xmm10
- DB 69,15,88,209 ; addps %xmm9,%xmm10
- DB 69,15,88,217 ; addps %xmm9,%xmm11
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,88,203 ; addps %xmm11,%xmm1
- DB 243,68,15,16,96,12 ; movss 0xc(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 243,68,15,16,80,16 ; movss 0x10(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,104,20 ; movss 0x14(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 68,15,40,219 ; movaps %xmm3,%xmm11
- DB 69,15,89,218 ; mulps %xmm10,%xmm11
- DB 68,15,89,210 ; mulps %xmm2,%xmm10
- DB 69,15,88,213 ; addps %xmm13,%xmm10
- DB 69,15,88,221 ; addps %xmm13,%xmm11
- DB 68,15,40,232 ; movaps %xmm0,%xmm13
- DB 69,15,89,236 ; mulps %xmm12,%xmm13
- DB 69,15,88,213 ; addps %xmm13,%xmm10
- DB 69,15,89,224 ; mulps %xmm8,%xmm12
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 243,68,15,16,96,24 ; movss 0x18(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 243,68,15,16,104,28 ; movss 0x1c(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 243,68,15,16,112,32 ; movss 0x20(%rax),%xmm14
- DB 69,15,198,246,0 ; shufps $0x0,%xmm14,%xmm14
- DB 65,15,89,221 ; mulps %xmm13,%xmm3
- DB 68,15,89,234 ; mulps %xmm2,%xmm13
- DB 69,15,88,238 ; addps %xmm14,%xmm13
- DB 65,15,88,222 ; addps %xmm14,%xmm3
- DB 65,15,89,196 ; mulps %xmm12,%xmm0
- DB 65,15,88,197 ; addps %xmm13,%xmm0
- DB 69,15,89,224 ; mulps %xmm8,%xmm12
- DB 68,15,88,227 ; addps %xmm3,%xmm12
- DB 15,83,192 ; rcpps %xmm0,%xmm0
- DB 65,15,83,212 ; rcpps %xmm12,%xmm2
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 68,15,89,208 ; mulps %xmm0,%xmm10
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 65,15,40,219 ; movaps %xmm11,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_uniform_color_sse41_lowp
-_sk_uniform_color_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,110,64,16 ; movd 0x10(%rax),%xmm0
- DB 242,15,112,192,0 ; pshuflw $0x0,%xmm0,%xmm0
- DB 102,15,112,192,80 ; pshufd $0x50,%xmm0,%xmm0
- DB 68,15,183,64,18 ; movzwl 0x12(%rax),%r8d
- DB 102,65,15,110,200 ; movd %r8d,%xmm1
- DB 242,15,112,201,0 ; pshuflw $0x0,%xmm1,%xmm1
- DB 102,15,112,201,80 ; pshufd $0x50,%xmm1,%xmm1
- DB 102,15,110,80,20 ; movd 0x14(%rax),%xmm2
- DB 242,15,112,210,0 ; pshuflw $0x0,%xmm2,%xmm2
- DB 102,15,112,210,80 ; pshufd $0x50,%xmm2,%xmm2
- DB 15,183,64,22 ; movzwl 0x16(%rax),%eax
- DB 102,15,110,216 ; movd %eax,%xmm3
- DB 242,15,112,219,0 ; pshuflw $0x0,%xmm3,%xmm3
- DB 102,15,112,219,80 ; pshufd $0x50,%xmm3,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_black_color_sse41_lowp
-_sk_black_color_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,90,154,0,0 ; movaps 0x9a5a(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_white_color_sse41_lowp
-_sk_white_color_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,5,70,154,0,0 ; movaps 0x9a46(%rip),%xmm0 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_set_rgb_sse41_lowp
-_sk_set_rgb_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,21,213,144,0,0 ; movss 0x90d5(%rip),%xmm2 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,89,194 ; mulss %xmm2,%xmm0
- DB 243,68,15,16,5,148,144,0,0 ; movss 0x9094(%rip),%xmm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 243,65,15,88,192 ; addss %xmm8,%xmm0
- DB 243,68,15,44,192 ; cvttss2si %xmm0,%r8d
- DB 102,65,15,110,192 ; movd %r8d,%xmm0
- DB 242,15,112,192,0 ; pshuflw $0x0,%xmm0,%xmm0
- DB 102,15,112,192,80 ; pshufd $0x50,%xmm0,%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 243,15,89,202 ; mulss %xmm2,%xmm1
- DB 243,65,15,88,200 ; addss %xmm8,%xmm1
- DB 243,68,15,44,193 ; cvttss2si %xmm1,%r8d
- DB 102,65,15,110,200 ; movd %r8d,%xmm1
- DB 242,15,112,201,0 ; pshuflw $0x0,%xmm1,%xmm1
- DB 102,15,112,201,80 ; pshufd $0x50,%xmm1,%xmm1
- DB 243,15,89,80,8 ; mulss 0x8(%rax),%xmm2
- DB 243,65,15,88,208 ; addss %xmm8,%xmm2
- DB 243,15,44,194 ; cvttss2si %xmm2,%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 242,15,112,210,0 ; pshuflw $0x0,%xmm2,%xmm2
- DB 102,15,112,210,80 ; pshufd $0x50,%xmm2,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_a_sse41_lowp
-_sk_clamp_a_sse41_lowp LABEL PROC
- DB 102,15,56,58,195 ; pminuw %xmm3,%xmm0
- DB 102,15,56,58,203 ; pminuw %xmm3,%xmm1
- DB 102,15,56,58,211 ; pminuw %xmm3,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_a_dst_sse41_lowp
-_sk_clamp_a_dst_sse41_lowp LABEL PROC
- DB 102,15,56,58,231 ; pminuw %xmm7,%xmm4
- DB 102,15,56,58,239 ; pminuw %xmm7,%xmm5
- DB 102,15,56,58,247 ; pminuw %xmm7,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_sse41_lowp
-_sk_premul_sse41_lowp LABEL PROC
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,68,15,111,5,146,153,0,0 ; movdqa 0x9992(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,213,211 ; pmullw %xmm3,%xmm2
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_dst_sse41_lowp
-_sk_premul_dst_sse41_lowp LABEL PROC
- DB 102,15,213,231 ; pmullw %xmm7,%xmm4
- DB 102,68,15,111,5,91,153,0,0 ; movdqa 0x995b(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,224 ; paddw %xmm8,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,213,239 ; pmullw %xmm7,%xmm5
- DB 102,65,15,253,232 ; paddw %xmm8,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,213,247 ; pmullw %xmm7,%xmm6
- DB 102,65,15,253,240 ; paddw %xmm8,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_force_opaque_sse41_lowp
-_sk_force_opaque_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,40,153,0,0 ; movaps 0x9928(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_force_opaque_dst_sse41_lowp
-_sk_force_opaque_dst_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,29,153,0,0 ; movaps 0x991d(%rip),%xmm7 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_swap_rb_sse41_lowp
-_sk_swap_rb_sse41_lowp LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_src_dst_sse41_lowp
-_sk_move_src_dst_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,40,242 ; movaps %xmm2,%xmm6
- DB 15,40,251 ; movaps %xmm3,%xmm7
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_dst_src_sse41_lowp
-_sk_move_dst_src_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,40,223 ; movaps %xmm7,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_invert_sse41_lowp
-_sk_invert_sse41_lowp LABEL PROC
- DB 102,68,15,111,5,227,152,0,0 ; movdqa 0x98e3(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
- DB 102,68,15,249,200 ; psubw %xmm0,%xmm9
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,249,209 ; psubw %xmm1,%xmm10
- DB 102,69,15,111,216 ; movdqa %xmm8,%xmm11
- DB 102,68,15,249,218 ; psubw %xmm2,%xmm11
- DB 102,68,15,249,195 ; psubw %xmm3,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
- DB 102,65,15,111,211 ; movdqa %xmm11,%xmm2
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clear_sse41_lowp
-_sk_clear_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcatop_sse41_lowp
-_sk_srcatop_sse41_lowp LABEL PROC
- DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,111,29,135,152,0,0 ; movdqa 0x9887(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,68,15,111,203 ; movdqa %xmm3,%xmm9
- DB 102,69,15,249,200 ; psubw %xmm8,%xmm9
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,213,196 ; pmullw %xmm4,%xmm8
- DB 102,15,253,195 ; paddw %xmm3,%xmm0
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,213,207 ; pmullw %xmm7,%xmm1
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,213,197 ; pmullw %xmm5,%xmm8
- DB 102,15,253,203 ; paddw %xmm3,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,68,15,213,206 ; pmullw %xmm6,%xmm9
- DB 102,15,253,211 ; paddw %xmm3,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,68,15,111,199 ; movdqa %xmm7,%xmm8
- DB 102,68,15,213,195 ; pmullw %xmm3,%xmm8
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstatop_sse41_lowp
-_sk_dstatop_sse41_lowp LABEL PROC
- DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
- DB 102,68,15,213,195 ; pmullw %xmm3,%xmm8
- DB 102,68,15,111,13,7,152,0,0 ; movdqa 0x9807(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
- DB 102,68,15,111,213 ; movdqa %xmm5,%xmm10
- DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,68,15,111,222 ; movdqa %xmm6,%xmm11
- DB 102,68,15,213,219 ; pmullw %xmm3,%xmm11
- DB 102,69,15,253,217 ; paddw %xmm9,%xmm11
- DB 102,65,15,213,217 ; pmullw %xmm9,%xmm3
- DB 102,65,15,253,217 ; paddw %xmm9,%xmm3
- DB 102,68,15,249,207 ; psubw %xmm7,%xmm9
- DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,65,15,213,201 ; pmullw %xmm9,%xmm1
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,65,15,213,209 ; pmullw %xmm9,%xmm2
- DB 102,65,15,253,211 ; paddw %xmm11,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcin_sse41_lowp
-_sk_srcin_sse41_lowp LABEL PROC
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,68,15,111,5,146,151,0,0 ; movdqa 0x9792(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,213,207 ; pmullw %xmm7,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstin_sse41_lowp
-_sk_dstin_sse41_lowp LABEL PROC
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,68,15,111,5,73,151,0,0 ; movdqa 0x9749(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,111,214 ; movdqa %xmm6,%xmm2
- DB 102,15,213,211 ; pmullw %xmm3,%xmm2
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcout_sse41_lowp
-_sk_srcout_sse41_lowp LABEL PROC
- DB 102,68,15,111,5,0,151,0,0 ; movdqa 0x9700(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
- DB 102,68,15,249,207 ; psubw %xmm7,%xmm9
- DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,65,15,213,201 ; pmullw %xmm9,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,65,15,213,209 ; pmullw %xmm9,%xmm2
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,65,15,213,217 ; pmullw %xmm9,%xmm3
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstout_sse41_lowp
-_sk_dstout_sse41_lowp LABEL PROC
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,68,15,111,5,169,150,0,0 ; movdqa 0x96a9(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,249,216 ; psubw %xmm0,%xmm3
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,213,214 ; pmullw %xmm6,%xmm2
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_sse41_lowp
-_sk_srcover_sse41_lowp LABEL PROC
- DB 102,68,15,111,13,79,150,0,0 ; movdqa 0x964f(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,249,195 ; psubw %xmm3,%xmm8
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,213,212 ; pmullw %xmm4,%xmm10
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,213,213 ; pmullw %xmm5,%xmm10
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,213,214 ; pmullw %xmm6,%xmm10
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,65,15,253,210 ; paddw %xmm10,%xmm2
- DB 102,68,15,213,199 ; pmullw %xmm7,%xmm8
- DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstover_sse41_lowp
-_sk_dstover_sse41_lowp LABEL PROC
- DB 102,68,15,111,5,213,149,0,0 ; movdqa 0x95d5(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
- DB 102,68,15,249,207 ; psubw %xmm7,%xmm9
- DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,253,196 ; paddw %xmm4,%xmm0
- DB 102,65,15,213,201 ; pmullw %xmm9,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,253,205 ; paddw %xmm5,%xmm1
- DB 102,65,15,213,209 ; pmullw %xmm9,%xmm2
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,253,214 ; paddw %xmm6,%xmm2
- DB 102,65,15,213,217 ; pmullw %xmm9,%xmm3
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,253,223 ; paddw %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_modulate_sse41_lowp
-_sk_modulate_sse41_lowp LABEL PROC
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,68,15,111,5,110,149,0,0 ; movdqa 0x956e(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,213,214 ; pmullw %xmm6,%xmm2
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_multiply_sse41_lowp
-_sk_multiply_sse41_lowp LABEL PROC
- DB 102,68,15,111,13,45,149,0,0 ; movdqa 0x952d(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,249,195 ; psubw %xmm3,%xmm8
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,213,212 ; pmullw %xmm4,%xmm10
- DB 102,68,15,111,220 ; movdqa %xmm4,%xmm11
- DB 102,69,15,253,217 ; paddw %xmm9,%xmm11
- DB 102,68,15,249,223 ; psubw %xmm7,%xmm11
- DB 102,65,15,213,195 ; pmullw %xmm11,%xmm0
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,213,213 ; pmullw %xmm5,%xmm10
- DB 102,68,15,111,221 ; movdqa %xmm5,%xmm11
- DB 102,69,15,253,217 ; paddw %xmm9,%xmm11
- DB 102,68,15,249,223 ; psubw %xmm7,%xmm11
- DB 102,65,15,213,203 ; pmullw %xmm11,%xmm1
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,213,214 ; pmullw %xmm6,%xmm10
- DB 102,68,15,111,222 ; movdqa %xmm6,%xmm11
- DB 102,69,15,253,217 ; paddw %xmm9,%xmm11
- DB 102,68,15,249,223 ; psubw %xmm7,%xmm11
- DB 102,65,15,213,211 ; pmullw %xmm11,%xmm2
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,253,210 ; paddw %xmm10,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,68,15,213,199 ; pmullw %xmm7,%xmm8
- DB 102,65,15,213,217 ; pmullw %xmm9,%xmm3
- DB 102,65,15,253,217 ; paddw %xmm9,%xmm3
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_plus__sse41_lowp
-_sk_plus__sse41_lowp LABEL PROC
- DB 102,15,253,196 ; paddw %xmm4,%xmm0
- DB 102,68,15,111,5,114,148,0,0 ; movdqa 0x9472(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,56,58,192 ; pminuw %xmm8,%xmm0
- DB 102,15,253,205 ; paddw %xmm5,%xmm1
- DB 102,65,15,56,58,200 ; pminuw %xmm8,%xmm1
- DB 102,15,253,214 ; paddw %xmm6,%xmm2
- DB 102,65,15,56,58,208 ; pminuw %xmm8,%xmm2
- DB 102,15,253,223 ; paddw %xmm7,%xmm3
- DB 102,65,15,56,58,216 ; pminuw %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_screen_sse41_lowp
-_sk_screen_sse41_lowp LABEL PROC
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,68,15,111,21,44,148,0,0 ; movdqa 0x942c(%rip),%xmm10 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,68,15,213,197 ; pmullw %xmm5,%xmm8
- DB 102,69,15,253,194 ; paddw %xmm10,%xmm8
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,65,15,249,200 ; psubw %xmm8,%xmm1
- DB 102,68,15,111,198 ; movdqa %xmm6,%xmm8
- DB 102,68,15,253,194 ; paddw %xmm2,%xmm8
- DB 102,15,213,214 ; pmullw %xmm6,%xmm2
- DB 102,65,15,253,210 ; paddw %xmm10,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,68,15,249,194 ; psubw %xmm2,%xmm8
- DB 102,68,15,111,207 ; movdqa %xmm7,%xmm9
- DB 102,68,15,253,203 ; paddw %xmm3,%xmm9
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,65,15,253,218 ; paddw %xmm10,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,68,15,249,203 ; psubw %xmm3,%xmm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xor__sse41_lowp
-_sk_xor__sse41_lowp LABEL PROC
- DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,68,15,111,13,170,147,0,0 ; movdqa 0x93aa(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,111,209 ; movdqa %xmm9,%xmm10
- DB 102,68,15,249,215 ; psubw %xmm7,%xmm10
- DB 102,65,15,213,194 ; pmullw %xmm10,%xmm0
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,65,15,249,216 ; psubw %xmm8,%xmm3
- DB 102,68,15,111,219 ; movdqa %xmm3,%xmm11
- DB 102,68,15,213,220 ; pmullw %xmm4,%xmm11
- DB 102,65,15,253,195 ; paddw %xmm11,%xmm0
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,65,15,213,202 ; pmullw %xmm10,%xmm1
- DB 102,68,15,111,219 ; movdqa %xmm3,%xmm11
- DB 102,68,15,213,221 ; pmullw %xmm5,%xmm11
- DB 102,65,15,253,203 ; paddw %xmm11,%xmm1
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,65,15,213,210 ; pmullw %xmm10,%xmm2
- DB 102,68,15,111,219 ; movdqa %xmm3,%xmm11
- DB 102,68,15,213,222 ; pmullw %xmm6,%xmm11
- DB 102,65,15,253,211 ; paddw %xmm11,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,69,15,213,208 ; pmullw %xmm8,%xmm10
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,65,15,253,218 ; paddw %xmm10,%xmm3
- DB 102,65,15,253,217 ; paddw %xmm9,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_darken_sse41_lowp
-_sk_darken_sse41_lowp LABEL PROC
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,68,15,213,207 ; pmullw %xmm7,%xmm9
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,65,15,56,62,201 ; pmaxuw %xmm9,%xmm1
- DB 102,68,15,111,13,241,146,0,0 ; movdqa 0x92f1(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,68,15,111,213 ; movdqa %xmm5,%xmm10
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,68,15,213,199 ; pmullw %xmm7,%xmm8
- DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
- DB 102,69,15,56,62,208 ; pmaxuw %xmm8,%xmm10
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,65,15,249,202 ; psubw %xmm10,%xmm1
- DB 102,68,15,111,214 ; movdqa %xmm6,%xmm10
- DB 102,68,15,111,198 ; movdqa %xmm6,%xmm8
- DB 102,68,15,253,194 ; paddw %xmm2,%xmm8
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
- DB 102,68,15,56,62,210 ; pmaxuw %xmm2,%xmm10
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,69,15,249,194 ; psubw %xmm10,%xmm8
- DB 102,65,15,111,209 ; movdqa %xmm9,%xmm2
- DB 102,15,249,211 ; psubw %xmm3,%xmm2
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,253,218 ; paddw %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lighten_sse41_lowp
-_sk_lighten_sse41_lowp LABEL PROC
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,68,15,213,207 ; pmullw %xmm7,%xmm9
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,65,15,56,58,201 ; pminuw %xmm9,%xmm1
- DB 102,68,15,111,13,52,146,0,0 ; movdqa 0x9234(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,68,15,111,213 ; movdqa %xmm5,%xmm10
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,68,15,213,199 ; pmullw %xmm7,%xmm8
- DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
- DB 102,69,15,56,58,208 ; pminuw %xmm8,%xmm10
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,65,15,249,202 ; psubw %xmm10,%xmm1
- DB 102,68,15,111,214 ; movdqa %xmm6,%xmm10
- DB 102,68,15,111,198 ; movdqa %xmm6,%xmm8
- DB 102,68,15,253,194 ; paddw %xmm2,%xmm8
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
- DB 102,68,15,56,58,210 ; pminuw %xmm2,%xmm10
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,69,15,249,194 ; psubw %xmm10,%xmm8
- DB 102,65,15,111,209 ; movdqa %xmm9,%xmm2
- DB 102,15,249,211 ; psubw %xmm3,%xmm2
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,253,218 ; paddw %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_difference_sse41_lowp
-_sk_difference_sse41_lowp LABEL PROC
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,68,15,213,207 ; pmullw %xmm7,%xmm9
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,65,15,56,58,201 ; pminuw %xmm9,%xmm1
- DB 102,68,15,111,13,119,145,0,0 ; movdqa 0x9177(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,7 ; psrlw $0x7,%xmm1
- DB 102,68,15,111,21,228,152,0,0 ; movdqa 0x98e4(%rip),%xmm10 # 35bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8>
- DB 102,65,15,219,202 ; pand %xmm10,%xmm1
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,68,15,111,221 ; movdqa %xmm5,%xmm11
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,68,15,213,199 ; pmullw %xmm7,%xmm8
- DB 102,68,15,213,219 ; pmullw %xmm3,%xmm11
- DB 102,69,15,56,58,216 ; pminuw %xmm8,%xmm11
- DB 102,69,15,253,217 ; paddw %xmm9,%xmm11
- DB 102,65,15,113,211,7 ; psrlw $0x7,%xmm11
- DB 102,69,15,219,218 ; pand %xmm10,%xmm11
- DB 102,65,15,249,203 ; psubw %xmm11,%xmm1
- DB 102,68,15,111,222 ; movdqa %xmm6,%xmm11
- DB 102,68,15,111,198 ; movdqa %xmm6,%xmm8
- DB 102,68,15,253,194 ; paddw %xmm2,%xmm8
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,68,15,213,219 ; pmullw %xmm3,%xmm11
- DB 102,68,15,56,58,218 ; pminuw %xmm2,%xmm11
- DB 102,69,15,253,217 ; paddw %xmm9,%xmm11
- DB 102,65,15,113,211,7 ; psrlw $0x7,%xmm11
- DB 102,69,15,219,218 ; pand %xmm10,%xmm11
- DB 102,69,15,249,195 ; psubw %xmm11,%xmm8
- DB 102,65,15,111,209 ; movdqa %xmm9,%xmm2
- DB 102,15,249,211 ; psubw %xmm3,%xmm2
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,253,218 ; paddw %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_exclusion_sse41_lowp
-_sk_exclusion_sse41_lowp LABEL PROC
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,68,15,111,13,179,144,0,0 ; movdqa 0x90b3(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,7 ; psrlw $0x7,%xmm1
- DB 102,68,15,111,21,32,152,0,0 ; movdqa 0x9820(%rip),%xmm10 # 35bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8>
- DB 102,65,15,219,202 ; pand %xmm10,%xmm1
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,68,15,213,197 ; pmullw %xmm5,%xmm8
- DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
- DB 102,65,15,113,208,7 ; psrlw $0x7,%xmm8
- DB 102,69,15,219,194 ; pand %xmm10,%xmm8
- DB 102,65,15,249,200 ; psubw %xmm8,%xmm1
- DB 102,68,15,111,198 ; movdqa %xmm6,%xmm8
- DB 102,68,15,253,194 ; paddw %xmm2,%xmm8
- DB 102,15,213,214 ; pmullw %xmm6,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,7 ; psrlw $0x7,%xmm2
- DB 102,65,15,219,210 ; pand %xmm10,%xmm2
- DB 102,68,15,249,194 ; psubw %xmm2,%xmm8
- DB 102,65,15,111,209 ; movdqa %xmm9,%xmm2
- DB 102,15,249,211 ; psubw %xmm3,%xmm2
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,253,218 ; paddw %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hardlight_sse41_lowp
-_sk_hardlight_sse41_lowp LABEL PROC
- DB 72,131,236,24 ; sub $0x18,%rsp
- DB 102,68,15,111,231 ; movdqa %xmm7,%xmm12
- DB 15,41,52,36 ; movaps %xmm6,(%rsp)
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 102,68,15,111,29,11,144,0,0 ; movdqa 0x900b(%rip),%xmm11 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,249,220 ; psubw %xmm12,%xmm11
- DB 102,65,15,111,227 ; movdqa %xmm11,%xmm4
- DB 102,65,15,213,224 ; pmullw %xmm8,%xmm4
- DB 102,68,15,111,251 ; movdqa %xmm3,%xmm15
- DB 102,69,15,249,248 ; psubw %xmm8,%xmm15
- DB 102,69,15,253,192 ; paddw %xmm8,%xmm8
- DB 102,68,15,111,13,116,151,0,0 ; movdqa 0x9774(%rip),%xmm9 # 35be0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- DB 102,68,15,111,243 ; movdqa %xmm3,%xmm14
- DB 102,69,15,239,241 ; pxor %xmm9,%xmm14
- DB 102,65,15,111,196 ; movdqa %xmm12,%xmm0
- DB 102,69,15,111,212 ; movdqa %xmm12,%xmm10
- DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
- DB 102,15,249,197 ; psubw %xmm5,%xmm0
- DB 102,65,15,213,199 ; pmullw %xmm15,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,69,15,111,250 ; movdqa %xmm10,%xmm15
- DB 102,68,15,249,248 ; psubw %xmm0,%xmm15
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,65,15,239,193 ; pxor %xmm9,%xmm0
- DB 102,65,15,101,198 ; pcmpgtw %xmm14,%xmm0
- DB 102,68,15,213,197 ; pmullw %xmm5,%xmm8
- DB 102,69,15,56,16,199 ; pblendvb %xmm0,%xmm15,%xmm8
- DB 102,65,15,111,196 ; movdqa %xmm12,%xmm0
- DB 102,68,15,111,251 ; movdqa %xmm3,%xmm15
- DB 102,68,15,249,249 ; psubw %xmm1,%xmm15
- DB 102,15,249,198 ; psubw %xmm6,%xmm0
- DB 102,65,15,213,199 ; pmullw %xmm15,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,69,15,111,234 ; movdqa %xmm10,%xmm13
- DB 102,68,15,249,232 ; psubw %xmm0,%xmm13
- DB 102,69,15,111,251 ; movdqa %xmm11,%xmm15
- DB 102,68,15,213,249 ; pmullw %xmm1,%xmm15
- DB 102,15,253,201 ; paddw %xmm1,%xmm1
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,65,15,239,193 ; pxor %xmm9,%xmm0
- DB 102,65,15,101,198 ; pcmpgtw %xmm14,%xmm0
- DB 102,15,213,206 ; pmullw %xmm6,%xmm1
- DB 102,65,15,56,16,205 ; pblendvb %xmm0,%xmm13,%xmm1
- DB 102,68,15,213,218 ; pmullw %xmm2,%xmm11
- DB 102,68,15,111,235 ; movdqa %xmm3,%xmm13
- DB 102,68,15,249,234 ; psubw %xmm2,%xmm13
- DB 102,15,253,210 ; paddw %xmm2,%xmm2
- DB 102,68,15,239,202 ; pxor %xmm2,%xmm9
- DB 102,69,15,101,206 ; pcmpgtw %xmm14,%xmm9
- DB 102,15,111,4,36 ; movdqa (%rsp),%xmm0
- DB 102,15,249,248 ; psubw %xmm0,%xmm7
- DB 102,65,15,213,253 ; pmullw %xmm13,%xmm7
- DB 102,15,253,255 ; paddw %xmm7,%xmm7
- DB 102,68,15,249,215 ; psubw %xmm7,%xmm10
- DB 102,15,213,208 ; pmullw %xmm0,%xmm2
- DB 102,68,15,111,232 ; movdqa %xmm0,%xmm13
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,65,15,56,16,210 ; pblendvb %xmm0,%xmm10,%xmm2
- DB 102,68,15,111,13,253,142,0,0 ; movdqa 0x8efd(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,15,249,195 ; psubw %xmm3,%xmm0
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
- DB 102,68,15,253,199 ; paddw %xmm7,%xmm8
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,213,230 ; pmullw %xmm6,%xmm4
- DB 102,65,15,253,231 ; paddw %xmm15,%xmm4
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,253,204 ; paddw %xmm4,%xmm1
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,65,15,213,229 ; pmullw %xmm13,%xmm4
- DB 102,65,15,253,227 ; paddw %xmm11,%xmm4
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,253,212 ; paddw %xmm4,%xmm2
- DB 102,65,15,213,196 ; pmullw %xmm12,%xmm0
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,252 ; movdqa %xmm12,%xmm7
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,65,15,111,245 ; movdqa %xmm13,%xmm6
- DB 72,131,196,24 ; add $0x18,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_overlay_sse41_lowp
-_sk_overlay_sse41_lowp LABEL PROC
- DB 72,131,236,24 ; sub $0x18,%rsp
- DB 102,68,15,111,231 ; movdqa %xmm7,%xmm12
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 102,68,15,111,29,88,142,0,0 ; movdqa 0x8e58(%rip),%xmm11 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,249,220 ; psubw %xmm12,%xmm11
- DB 102,65,15,111,195 ; movdqa %xmm11,%xmm0
- DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
- DB 102,15,127,4,36 ; movdqa %xmm0,(%rsp)
- DB 102,68,15,111,243 ; movdqa %xmm3,%xmm14
- DB 102,69,15,249,240 ; psubw %xmm8,%xmm14
- DB 102,68,15,213,196 ; pmullw %xmm4,%xmm8
- DB 102,69,15,111,252 ; movdqa %xmm12,%xmm15
- DB 102,68,15,249,252 ; psubw %xmm4,%xmm15
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,68,15,111,13,170,149,0,0 ; movdqa 0x95aa(%rip),%xmm9 # 35be0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- DB 102,69,15,111,212 ; movdqa %xmm12,%xmm10
- DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
- DB 102,69,15,213,254 ; pmullw %xmm14,%xmm15
- DB 102,69,15,253,255 ; paddw %xmm15,%xmm15
- DB 102,69,15,111,234 ; movdqa %xmm10,%xmm13
- DB 102,69,15,249,239 ; psubw %xmm15,%xmm13
- DB 102,69,15,111,244 ; movdqa %xmm12,%xmm14
- DB 102,69,15,239,241 ; pxor %xmm9,%xmm14
- DB 102,65,15,239,193 ; pxor %xmm9,%xmm0
- DB 102,65,15,101,198 ; pcmpgtw %xmm14,%xmm0
- DB 102,69,15,253,192 ; paddw %xmm8,%xmm8
- DB 102,69,15,56,16,197 ; pblendvb %xmm0,%xmm13,%xmm8
- DB 102,65,15,111,196 ; movdqa %xmm12,%xmm0
- DB 102,68,15,111,235 ; movdqa %xmm3,%xmm13
- DB 102,68,15,249,233 ; psubw %xmm1,%xmm13
- DB 102,15,249,197 ; psubw %xmm5,%xmm0
- DB 102,65,15,213,197 ; pmullw %xmm13,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,69,15,111,234 ; movdqa %xmm10,%xmm13
- DB 102,68,15,249,232 ; psubw %xmm0,%xmm13
- DB 102,69,15,111,251 ; movdqa %xmm11,%xmm15
- DB 102,68,15,213,249 ; pmullw %xmm1,%xmm15
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,65,15,239,193 ; pxor %xmm9,%xmm0
- DB 102,65,15,101,198 ; pcmpgtw %xmm14,%xmm0
- DB 102,15,253,201 ; paddw %xmm1,%xmm1
- DB 102,65,15,56,16,205 ; pblendvb %xmm0,%xmm13,%xmm1
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,68,15,239,200 ; pxor %xmm0,%xmm9
- DB 102,65,15,111,196 ; movdqa %xmm12,%xmm0
- DB 102,15,249,198 ; psubw %xmm6,%xmm0
- DB 102,69,15,101,206 ; pcmpgtw %xmm14,%xmm9
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,15,249,250 ; psubw %xmm2,%xmm7
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,68,15,249,208 ; psubw %xmm0,%xmm10
- DB 102,68,15,213,218 ; pmullw %xmm2,%xmm11
- DB 102,15,213,214 ; pmullw %xmm6,%xmm2
- DB 102,15,253,210 ; paddw %xmm2,%xmm2
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,65,15,56,16,210 ; pblendvb %xmm0,%xmm10,%xmm2
- DB 102,68,15,111,13,60,141,0,0 ; movdqa 0x8d3c(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,15,249,195 ; psubw %xmm3,%xmm0
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,213,252 ; pmullw %xmm4,%xmm7
- DB 102,15,253,60,36 ; paddw (%rsp),%xmm7
- DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
- DB 102,68,15,253,199 ; paddw %xmm7,%xmm8
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,65,15,253,255 ; paddw %xmm15,%xmm7
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,253,207 ; paddw %xmm7,%xmm1
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,213,254 ; pmullw %xmm6,%xmm7
- DB 102,65,15,253,251 ; paddw %xmm11,%xmm7
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 102,65,15,213,196 ; pmullw %xmm12,%xmm0
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,252 ; movdqa %xmm12,%xmm7
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 72,131,196,24 ; add $0x18,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_8888_sse41_lowp
-_sk_load_8888_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 2c7d9 <_sk_load_8888_sse41_lowp+0x44>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,241,0,0,0 ; lea 0xf1(%rip),%r9 # 2c8b0 <_sk_load_8888_sse41_lowp+0x11b>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 255,224 ; jmpq *%rax
- DB 102,65,15,110,20,144 ; movd (%r8,%rdx,4),%xmm2
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,89 ; jmp 2c832 <_sk_load_8888_sse41_lowp+0x9d>
- DB 243,65,15,111,20,144 ; movdqu (%r8,%rdx,4),%xmm2
- DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,74 ; jmp 2c832 <_sk_load_8888_sse41_lowp+0x9d>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 243,65,15,126,20,144 ; movq (%r8,%rdx,4),%xmm2
- DB 102,65,15,58,14,208,240 ; pblendw $0xf0,%xmm8,%xmm2
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 235,37 ; jmp 2c832 <_sk_load_8888_sse41_lowp+0x9d>
- DB 102,65,15,110,68,144,24 ; movd 0x18(%r8,%rdx,4),%xmm0
- DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
- DB 102,69,15,58,34,68,144,20,1 ; pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
- DB 102,69,15,58,34,68,144,16,0 ; pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
- DB 243,65,15,111,20,144 ; movdqu (%r8,%rdx,4),%xmm2
- DB 102,15,111,5,182,147,0,0 ; movdqa 0x93b6(%rip),%xmm0 # 35bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,56,0,200 ; pshufb %xmm0,%xmm1
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,56,0,216 ; pshufb %xmm0,%xmm3
- DB 102,15,108,203 ; punpcklqdq %xmm3,%xmm1
- DB 102,68,15,111,13,246,139,0,0 ; movdqa 0x8bf6(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,65,15,219,193 ; pand %xmm9,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,68,15,111,21,143,147,0,0 ; movdqa 0x938f(%rip),%xmm10 # 35c00 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,65,15,56,0,218 ; pshufb %xmm10,%xmm3
- DB 102,69,15,111,216 ; movdqa %xmm8,%xmm11
- DB 102,69,15,56,0,218 ; pshufb %xmm10,%xmm11
- DB 102,65,15,108,219 ; punpcklqdq %xmm11,%xmm3
- DB 102,68,15,111,21,124,147,0,0 ; movdqa 0x937c(%rip),%xmm10 # 35c10 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
- DB 102,65,15,56,0,210 ; pshufb %xmm10,%xmm2
- DB 102,69,15,56,0,194 ; pshufb %xmm10,%xmm8
- DB 102,65,15,108,208 ; punpcklqdq %xmm8,%xmm2
- DB 102,65,15,219,209 ; pand %xmm9,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 28,255 ; sbb $0xff,%al
- DB 255 ; (bad)
- DB 255,73,255 ; decl -0x1(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 56,255 ; cmp %bh,%bh
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 124,255 ; jl 2c8bd <_sk_load_8888_sse41_lowp+0x128>
- DB 255 ; (bad)
- DB 255,115,255 ; pushq -0x1(%rbx)
- DB 255 ; (bad)
- DB 255,106,255 ; ljmp *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,93,255 ; lcall *-0x1(%rbp)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_8888_dst_sse41_lowp
-_sk_load_8888_dst_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 2c910 <_sk_load_8888_dst_sse41_lowp+0x44>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,242,0,0,0 ; lea 0xf2(%rip),%r9 # 2c9e8 <_sk_load_8888_dst_sse41_lowp+0x11c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 255,224 ; jmpq *%rax
- DB 102,65,15,110,52,144 ; movd (%r8,%rdx,4),%xmm6
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,89 ; jmp 2c969 <_sk_load_8888_dst_sse41_lowp+0x9d>
- DB 243,65,15,111,52,144 ; movdqu (%r8,%rdx,4),%xmm6
- DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,74 ; jmp 2c969 <_sk_load_8888_dst_sse41_lowp+0x9d>
- DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 243,65,15,126,52,144 ; movq (%r8,%rdx,4),%xmm6
- DB 102,65,15,58,14,240,240 ; pblendw $0xf0,%xmm8,%xmm6
- DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
- DB 235,37 ; jmp 2c969 <_sk_load_8888_dst_sse41_lowp+0x9d>
- DB 102,65,15,110,100,144,24 ; movd 0x18(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 102,69,15,58,34,68,144,20,1 ; pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
- DB 102,69,15,58,34,68,144,16,0 ; pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
- DB 243,65,15,111,52,144 ; movdqu (%r8,%rdx,4),%xmm6
- DB 102,15,111,37,127,146,0,0 ; movdqa 0x927f(%rip),%xmm4 # 35bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,15,56,0,236 ; pshufb %xmm4,%xmm5
- DB 102,65,15,111,248 ; movdqa %xmm8,%xmm7
- DB 102,15,56,0,252 ; pshufb %xmm4,%xmm7
- DB 102,15,108,239 ; punpcklqdq %xmm7,%xmm5
- DB 102,68,15,111,13,191,138,0,0 ; movdqa 0x8abf(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,65,15,219,225 ; pand %xmm9,%xmm4
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,68,15,111,21,88,146,0,0 ; movdqa 0x9258(%rip),%xmm10 # 35c00 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,65,15,56,0,250 ; pshufb %xmm10,%xmm7
- DB 102,69,15,111,216 ; movdqa %xmm8,%xmm11
- DB 102,69,15,56,0,218 ; pshufb %xmm10,%xmm11
- DB 102,65,15,108,251 ; punpcklqdq %xmm11,%xmm7
- DB 102,68,15,111,21,69,146,0,0 ; movdqa 0x9245(%rip),%xmm10 # 35c10 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
- DB 102,65,15,56,0,242 ; pshufb %xmm10,%xmm6
- DB 102,69,15,56,0,194 ; pshufb %xmm10,%xmm8
- DB 102,65,15,108,240 ; punpcklqdq %xmm8,%xmm6
- DB 102,65,15,219,241 ; pand %xmm9,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 27,255 ; sbb %edi,%edi
- DB 255 ; (bad)
- DB 255,72,255 ; decl -0x1(%rax)
- DB 255 ; (bad)
- DB 255,55 ; pushq (%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 123,255 ; jnp 2c9f5 <_sk_load_8888_dst_sse41_lowp+0x129>
- DB 255 ; (bad)
- DB 255,114,255 ; pushq -0x1(%rdx)
- DB 255 ; (bad)
- DB 255,105,255 ; ljmp *-0x1(%rcx)
- DB 255 ; (bad)
- DB 255,92,255,255 ; lcall *-0x1(%rdi,%rdi,8)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_8888_sse41_lowp
-_sk_store_8888_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,65,15,113,240,8 ; psllw $0x8,%xmm8
- DB 102,68,15,235,192 ; por %xmm0,%xmm8
- DB 102,69,15,112,200,78 ; pshufd $0x4e,%xmm8,%xmm9
- DB 102,69,15,56,51,209 ; pmovzxwd %xmm9,%xmm10
- DB 102,69,15,56,51,216 ; pmovzxwd %xmm8,%xmm11
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,65,15,113,244,8 ; psllw $0x8,%xmm12
- DB 102,68,15,235,226 ; por %xmm2,%xmm12
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,69,15,105,204 ; punpckhwd %xmm12,%xmm9
- DB 102,69,15,235,202 ; por %xmm10,%xmm9
- DB 102,69,15,97,196 ; punpcklwd %xmm12,%xmm8
- DB 102,69,15,235,195 ; por %xmm11,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,27 ; ja 2ca8a <_sk_store_8888_sse41_lowp+0x86>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,87,0,0,0 ; lea 0x57(%rip),%r9 # 2cad0 <_sk_store_8888_sse41_lowp+0xcc>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,69,15,126,4,144 ; movd %xmm8,(%r8,%rdx,4)
- DB 235,63 ; jmp 2cac9 <_sk_store_8888_sse41_lowp+0xc5>
- DB 243,69,15,127,4,144 ; movdqu %xmm8,(%r8,%rdx,4)
- DB 243,69,15,127,76,144,16 ; movdqu %xmm9,0x10(%r8,%rdx,4)
- DB 235,48 ; jmp 2cac9 <_sk_store_8888_sse41_lowp+0xc5>
- DB 102,69,15,58,22,68,144,8,2 ; pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 102,69,15,214,4,144 ; movq %xmm8,(%r8,%rdx,4)
- DB 235,31 ; jmp 2cac9 <_sk_store_8888_sse41_lowp+0xc5>
- DB 102,69,15,58,22,76,144,24,2 ; pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- DB 102,69,15,58,22,76,144,20,1 ; pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- DB 102,69,15,126,76,144,16 ; movd %xmm9,0x10(%r8,%rdx,4)
- DB 243,69,15,127,4,144 ; movdqu %xmm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 178,255 ; mov $0xff,%dl
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,243 ; push %rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 236 ; in (%dx),%al
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,227 ; jmpq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 218,255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_sse41_lowp
-_sk_load_bgra_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 2cb30 <_sk_load_bgra_sse41_lowp+0x44>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,242,0,0,0 ; lea 0xf2(%rip),%r9 # 2cc08 <_sk_load_bgra_sse41_lowp+0x11c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 255,224 ; jmpq *%rax
- DB 102,65,15,110,4,144 ; movd (%r8,%rdx,4),%xmm0
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,89 ; jmp 2cb89 <_sk_load_bgra_sse41_lowp+0x9d>
- DB 243,65,15,111,4,144 ; movdqu (%r8,%rdx,4),%xmm0
- DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,74 ; jmp 2cb89 <_sk_load_bgra_sse41_lowp+0x9d>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 243,65,15,126,4,144 ; movq (%r8,%rdx,4),%xmm0
- DB 102,65,15,58,14,192,240 ; pblendw $0xf0,%xmm8,%xmm0
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 235,37 ; jmp 2cb89 <_sk_load_bgra_sse41_lowp+0x9d>
- DB 102,65,15,110,68,144,24 ; movd 0x18(%r8,%rdx,4),%xmm0
- DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
- DB 102,69,15,58,34,68,144,20,1 ; pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
- DB 102,69,15,58,34,68,144,16,0 ; pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
- DB 243,65,15,111,4,144 ; movdqu (%r8,%rdx,4),%xmm0
- DB 102,15,111,21,95,144,0,0 ; movdqa 0x905f(%rip),%xmm2 # 35bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,56,0,202 ; pshufb %xmm2,%xmm1
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,56,0,218 ; pshufb %xmm2,%xmm3
- DB 102,15,108,203 ; punpcklqdq %xmm3,%xmm1
- DB 102,68,15,111,13,159,136,0,0 ; movdqa 0x889f(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,65,15,219,209 ; pand %xmm9,%xmm2
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,68,15,111,21,56,144,0,0 ; movdqa 0x9038(%rip),%xmm10 # 35c00 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,65,15,56,0,218 ; pshufb %xmm10,%xmm3
- DB 102,69,15,111,216 ; movdqa %xmm8,%xmm11
- DB 102,69,15,56,0,218 ; pshufb %xmm10,%xmm11
- DB 102,65,15,108,219 ; punpcklqdq %xmm11,%xmm3
- DB 102,68,15,111,21,37,144,0,0 ; movdqa 0x9025(%rip),%xmm10 # 35c10 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
- DB 102,65,15,56,0,194 ; pshufb %xmm10,%xmm0
- DB 102,69,15,56,0,194 ; pshufb %xmm10,%xmm8
- DB 102,65,15,108,192 ; punpcklqdq %xmm8,%xmm0
- DB 102,65,15,219,193 ; pand %xmm9,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 27,255 ; sbb %edi,%edi
- DB 255 ; (bad)
- DB 255,72,255 ; decl -0x1(%rax)
- DB 255 ; (bad)
- DB 255,55 ; pushq (%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 123,255 ; jnp 2cc15 <_sk_load_bgra_sse41_lowp+0x129>
- DB 255 ; (bad)
- DB 255,114,255 ; pushq -0x1(%rdx)
- DB 255 ; (bad)
- DB 255,105,255 ; ljmp *-0x1(%rcx)
- DB 255 ; (bad)
- DB 255,92,255,255 ; lcall *-0x1(%rdi,%rdi,8)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_dst_sse41_lowp
-_sk_load_bgra_dst_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 2cc68 <_sk_load_bgra_dst_sse41_lowp+0x44>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,242,0,0,0 ; lea 0xf2(%rip),%r9 # 2cd40 <_sk_load_bgra_dst_sse41_lowp+0x11c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 255,224 ; jmpq *%rax
- DB 102,65,15,110,36,144 ; movd (%r8,%rdx,4),%xmm4
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,89 ; jmp 2ccc1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
- DB 243,65,15,111,36,144 ; movdqu (%r8,%rdx,4),%xmm4
- DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,74 ; jmp 2ccc1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
- DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 243,65,15,126,36,144 ; movq (%r8,%rdx,4),%xmm4
- DB 102,65,15,58,14,224,240 ; pblendw $0xf0,%xmm8,%xmm4
- DB 102,68,15,111,197 ; movdqa %xmm5,%xmm8
- DB 235,37 ; jmp 2ccc1 <_sk_load_bgra_dst_sse41_lowp+0x9d>
- DB 102,65,15,110,100,144,24 ; movd 0x18(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 102,69,15,58,34,68,144,20,1 ; pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
- DB 102,69,15,58,34,68,144,16,0 ; pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
- DB 243,65,15,111,36,144 ; movdqu (%r8,%rdx,4),%xmm4
- DB 102,15,111,53,39,143,0,0 ; movdqa 0x8f27(%rip),%xmm6 # 35bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,56,0,238 ; pshufb %xmm6,%xmm5
- DB 102,65,15,111,248 ; movdqa %xmm8,%xmm7
- DB 102,15,56,0,254 ; pshufb %xmm6,%xmm7
- DB 102,15,108,239 ; punpcklqdq %xmm7,%xmm5
- DB 102,68,15,111,13,103,135,0,0 ; movdqa 0x8767(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,65,15,219,241 ; pand %xmm9,%xmm6
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,68,15,111,21,0,143,0,0 ; movdqa 0x8f00(%rip),%xmm10 # 35c00 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,65,15,56,0,250 ; pshufb %xmm10,%xmm7
- DB 102,69,15,111,216 ; movdqa %xmm8,%xmm11
- DB 102,69,15,56,0,218 ; pshufb %xmm10,%xmm11
- DB 102,65,15,108,251 ; punpcklqdq %xmm11,%xmm7
- DB 102,68,15,111,21,237,142,0,0 ; movdqa 0x8eed(%rip),%xmm10 # 35c10 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
- DB 102,65,15,56,0,226 ; pshufb %xmm10,%xmm4
- DB 102,69,15,56,0,194 ; pshufb %xmm10,%xmm8
- DB 102,65,15,108,224 ; punpcklqdq %xmm8,%xmm4
- DB 102,65,15,219,225 ; pand %xmm9,%xmm4
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 27,255 ; sbb %edi,%edi
- DB 255 ; (bad)
- DB 255,72,255 ; decl -0x1(%rax)
- DB 255 ; (bad)
- DB 255,55 ; pushq (%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 123,255 ; jnp 2cd4d <_sk_load_bgra_dst_sse41_lowp+0x129>
- DB 255 ; (bad)
- DB 255,114,255 ; pushq -0x1(%rdx)
- DB 255 ; (bad)
- DB 255,105,255 ; ljmp *-0x1(%rcx)
- DB 255 ; (bad)
- DB 255,92,255,255 ; lcall *-0x1(%rdi,%rdi,8)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_bgra_sse41_lowp
-_sk_store_bgra_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,65,15,113,240,8 ; psllw $0x8,%xmm8
- DB 102,68,15,235,194 ; por %xmm2,%xmm8
- DB 102,69,15,112,200,78 ; pshufd $0x4e,%xmm8,%xmm9
- DB 102,69,15,56,51,209 ; pmovzxwd %xmm9,%xmm10
- DB 102,69,15,56,51,216 ; pmovzxwd %xmm8,%xmm11
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,65,15,113,244,8 ; psllw $0x8,%xmm12
- DB 102,68,15,235,224 ; por %xmm0,%xmm12
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,69,15,105,204 ; punpckhwd %xmm12,%xmm9
- DB 102,69,15,235,202 ; por %xmm10,%xmm9
- DB 102,69,15,97,196 ; punpcklwd %xmm12,%xmm8
- DB 102,69,15,235,195 ; por %xmm11,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,27 ; ja 2cde2 <_sk_store_bgra_sse41_lowp+0x86>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,87,0,0,0 ; lea 0x57(%rip),%r9 # 2ce28 <_sk_store_bgra_sse41_lowp+0xcc>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,69,15,126,4,144 ; movd %xmm8,(%r8,%rdx,4)
- DB 235,63 ; jmp 2ce21 <_sk_store_bgra_sse41_lowp+0xc5>
- DB 243,69,15,127,4,144 ; movdqu %xmm8,(%r8,%rdx,4)
- DB 243,69,15,127,76,144,16 ; movdqu %xmm9,0x10(%r8,%rdx,4)
- DB 235,48 ; jmp 2ce21 <_sk_store_bgra_sse41_lowp+0xc5>
- DB 102,69,15,58,22,68,144,8,2 ; pextrd $0x2,%xmm8,0x8(%r8,%rdx,4)
- DB 102,69,15,214,4,144 ; movq %xmm8,(%r8,%rdx,4)
- DB 235,31 ; jmp 2ce21 <_sk_store_bgra_sse41_lowp+0xc5>
- DB 102,69,15,58,22,76,144,24,2 ; pextrd $0x2,%xmm9,0x18(%r8,%rdx,4)
- DB 102,69,15,58,22,76,144,20,1 ; pextrd $0x1,%xmm9,0x14(%r8,%rdx,4)
- DB 102,69,15,126,76,144,16 ; movd %xmm9,0x10(%r8,%rdx,4)
- DB 243,69,15,127,4,144 ; movdqu %xmm8,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 178,255 ; mov $0xff,%dl
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,243 ; push %rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 236 ; in (%dx),%al
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,227 ; jmpq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 218,255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_8888_sse41_lowp
-_sk_gather_8888_sse41_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 65,15,95,194 ; maxps %xmm10,%xmm0
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 243,68,15,16,64,16 ; movss 0x10(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 65,15,95,218 ; maxps %xmm10,%xmm3
- DB 65,15,95,210 ; maxps %xmm10,%xmm2
- DB 65,15,93,208 ; minps %xmm8,%xmm2
- DB 65,15,93,216 ; minps %xmm8,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,68,15,91,195 ; cvttps2dq %xmm3,%xmm8
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 102,15,110,88,8 ; movd 0x8(%rax),%xmm3
- DB 102,15,112,219,0 ; pshufd $0x0,%xmm3,%xmm3
- DB 102,15,56,64,211 ; pmulld %xmm3,%xmm2
- DB 102,68,15,56,64,195 ; pmulld %xmm3,%xmm8
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,194 ; paddd %xmm2,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,65,15,254,200 ; paddd %xmm8,%xmm1
- DB 102,72,15,58,22,200,1 ; pextrq $0x1,%xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,72,15,58,22,195,1 ; pextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,73,15,126,199 ; movq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 67,139,44,184 ; mov (%r8,%r15,4),%ebp
- DB 71,139,52,176 ; mov (%r8,%r14,4),%r14d
- DB 65,139,28,152 ; mov (%r8,%rbx,4),%ebx
- DB 71,139,28,152 ; mov (%r8,%r11,4),%r11d
- DB 71,139,20,144 ; mov (%r8,%r10,4),%r10d
- DB 71,139,12,136 ; mov (%r8,%r9,4),%r9d
- DB 65,139,4,128 ; mov (%r8,%rax,4),%eax
- DB 102,69,15,110,195 ; movd %r11d,%xmm8
- DB 102,69,15,58,34,194,1 ; pinsrd $0x1,%r10d,%xmm8
- DB 102,69,15,58,34,193,2 ; pinsrd $0x2,%r9d,%xmm8
- DB 102,68,15,58,34,192,3 ; pinsrd $0x3,%eax,%xmm8
- DB 102,67,15,110,12,160 ; movd (%r8,%r12,4),%xmm1
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,58,34,213,1 ; pinsrd $0x1,%ebp,%xmm2
- DB 102,65,15,58,34,214,2 ; pinsrd $0x2,%r14d,%xmm2
- DB 102,15,58,34,211,3 ; pinsrd $0x3,%ebx,%xmm2
- DB 102,15,196,205,1 ; pinsrw $0x1,%ebp,%xmm1
- DB 102,65,15,196,206,2 ; pinsrw $0x2,%r14d,%xmm1
- DB 102,15,196,203,3 ; pinsrw $0x3,%ebx,%xmm1
- DB 102,65,15,196,203,4 ; pinsrw $0x4,%r11d,%xmm1
- DB 102,65,15,196,202,5 ; pinsrw $0x5,%r10d,%xmm1
- DB 102,65,15,196,201,6 ; pinsrw $0x6,%r9d,%xmm1
- DB 102,15,196,200,7 ; pinsrw $0x7,%eax,%xmm1
- DB 102,68,15,111,13,208,132,0,0 ; movdqa 0x84d0(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,65,15,219,193 ; pand %xmm9,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,68,15,111,21,105,140,0,0 ; movdqa 0x8c69(%rip),%xmm10 # 35c00 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,65,15,56,0,218 ; pshufb %xmm10,%xmm3
- DB 102,69,15,111,216 ; movdqa %xmm8,%xmm11
- DB 102,69,15,56,0,218 ; pshufb %xmm10,%xmm11
- DB 102,65,15,108,219 ; punpcklqdq %xmm11,%xmm3
- DB 102,68,15,111,21,86,140,0,0 ; movdqa 0x8c56(%rip),%xmm10 # 35c10 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
- DB 102,65,15,56,0,210 ; pshufb %xmm10,%xmm2
- DB 102,69,15,56,0,194 ; pshufb %xmm10,%xmm8
- DB 102,65,15,108,208 ; punpcklqdq %xmm8,%xmm2
- DB 102,65,15,219,209 ; pand %xmm9,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gather_bgra_sse41_lowp
-_sk_gather_bgra_sse41_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 65,15,95,194 ; maxps %xmm10,%xmm0
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 243,68,15,16,64,16 ; movss 0x10(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 65,15,95,218 ; maxps %xmm10,%xmm3
- DB 65,15,95,210 ; maxps %xmm10,%xmm2
- DB 65,15,93,208 ; minps %xmm8,%xmm2
- DB 65,15,93,216 ; minps %xmm8,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,68,15,91,195 ; cvttps2dq %xmm3,%xmm8
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 102,15,110,88,8 ; movd 0x8(%rax),%xmm3
- DB 102,15,112,219,0 ; pshufd $0x0,%xmm3,%xmm3
- DB 102,15,56,64,211 ; pmulld %xmm3,%xmm2
- DB 102,68,15,56,64,195 ; pmulld %xmm3,%xmm8
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,194 ; paddd %xmm2,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,65,15,254,200 ; paddd %xmm8,%xmm1
- DB 102,72,15,58,22,200,1 ; pextrq $0x1,%xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,72,15,58,22,195,1 ; pextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,73,15,126,199 ; movq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 67,139,44,184 ; mov (%r8,%r15,4),%ebp
- DB 71,139,52,176 ; mov (%r8,%r14,4),%r14d
- DB 65,139,28,152 ; mov (%r8,%rbx,4),%ebx
- DB 71,139,28,152 ; mov (%r8,%r11,4),%r11d
- DB 71,139,20,144 ; mov (%r8,%r10,4),%r10d
- DB 71,139,12,136 ; mov (%r8,%r9,4),%r9d
- DB 65,139,4,128 ; mov (%r8,%rax,4),%eax
- DB 102,69,15,110,195 ; movd %r11d,%xmm8
- DB 102,69,15,58,34,194,1 ; pinsrd $0x1,%r10d,%xmm8
- DB 102,69,15,58,34,193,2 ; pinsrd $0x2,%r9d,%xmm8
- DB 102,68,15,58,34,192,3 ; pinsrd $0x3,%eax,%xmm8
- DB 102,67,15,110,12,160 ; movd (%r8,%r12,4),%xmm1
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,58,34,197,1 ; pinsrd $0x1,%ebp,%xmm0
- DB 102,65,15,58,34,198,2 ; pinsrd $0x2,%r14d,%xmm0
- DB 102,15,58,34,195,3 ; pinsrd $0x3,%ebx,%xmm0
- DB 102,15,196,205,1 ; pinsrw $0x1,%ebp,%xmm1
- DB 102,65,15,196,206,2 ; pinsrw $0x2,%r14d,%xmm1
- DB 102,15,196,203,3 ; pinsrw $0x3,%ebx,%xmm1
- DB 102,65,15,196,203,4 ; pinsrw $0x4,%r11d,%xmm1
- DB 102,65,15,196,202,5 ; pinsrw $0x5,%r10d,%xmm1
- DB 102,65,15,196,201,6 ; pinsrw $0x6,%r9d,%xmm1
- DB 102,15,196,200,7 ; pinsrw $0x7,%eax,%xmm1
- DB 102,68,15,111,13,56,131,0,0 ; movdqa 0x8338(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,65,15,219,209 ; pand %xmm9,%xmm2
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,68,15,111,21,209,138,0,0 ; movdqa 0x8ad1(%rip),%xmm10 # 35c00 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,65,15,56,0,218 ; pshufb %xmm10,%xmm3
- DB 102,69,15,111,216 ; movdqa %xmm8,%xmm11
- DB 102,69,15,56,0,218 ; pshufb %xmm10,%xmm11
- DB 102,65,15,108,219 ; punpcklqdq %xmm11,%xmm3
- DB 102,68,15,111,21,190,138,0,0 ; movdqa 0x8abe(%rip),%xmm10 # 35c10 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
- DB 102,65,15,56,0,194 ; pshufb %xmm10,%xmm0
- DB 102,69,15,56,0,194 ; pshufb %xmm10,%xmm8
- DB 102,65,15,108,192 ; punpcklqdq %xmm8,%xmm0
- DB 102,65,15,219,193 ; pand %xmm9,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_565_sse41_lowp
-_sk_load_565_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 2d1b0 <_sk_load_565_sse41_lowp+0x3c>
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,196,0,0,0 ; lea 0xc4(%rip),%r9 # 2d260 <_sk_load_565_sse41_lowp+0xec>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 235,74 ; jmp 2d1fa <_sk_load_565_sse41_lowp+0x86>
- DB 243,65,15,111,4,80 ; movdqu (%r8,%rdx,2),%xmm0
- DB 235,66 ; jmp 2d1fa <_sk_load_565_sse41_lowp+0x86>
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,65,15,196,76,80,4,2 ; pinsrw $0x2,0x4(%r8,%rdx,2),%xmm1
- DB 102,65,15,110,4,80 ; movd (%r8,%rdx,2),%xmm0
- DB 102,15,58,14,193,252 ; pblendw $0xfc,%xmm1,%xmm0
- DB 235,40 ; jmp 2d1fa <_sk_load_565_sse41_lowp+0x86>
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,65,15,196,76,80,12,6 ; pinsrw $0x6,0xc(%r8,%rdx,2),%xmm1
- DB 102,65,15,196,76,80,10,5 ; pinsrw $0x5,0xa(%r8,%rdx,2),%xmm1
- DB 102,65,15,196,76,80,8,4 ; pinsrw $0x4,0x8(%r8,%rdx,2),%xmm1
- DB 243,65,15,126,4,80 ; movq (%r8,%rdx,2),%xmm0
- DB 102,15,58,14,193,240 ; pblendw $0xf0,%xmm1,%xmm0
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,219,29,21,138,0,0 ; pand 0x8a15(%rip),%xmm3 # 35c20 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,113,209,5 ; psrlw $0x5,%xmm1
- DB 102,15,219,13,20,138,0,0 ; pand 0x8a14(%rip),%xmm1 # 35c30 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
- DB 102,15,111,21,28,138,0,0 ; movdqa 0x8a1c(%rip),%xmm2 # 35c40 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
- DB 102,15,219,208 ; pand %xmm0,%xmm2
- DB 102,15,113,208,13 ; psrlw $0xd,%xmm0
- DB 102,15,235,195 ; por %xmm3,%xmm0
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,113,243,2 ; psllw $0x2,%xmm3
- DB 102,15,113,209,4 ; psrlw $0x4,%xmm1
- DB 102,15,235,203 ; por %xmm3,%xmm1
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,113,243,3 ; psllw $0x3,%xmm3
- DB 102,15,113,210,2 ; psrlw $0x2,%xmm2
- DB 102,15,235,211 ; por %xmm3,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,242,129,0,0 ; movaps 0x81f2(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 255,224 ; jmpq *%rax
- DB 69,255 ; rex.RB (bad)
- DB 255 ; (bad)
- DB 255,100,255,255 ; jmpq *-0x1(%rdi,%rdi,8)
- DB 255,88,255 ; lcall *-0x1(%rax)
- DB 255 ; (bad)
- DB 255,142,255,255,255,134 ; decl -0x79000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 126,255 ; jle 2d275 <_sk_load_565_sse41_lowp+0x101>
- DB 255 ; (bad)
- DB 255,114,255 ; pushq -0x1(%rdx)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_565_dst_sse41_lowp
-_sk_load_565_dst_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 2d2b8 <_sk_load_565_dst_sse41_lowp+0x3c>
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,196,0,0,0 ; lea 0xc4(%rip),%r9 # 2d368 <_sk_load_565_dst_sse41_lowp+0xec>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 235,74 ; jmp 2d302 <_sk_load_565_dst_sse41_lowp+0x86>
- DB 243,65,15,111,36,80 ; movdqu (%r8,%rdx,2),%xmm4
- DB 235,66 ; jmp 2d302 <_sk_load_565_dst_sse41_lowp+0x86>
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 102,65,15,196,108,80,4,2 ; pinsrw $0x2,0x4(%r8,%rdx,2),%xmm5
- DB 102,65,15,110,36,80 ; movd (%r8,%rdx,2),%xmm4
- DB 102,15,58,14,229,252 ; pblendw $0xfc,%xmm5,%xmm4
- DB 235,40 ; jmp 2d302 <_sk_load_565_dst_sse41_lowp+0x86>
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 102,65,15,196,108,80,12,6 ; pinsrw $0x6,0xc(%r8,%rdx,2),%xmm5
- DB 102,65,15,196,108,80,10,5 ; pinsrw $0x5,0xa(%r8,%rdx,2),%xmm5
- DB 102,65,15,196,108,80,8,4 ; pinsrw $0x4,0x8(%r8,%rdx,2),%xmm5
- DB 243,65,15,126,36,80 ; movq (%r8,%rdx,2),%xmm4
- DB 102,15,58,14,229,240 ; pblendw $0xf0,%xmm5,%xmm4
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,219,61,13,137,0,0 ; pand 0x890d(%rip),%xmm7 # 35c20 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,113,213,5 ; psrlw $0x5,%xmm5
- DB 102,15,219,45,12,137,0,0 ; pand 0x890c(%rip),%xmm5 # 35c30 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
- DB 102,15,111,53,20,137,0,0 ; movdqa 0x8914(%rip),%xmm6 # 35c40 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
- DB 102,15,219,244 ; pand %xmm4,%xmm6
- DB 102,15,113,212,13 ; psrlw $0xd,%xmm4
- DB 102,15,235,231 ; por %xmm7,%xmm4
- DB 102,15,111,253 ; movdqa %xmm5,%xmm7
- DB 102,15,113,247,2 ; psllw $0x2,%xmm7
- DB 102,15,113,213,4 ; psrlw $0x4,%xmm5
- DB 102,15,235,239 ; por %xmm7,%xmm5
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,15,113,247,3 ; psllw $0x3,%xmm7
- DB 102,15,113,214,2 ; psrlw $0x2,%xmm6
- DB 102,15,235,247 ; por %xmm7,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,234,128,0,0 ; movaps 0x80ea(%rip),%xmm7 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 255,224 ; jmpq *%rax
- DB 69,255 ; rex.RB (bad)
- DB 255 ; (bad)
- DB 255,100,255,255 ; jmpq *-0x1(%rdi,%rdi,8)
- DB 255,88,255 ; lcall *-0x1(%rax)
- DB 255 ; (bad)
- DB 255,142,255,255,255,134 ; decl -0x79000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 126,255 ; jle 2d37d <_sk_load_565_dst_sse41_lowp+0x101>
- DB 255 ; (bad)
- DB 255,114,255 ; pushq -0x1(%rdx)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_565_sse41_lowp
-_sk_store_565_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 102,65,15,113,240,8 ; psllw $0x8,%xmm8
- DB 102,68,15,219,5,168,136,0,0 ; pand 0x88a8(%rip),%xmm8 # 35c50 <_sk_srcover_bgra_8888_sse2_lowp+0x1438>
- DB 102,68,15,111,201 ; movdqa %xmm1,%xmm9
- DB 102,65,15,113,241,3 ; psllw $0x3,%xmm9
- DB 102,68,15,219,13,164,136,0,0 ; pand 0x88a4(%rip),%xmm9 # 35c60 <_sk_srcover_bgra_8888_sse2_lowp+0x1448>
- DB 102,69,15,235,200 ; por %xmm8,%xmm9
- DB 102,68,15,111,194 ; movdqa %xmm2,%xmm8
- DB 102,65,15,113,208,3 ; psrlw $0x3,%xmm8
- DB 102,69,15,235,193 ; por %xmm9,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,29 ; ja 2d3f8 <_sk_store_565_sse41_lowp+0x74>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,83,0,0,0 ; lea 0x53(%rip),%r9 # 2d438 <_sk_store_565_sse41_lowp+0xb4>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,69,15,58,21,4,80,0 ; pextrw $0x0,%xmm8,(%r8,%rdx,2)
- DB 235,58 ; jmp 2d432 <_sk_store_565_sse41_lowp+0xae>
- DB 243,69,15,127,4,80 ; movdqu %xmm8,(%r8,%rdx,2)
- DB 235,50 ; jmp 2d432 <_sk_store_565_sse41_lowp+0xae>
- DB 102,69,15,58,21,68,80,4,2 ; pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- DB 102,69,15,126,4,80 ; movd %xmm8,(%r8,%rdx,2)
- DB 235,33 ; jmp 2d432 <_sk_store_565_sse41_lowp+0xae>
- DB 102,69,15,58,21,68,80,12,6 ; pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- DB 102,69,15,58,21,68,80,10,5 ; pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- DB 102,69,15,58,21,68,80,8,4 ; pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- DB 102,69,15,214,4,80 ; movq %xmm8,(%r8,%rdx,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 182,255 ; mov $0xff,%dh
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,200 ; dec %eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,244 ; push %rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 235,255 ; jmp 2d449 <_sk_store_565_sse41_lowp+0xc5>
- DB 255 ; (bad)
- DB 255,226 ; jmpq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 217,255 ; fcos
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_565_sse41_lowp
-_sk_gather_565_sse41_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 65,15,95,194 ; maxps %xmm10,%xmm0
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 243,68,15,16,64,16 ; movss 0x10(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 65,15,95,218 ; maxps %xmm10,%xmm3
- DB 65,15,95,210 ; maxps %xmm10,%xmm2
- DB 65,15,93,208 ; minps %xmm8,%xmm2
- DB 65,15,93,216 ; minps %xmm8,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,68,15,91,195 ; cvttps2dq %xmm3,%xmm8
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 102,15,110,88,8 ; movd 0x8(%rax),%xmm3
- DB 102,15,112,219,0 ; pshufd $0x0,%xmm3,%xmm3
- DB 102,15,56,64,211 ; pmulld %xmm3,%xmm2
- DB 102,68,15,56,64,195 ; pmulld %xmm3,%xmm8
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,194 ; paddd %xmm2,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,65,15,254,200 ; paddd %xmm8,%xmm1
- DB 102,72,15,58,22,200,1 ; pextrq $0x1,%xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,72,15,58,22,195,1 ; pextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,73,15,126,199 ; movq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 71,15,183,60,120 ; movzwl (%r8,%r15,2),%r15d
- DB 67,15,183,44,96 ; movzwl (%r8,%r12,2),%ebp
- DB 102,15,110,197 ; movd %ebp,%xmm0
- DB 102,65,15,196,199,1 ; pinsrw $0x1,%r15d,%xmm0
- DB 67,15,183,44,112 ; movzwl (%r8,%r14,2),%ebp
- DB 102,15,196,197,2 ; pinsrw $0x2,%ebp,%xmm0
- DB 65,15,183,28,88 ; movzwl (%r8,%rbx,2),%ebx
- DB 102,15,196,195,3 ; pinsrw $0x3,%ebx,%xmm0
- DB 67,15,183,44,88 ; movzwl (%r8,%r11,2),%ebp
- DB 102,15,196,197,4 ; pinsrw $0x4,%ebp,%xmm0
- DB 67,15,183,44,80 ; movzwl (%r8,%r10,2),%ebp
- DB 102,15,196,197,5 ; pinsrw $0x5,%ebp,%xmm0
- DB 67,15,183,44,72 ; movzwl (%r8,%r9,2),%ebp
- DB 102,15,196,197,6 ; pinsrw $0x6,%ebp,%xmm0
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 102,15,196,192,7 ; pinsrw $0x7,%eax,%xmm0
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,219,29,178,134,0,0 ; pand 0x86b2(%rip),%xmm3 # 35c20 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,113,209,5 ; psrlw $0x5,%xmm1
- DB 102,15,219,13,177,134,0,0 ; pand 0x86b1(%rip),%xmm1 # 35c30 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
- DB 102,15,111,21,185,134,0,0 ; movdqa 0x86b9(%rip),%xmm2 # 35c40 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
- DB 102,15,219,208 ; pand %xmm0,%xmm2
- DB 102,15,113,208,13 ; psrlw $0xd,%xmm0
- DB 102,15,235,195 ; por %xmm3,%xmm0
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,113,243,2 ; psllw $0x2,%xmm3
- DB 102,15,113,209,4 ; psrlw $0x4,%xmm1
- DB 102,15,235,203 ; por %xmm3,%xmm1
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,113,243,3 ; psllw $0x3,%xmm3
- DB 102,15,113,210,2 ; psrlw $0x2,%xmm2
- DB 102,15,235,211 ; por %xmm3,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,143,126,0,0 ; movaps 0x7e8f(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_4444_sse41_lowp
-_sk_load_4444_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,35 ; ja 2d608 <_sk_load_4444_sse41_lowp+0x3d>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,209,0,0,0 ; lea 0xd1(%rip),%r9 # 2d6c4 <_sk_load_4444_sse41_lowp+0xf9>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 235,76 ; jmp 2d654 <_sk_load_4444_sse41_lowp+0x89>
- DB 243,69,15,111,4,80 ; movdqu (%r8,%rdx,2),%xmm8
- DB 235,68 ; jmp 2d654 <_sk_load_4444_sse41_lowp+0x89>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,65,15,196,68,80,4,2 ; pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
- DB 102,69,15,110,4,80 ; movd (%r8,%rdx,2),%xmm8
- DB 102,68,15,58,14,192,252 ; pblendw $0xfc,%xmm0,%xmm8
- DB 235,41 ; jmp 2d654 <_sk_load_4444_sse41_lowp+0x89>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,65,15,196,68,80,12,6 ; pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
- DB 102,65,15,196,68,80,10,5 ; pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
- DB 102,65,15,196,68,80,8,4 ; pinsrw $0x4,0x8(%r8,%rdx,2),%xmm0
- DB 243,69,15,126,4,80 ; movq (%r8,%rdx,2),%xmm8
- DB 102,68,15,58,14,192,240 ; pblendw $0xf0,%xmm0,%xmm8
- DB 102,65,15,111,200 ; movdqa %xmm8,%xmm1
- DB 102,15,113,209,12 ; psrlw $0xc,%xmm1
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,111,5,0,134,0,0 ; movdqa 0x8600(%rip),%xmm0 # 35c70 <_sk_srcover_bgra_8888_sse2_lowp+0x1458>
- DB 102,15,219,208 ; pand %xmm0,%xmm2
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,113,211,4 ; psrlw $0x4,%xmm3
- DB 102,15,219,216 ; pand %xmm0,%xmm3
- DB 102,68,15,219,192 ; pand %xmm0,%xmm8
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,113,240,4 ; psllw $0x4,%xmm0
- DB 102,15,235,193 ; por %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,113,241,4 ; psllw $0x4,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,113,242,4 ; psllw $0x4,%xmm2
- DB 102,15,235,211 ; por %xmm3,%xmm2
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,113,243,4 ; psllw $0x4,%xmm3
- DB 102,65,15,235,216 ; por %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 56,255 ; cmp %bh,%bh
- DB 255 ; (bad)
- DB 255,88,255 ; lcall *-0x1(%rax)
- DB 255 ; (bad)
- DB 255,76,255,255 ; decl -0x1(%rdi,%rdi,8)
- DB 255,131,255,255,255,123 ; incl 0x7bffffff(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,115,255 ; pushq -0x1(%rbx)
- DB 255 ; (bad)
- DB 255,103,255 ; jmpq *-0x1(%rdi)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_4444_dst_sse41_lowp
-_sk_load_4444_dst_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,35 ; ja 2d71d <_sk_load_4444_dst_sse41_lowp+0x3d>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,208,0,0,0 ; lea 0xd0(%rip),%r9 # 2d7d8 <_sk_load_4444_dst_sse41_lowp+0xf8>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 235,76 ; jmp 2d769 <_sk_load_4444_dst_sse41_lowp+0x89>
- DB 243,69,15,111,4,80 ; movdqu (%r8,%rdx,2),%xmm8
- DB 235,68 ; jmp 2d769 <_sk_load_4444_dst_sse41_lowp+0x89>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,65,15,196,100,80,4,2 ; pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
- DB 102,69,15,110,4,80 ; movd (%r8,%rdx,2),%xmm8
- DB 102,68,15,58,14,196,252 ; pblendw $0xfc,%xmm4,%xmm8
- DB 235,41 ; jmp 2d769 <_sk_load_4444_dst_sse41_lowp+0x89>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,65,15,196,100,80,12,6 ; pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
- DB 102,65,15,196,100,80,10,5 ; pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
- DB 102,65,15,196,100,80,8,4 ; pinsrw $0x4,0x8(%r8,%rdx,2),%xmm4
- DB 243,69,15,126,4,80 ; movq (%r8,%rdx,2),%xmm8
- DB 102,68,15,58,14,196,240 ; pblendw $0xf0,%xmm4,%xmm8
- DB 102,65,15,111,232 ; movdqa %xmm8,%xmm5
- DB 102,15,113,213,12 ; psrlw $0xc,%xmm5
- DB 102,65,15,111,240 ; movdqa %xmm8,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,111,37,235,132,0,0 ; movdqa 0x84eb(%rip),%xmm4 # 35c70 <_sk_srcover_bgra_8888_sse2_lowp+0x1458>
- DB 102,15,219,244 ; pand %xmm4,%xmm6
- DB 102,65,15,111,248 ; movdqa %xmm8,%xmm7
- DB 102,15,113,215,4 ; psrlw $0x4,%xmm7
- DB 102,15,219,252 ; pand %xmm4,%xmm7
- DB 102,68,15,219,196 ; pand %xmm4,%xmm8
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,113,244,4 ; psllw $0x4,%xmm4
- DB 102,15,235,229 ; por %xmm5,%xmm4
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,15,113,245,4 ; psllw $0x4,%xmm5
- DB 102,15,235,238 ; por %xmm6,%xmm5
- DB 102,15,111,247 ; movdqa %xmm7,%xmm6
- DB 102,15,113,246,4 ; psllw $0x4,%xmm6
- DB 102,15,235,247 ; por %xmm7,%xmm6
- DB 102,65,15,111,248 ; movdqa %xmm8,%xmm7
- DB 102,15,113,247,4 ; psllw $0x4,%xmm7
- DB 102,65,15,235,248 ; por %xmm8,%xmm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 57,255 ; cmp %edi,%edi
- DB 255 ; (bad)
- DB 255,89,255 ; lcall *-0x1(%rcx)
- DB 255 ; (bad)
- DB 255,77,255 ; decl -0x1(%rbp)
- DB 255 ; (bad)
- DB 255,132,255,255,255,124,255 ; incl -0x830001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,116,255,255 ; pushq -0x1(%rdi,%rdi,8)
- DB 255,104,255 ; ljmp *-0x1(%rax)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_4444_sse41_lowp
-_sk_store_4444_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 102,65,15,113,240,8 ; psllw $0x8,%xmm8
- DB 102,68,15,219,5,104,132,0,0 ; pand 0x8468(%rip),%xmm8 # 35c80 <_sk_srcover_bgra_8888_sse2_lowp+0x1468>
- DB 102,68,15,111,201 ; movdqa %xmm1,%xmm9
- DB 102,65,15,113,241,4 ; psllw $0x4,%xmm9
- DB 102,68,15,219,13,100,132,0,0 ; pand 0x8464(%rip),%xmm9 # 35c90 <_sk_srcover_bgra_8888_sse2_lowp+0x1478>
- DB 102,69,15,235,200 ; por %xmm8,%xmm9
- DB 102,68,15,111,21,102,132,0,0 ; movdqa 0x8466(%rip),%xmm10 # 35ca0 <_sk_srcover_bgra_8888_sse2_lowp+0x1488>
- DB 102,68,15,219,210 ; pand %xmm2,%xmm10
- DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,65,15,113,208,4 ; psrlw $0x4,%xmm8
- DB 102,69,15,235,194 ; por %xmm10,%xmm8
- DB 102,69,15,235,193 ; por %xmm9,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,29 ; ja 2d87b <_sk_store_4444_sse41_lowp+0x87>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,84,0,0,0 ; lea 0x54(%rip),%r9 # 2d8bc <_sk_store_4444_sse41_lowp+0xc8>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,69,15,58,21,4,80,0 ; pextrw $0x0,%xmm8,(%r8,%rdx,2)
- DB 235,58 ; jmp 2d8b5 <_sk_store_4444_sse41_lowp+0xc1>
- DB 243,69,15,127,4,80 ; movdqu %xmm8,(%r8,%rdx,2)
- DB 235,50 ; jmp 2d8b5 <_sk_store_4444_sse41_lowp+0xc1>
- DB 102,69,15,58,21,68,80,4,2 ; pextrw $0x2,%xmm8,0x4(%r8,%rdx,2)
- DB 102,69,15,126,4,80 ; movd %xmm8,(%r8,%rdx,2)
- DB 235,33 ; jmp 2d8b5 <_sk_store_4444_sse41_lowp+0xc1>
- DB 102,69,15,58,21,68,80,12,6 ; pextrw $0x6,%xmm8,0xc(%r8,%rdx,2)
- DB 102,69,15,58,21,68,80,10,5 ; pextrw $0x5,%xmm8,0xa(%r8,%rdx,2)
- DB 102,69,15,58,21,68,80,8,4 ; pextrw $0x4,%xmm8,0x8(%r8,%rdx,2)
- DB 102,69,15,214,4,80 ; movq %xmm8,(%r8,%rdx,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 181,255 ; mov $0xff,%ch
- DB 255 ; (bad)
- DB 255,208 ; callq *%rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,199 ; inc %edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,243 ; push %rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 234 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,225 ; jmpq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 216,255 ; fdivr %st(7),%st
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_4444_sse41_lowp
-_sk_gather_4444_sse41_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 65,15,95,194 ; maxps %xmm10,%xmm0
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 243,68,15,16,64,16 ; movss 0x10(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 65,15,95,218 ; maxps %xmm10,%xmm3
- DB 65,15,95,210 ; maxps %xmm10,%xmm2
- DB 65,15,93,208 ; minps %xmm8,%xmm2
- DB 65,15,93,216 ; minps %xmm8,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,68,15,91,195 ; cvttps2dq %xmm3,%xmm8
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 102,15,110,88,8 ; movd 0x8(%rax),%xmm3
- DB 102,15,112,219,0 ; pshufd $0x0,%xmm3,%xmm3
- DB 102,15,56,64,211 ; pmulld %xmm3,%xmm2
- DB 102,68,15,56,64,195 ; pmulld %xmm3,%xmm8
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,194 ; paddd %xmm2,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,65,15,254,200 ; paddd %xmm8,%xmm1
- DB 102,72,15,58,22,200,1 ; pextrq $0x1,%xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,72,15,58,22,195,1 ; pextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,73,15,126,199 ; movq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 71,15,183,60,120 ; movzwl (%r8,%r15,2),%r15d
- DB 67,15,183,44,96 ; movzwl (%r8,%r12,2),%ebp
- DB 102,68,15,110,197 ; movd %ebp,%xmm8
- DB 102,69,15,196,199,1 ; pinsrw $0x1,%r15d,%xmm8
- DB 67,15,183,44,112 ; movzwl (%r8,%r14,2),%ebp
- DB 102,68,15,196,197,2 ; pinsrw $0x2,%ebp,%xmm8
- DB 65,15,183,28,88 ; movzwl (%r8,%rbx,2),%ebx
- DB 102,68,15,196,195,3 ; pinsrw $0x3,%ebx,%xmm8
- DB 67,15,183,44,88 ; movzwl (%r8,%r11,2),%ebp
- DB 102,68,15,196,197,4 ; pinsrw $0x4,%ebp,%xmm8
- DB 67,15,183,44,80 ; movzwl (%r8,%r10,2),%ebp
- DB 102,68,15,196,197,5 ; pinsrw $0x5,%ebp,%xmm8
- DB 67,15,183,44,72 ; movzwl (%r8,%r9,2),%ebp
- DB 102,68,15,196,197,6 ; pinsrw $0x6,%ebp,%xmm8
- DB 65,15,183,4,64 ; movzwl (%r8,%rax,2),%eax
- DB 102,68,15,196,192,7 ; pinsrw $0x7,%eax,%xmm8
- DB 102,65,15,111,200 ; movdqa %xmm8,%xmm1
- DB 102,15,113,209,12 ; psrlw $0xc,%xmm1
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,111,5,108,130,0,0 ; movdqa 0x826c(%rip),%xmm0 # 35c70 <_sk_srcover_bgra_8888_sse2_lowp+0x1458>
- DB 102,15,219,208 ; pand %xmm0,%xmm2
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,113,211,4 ; psrlw $0x4,%xmm3
- DB 102,15,219,216 ; pand %xmm0,%xmm3
- DB 102,68,15,219,192 ; pand %xmm0,%xmm8
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,113,240,4 ; psllw $0x4,%xmm0
- DB 102,15,235,193 ; por %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,113,241,4 ; psllw $0x4,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,113,242,4 ; psllw $0x4,%xmm2
- DB 102,15,235,211 ; por %xmm3,%xmm2
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,113,243,4 ; psllw $0x4,%xmm3
- DB 102,65,15,235,216 ; por %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_a8_sse41_lowp
-_sk_load_a8_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 2da96 <_sk_load_a8_sse41_lowp+0x39>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,146,0,0,0 ; lea 0x92(%rip),%r9 # 2db14 <_sk_load_a8_sse41_lowp+0xb7>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,216 ; movd %eax,%xmm3
- DB 235,100 ; jmp 2dafa <_sk_load_a8_sse41_lowp+0x9d>
- DB 102,65,15,56,48,28,16 ; pmovzxbw (%r8,%rdx,1),%xmm3
- DB 235,91 ; jmp 2dafa <_sk_load_a8_sse41_lowp+0x9d>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,192,2 ; pinsrw $0x2,%eax,%xmm0
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,200 ; movd %eax,%xmm1
- DB 102,15,56,48,217 ; pmovzxbw %xmm1,%xmm3
- DB 102,15,58,14,216,252 ; pblendw $0xfc,%xmm0,%xmm3
- DB 235,54 ; jmp 2dafa <_sk_load_a8_sse41_lowp+0x9d>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,192,6 ; pinsrw $0x6,%eax,%xmm0
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 102,15,196,192,5 ; pinsrw $0x5,%eax,%xmm0
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 102,15,196,192,4 ; pinsrw $0x4,%eax,%xmm0
- DB 102,65,15,110,12,16 ; movd (%r8,%rdx,1),%xmm1
- DB 102,15,56,48,217 ; pmovzxbw %xmm1,%xmm3
- DB 102,15,58,14,216,240 ; pblendw $0xf0,%xmm0,%xmm3
- DB 102,15,219,29,78,121,0,0 ; pand 0x794e(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 119,255 ; ja 2db15 <_sk_load_a8_sse41_lowp+0xb8>
- DB 255 ; (bad)
- DB 255,154,255,255,255,139 ; lcall *-0x74000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,202 ; dec %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 191,255,255,255,176 ; mov $0xb0ffffff,%edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_a8_dst_sse41_lowp
-_sk_load_a8_dst_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 2db69 <_sk_load_a8_dst_sse41_lowp+0x39>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,143,0,0,0 ; lea 0x8f(%rip),%r9 # 2dbe4 <_sk_load_a8_dst_sse41_lowp+0xb4>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,248 ; movd %eax,%xmm7
- DB 235,100 ; jmp 2dbcd <_sk_load_a8_dst_sse41_lowp+0x9d>
- DB 102,65,15,56,48,60,16 ; pmovzxbw (%r8,%rdx,1),%xmm7
- DB 235,91 ; jmp 2dbcd <_sk_load_a8_dst_sse41_lowp+0x9d>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,224,2 ; pinsrw $0x2,%eax,%xmm4
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,232 ; movd %eax,%xmm5
- DB 102,15,56,48,253 ; pmovzxbw %xmm5,%xmm7
- DB 102,15,58,14,252,252 ; pblendw $0xfc,%xmm4,%xmm7
- DB 235,54 ; jmp 2dbcd <_sk_load_a8_dst_sse41_lowp+0x9d>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,224,6 ; pinsrw $0x6,%eax,%xmm4
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 102,15,196,224,5 ; pinsrw $0x5,%eax,%xmm4
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 102,15,196,224,4 ; pinsrw $0x4,%eax,%xmm4
- DB 102,65,15,110,44,16 ; movd (%r8,%rdx,1),%xmm5
- DB 102,15,56,48,253 ; pmovzxbw %xmm5,%xmm7
- DB 102,15,58,14,252,240 ; pblendw $0xf0,%xmm4,%xmm7
- DB 102,15,219,61,123,120,0,0 ; pand 0x787b(%rip),%xmm7 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 255,224 ; jmpq *%rax
- DB 122,255 ; jp 2dbe5 <_sk_load_a8_dst_sse41_lowp+0xb5>
- DB 255 ; (bad)
- DB 255,157,255,255,255,142 ; lcall *-0x71000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 216,255 ; fdivr %st(7),%st
- DB 255 ; (bad)
- DB 255,205 ; dec %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,194 ; inc %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 179,255 ; mov $0xff,%bl
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_a8_sse41_lowp
-_sk_store_a8_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,29 ; ja 2dc34 <_sk_store_a8_sse41_lowp+0x34>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,131,0,0,0 ; lea 0x83(%rip),%r9 # 2dca4 <_sk_store_a8_sse41_lowp+0xa4>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,65,15,58,20,28,16,0 ; pextrb $0x0,%xmm3,(%r8,%rdx,1)
- DB 235,105 ; jmp 2dc9d <_sk_store_a8_sse41_lowp+0x9d>
- DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,68,15,56,0,5,125,127,0,0 ; pshufb 0x7f7d(%rip),%xmm8 # 35bc0 <_sk_srcover_bgra_8888_sse2_lowp+0x13a8>
- DB 102,69,15,214,4,16 ; movq %xmm8,(%r8,%rdx,1)
- DB 235,82 ; jmp 2dc9d <_sk_store_a8_sse41_lowp+0x9d>
- DB 102,65,15,58,20,92,16,2,4 ; pextrb $0x4,%xmm3,0x2(%r8,%rdx,1)
- DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,68,15,56,0,5,253,119,0,0 ; pshufb 0x77fd(%rip),%xmm8 # 35460 <_sk_srcover_bgra_8888_sse2_lowp+0xc48>
- DB 102,69,15,58,21,4,16,0 ; pextrw $0x0,%xmm8,(%r8,%rdx,1)
- DB 235,48 ; jmp 2dc9d <_sk_store_a8_sse41_lowp+0x9d>
- DB 102,65,15,58,20,92,16,6,12 ; pextrb $0xc,%xmm3,0x6(%r8,%rdx,1)
- DB 102,65,15,58,20,92,16,5,10 ; pextrb $0xa,%xmm3,0x5(%r8,%rdx,1)
- DB 102,65,15,58,20,92,16,4,8 ; pextrb $0x8,%xmm3,0x4(%r8,%rdx,1)
- DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,68,15,56,0,5,217,119,0,0 ; pshufb 0x77d9(%rip),%xmm8 # 35470 <_sk_srcover_bgra_8888_sse2_lowp+0xc58>
- DB 102,69,15,126,4,16 ; movd %xmm8,(%r8,%rdx,1)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 134,255 ; xchg %bh,%bh
- DB 255 ; (bad)
- DB 255,176,255,255,255,167 ; pushq -0x58000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,228 ; jmpq *%rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 219,255 ; (bad)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_a8_sse41_lowp
-_sk_gather_a8_sse41_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 65,15,95,194 ; maxps %xmm10,%xmm0
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 243,68,15,16,64,16 ; movss 0x10(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 65,15,95,218 ; maxps %xmm10,%xmm3
- DB 65,15,95,210 ; maxps %xmm10,%xmm2
- DB 65,15,93,208 ; minps %xmm8,%xmm2
- DB 65,15,93,216 ; minps %xmm8,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,68,15,91,195 ; cvttps2dq %xmm3,%xmm8
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 102,15,110,88,8 ; movd 0x8(%rax),%xmm3
- DB 102,15,112,219,0 ; pshufd $0x0,%xmm3,%xmm3
- DB 102,15,56,64,211 ; pmulld %xmm3,%xmm2
- DB 102,68,15,56,64,195 ; pmulld %xmm3,%xmm8
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,194 ; paddd %xmm2,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,65,15,254,200 ; paddd %xmm8,%xmm1
- DB 102,72,15,58,22,200,1 ; pextrq $0x1,%xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,72,15,58,22,195,1 ; pextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,73,15,126,199 ; movq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 71,15,182,60,56 ; movzbl (%r8,%r15,1),%r15d
- DB 67,15,182,44,32 ; movzbl (%r8,%r12,1),%ebp
- DB 102,15,110,197 ; movd %ebp,%xmm0
- DB 102,65,15,58,32,199,1 ; pinsrb $0x1,%r15d,%xmm0
- DB 67,15,182,44,48 ; movzbl (%r8,%r14,1),%ebp
- DB 102,15,58,32,197,2 ; pinsrb $0x2,%ebp,%xmm0
- DB 65,15,182,28,24 ; movzbl (%r8,%rbx,1),%ebx
- DB 102,15,58,32,195,3 ; pinsrb $0x3,%ebx,%xmm0
- DB 67,15,182,44,24 ; movzbl (%r8,%r11,1),%ebp
- DB 102,15,58,32,197,4 ; pinsrb $0x4,%ebp,%xmm0
- DB 67,15,182,44,16 ; movzbl (%r8,%r10,1),%ebp
- DB 102,15,58,32,197,5 ; pinsrb $0x5,%ebp,%xmm0
- DB 67,15,182,44,8 ; movzbl (%r8,%r9,1),%ebp
- DB 102,15,58,32,197,6 ; pinsrb $0x6,%ebp,%xmm0
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 102,15,58,32,192,7 ; pinsrb $0x7,%eax,%xmm0
- DB 102,15,56,48,216 ; pmovzxbw %xmm0,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_g8_sse41_lowp
-_sk_load_g8_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 2de26 <_sk_load_g8_sse41_lowp+0x39>
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,150,0,0,0 ; lea 0x96(%rip),%r9 # 2dea8 <_sk_load_g8_sse41_lowp+0xbb>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 235,100 ; jmp 2de8a <_sk_load_g8_sse41_lowp+0x9d>
- DB 102,65,15,56,48,4,16 ; pmovzxbw (%r8,%rdx,1),%xmm0
- DB 235,91 ; jmp 2de8a <_sk_load_g8_sse41_lowp+0x9d>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,196,200,2 ; pinsrw $0x2,%eax,%xmm1
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,58,14,193,252 ; pblendw $0xfc,%xmm1,%xmm0
- DB 235,54 ; jmp 2de8a <_sk_load_g8_sse41_lowp+0x9d>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,196,200,6 ; pinsrw $0x6,%eax,%xmm1
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 102,15,196,200,5 ; pinsrw $0x5,%eax,%xmm1
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 102,15,196,200,4 ; pinsrw $0x4,%eax,%xmm1
- DB 102,65,15,110,4,16 ; movd (%r8,%rdx,1),%xmm0
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 102,15,58,14,193,240 ; pblendw $0xf0,%xmm1,%xmm0
- DB 102,15,219,5,190,117,0,0 ; pand 0x75be(%rip),%xmm0 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,181,117,0,0 ; movaps 0x75b5(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 115,255 ; jae 2dea9 <_sk_load_g8_sse41_lowp+0xbc>
- DB 255 ; (bad)
- DB 255,150,255,255,255,135 ; callq *-0x78000001(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 187,255,255,255,172 ; mov $0xacffffff,%ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_g8_dst_sse41_lowp
-_sk_load_g8_dst_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 2defd <_sk_load_g8_dst_sse41_lowp+0x39>
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,147,0,0,0 ; lea 0x93(%rip),%r9 # 2df7c <_sk_load_g8_dst_sse41_lowp+0xb8>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 235,100 ; jmp 2df61 <_sk_load_g8_dst_sse41_lowp+0x9d>
- DB 102,65,15,56,48,36,16 ; pmovzxbw (%r8,%rdx,1),%xmm4
- DB 235,91 ; jmp 2df61 <_sk_load_g8_dst_sse41_lowp+0x9d>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 102,15,196,232,2 ; pinsrw $0x2,%eax,%xmm5
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,15,58,14,229,252 ; pblendw $0xfc,%xmm5,%xmm4
- DB 235,54 ; jmp 2df61 <_sk_load_g8_dst_sse41_lowp+0x9d>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 102,15,196,232,6 ; pinsrw $0x6,%eax,%xmm5
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 102,15,196,232,5 ; pinsrw $0x5,%eax,%xmm5
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 102,15,196,232,4 ; pinsrw $0x4,%eax,%xmm5
- DB 102,65,15,110,36,16 ; movd (%r8,%rdx,1),%xmm4
- DB 102,15,56,48,228 ; pmovzxbw %xmm4,%xmm4
- DB 102,15,58,14,229,240 ; pblendw $0xf0,%xmm5,%xmm4
- DB 102,15,219,37,231,116,0,0 ; pand 0x74e7(%rip),%xmm4 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,222,116,0,0 ; movaps 0x74de(%rip),%xmm7 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 255,224 ; jmpq *%rax
- DB 118,255 ; jbe 2df7d <_sk_load_g8_dst_sse41_lowp+0xb9>
- DB 255 ; (bad)
- DB 255,153,255,255,255,138 ; lcall *-0x75000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,212 ; callq *%rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 190,255,255,255,175 ; mov $0xafffffff,%esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_luminance_to_alpha_sse41_lowp
-_sk_luminance_to_alpha_sse41_lowp LABEL PROC
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,213,5,12,125,0,0 ; pmullw 0x7d0c(%rip),%xmm0 # 35cb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1498>
- DB 102,15,213,13,20,125,0,0 ; pmullw 0x7d14(%rip),%xmm1 # 35cc0 <_sk_srcover_bgra_8888_sse2_lowp+0x14a8>
- DB 102,15,253,200 ; paddw %xmm0,%xmm1
- DB 102,15,213,29,24,125,0,0 ; pmullw 0x7d18(%rip),%xmm3 # 35cd0 <_sk_srcover_bgra_8888_sse2_lowp+0x14b8>
- DB 102,15,253,217 ; paddw %xmm1,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gather_g8_sse41_lowp
-_sk_gather_g8_sse41_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 65,15,95,194 ; maxps %xmm10,%xmm0
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 243,68,15,16,64,16 ; movss 0x10(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 65,15,95,218 ; maxps %xmm10,%xmm3
- DB 65,15,95,210 ; maxps %xmm10,%xmm2
- DB 65,15,93,208 ; minps %xmm8,%xmm2
- DB 65,15,93,216 ; minps %xmm8,%xmm3
- DB 76,139,0 ; mov (%rax),%r8
- DB 243,68,15,91,195 ; cvttps2dq %xmm3,%xmm8
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 102,15,110,88,8 ; movd 0x8(%rax),%xmm3
- DB 102,15,112,219,0 ; pshufd $0x0,%xmm3,%xmm3
- DB 102,15,56,64,211 ; pmulld %xmm3,%xmm2
- DB 102,68,15,56,64,195 ; pmulld %xmm3,%xmm8
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,194 ; paddd %xmm2,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,65,15,254,200 ; paddd %xmm8,%xmm1
- DB 102,72,15,58,22,200,1 ; pextrq $0x1,%xmm1,%rax
- DB 65,137,193 ; mov %eax,%r9d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,72,15,58,22,195,1 ; pextrq $0x1,%xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,73,15,126,199 ; movq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 71,15,182,60,56 ; movzbl (%r8,%r15,1),%r15d
- DB 67,15,182,44,32 ; movzbl (%r8,%r12,1),%ebp
- DB 102,15,110,197 ; movd %ebp,%xmm0
- DB 102,65,15,58,32,199,1 ; pinsrb $0x1,%r15d,%xmm0
- DB 67,15,182,44,48 ; movzbl (%r8,%r14,1),%ebp
- DB 102,15,58,32,197,2 ; pinsrb $0x2,%ebp,%xmm0
- DB 65,15,182,28,24 ; movzbl (%r8,%rbx,1),%ebx
- DB 102,15,58,32,195,3 ; pinsrb $0x3,%ebx,%xmm0
- DB 67,15,182,44,24 ; movzbl (%r8,%r11,1),%ebp
- DB 102,15,58,32,197,4 ; pinsrb $0x4,%ebp,%xmm0
- DB 67,15,182,44,16 ; movzbl (%r8,%r10,1),%ebp
- DB 102,15,58,32,197,5 ; pinsrb $0x5,%ebp,%xmm0
- DB 67,15,182,44,8 ; movzbl (%r8,%r9,1),%ebp
- DB 102,15,58,32,197,6 ; pinsrb $0x6,%ebp,%xmm0
- DB 65,15,182,4,0 ; movzbl (%r8,%rax,1),%eax
- DB 102,15,58,32,192,7 ; pinsrb $0x7,%eax,%xmm0
- DB 102,15,56,48,192 ; pmovzxbw %xmm0,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,97,115,0,0 ; movaps 0x7361(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_1_float_sse41_lowp
-_sk_scale_1_float_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,89,5,227,105,0,0 ; mulss 0x69e3(%rip),%xmm8 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 243,68,15,88,5,170,105,0,0 ; addss 0x69aa(%rip),%xmm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 243,65,15,44,192 ; cvttss2si %xmm8,%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 242,69,15,112,192,0 ; pshuflw $0x0,%xmm8,%xmm8
- DB 102,69,15,112,192,80 ; pshufd $0x50,%xmm8,%xmm8
- DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
- DB 102,68,15,111,13,18,115,0,0 ; movdqa 0x7312(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,65,15,213,208 ; pmullw %xmm8,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,65,15,213,216 ; pmullw %xmm8,%xmm3
- DB 102,65,15,253,217 ; paddw %xmm9,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lerp_1_float_sse41_lowp
-_sk_lerp_1_float_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,89,5,107,105,0,0 ; mulss 0x696b(%rip),%xmm8 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 243,68,15,88,5,50,105,0,0 ; addss 0x6932(%rip),%xmm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 243,65,15,44,192 ; cvttss2si %xmm8,%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 242,69,15,112,192,0 ; pshuflw $0x0,%xmm8,%xmm8
- DB 102,69,15,112,192,80 ; pshufd $0x50,%xmm8,%xmm8
- DB 102,68,15,111,13,159,114,0,0 ; movdqa 0x729f(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,65,15,213,208 ; pmullw %xmm8,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,65,15,213,216 ; pmullw %xmm8,%xmm3
- DB 102,65,15,253,217 ; paddw %xmm9,%xmm3
- DB 102,69,15,249,200 ; psubw %xmm8,%xmm9
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,213,196 ; pmullw %xmm4,%xmm8
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,213,197 ; pmullw %xmm5,%xmm8
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,213,198 ; pmullw %xmm6,%xmm8
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,68,15,213,207 ; pmullw %xmm7,%xmm9
- DB 102,65,15,253,217 ; paddw %xmm9,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_u8_sse41_lowp
-_sk_scale_u8_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,36 ; ja 2e268 <_sk_scale_u8_sse41_lowp+0x3b>
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,221,0,0,0 ; lea 0xdd(%rip),%r9 # 2e330 <_sk_scale_u8_sse41_lowp+0x103>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 235,111 ; jmp 2e2d7 <_sk_scale_u8_sse41_lowp+0xaa>
- DB 102,69,15,56,48,4,16 ; pmovzxbw (%r8,%rdx,1),%xmm8
- DB 235,102 ; jmp 2e2d7 <_sk_scale_u8_sse41_lowp+0xaa>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,68,15,196,200,2 ; pinsrw $0x2,%eax,%xmm9
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,56,48,192 ; pmovzxbw %xmm8,%xmm8
- DB 102,69,15,58,14,193,252 ; pblendw $0xfc,%xmm9,%xmm8
- DB 235,60 ; jmp 2e2d7 <_sk_scale_u8_sse41_lowp+0xaa>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,68,15,196,200,6 ; pinsrw $0x6,%eax,%xmm9
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 102,68,15,196,200,5 ; pinsrw $0x5,%eax,%xmm9
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 102,68,15,196,200,4 ; pinsrw $0x4,%eax,%xmm9
- DB 102,69,15,110,4,16 ; movd (%r8,%rdx,1),%xmm8
- DB 102,69,15,56,48,192 ; pmovzxbw %xmm8,%xmm8
- DB 102,69,15,58,14,193,240 ; pblendw $0xf0,%xmm9,%xmm8
- DB 102,68,15,219,5,112,113,0,0 ; pand 0x7170(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
- DB 102,68,15,111,13,98,113,0,0 ; movdqa 0x7162(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,65,15,213,208 ; pmullw %xmm8,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,68,15,213,195 ; pmullw %xmm3,%xmm8
- DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 144 ; nop
- DB 44,255 ; sub $0xff,%al
- DB 255 ; (bad)
- DB 255,82,255 ; callq *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,65,255 ; incl -0x1(%rcx)
- DB 255 ; (bad)
- DB 255,148,255,255,255,136,255 ; callq *-0x770001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 124,255 ; jl 2e345 <_sk_scale_u8_sse41_lowp+0x118>
- DB 255 ; (bad)
- DB 255,107,255 ; ljmp *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_lerp_u8_sse41_lowp
-_sk_lerp_u8_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,36 ; ja 2e387 <_sk_lerp_u8_sse41_lowp+0x3b>
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,30,1,0,0 ; lea 0x11e(%rip),%r9 # 2e490 <_sk_lerp_u8_sse41_lowp+0x144>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 235,111 ; jmp 2e3f6 <_sk_lerp_u8_sse41_lowp+0xaa>
- DB 102,69,15,56,48,4,16 ; pmovzxbw (%r8,%rdx,1),%xmm8
- DB 235,102 ; jmp 2e3f6 <_sk_lerp_u8_sse41_lowp+0xaa>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,68,15,196,200,2 ; pinsrw $0x2,%eax,%xmm9
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,69,15,56,48,192 ; pmovzxbw %xmm8,%xmm8
- DB 102,69,15,58,14,193,252 ; pblendw $0xfc,%xmm9,%xmm8
- DB 235,60 ; jmp 2e3f6 <_sk_lerp_u8_sse41_lowp+0xaa>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,68,15,196,200,6 ; pinsrw $0x6,%eax,%xmm9
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 102,68,15,196,200,5 ; pinsrw $0x5,%eax,%xmm9
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 102,68,15,196,200,4 ; pinsrw $0x4,%eax,%xmm9
- DB 102,69,15,110,4,16 ; movd (%r8,%rdx,1),%xmm8
- DB 102,69,15,56,48,192 ; pmovzxbw %xmm8,%xmm8
- DB 102,69,15,58,14,193,240 ; pblendw $0xf0,%xmm9,%xmm8
- DB 102,68,15,219,5,81,112,0,0 ; pand 0x7051(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,68,15,111,21,72,112,0,0 ; movdqa 0x7048(%rip),%xmm10 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
- DB 102,69,15,239,202 ; pxor %xmm10,%xmm9
- DB 102,69,15,111,217 ; movdqa %xmm9,%xmm11
- DB 102,68,15,213,220 ; pmullw %xmm4,%xmm11
- DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,65,15,253,195 ; paddw %xmm11,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,69,15,111,217 ; movdqa %xmm9,%xmm11
- DB 102,68,15,213,221 ; pmullw %xmm5,%xmm11
- DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,65,15,253,203 ; paddw %xmm11,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,69,15,111,217 ; movdqa %xmm9,%xmm11
- DB 102,68,15,213,222 ; pmullw %xmm6,%xmm11
- DB 102,65,15,213,208 ; pmullw %xmm8,%xmm2
- DB 102,65,15,253,210 ; paddw %xmm10,%xmm2
- DB 102,65,15,253,211 ; paddw %xmm11,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,68,15,213,207 ; pmullw %xmm7,%xmm9
- DB 102,68,15,213,195 ; pmullw %xmm3,%xmm8
- DB 102,69,15,253,194 ; paddw %xmm10,%xmm8
- DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 144 ; nop
- DB 235,254 ; jmp 2e490 <_sk_lerp_u8_sse41_lowp+0x144>
- DB 255 ; (bad)
- DB 255,17 ; callq *(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,83,255 ; callq *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,71,255 ; incl -0x1(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 59,255 ; cmp %edi,%edi
- DB 255 ; (bad)
- DB 255,42 ; ljmp *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_scale_565_sse41_lowp
-_sk_scale_565_sse41_lowp LABEL PROC
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,35 ; ja 2e4ee <_sk_scale_565_sse41_lowp+0x42>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,111,1,0,0 ; lea 0x16f(%rip),%r9 # 2e648 <_sk_scale_565_sse41_lowp+0x19c>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,68,15,110,200 ; movd %eax,%xmm9
- DB 235,76 ; jmp 2e53a <_sk_scale_565_sse41_lowp+0x8e>
- DB 243,69,15,111,12,80 ; movdqu (%r8,%rdx,2),%xmm9
- DB 235,68 ; jmp 2e53a <_sk_scale_565_sse41_lowp+0x8e>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,65,15,196,68,80,4,2 ; pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
- DB 102,69,15,110,12,80 ; movd (%r8,%rdx,2),%xmm9
- DB 102,68,15,58,14,200,252 ; pblendw $0xfc,%xmm0,%xmm9
- DB 235,41 ; jmp 2e53a <_sk_scale_565_sse41_lowp+0x8e>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,65,15,196,68,80,12,6 ; pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
- DB 102,65,15,196,68,80,10,5 ; pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
- DB 102,65,15,196,68,80,8,4 ; pinsrw $0x4,0x8(%r8,%rdx,2),%xmm0
- DB 243,69,15,126,12,80 ; movq (%r8,%rdx,2),%xmm9
- DB 102,68,15,58,14,200,240 ; pblendw $0xf0,%xmm0,%xmm9
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,219,5,212,118,0,0 ; pand 0x76d4(%rip),%xmm0 # 35c20 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
- DB 102,69,15,111,209 ; movdqa %xmm9,%xmm10
- DB 102,65,15,113,210,5 ; psrlw $0x5,%xmm10
- DB 102,68,15,219,21,208,118,0,0 ; pand 0x76d0(%rip),%xmm10 # 35c30 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
- DB 102,68,15,111,29,215,118,0,0 ; movdqa 0x76d7(%rip),%xmm11 # 35c40 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
- DB 102,69,15,219,217 ; pand %xmm9,%xmm11
- DB 102,65,15,113,209,13 ; psrlw $0xd,%xmm9
- DB 102,68,15,235,200 ; por %xmm0,%xmm9
- DB 102,65,15,111,194 ; movdqa %xmm10,%xmm0
- DB 102,15,113,240,2 ; psllw $0x2,%xmm0
- DB 102,65,15,113,210,4 ; psrlw $0x4,%xmm10
- DB 102,68,15,235,208 ; por %xmm0,%xmm10
- DB 102,65,15,111,195 ; movdqa %xmm11,%xmm0
- DB 102,15,113,240,3 ; psllw $0x3,%xmm0
- DB 102,65,15,113,211,2 ; psrlw $0x2,%xmm11
- DB 102,68,15,235,216 ; por %xmm0,%xmm11
- DB 102,15,111,5,53,118,0,0 ; movdqa 0x7635(%rip),%xmm0 # 35be0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,68,15,239,224 ; pxor %xmm0,%xmm12
- DB 102,15,239,199 ; pxor %xmm7,%xmm0
- DB 102,65,15,101,196 ; pcmpgtw %xmm12,%xmm0
- DB 102,69,15,111,234 ; movdqa %xmm10,%xmm13
- DB 102,69,15,56,58,235 ; pminuw %xmm11,%xmm13
- DB 102,69,15,56,58,233 ; pminuw %xmm9,%xmm13
- DB 102,69,15,111,226 ; movdqa %xmm10,%xmm12
- DB 102,69,15,56,62,227 ; pmaxuw %xmm11,%xmm12
- DB 102,69,15,56,62,225 ; pmaxuw %xmm9,%xmm12
- DB 102,69,15,56,16,229 ; pblendvb %xmm0,%xmm13,%xmm12
- DB 102,69,15,213,200 ; pmullw %xmm8,%xmm9
- DB 102,15,111,5,93,110,0,0 ; movdqa 0x6e5d(%rip),%xmm0 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,68,15,253,200 ; paddw %xmm0,%xmm9
- DB 102,65,15,113,209,8 ; psrlw $0x8,%xmm9
- DB 102,68,15,213,209 ; pmullw %xmm1,%xmm10
- DB 102,68,15,253,208 ; paddw %xmm0,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,68,15,213,218 ; pmullw %xmm2,%xmm11
- DB 102,68,15,253,216 ; paddw %xmm0,%xmm11
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,68,15,213,227 ; pmullw %xmm3,%xmm12
- DB 102,68,15,253,224 ; paddw %xmm0,%xmm12
- DB 102,65,15,113,212,8 ; psrlw $0x8,%xmm12
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
- DB 102,65,15,111,211 ; movdqa %xmm11,%xmm2
- DB 102,65,15,111,220 ; movdqa %xmm12,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 154 ; (bad)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 186,254,255,255,174 ; mov $0xaefffffe,%edx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,229 ; jmpq *%rbp
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 221,254 ; (bad)
- DB 255 ; (bad)
- DB 255,213 ; callq *%rbp
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_lerp_565_sse41_lowp
-_sk_lerp_565_sse41_lowp LABEL PROC
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,35 ; ja 2e6a6 <_sk_lerp_565_sse41_lowp+0x42>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,187,1,0,0 ; lea 0x1bb(%rip),%r9 # 2e84c <_sk_lerp_565_sse41_lowp+0x1e8>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,68,15,110,200 ; movd %eax,%xmm9
- DB 235,76 ; jmp 2e6f2 <_sk_lerp_565_sse41_lowp+0x8e>
- DB 243,69,15,111,12,80 ; movdqu (%r8,%rdx,2),%xmm9
- DB 235,68 ; jmp 2e6f2 <_sk_lerp_565_sse41_lowp+0x8e>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,65,15,196,68,80,4,2 ; pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
- DB 102,69,15,110,12,80 ; movd (%r8,%rdx,2),%xmm9
- DB 102,68,15,58,14,200,252 ; pblendw $0xfc,%xmm0,%xmm9
- DB 235,41 ; jmp 2e6f2 <_sk_lerp_565_sse41_lowp+0x8e>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,65,15,196,68,80,12,6 ; pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
- DB 102,65,15,196,68,80,10,5 ; pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
- DB 102,65,15,196,68,80,8,4 ; pinsrw $0x4,0x8(%r8,%rdx,2),%xmm0
- DB 243,69,15,126,12,80 ; movq (%r8,%rdx,2),%xmm9
- DB 102,68,15,58,14,200,240 ; pblendw $0xf0,%xmm0,%xmm9
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,219,5,28,117,0,0 ; pand 0x751c(%rip),%xmm0 # 35c20 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
- DB 102,69,15,111,209 ; movdqa %xmm9,%xmm10
- DB 102,65,15,113,210,5 ; psrlw $0x5,%xmm10
- DB 102,68,15,219,21,24,117,0,0 ; pand 0x7518(%rip),%xmm10 # 35c30 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
- DB 102,68,15,111,29,31,117,0,0 ; movdqa 0x751f(%rip),%xmm11 # 35c40 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
- DB 102,69,15,219,217 ; pand %xmm9,%xmm11
- DB 102,65,15,113,209,13 ; psrlw $0xd,%xmm9
- DB 102,68,15,235,200 ; por %xmm0,%xmm9
- DB 102,65,15,111,194 ; movdqa %xmm10,%xmm0
- DB 102,15,113,240,2 ; psllw $0x2,%xmm0
- DB 102,65,15,113,210,4 ; psrlw $0x4,%xmm10
- DB 102,68,15,235,208 ; por %xmm0,%xmm10
- DB 102,65,15,111,195 ; movdqa %xmm11,%xmm0
- DB 102,15,113,240,3 ; psllw $0x3,%xmm0
- DB 102,65,15,113,211,2 ; psrlw $0x2,%xmm11
- DB 102,68,15,235,216 ; por %xmm0,%xmm11
- DB 102,15,111,5,125,116,0,0 ; movdqa 0x747d(%rip),%xmm0 # 35be0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,68,15,239,224 ; pxor %xmm0,%xmm12
- DB 102,15,239,199 ; pxor %xmm7,%xmm0
- DB 102,65,15,101,196 ; pcmpgtw %xmm12,%xmm0
- DB 102,69,15,111,234 ; movdqa %xmm10,%xmm13
- DB 102,69,15,56,58,235 ; pminuw %xmm11,%xmm13
- DB 102,69,15,56,58,233 ; pminuw %xmm9,%xmm13
- DB 102,69,15,111,226 ; movdqa %xmm10,%xmm12
- DB 102,69,15,56,62,227 ; pmaxuw %xmm11,%xmm12
- DB 102,69,15,56,62,225 ; pmaxuw %xmm9,%xmm12
- DB 102,69,15,56,16,229 ; pblendvb %xmm0,%xmm13,%xmm12
- DB 102,68,15,111,45,169,108,0,0 ; movdqa 0x6ca9(%rip),%xmm13 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,65,15,239,197 ; pxor %xmm13,%xmm0
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,69,15,213,200 ; pmullw %xmm8,%xmm9
- DB 102,69,15,253,205 ; paddw %xmm13,%xmm9
- DB 102,68,15,253,200 ; paddw %xmm0,%xmm9
- DB 102,65,15,113,209,8 ; psrlw $0x8,%xmm9
- DB 102,65,15,111,194 ; movdqa %xmm10,%xmm0
- DB 102,65,15,239,197 ; pxor %xmm13,%xmm0
- DB 102,15,213,197 ; pmullw %xmm5,%xmm0
- DB 102,68,15,213,209 ; pmullw %xmm1,%xmm10
- DB 102,69,15,253,213 ; paddw %xmm13,%xmm10
- DB 102,68,15,253,208 ; paddw %xmm0,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,65,15,111,195 ; movdqa %xmm11,%xmm0
- DB 102,65,15,239,197 ; pxor %xmm13,%xmm0
- DB 102,15,213,198 ; pmullw %xmm6,%xmm0
- DB 102,68,15,213,218 ; pmullw %xmm2,%xmm11
- DB 102,69,15,253,221 ; paddw %xmm13,%xmm11
- DB 102,68,15,253,216 ; paddw %xmm0,%xmm11
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,65,15,111,196 ; movdqa %xmm12,%xmm0
- DB 102,65,15,239,197 ; pxor %xmm13,%xmm0
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,68,15,213,227 ; pmullw %xmm3,%xmm12
- DB 102,69,15,253,229 ; paddw %xmm13,%xmm12
- DB 102,68,15,253,224 ; paddw %xmm0,%xmm12
- DB 102,65,15,113,212,8 ; psrlw $0x8,%xmm12
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
- DB 102,65,15,111,211 ; movdqa %xmm11,%xmm2
- DB 102,65,15,111,220 ; movdqa %xmm12,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 144 ; nop
- DB 78,254 ; rex.WRX (bad)
- DB 255 ; (bad)
- DB 255,110,254 ; ljmp *-0x2(%rsi)
- DB 255 ; (bad)
- DB 255,98,254 ; jmpq *-0x2(%rdx)
- DB 255 ; (bad)
- DB 255,153,254,255,255,145 ; lcall *-0x6e000002(%rcx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,137,254,255,255,125 ; decl 0x7dfffffe(%rcx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_clamp_x_1_sse41_lowp
-_sk_clamp_x_1_sse41_lowp LABEL PROC
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 65,15,95,200 ; maxps %xmm8,%xmm1
- DB 65,15,95,192 ; maxps %xmm8,%xmm0
- DB 68,15,40,5,52,108,0,0 ; movaps 0x6c34(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_repeat_x_1_sse41_lowp
-_sk_repeat_x_1_sse41_lowp LABEL PROC
- DB 102,68,15,58,8,192,1 ; roundps $0x1,%xmm0,%xmm8
- DB 102,68,15,58,8,201,1 ; roundps $0x1,%xmm1,%xmm9
- DB 65,15,92,192 ; subps %xmm8,%xmm0
- DB 65,15,92,201 ; subps %xmm9,%xmm1
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 65,15,95,200 ; maxps %xmm8,%xmm1
- DB 65,15,95,192 ; maxps %xmm8,%xmm0
- DB 68,15,40,5,254,107,0,0 ; movaps 0x6bfe(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_x_1_sse41_lowp
-_sk_mirror_x_1_sse41_lowp LABEL PROC
- DB 68,15,40,5,74,108,0,0 ; movaps 0x6c4a(%rip),%xmm8 # 35510 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 68,15,40,13,202,107,0,0 ; movaps 0x6bca(%rip),%xmm9 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,40,209 ; movaps %xmm1,%xmm10
- DB 69,15,89,209 ; mulps %xmm9,%xmm10
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 102,69,15,58,8,201,1 ; roundps $0x1,%xmm9,%xmm9
- DB 102,69,15,58,8,210,1 ; roundps $0x1,%xmm10,%xmm10
- DB 69,15,88,210 ; addps %xmm10,%xmm10
- DB 69,15,88,201 ; addps %xmm9,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 65,15,92,202 ; subps %xmm10,%xmm1
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 68,15,40,5,0,113,0,0 ; movaps 0x7100(%rip),%xmm8 # 35a10 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 65,15,84,200 ; andps %xmm8,%xmm1
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 65,15,95,200 ; maxps %xmm8,%xmm1
- DB 65,15,95,192 ; maxps %xmm8,%xmm0
- DB 68,15,40,5,132,107,0,0 ; movaps 0x6b84(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_x_sse41_lowp
-_sk_decal_x_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,194,201,2 ; cmpleps %xmm1,%xmm9
- DB 102,68,15,111,21,160,114,0,0 ; movdqa 0x72a0(%rip),%xmm10 # 35bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
- DB 102,69,15,56,0,202 ; pshufb %xmm10,%xmm9
- DB 68,15,194,192,2 ; cmpleps %xmm0,%xmm8
- DB 102,69,15,56,0,194 ; pshufb %xmm10,%xmm8
- DB 102,69,15,108,193 ; punpcklqdq %xmm9,%xmm8
- DB 102,65,15,113,240,15 ; psllw $0xf,%xmm8
- DB 102,65,15,113,224,15 ; psraw $0xf,%xmm8
- DB 243,68,15,16,72,64 ; movss 0x40(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,40,217 ; movaps %xmm1,%xmm11
- DB 69,15,194,217,1 ; cmpltps %xmm9,%xmm11
- DB 102,69,15,56,0,218 ; pshufb %xmm10,%xmm11
- DB 68,15,40,224 ; movaps %xmm0,%xmm12
- DB 69,15,194,225,1 ; cmpltps %xmm9,%xmm12
- DB 102,69,15,56,0,226 ; pshufb %xmm10,%xmm12
- DB 102,69,15,108,227 ; punpcklqdq %xmm11,%xmm12
- DB 102,65,15,113,244,15 ; psllw $0xf,%xmm12
- DB 102,65,15,113,228,15 ; psraw $0xf,%xmm12
- DB 102,69,15,219,224 ; pand %xmm8,%xmm12
- DB 243,68,15,127,32 ; movdqu %xmm12,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_y_sse41_lowp
-_sk_decal_y_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,194,203,2 ; cmpleps %xmm3,%xmm9
- DB 102,68,15,111,21,30,114,0,0 ; movdqa 0x721e(%rip),%xmm10 # 35bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
- DB 102,69,15,56,0,202 ; pshufb %xmm10,%xmm9
- DB 68,15,194,194,2 ; cmpleps %xmm2,%xmm8
- DB 102,69,15,56,0,194 ; pshufb %xmm10,%xmm8
- DB 102,69,15,108,193 ; punpcklqdq %xmm9,%xmm8
- DB 102,65,15,113,240,15 ; psllw $0xf,%xmm8
- DB 102,65,15,113,224,15 ; psraw $0xf,%xmm8
- DB 243,68,15,16,72,68 ; movss 0x44(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,40,219 ; movaps %xmm3,%xmm11
- DB 69,15,194,217,1 ; cmpltps %xmm9,%xmm11
- DB 102,69,15,56,0,218 ; pshufb %xmm10,%xmm11
- DB 68,15,40,226 ; movaps %xmm2,%xmm12
- DB 69,15,194,225,1 ; cmpltps %xmm9,%xmm12
- DB 102,69,15,56,0,226 ; pshufb %xmm10,%xmm12
- DB 102,69,15,108,227 ; punpcklqdq %xmm11,%xmm12
- DB 102,65,15,113,244,15 ; psllw $0xf,%xmm12
- DB 102,65,15,113,228,15 ; psraw $0xf,%xmm12
- DB 102,69,15,219,224 ; pand %xmm8,%xmm12
- DB 243,68,15,127,32 ; movdqu %xmm12,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_x_and_y_sse41_lowp
-_sk_decal_x_and_y_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,219 ; xorps %xmm11,%xmm11
- DB 68,15,194,217,2 ; cmpleps %xmm1,%xmm11
- DB 102,68,15,111,13,156,113,0,0 ; movdqa 0x719c(%rip),%xmm9 # 35bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
- DB 102,69,15,56,0,217 ; pshufb %xmm9,%xmm11
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 68,15,194,208,2 ; cmpleps %xmm0,%xmm10
- DB 102,69,15,56,0,209 ; pshufb %xmm9,%xmm10
- DB 102,69,15,108,211 ; punpcklqdq %xmm11,%xmm10
- DB 102,65,15,113,242,15 ; psllw $0xf,%xmm10
- DB 102,65,15,113,226,15 ; psraw $0xf,%xmm10
- DB 243,68,15,16,96,64 ; movss 0x40(%rax),%xmm12
- DB 243,68,15,16,88,68 ; movss 0x44(%rax),%xmm11
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 68,15,40,233 ; movaps %xmm1,%xmm13
- DB 69,15,194,236,1 ; cmpltps %xmm12,%xmm13
- DB 102,69,15,56,0,233 ; pshufb %xmm9,%xmm13
- DB 68,15,40,240 ; movaps %xmm0,%xmm14
- DB 69,15,194,244,1 ; cmpltps %xmm12,%xmm14
- DB 102,69,15,56,0,241 ; pshufb %xmm9,%xmm14
- DB 102,69,15,108,245 ; punpcklqdq %xmm13,%xmm14
- DB 102,65,15,113,246,15 ; psllw $0xf,%xmm14
- DB 102,65,15,113,230,15 ; psraw $0xf,%xmm14
- DB 69,15,87,228 ; xorps %xmm12,%xmm12
- DB 68,15,194,227,2 ; cmpleps %xmm3,%xmm12
- DB 102,69,15,56,0,225 ; pshufb %xmm9,%xmm12
- DB 68,15,194,194,2 ; cmpleps %xmm2,%xmm8
- DB 102,69,15,56,0,193 ; pshufb %xmm9,%xmm8
- DB 102,69,15,108,196 ; punpcklqdq %xmm12,%xmm8
- DB 102,65,15,113,240,15 ; psllw $0xf,%xmm8
- DB 102,65,15,113,224,15 ; psraw $0xf,%xmm8
- DB 102,69,15,219,194 ; pand %xmm10,%xmm8
- DB 102,69,15,219,198 ; pand %xmm14,%xmm8
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 69,15,194,211,1 ; cmpltps %xmm11,%xmm10
- DB 102,69,15,56,0,209 ; pshufb %xmm9,%xmm10
- DB 68,15,40,226 ; movaps %xmm2,%xmm12
- DB 69,15,194,227,1 ; cmpltps %xmm11,%xmm12
- DB 102,69,15,56,0,225 ; pshufb %xmm9,%xmm12
- DB 102,69,15,108,226 ; punpcklqdq %xmm10,%xmm12
- DB 102,65,15,113,244,15 ; psllw $0xf,%xmm12
- DB 102,65,15,113,228,15 ; psraw $0xf,%xmm12
- DB 102,69,15,219,224 ; pand %xmm8,%xmm12
- DB 243,68,15,127,32 ; movdqu %xmm12,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_check_decal_mask_sse41_lowp
-_sk_check_decal_mask_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,16,0 ; movups (%rax),%xmm8
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 65,15,84,200 ; andps %xmm8,%xmm1
- DB 65,15,84,208 ; andps %xmm8,%xmm2
- DB 65,15,84,216 ; andps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gradient_sse41_lowp
-_sk_gradient_sse41_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,131,236,72 ; sub $0x48,%rsp
- DB 15,41,124,36,48 ; movaps %xmm7,0x30(%rsp)
- DB 15,41,116,36,32 ; movaps %xmm6,0x20(%rsp)
- DB 72,137,76,36,24 ; mov %rcx,0x18(%rsp)
- DB 72,137,84,36,16 ; mov %rdx,0x10(%rsp)
- DB 72,137,124,36,8 ; mov %rdi,0x8(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,137,52,36 ; mov %rsi,(%rsp)
- DB 72,139,8 ; mov (%rax),%rcx
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 72,131,249,2 ; cmp $0x2,%rcx
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 114,57 ; jb 2ebc3 <_sk_gradient_sse41_lowp+0x78>
- DB 72,139,80,72 ; mov 0x48(%rax),%rdx
- DB 72,255,201 ; dec %rcx
- DB 72,131,194,4 ; add $0x4,%rdx
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 243,15,16,18 ; movss (%rdx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,194,248,2 ; cmpleps %xmm0,%xmm7
- DB 102,68,15,250,207 ; psubd %xmm7,%xmm9
- DB 15,194,209,2 ; cmpleps %xmm1,%xmm2
- DB 102,15,250,218 ; psubd %xmm2,%xmm3
- DB 72,131,194,4 ; add $0x4,%rdx
- DB 72,255,201 ; dec %rcx
- DB 117,219 ; jne 2eb9e <_sk_gradient_sse41_lowp+0x53>
- DB 102,72,15,58,22,219,1 ; pextrq $0x1,%xmm3,%rbx
- DB 65,137,221 ; mov %ebx,%r13d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,72,15,126,221 ; movq %xmm3,%rbp
- DB 137,239 ; mov %ebp,%edi
- DB 72,193,237,32 ; shr $0x20,%rbp
- DB 102,69,15,126,200 ; movd %xmm9,%r8d
- DB 102,69,15,58,22,201,1 ; pextrd $0x1,%xmm9,%r9d
- DB 102,69,15,58,22,202,2 ; pextrd $0x2,%xmm9,%r10d
- DB 72,139,72,8 ; mov 0x8(%rax),%rcx
- DB 243,68,15,16,44,185 ; movss (%rcx,%rdi,4),%xmm13
- DB 102,68,15,58,33,44,169,16 ; insertps $0x10,(%rcx,%rbp,4),%xmm13
- DB 243,66,15,16,20,169 ; movss (%rcx,%r13,4),%xmm2
- DB 243,68,15,16,4,153 ; movss (%rcx,%rbx,4),%xmm8
- DB 243,66,15,16,28,129 ; movss (%rcx,%r8,4),%xmm3
- DB 102,66,15,58,33,28,137,16 ; insertps $0x10,(%rcx,%r9,4),%xmm3
- DB 102,66,15,58,33,28,145,32 ; insertps $0x20,(%rcx,%r10,4),%xmm3
- DB 102,69,15,58,22,203,3 ; pextrd $0x3,%xmm9,%r11d
- DB 102,66,15,58,33,28,153,48 ; insertps $0x30,(%rcx,%r11,4),%xmm3
- DB 102,68,15,58,33,234,32 ; insertps $0x20,%xmm2,%xmm13
- DB 76,139,96,16 ; mov 0x10(%rax),%r12
- DB 243,69,15,16,12,188 ; movss (%r12,%rdi,4),%xmm9
- DB 76,139,120,24 ; mov 0x18(%rax),%r15
- DB 243,69,15,16,28,191 ; movss (%r15,%rdi,4),%xmm11
- DB 76,139,112,32 ; mov 0x20(%rax),%r14
- DB 243,69,15,16,20,190 ; movss (%r14,%rdi,4),%xmm10
- DB 72,139,112,40 ; mov 0x28(%rax),%rsi
- DB 243,68,15,16,60,190 ; movss (%rsi,%rdi,4),%xmm15
- DB 72,139,80,48 ; mov 0x30(%rax),%rdx
- DB 243,68,15,16,52,186 ; movss (%rdx,%rdi,4),%xmm14
- DB 72,139,72,56 ; mov 0x38(%rax),%rcx
- DB 243,15,16,20,185 ; movss (%rcx,%rdi,4),%xmm2
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 243,68,15,16,36,184 ; movss (%rax,%rdi,4),%xmm12
- DB 102,69,15,58,33,12,172,16 ; insertps $0x10,(%r12,%rbp,4),%xmm9
- DB 102,69,15,58,33,28,175,16 ; insertps $0x10,(%r15,%rbp,4),%xmm11
- DB 102,69,15,58,33,20,174,16 ; insertps $0x10,(%r14,%rbp,4),%xmm10
- DB 102,68,15,58,33,60,174,16 ; insertps $0x10,(%rsi,%rbp,4),%xmm15
- DB 102,68,15,58,33,52,170,16 ; insertps $0x10,(%rdx,%rbp,4),%xmm14
- DB 102,15,58,33,20,169,16 ; insertps $0x10,(%rcx,%rbp,4),%xmm2
- DB 102,68,15,58,33,36,168,16 ; insertps $0x10,(%rax,%rbp,4),%xmm12
- DB 102,69,15,58,33,232,48 ; insertps $0x30,%xmm8,%xmm13
- DB 243,67,15,16,60,172 ; movss (%r12,%r13,4),%xmm7
- DB 102,68,15,58,33,207,32 ; insertps $0x20,%xmm7,%xmm9
- DB 243,65,15,16,60,156 ; movss (%r12,%rbx,4),%xmm7
- DB 102,68,15,58,33,207,48 ; insertps $0x30,%xmm7,%xmm9
- DB 243,67,15,16,60,175 ; movss (%r15,%r13,4),%xmm7
- DB 102,68,15,58,33,223,32 ; insertps $0x20,%xmm7,%xmm11
- DB 243,65,15,16,60,159 ; movss (%r15,%rbx,4),%xmm7
- DB 102,68,15,58,33,223,48 ; insertps $0x30,%xmm7,%xmm11
- DB 243,67,15,16,60,174 ; movss (%r14,%r13,4),%xmm7
- DB 102,68,15,58,33,215,32 ; insertps $0x20,%xmm7,%xmm10
- DB 243,65,15,16,60,158 ; movss (%r14,%rbx,4),%xmm7
- DB 102,68,15,58,33,215,48 ; insertps $0x30,%xmm7,%xmm10
- DB 243,66,15,16,60,174 ; movss (%rsi,%r13,4),%xmm7
- DB 102,68,15,58,33,255,32 ; insertps $0x20,%xmm7,%xmm15
- DB 243,15,16,60,158 ; movss (%rsi,%rbx,4),%xmm7
- DB 102,68,15,58,33,255,48 ; insertps $0x30,%xmm7,%xmm15
- DB 243,66,15,16,60,170 ; movss (%rdx,%r13,4),%xmm7
- DB 102,68,15,58,33,247,32 ; insertps $0x20,%xmm7,%xmm14
- DB 243,15,16,60,154 ; movss (%rdx,%rbx,4),%xmm7
- DB 102,68,15,58,33,247,48 ; insertps $0x30,%xmm7,%xmm14
- DB 243,66,15,16,60,169 ; movss (%rcx,%r13,4),%xmm7
- DB 102,15,58,33,215,32 ; insertps $0x20,%xmm7,%xmm2
- DB 243,15,16,60,153 ; movss (%rcx,%rbx,4),%xmm7
- DB 102,15,58,33,215,48 ; insertps $0x30,%xmm7,%xmm2
- DB 243,66,15,16,60,168 ; movss (%rax,%r13,4),%xmm7
- DB 102,68,15,58,33,231,32 ; insertps $0x20,%xmm7,%xmm12
- DB 243,15,16,60,152 ; movss (%rax,%rbx,4),%xmm7
- DB 102,68,15,58,33,231,48 ; insertps $0x30,%xmm7,%xmm12
- DB 243,66,15,16,60,134 ; movss (%rsi,%r8,4),%xmm7
- DB 102,66,15,58,33,60,142,16 ; insertps $0x10,(%rsi,%r9,4),%xmm7
- DB 102,66,15,58,33,60,150,32 ; insertps $0x20,(%rsi,%r10,4),%xmm7
- DB 102,66,15,58,33,60,158,48 ; insertps $0x30,(%rsi,%r11,4),%xmm7
- DB 68,15,89,233 ; mulps %xmm1,%xmm13
- DB 69,15,88,239 ; addps %xmm15,%xmm13
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 15,40,61,241,103,0,0 ; movaps 0x67f1(%rip),%xmm7 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 68,15,89,239 ; mulps %xmm7,%xmm13
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 68,15,40,61,242,102,0,0 ; movaps 0x66f2(%rip),%xmm15 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 69,15,88,239 ; addps %xmm15,%xmm13
- DB 65,15,88,223 ; addps %xmm15,%xmm3
- DB 243,65,15,91,245 ; cvttps2dq %xmm13,%xmm6
- DB 102,68,15,111,45,44,110,0,0 ; movdqa 0x6e2c(%rip),%xmm13 # 35bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
- DB 102,65,15,56,0,245 ; pshufb %xmm13,%xmm6
- DB 243,68,15,91,195 ; cvttps2dq %xmm3,%xmm8
- DB 102,69,15,56,0,197 ; pshufb %xmm13,%xmm8
- DB 102,68,15,108,198 ; punpcklqdq %xmm6,%xmm8
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 69,15,88,206 ; addps %xmm14,%xmm9
- DB 243,67,15,16,28,132 ; movss (%r12,%r8,4),%xmm3
- DB 102,67,15,58,33,28,140,16 ; insertps $0x10,(%r12,%r9,4),%xmm3
- DB 102,67,15,58,33,28,148,32 ; insertps $0x20,(%r12,%r10,4),%xmm3
- DB 102,67,15,58,33,28,156,48 ; insertps $0x30,(%r12,%r11,4),%xmm3
- DB 243,66,15,16,52,130 ; movss (%rdx,%r8,4),%xmm6
- DB 102,66,15,58,33,52,138,16 ; insertps $0x10,(%rdx,%r9,4),%xmm6
- DB 102,66,15,58,33,52,146,32 ; insertps $0x20,(%rdx,%r10,4),%xmm6
- DB 102,66,15,58,33,52,154,48 ; insertps $0x30,(%rdx,%r11,4),%xmm6
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,88,222 ; addps %xmm6,%xmm3
- DB 68,15,89,207 ; mulps %xmm7,%xmm9
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 69,15,88,207 ; addps %xmm15,%xmm9
- DB 65,15,88,223 ; addps %xmm15,%xmm3
- DB 243,65,15,91,241 ; cvttps2dq %xmm9,%xmm6
- DB 102,65,15,56,0,245 ; pshufb %xmm13,%xmm6
- DB 243,68,15,91,203 ; cvttps2dq %xmm3,%xmm9
- DB 102,69,15,56,0,205 ; pshufb %xmm13,%xmm9
- DB 102,68,15,108,206 ; punpcklqdq %xmm6,%xmm9
- DB 243,67,15,16,28,135 ; movss (%r15,%r8,4),%xmm3
- DB 102,67,15,58,33,28,143,16 ; insertps $0x10,(%r15,%r9,4),%xmm3
- DB 102,67,15,58,33,28,151,32 ; insertps $0x20,(%r15,%r10,4),%xmm3
- DB 102,67,15,58,33,28,159,48 ; insertps $0x30,(%r15,%r11,4),%xmm3
- DB 68,15,89,217 ; mulps %xmm1,%xmm11
- DB 68,15,88,218 ; addps %xmm2,%xmm11
- DB 243,66,15,16,20,129 ; movss (%rcx,%r8,4),%xmm2
- DB 102,66,15,58,33,20,137,16 ; insertps $0x10,(%rcx,%r9,4),%xmm2
- DB 102,66,15,58,33,20,145,32 ; insertps $0x20,(%rcx,%r10,4),%xmm2
- DB 102,66,15,58,33,20,153,48 ; insertps $0x30,(%rcx,%r11,4),%xmm2
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 68,15,89,223 ; mulps %xmm7,%xmm11
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 69,15,88,223 ; addps %xmm15,%xmm11
- DB 65,15,88,223 ; addps %xmm15,%xmm3
- DB 243,65,15,91,243 ; cvttps2dq %xmm11,%xmm6
- DB 102,65,15,56,0,245 ; pshufb %xmm13,%xmm6
- DB 243,15,91,211 ; cvttps2dq %xmm3,%xmm2
- DB 102,65,15,56,0,213 ; pshufb %xmm13,%xmm2
- DB 102,15,108,214 ; punpcklqdq %xmm6,%xmm2
- DB 68,15,89,209 ; mulps %xmm1,%xmm10
- DB 69,15,88,212 ; addps %xmm12,%xmm10
- DB 243,67,15,16,12,134 ; movss (%r14,%r8,4),%xmm1
- DB 102,67,15,58,33,12,142,16 ; insertps $0x10,(%r14,%r9,4),%xmm1
- DB 102,67,15,58,33,12,150,32 ; insertps $0x20,(%r14,%r10,4),%xmm1
- DB 102,67,15,58,33,12,158,48 ; insertps $0x30,(%r14,%r11,4),%xmm1
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 243,66,15,16,4,128 ; movss (%rax,%r8,4),%xmm0
- DB 102,66,15,58,33,4,136,16 ; insertps $0x10,(%rax,%r9,4),%xmm0
- DB 102,66,15,58,33,4,144,32 ; insertps $0x20,(%rax,%r10,4),%xmm0
- DB 102,66,15,58,33,4,152,48 ; insertps $0x30,(%rax,%r11,4),%xmm0
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 68,15,89,215 ; mulps %xmm7,%xmm10
- DB 15,89,207 ; mulps %xmm7,%xmm1
- DB 69,15,88,215 ; addps %xmm15,%xmm10
- DB 65,15,88,207 ; addps %xmm15,%xmm1
- DB 243,65,15,91,194 ; cvttps2dq %xmm10,%xmm0
- DB 102,65,15,56,0,197 ; pshufb %xmm13,%xmm0
- DB 243,15,91,217 ; cvttps2dq %xmm1,%xmm3
- DB 102,65,15,56,0,221 ; pshufb %xmm13,%xmm3
- DB 102,15,108,216 ; punpcklqdq %xmm0,%xmm3
- DB 72,139,52,36 ; mov (%rsp),%rsi
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,139,124,36,8 ; mov 0x8(%rsp),%rdi
- DB 72,139,84,36,16 ; mov 0x10(%rsp),%rdx
- DB 72,139,76,36,24 ; mov 0x18(%rsp),%rcx
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 15,40,116,36,32 ; movaps 0x20(%rsp),%xmm6
- DB 15,40,124,36,48 ; movaps 0x30(%rsp),%xmm7
- DB 72,131,196,72 ; add $0x48,%rsp
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_evenly_spaced_gradient_sse41_lowp
-_sk_evenly_spaced_gradient_sse41_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,129,236,136,0,0,0 ; sub $0x88,%rsp
- DB 15,41,124,36,112 ; movaps %xmm7,0x70(%rsp)
- DB 15,41,116,36,96 ; movaps %xmm6,0x60(%rsp)
- DB 15,41,108,36,80 ; movaps %xmm5,0x50(%rsp)
- DB 15,41,100,36,64 ; movaps %xmm4,0x40(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,139,24 ; mov (%rax),%rbx
- DB 72,139,104,8 ; mov 0x8(%rax),%rbp
- DB 72,255,203 ; dec %rbx
- DB 120,7 ; js 2efa5 <_sk_evenly_spaced_gradient_sse41_lowp+0x3a>
- DB 243,72,15,42,211 ; cvtsi2ss %rbx,%xmm2
- DB 235,21 ; jmp 2efba <_sk_evenly_spaced_gradient_sse41_lowp+0x4f>
- DB 73,137,216 ; mov %rbx,%r8
- DB 73,209,232 ; shr %r8
- DB 131,227,1 ; and $0x1,%ebx
- DB 76,9,195 ; or %r8,%rbx
- DB 243,72,15,42,211 ; cvtsi2ss %rbx,%xmm2
- DB 243,15,88,210 ; addss %xmm2,%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,41,68,36,48 ; movaps %xmm0,0x30(%rsp)
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 15,89,218 ; mulps %xmm2,%xmm3
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 243,15,91,194 ; cvttps2dq %xmm2,%xmm0
- DB 102,73,15,58,22,194,1 ; pextrq $0x1,%xmm0,%r10
- DB 69,137,214 ; mov %r10d,%r14d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,73,15,126,197 ; movq %xmm0,%r13
- DB 69,137,236 ; mov %r13d,%r12d
- DB 73,193,237,32 ; shr $0x20,%r13
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 102,73,15,58,22,192,1 ; pextrq $0x1,%xmm0,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 102,73,15,126,195 ; movq %xmm0,%r11
- DB 69,137,223 ; mov %r11d,%r15d
- DB 73,193,235,32 ; shr $0x20,%r11
- DB 243,70,15,16,68,189,0 ; movss 0x0(%rbp,%r15,4),%xmm8
- DB 102,70,15,58,33,68,157,0,16 ; insertps $0x10,0x0(%rbp,%r11,4),%xmm8
- DB 243,66,15,16,68,141,0 ; movss 0x0(%rbp,%r9,4),%xmm0
- DB 243,66,15,16,84,133,0 ; movss 0x0(%rbp,%r8,4),%xmm2
- DB 15,41,76,36,32 ; movaps %xmm1,0x20(%rsp)
- DB 243,66,15,16,92,165,0 ; movss 0x0(%rbp,%r12,4),%xmm3
- DB 102,66,15,58,33,92,173,0,16 ; insertps $0x10,0x0(%rbp,%r13,4),%xmm3
- DB 243,66,15,16,100,181,0 ; movss 0x0(%rbp,%r14,4),%xmm4
- DB 243,66,15,16,108,149,0 ; movss 0x0(%rbp,%r10,4),%xmm5
- DB 102,68,15,58,33,192,32 ; insertps $0x20,%xmm0,%xmm8
- DB 102,68,15,58,33,194,48 ; insertps $0x30,%xmm2,%xmm8
- DB 72,139,88,16 ; mov 0x10(%rax),%rbx
- DB 243,70,15,16,12,187 ; movss (%rbx,%r15,4),%xmm9
- DB 102,70,15,58,33,12,155,16 ; insertps $0x10,(%rbx,%r11,4),%xmm9
- DB 243,66,15,16,4,139 ; movss (%rbx,%r9,4),%xmm0
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 243,66,15,16,20,163 ; movss (%rbx,%r12,4),%xmm2
- DB 102,66,15,58,33,20,171,16 ; insertps $0x10,(%rbx,%r13,4),%xmm2
- DB 243,66,15,16,52,179 ; movss (%rbx,%r14,4),%xmm6
- DB 243,66,15,16,60,147 ; movss (%rbx,%r10,4),%xmm7
- DB 102,15,58,33,220,32 ; insertps $0x20,%xmm4,%xmm3
- DB 102,15,58,33,221,48 ; insertps $0x30,%xmm5,%xmm3
- DB 102,68,15,58,33,200,32 ; insertps $0x20,%xmm0,%xmm9
- DB 102,68,15,58,33,201,48 ; insertps $0x30,%xmm1,%xmm9
- DB 102,15,58,33,214,32 ; insertps $0x20,%xmm6,%xmm2
- DB 102,15,58,33,215,48 ; insertps $0x30,%xmm7,%xmm2
- DB 72,139,88,24 ; mov 0x18(%rax),%rbx
- DB 243,70,15,16,28,187 ; movss (%rbx,%r15,4),%xmm11
- DB 102,70,15,58,33,28,155,16 ; insertps $0x10,(%rbx,%r11,4),%xmm11
- DB 243,66,15,16,4,139 ; movss (%rbx,%r9,4),%xmm0
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 243,70,15,16,44,163 ; movss (%rbx,%r12,4),%xmm13
- DB 102,70,15,58,33,44,171,16 ; insertps $0x10,(%rbx,%r13,4),%xmm13
- DB 243,66,15,16,36,179 ; movss (%rbx,%r14,4),%xmm4
- DB 243,66,15,16,44,147 ; movss (%rbx,%r10,4),%xmm5
- DB 102,68,15,58,33,216,32 ; insertps $0x20,%xmm0,%xmm11
- DB 102,68,15,58,33,217,48 ; insertps $0x30,%xmm1,%xmm11
- DB 102,68,15,58,33,236,32 ; insertps $0x20,%xmm4,%xmm13
- DB 102,68,15,58,33,237,48 ; insertps $0x30,%xmm5,%xmm13
- DB 72,139,88,32 ; mov 0x20(%rax),%rbx
- DB 243,70,15,16,20,187 ; movss (%rbx,%r15,4),%xmm10
- DB 102,70,15,58,33,20,155,16 ; insertps $0x10,(%rbx,%r11,4),%xmm10
- DB 243,66,15,16,4,139 ; movss (%rbx,%r9,4),%xmm0
- DB 102,68,15,58,33,208,32 ; insertps $0x20,%xmm0,%xmm10
- DB 243,66,15,16,4,131 ; movss (%rbx,%r8,4),%xmm0
- DB 102,68,15,58,33,208,48 ; insertps $0x30,%xmm0,%xmm10
- DB 243,70,15,16,36,163 ; movss (%rbx,%r12,4),%xmm12
- DB 102,70,15,58,33,36,171,16 ; insertps $0x10,(%rbx,%r13,4),%xmm12
- DB 243,66,15,16,4,179 ; movss (%rbx,%r14,4),%xmm0
- DB 243,66,15,16,12,147 ; movss (%rbx,%r10,4),%xmm1
- DB 102,68,15,58,33,224,32 ; insertps $0x20,%xmm0,%xmm12
- DB 102,68,15,58,33,225,48 ; insertps $0x30,%xmm1,%xmm12
- DB 72,139,88,40 ; mov 0x28(%rax),%rbx
- DB 243,66,15,16,36,163 ; movss (%rbx,%r12,4),%xmm4
- DB 102,66,15,58,33,36,171,16 ; insertps $0x10,(%rbx,%r13,4),%xmm4
- DB 243,66,15,16,4,179 ; movss (%rbx,%r14,4),%xmm0
- DB 102,15,58,33,224,32 ; insertps $0x20,%xmm0,%xmm4
- DB 243,66,15,16,4,147 ; movss (%rbx,%r10,4),%xmm0
- DB 102,15,58,33,224,48 ; insertps $0x30,%xmm0,%xmm4
- DB 243,66,15,16,4,187 ; movss (%rbx,%r15,4),%xmm0
- DB 102,66,15,58,33,4,155,16 ; insertps $0x10,(%rbx,%r11,4),%xmm0
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 102,15,58,33,193,32 ; insertps $0x20,%xmm1,%xmm0
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 102,15,58,33,193,48 ; insertps $0x30,%xmm1,%xmm0
- DB 72,139,88,48 ; mov 0x30(%rax),%rbx
- DB 243,66,15,16,60,163 ; movss (%rbx,%r12,4),%xmm7
- DB 102,66,15,58,33,60,171,16 ; insertps $0x10,(%rbx,%r13,4),%xmm7
- DB 243,66,15,16,12,179 ; movss (%rbx,%r14,4),%xmm1
- DB 102,15,58,33,249,32 ; insertps $0x20,%xmm1,%xmm7
- DB 243,66,15,16,12,147 ; movss (%rbx,%r10,4),%xmm1
- DB 102,15,58,33,249,48 ; insertps $0x30,%xmm1,%xmm7
- DB 243,66,15,16,12,187 ; movss (%rbx,%r15,4),%xmm1
- DB 102,66,15,58,33,12,155,16 ; insertps $0x10,(%rbx,%r11,4),%xmm1
- DB 243,66,15,16,44,139 ; movss (%rbx,%r9,4),%xmm5
- DB 102,15,58,33,205,32 ; insertps $0x20,%xmm5,%xmm1
- DB 243,66,15,16,44,131 ; movss (%rbx,%r8,4),%xmm5
- DB 102,15,58,33,205,48 ; insertps $0x30,%xmm5,%xmm1
- DB 72,139,88,56 ; mov 0x38(%rax),%rbx
- DB 243,66,15,16,52,163 ; movss (%rbx,%r12,4),%xmm6
- DB 102,66,15,58,33,52,171,16 ; insertps $0x10,(%rbx,%r13,4),%xmm6
- DB 243,66,15,16,44,179 ; movss (%rbx,%r14,4),%xmm5
- DB 102,15,58,33,245,32 ; insertps $0x20,%xmm5,%xmm6
- DB 243,66,15,16,44,147 ; movss (%rbx,%r10,4),%xmm5
- DB 102,15,58,33,245,48 ; insertps $0x30,%xmm5,%xmm6
- DB 15,41,52,36 ; movaps %xmm6,(%rsp)
- DB 243,66,15,16,44,187 ; movss (%rbx,%r15,4),%xmm5
- DB 102,66,15,58,33,44,155,16 ; insertps $0x10,(%rbx,%r11,4),%xmm5
- DB 243,66,15,16,52,139 ; movss (%rbx,%r9,4),%xmm6
- DB 102,15,58,33,238,32 ; insertps $0x20,%xmm6,%xmm5
- DB 243,66,15,16,52,131 ; movss (%rbx,%r8,4),%xmm6
- DB 102,15,58,33,238,48 ; insertps $0x30,%xmm6,%xmm5
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 243,70,15,16,52,160 ; movss (%rax,%r12,4),%xmm14
- DB 102,70,15,58,33,52,168,16 ; insertps $0x10,(%rax,%r13,4),%xmm14
- DB 243,66,15,16,52,176 ; movss (%rax,%r14,4),%xmm6
- DB 102,68,15,58,33,246,32 ; insertps $0x20,%xmm6,%xmm14
- DB 243,66,15,16,52,144 ; movss (%rax,%r10,4),%xmm6
- DB 102,68,15,58,33,246,48 ; insertps $0x30,%xmm6,%xmm14
- DB 68,15,41,116,36,16 ; movaps %xmm14,0x10(%rsp)
- DB 243,70,15,16,60,184 ; movss (%rax,%r15,4),%xmm15
- DB 102,70,15,58,33,60,152,16 ; insertps $0x10,(%rax,%r11,4),%xmm15
- DB 243,70,15,16,52,136 ; movss (%rax,%r9,4),%xmm14
- DB 102,69,15,58,33,254,32 ; insertps $0x20,%xmm14,%xmm15
- DB 243,66,15,16,52,128 ; movss (%rax,%r8,4),%xmm6
- DB 102,68,15,58,33,254,48 ; insertps $0x30,%xmm6,%xmm15
- DB 15,40,116,36,32 ; movaps 0x20(%rsp),%xmm6
- DB 15,89,222 ; mulps %xmm6,%xmm3
- DB 15,88,220 ; addps %xmm4,%xmm3
- DB 15,40,100,36,48 ; movaps 0x30(%rsp),%xmm4
- DB 68,15,89,196 ; mulps %xmm4,%xmm8
- DB 68,15,88,192 ; addps %xmm0,%xmm8
- DB 15,40,5,198,98,0,0 ; movaps 0x62c6(%rip),%xmm0 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 68,15,40,53,199,97,0,0 ; movaps 0x61c7(%rip),%xmm14 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 69,15,88,198 ; addps %xmm14,%xmm8
- DB 65,15,88,222 ; addps %xmm14,%xmm3
- DB 243,15,91,219 ; cvttps2dq %xmm3,%xmm3
- DB 102,15,111,5,3,105,0,0 ; movdqa 0x6903(%rip),%xmm0 # 35bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
- DB 102,15,56,0,216 ; pshufb %xmm0,%xmm3
- DB 243,69,15,91,192 ; cvttps2dq %xmm8,%xmm8
- DB 102,68,15,56,0,192 ; pshufb %xmm0,%xmm8
- DB 102,68,15,108,195 ; punpcklqdq %xmm3,%xmm8
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 68,15,89,203 ; mulps %xmm3,%xmm9
- DB 68,15,88,201 ; addps %xmm1,%xmm9
- DB 15,40,13,118,98,0,0 ; movaps 0x6276(%rip),%xmm1 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 69,15,88,206 ; addps %xmm14,%xmm9
- DB 65,15,88,214 ; addps %xmm14,%xmm2
- DB 243,15,91,202 ; cvttps2dq %xmm2,%xmm1
- DB 102,15,56,0,200 ; pshufb %xmm0,%xmm1
- DB 243,69,15,91,201 ; cvttps2dq %xmm9,%xmm9
- DB 102,68,15,56,0,200 ; pshufb %xmm0,%xmm9
- DB 102,68,15,108,201 ; punpcklqdq %xmm1,%xmm9
- DB 68,15,89,238 ; mulps %xmm6,%xmm13
- DB 68,15,88,44,36 ; addps (%rsp),%xmm13
- DB 68,15,89,219 ; mulps %xmm3,%xmm11
- DB 68,15,88,221 ; addps %xmm5,%xmm11
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 68,15,89,233 ; mulps %xmm1,%xmm13
- DB 68,15,89,217 ; mulps %xmm1,%xmm11
- DB 69,15,88,222 ; addps %xmm14,%xmm11
- DB 69,15,88,238 ; addps %xmm14,%xmm13
- DB 243,65,15,91,205 ; cvttps2dq %xmm13,%xmm1
- DB 102,15,56,0,200 ; pshufb %xmm0,%xmm1
- DB 243,65,15,91,211 ; cvttps2dq %xmm11,%xmm2
- DB 102,15,56,0,208 ; pshufb %xmm0,%xmm2
- DB 102,15,108,209 ; punpcklqdq %xmm1,%xmm2
- DB 68,15,89,230 ; mulps %xmm6,%xmm12
- DB 68,15,88,100,36,16 ; addps 0x10(%rsp),%xmm12
- DB 68,15,89,211 ; mulps %xmm3,%xmm10
- DB 69,15,88,215 ; addps %xmm15,%xmm10
- DB 68,15,89,228 ; mulps %xmm4,%xmm12
- DB 68,15,89,212 ; mulps %xmm4,%xmm10
- DB 69,15,88,214 ; addps %xmm14,%xmm10
- DB 69,15,88,230 ; addps %xmm14,%xmm12
- DB 243,65,15,91,204 ; cvttps2dq %xmm12,%xmm1
- DB 102,15,56,0,200 ; pshufb %xmm0,%xmm1
- DB 243,65,15,91,218 ; cvttps2dq %xmm10,%xmm3
- DB 102,15,56,0,216 ; pshufb %xmm0,%xmm3
- DB 102,15,108,217 ; punpcklqdq %xmm1,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 15,40,100,36,64 ; movaps 0x40(%rsp),%xmm4
- DB 15,40,108,36,80 ; movaps 0x50(%rsp),%xmm5
- DB 15,40,116,36,96 ; movaps 0x60(%rsp),%xmm6
- DB 15,40,124,36,112 ; movaps 0x70(%rsp),%xmm7
- DB 72,129,196,136,0,0,0 ; add $0x88,%rsp
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_evenly_spaced_2_stop_gradient_sse41_lowp
-_sk_evenly_spaced_2_stop_gradient_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,24 ; movss (%rax),%xmm3
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 243,68,15,16,64,16 ; movss 0x10(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 65,15,88,216 ; addps %xmm8,%xmm3
- DB 65,15,88,208 ; addps %xmm8,%xmm2
- DB 68,15,40,21,110,97,0,0 ; movaps 0x616e(%rip),%xmm10 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 65,15,89,210 ; mulps %xmm10,%xmm2
- DB 65,15,89,218 ; mulps %xmm10,%xmm3
- DB 68,15,40,37,110,96,0,0 ; movaps 0x606e(%rip),%xmm12 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 65,15,88,220 ; addps %xmm12,%xmm3
- DB 65,15,88,212 ; addps %xmm12,%xmm2
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 102,68,15,111,29,169,103,0,0 ; movdqa 0x67a9(%rip),%xmm11 # 35bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
- DB 102,65,15,56,0,211 ; pshufb %xmm11,%xmm2
- DB 243,68,15,91,195 ; cvttps2dq %xmm3,%xmm8
- DB 102,69,15,56,0,195 ; pshufb %xmm11,%xmm8
- DB 102,68,15,108,194 ; punpcklqdq %xmm2,%xmm8
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 243,15,16,80,20 ; movss 0x14(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 65,15,89,217 ; mulps %xmm9,%xmm3
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 68,15,88,202 ; addps %xmm2,%xmm9
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 65,15,89,218 ; mulps %xmm10,%xmm3
- DB 69,15,89,202 ; mulps %xmm10,%xmm9
- DB 69,15,88,204 ; addps %xmm12,%xmm9
- DB 65,15,88,220 ; addps %xmm12,%xmm3
- DB 243,15,91,211 ; cvttps2dq %xmm3,%xmm2
- DB 102,65,15,56,0,211 ; pshufb %xmm11,%xmm2
- DB 243,69,15,91,201 ; cvttps2dq %xmm9,%xmm9
- DB 102,69,15,56,0,203 ; pshufb %xmm11,%xmm9
- DB 102,68,15,108,202 ; punpcklqdq %xmm2,%xmm9
- DB 243,15,16,80,8 ; movss 0x8(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,68,15,16,104,24 ; movss 0x18(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 15,89,218 ; mulps %xmm2,%xmm3
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 65,15,88,213 ; addps %xmm13,%xmm2
- DB 65,15,88,221 ; addps %xmm13,%xmm3
- DB 65,15,89,218 ; mulps %xmm10,%xmm3
- DB 65,15,89,210 ; mulps %xmm10,%xmm2
- DB 65,15,88,212 ; addps %xmm12,%xmm2
- DB 65,15,88,220 ; addps %xmm12,%xmm3
- DB 243,15,91,219 ; cvttps2dq %xmm3,%xmm3
- DB 102,65,15,56,0,219 ; pshufb %xmm11,%xmm3
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 102,65,15,56,0,211 ; pshufb %xmm11,%xmm2
- DB 102,15,108,211 ; punpcklqdq %xmm3,%xmm2
- DB 243,15,16,88,12 ; movss 0xc(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 243,68,15,16,104,28 ; movss 0x1c(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 65,15,88,221 ; addps %xmm13,%xmm3
- DB 65,15,88,205 ; addps %xmm13,%xmm1
- DB 65,15,89,202 ; mulps %xmm10,%xmm1
- DB 65,15,89,218 ; mulps %xmm10,%xmm3
- DB 65,15,88,220 ; addps %xmm12,%xmm3
- DB 65,15,88,204 ; addps %xmm12,%xmm1
- DB 243,15,91,193 ; cvttps2dq %xmm1,%xmm0
- DB 102,65,15,56,0,195 ; pshufb %xmm11,%xmm0
- DB 243,15,91,219 ; cvttps2dq %xmm3,%xmm3
- DB 102,65,15,56,0,219 ; pshufb %xmm11,%xmm3
- DB 102,15,108,216 ; punpcklqdq %xmm0,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_unit_angle_sse41_lowp
-_sk_xy_to_unit_angle_sse41_lowp LABEL PROC
- DB 72,131,236,72 ; sub $0x48,%rsp
- DB 15,41,124,36,48 ; movaps %xmm7,0x30(%rsp)
- DB 15,41,116,36,32 ; movaps %xmm6,0x20(%rsp)
- DB 15,41,108,36,16 ; movaps %xmm5,0x10(%rsp)
- DB 15,41,36,36 ; movaps %xmm4,(%rsp)
- DB 15,40,251 ; movaps %xmm3,%xmm7
- DB 15,40,242 ; movaps %xmm2,%xmm6
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 15,40,37,156,100,0,0 ; movaps 0x649c(%rip),%xmm4 # 35a10 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- DB 68,15,40,233 ; movaps %xmm1,%xmm13
- DB 68,15,84,236 ; andps %xmm4,%xmm13
- DB 69,15,40,216 ; movaps %xmm8,%xmm11
- DB 68,15,84,220 ; andps %xmm4,%xmm11
- DB 68,15,40,231 ; movaps %xmm7,%xmm12
- DB 68,15,84,228 ; andps %xmm4,%xmm12
- DB 15,84,230 ; andps %xmm6,%xmm4
- DB 69,15,40,211 ; movaps %xmm11,%xmm10
- DB 68,15,194,212,1 ; cmpltps %xmm4,%xmm10
- DB 69,15,40,205 ; movaps %xmm13,%xmm9
- DB 69,15,194,204,1 ; cmpltps %xmm12,%xmm9
- DB 69,15,40,244 ; movaps %xmm12,%xmm14
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,69,15,56,20,245 ; blendvps %xmm0,%xmm13,%xmm14
- DB 68,15,40,252 ; movaps %xmm4,%xmm15
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 102,69,15,56,20,251 ; blendvps %xmm0,%xmm11,%xmm15
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,69,15,56,20,236 ; blendvps %xmm0,%xmm12,%xmm13
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 102,68,15,56,20,220 ; blendvps %xmm0,%xmm4,%xmm11
- DB 69,15,94,251 ; divps %xmm11,%xmm15
- DB 65,15,40,199 ; movaps %xmm15,%xmm0
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,40,29,156,100,0,0 ; movaps 0x649c(%rip),%xmm11 # 35a80 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
- DB 68,15,40,224 ; movaps %xmm0,%xmm12
- DB 69,15,89,227 ; mulps %xmm11,%xmm12
- DB 68,15,88,37,156,100,0,0 ; addps 0x649c(%rip),%xmm12 # 35a90 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
- DB 68,15,89,224 ; mulps %xmm0,%xmm12
- DB 15,40,45,161,100,0,0 ; movaps 0x64a1(%rip),%xmm5 # 35aa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1288>
- DB 68,15,88,229 ; addps %xmm5,%xmm12
- DB 68,15,89,224 ; mulps %xmm0,%xmm12
- DB 15,40,37,162,100,0,0 ; movaps 0x64a2(%rip),%xmm4 # 35ab0 <_sk_srcover_bgra_8888_sse2_lowp+0x1298>
- DB 68,15,88,228 ; addps %xmm4,%xmm12
- DB 69,15,89,231 ; mulps %xmm15,%xmm12
- DB 15,40,21,163,100,0,0 ; movaps 0x64a3(%rip),%xmm2 # 35ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8>
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 65,15,92,212 ; subps %xmm12,%xmm2
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 102,68,15,56,20,226 ; blendvps %xmm0,%xmm2,%xmm12
- DB 69,15,94,245 ; divps %xmm13,%xmm14
- DB 65,15,40,198 ; movaps %xmm14,%xmm0
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,89,216 ; mulps %xmm0,%xmm11
- DB 68,15,88,29,75,100,0,0 ; addps 0x644b(%rip),%xmm11 # 35a90 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
- DB 68,15,89,216 ; mulps %xmm0,%xmm11
- DB 68,15,88,221 ; addps %xmm5,%xmm11
- DB 68,15,89,216 ; mulps %xmm0,%xmm11
- DB 68,15,88,220 ; addps %xmm4,%xmm11
- DB 69,15,89,222 ; mulps %xmm14,%xmm11
- DB 65,15,92,219 ; subps %xmm11,%xmm3
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 102,68,15,56,20,219 ; blendvps %xmm0,%xmm3,%xmm11
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 69,15,194,193,1 ; cmpltps %xmm9,%xmm8
- DB 15,40,21,41,94,0,0 ; movaps 0x5e29(%rip),%xmm2 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 65,15,92,212 ; subps %xmm12,%xmm2
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 102,68,15,56,20,226 ; blendvps %xmm0,%xmm2,%xmm12
- DB 65,15,194,201,1 ; cmpltps %xmm9,%xmm1
- DB 65,15,92,219 ; subps %xmm11,%xmm3
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 102,68,15,56,20,219 ; blendvps %xmm0,%xmm3,%xmm11
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 65,15,194,193,1 ; cmpltps %xmm9,%xmm0
- DB 15,40,13,7,94,0,0 ; movaps 0x5e07(%rip),%xmm1 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 65,15,92,204 ; subps %xmm12,%xmm1
- DB 102,68,15,56,20,225 ; blendvps %xmm0,%xmm1,%xmm12
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 65,15,194,193,1 ; cmpltps %xmm9,%xmm0
- DB 65,15,92,211 ; subps %xmm11,%xmm2
- DB 102,68,15,56,20,218 ; blendvps %xmm0,%xmm2,%xmm11
- DB 65,15,40,203 ; movaps %xmm11,%xmm1
- DB 65,15,194,201,7 ; cmpordps %xmm9,%xmm1
- DB 69,15,194,204,7 ; cmpordps %xmm12,%xmm9
- DB 69,15,84,204 ; andps %xmm12,%xmm9
- DB 65,15,84,203 ; andps %xmm11,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,40,223 ; movaps %xmm7,%xmm3
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 15,40,36,36 ; movaps (%rsp),%xmm4
- DB 15,40,108,36,16 ; movaps 0x10(%rsp),%xmm5
- DB 15,40,116,36,32 ; movaps 0x20(%rsp),%xmm6
- DB 15,40,124,36,48 ; movaps 0x30(%rsp),%xmm7
- DB 72,131,196,72 ; add $0x48,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_radius_sse41_lowp
-_sk_xy_to_radius_sse41_lowp LABEL PROC
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 15,89,201 ; mulps %xmm1,%xmm1
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 69,15,89,192 ; mulps %xmm8,%xmm8
- DB 68,15,88,192 ; addps %xmm0,%xmm8
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 68,15,88,201 ; addps %xmm1,%xmm9
- DB 65,15,81,192 ; sqrtps %xmm8,%xmm0
- DB 65,15,81,201 ; sqrtps %xmm9,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_rgba_8888_sse41_lowp
-_sk_srcover_rgba_8888_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 65,137,250 ; mov %edi,%r10d
- DB 65,128,226,7 ; and $0x7,%r10b
- DB 65,254,202 ; dec %r10b
- DB 69,15,182,202 ; movzbl %r10b,%r9d
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,38 ; ja 2f778 <_sk_srcover_rgba_8888_sse41_lowp+0x4b>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 76,141,29,22,2,0,0 ; lea 0x216(%rip),%r11 # 2f974 <_sk_srcover_rgba_8888_sse41_lowp+0x247>
- DB 75,99,4,139 ; movslq (%r11,%r9,4),%rax
- DB 76,1,216 ; add %r11,%rax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 255,224 ; jmpq *%rax
- DB 102,65,15,110,52,144 ; movd (%r8,%rdx,4),%xmm6
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,89 ; jmp 2f7d1 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
- DB 243,65,15,111,52,144 ; movdqu (%r8,%rdx,4),%xmm6
- DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,74 ; jmp 2f7d1 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
- DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 243,65,15,126,52,144 ; movq (%r8,%rdx,4),%xmm6
- DB 102,65,15,58,14,240,240 ; pblendw $0xf0,%xmm8,%xmm6
- DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
- DB 235,37 ; jmp 2f7d1 <_sk_srcover_rgba_8888_sse41_lowp+0xa4>
- DB 102,65,15,110,100,144,24 ; movd 0x18(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 102,69,15,58,34,68,144,20,1 ; pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
- DB 102,69,15,58,34,68,144,16,0 ; pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
- DB 243,65,15,111,52,144 ; movdqu (%r8,%rdx,4),%xmm6
- DB 102,15,111,37,23,100,0,0 ; movdqa 0x6417(%rip),%xmm4 # 35bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,15,56,0,236 ; pshufb %xmm4,%xmm5
- DB 102,65,15,111,248 ; movdqa %xmm8,%xmm7
- DB 102,15,56,0,252 ; pshufb %xmm4,%xmm7
- DB 102,15,108,239 ; punpcklqdq %xmm7,%xmm5
- DB 102,68,15,111,37,87,92,0,0 ; movdqa 0x5c57(%rip),%xmm12 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,65,15,219,228 ; pand %xmm12,%xmm4
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,68,15,111,13,240,99,0,0 ; movdqa 0x63f0(%rip),%xmm9 # 35c00 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,65,15,56,0,249 ; pshufb %xmm9,%xmm7
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,69,15,56,0,209 ; pshufb %xmm9,%xmm10
- DB 102,65,15,108,250 ; punpcklqdq %xmm10,%xmm7
- DB 102,68,15,111,13,221,99,0,0 ; movdqa 0x63dd(%rip),%xmm9 # 35c10 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
- DB 102,65,15,56,0,241 ; pshufb %xmm9,%xmm6
- DB 102,69,15,56,0,193 ; pshufb %xmm9,%xmm8
- DB 102,65,15,108,240 ; punpcklqdq %xmm8,%xmm6
- DB 102,65,15,219,244 ; pand %xmm12,%xmm6
- DB 102,69,15,111,196 ; movdqa %xmm12,%xmm8
- DB 102,68,15,249,195 ; psubw %xmm3,%xmm8
- DB 102,68,15,111,204 ; movdqa %xmm4,%xmm9
- DB 102,69,15,213,200 ; pmullw %xmm8,%xmm9
- DB 102,69,15,253,204 ; paddw %xmm12,%xmm9
- DB 102,65,15,113,209,8 ; psrlw $0x8,%xmm9
- DB 102,68,15,253,200 ; paddw %xmm0,%xmm9
- DB 102,68,15,111,213 ; movdqa %xmm5,%xmm10
- DB 102,69,15,213,208 ; pmullw %xmm8,%xmm10
- DB 102,69,15,253,212 ; paddw %xmm12,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,68,15,253,209 ; paddw %xmm1,%xmm10
- DB 102,68,15,111,222 ; movdqa %xmm6,%xmm11
- DB 102,69,15,213,216 ; pmullw %xmm8,%xmm11
- DB 102,69,15,253,220 ; paddw %xmm12,%xmm11
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,68,15,253,218 ; paddw %xmm2,%xmm11
- DB 102,68,15,213,199 ; pmullw %xmm7,%xmm8
- DB 102,69,15,253,196 ; paddw %xmm12,%xmm8
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,68,15,253,195 ; paddw %xmm3,%xmm8
- DB 102,65,15,111,194 ; movdqa %xmm10,%xmm0
- DB 102,15,113,240,8 ; psllw $0x8,%xmm0
- DB 102,65,15,235,193 ; por %xmm9,%xmm0
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,15,56,51,209 ; pmovzxwd %xmm1,%xmm2
- DB 102,68,15,56,51,224 ; pmovzxwd %xmm0,%xmm12
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,113,243,8 ; psllw $0x8,%xmm3
- DB 102,65,15,235,219 ; por %xmm11,%xmm3
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,105,203 ; punpckhwd %xmm3,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 102,15,97,195 ; punpcklwd %xmm3,%xmm0
- DB 102,65,15,235,196 ; por %xmm12,%xmm0
- DB 65,128,250,6 ; cmp $0x6,%r10b
- DB 119,24 ; ja 2f91b <_sk_srcover_rgba_8888_sse41_lowp+0x1ee>
- DB 76,141,21,134,0,0,0 ; lea 0x86(%rip),%r10 # 2f990 <_sk_srcover_rgba_8888_sse41_lowp+0x263>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,65,15,126,4,144 ; movd %xmm0,(%r8,%rdx,4)
- DB 235,63 ; jmp 2f95a <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
- DB 243,65,15,127,4,144 ; movdqu %xmm0,(%r8,%rdx,4)
- DB 243,65,15,127,76,144,16 ; movdqu %xmm1,0x10(%r8,%rdx,4)
- DB 235,48 ; jmp 2f95a <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
- DB 102,65,15,58,22,68,144,8,2 ; pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
- DB 102,65,15,214,4,144 ; movq %xmm0,(%r8,%rdx,4)
- DB 235,31 ; jmp 2f95a <_sk_srcover_rgba_8888_sse41_lowp+0x22d>
- DB 102,65,15,58,22,76,144,24,2 ; pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
- DB 102,65,15,58,22,76,144,20,1 ; pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
- DB 102,65,15,126,76,144,16 ; movd %xmm1,0x10(%r8,%rdx,4)
- DB 243,65,15,127,4,144 ; movdqu %xmm0,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
- DB 102,65,15,111,211 ; movdqa %xmm11,%xmm2
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 247,253 ; idiv %ebp
- DB 255 ; (bad)
- DB 255,36,254 ; jmpq *(%rsi,%rdi,8)
- DB 255 ; (bad)
- DB 255,19 ; callq *(%rbx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,87,254 ; callq *-0x2(%rdi)
- DB 255 ; (bad)
- DB 255,78,254 ; decl -0x2(%rsi)
- DB 255 ; (bad)
- DB 255,69,254 ; incl -0x2(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 56,254 ; cmp %bh,%dh
- DB 255 ; (bad)
- DB 255,131,255,255,255,163 ; incl -0x5c000001(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,154,255,255,255,196 ; lcall *-0x3b000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 189,255,255,255,180 ; mov $0xb4ffffff,%ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 171 ; stos %eax,%es:(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_srcover_bgra_8888_sse41_lowp
-_sk_srcover_bgra_8888_sse41_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 65,137,250 ; mov %edi,%r10d
- DB 65,128,226,7 ; and $0x7,%r10b
- DB 65,254,202 ; dec %r10b
- DB 69,15,182,202 ; movzbl %r10b,%r9d
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,38 ; ja 2f9f7 <_sk_srcover_bgra_8888_sse41_lowp+0x4b>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 76,141,29,23,2,0,0 ; lea 0x217(%rip),%r11 # 2fbf4 <_sk_srcover_bgra_8888_sse41_lowp+0x248>
- DB 75,99,4,139 ; movslq (%r11,%r9,4),%rax
- DB 76,1,216 ; add %r11,%rax
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 255,224 ; jmpq *%rax
- DB 102,65,15,110,36,144 ; movd (%r8,%rdx,4),%xmm4
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,89 ; jmp 2fa50 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
- DB 243,65,15,111,36,144 ; movdqu (%r8,%rdx,4),%xmm4
- DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,74 ; jmp 2fa50 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
- DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 243,65,15,126,36,144 ; movq (%r8,%rdx,4),%xmm4
- DB 102,65,15,58,14,224,240 ; pblendw $0xf0,%xmm8,%xmm4
- DB 102,68,15,111,197 ; movdqa %xmm5,%xmm8
- DB 235,37 ; jmp 2fa50 <_sk_srcover_bgra_8888_sse41_lowp+0xa4>
- DB 102,65,15,110,100,144,24 ; movd 0x18(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 102,69,15,58,34,68,144,20,1 ; pinsrd $0x1,0x14(%r8,%rdx,4),%xmm8
- DB 102,69,15,58,34,68,144,16,0 ; pinsrd $0x0,0x10(%r8,%rdx,4),%xmm8
- DB 243,65,15,111,36,144 ; movdqu (%r8,%rdx,4),%xmm4
- DB 102,15,111,53,152,97,0,0 ; movdqa 0x6198(%rip),%xmm6 # 35bf0 <_sk_srcover_bgra_8888_sse2_lowp+0x13d8>
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,56,0,238 ; pshufb %xmm6,%xmm5
- DB 102,65,15,111,248 ; movdqa %xmm8,%xmm7
- DB 102,15,56,0,254 ; pshufb %xmm6,%xmm7
- DB 102,15,108,239 ; punpcklqdq %xmm7,%xmm5
- DB 102,68,15,111,37,216,89,0,0 ; movdqa 0x59d8(%rip),%xmm12 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,65,15,219,244 ; pand %xmm12,%xmm6
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,68,15,111,13,113,97,0,0 ; movdqa 0x6171(%rip),%xmm9 # 35c00 <_sk_srcover_bgra_8888_sse2_lowp+0x13e8>
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,65,15,56,0,249 ; pshufb %xmm9,%xmm7
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,69,15,56,0,209 ; pshufb %xmm9,%xmm10
- DB 102,65,15,108,250 ; punpcklqdq %xmm10,%xmm7
- DB 102,68,15,111,13,94,97,0,0 ; movdqa 0x615e(%rip),%xmm9 # 35c10 <_sk_srcover_bgra_8888_sse2_lowp+0x13f8>
- DB 102,65,15,56,0,225 ; pshufb %xmm9,%xmm4
- DB 102,69,15,56,0,193 ; pshufb %xmm9,%xmm8
- DB 102,65,15,108,224 ; punpcklqdq %xmm8,%xmm4
- DB 102,65,15,219,228 ; pand %xmm12,%xmm4
- DB 102,69,15,111,196 ; movdqa %xmm12,%xmm8
- DB 102,68,15,249,195 ; psubw %xmm3,%xmm8
- DB 102,68,15,111,204 ; movdqa %xmm4,%xmm9
- DB 102,69,15,213,200 ; pmullw %xmm8,%xmm9
- DB 102,69,15,253,204 ; paddw %xmm12,%xmm9
- DB 102,65,15,113,209,8 ; psrlw $0x8,%xmm9
- DB 102,68,15,253,200 ; paddw %xmm0,%xmm9
- DB 102,68,15,111,213 ; movdqa %xmm5,%xmm10
- DB 102,69,15,213,208 ; pmullw %xmm8,%xmm10
- DB 102,69,15,253,212 ; paddw %xmm12,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,68,15,253,209 ; paddw %xmm1,%xmm10
- DB 102,68,15,111,222 ; movdqa %xmm6,%xmm11
- DB 102,69,15,213,216 ; pmullw %xmm8,%xmm11
- DB 102,69,15,253,220 ; paddw %xmm12,%xmm11
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,68,15,253,218 ; paddw %xmm2,%xmm11
- DB 102,68,15,213,199 ; pmullw %xmm7,%xmm8
- DB 102,69,15,253,196 ; paddw %xmm12,%xmm8
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,68,15,253,195 ; paddw %xmm3,%xmm8
- DB 102,65,15,111,194 ; movdqa %xmm10,%xmm0
- DB 102,15,113,240,8 ; psllw $0x8,%xmm0
- DB 102,65,15,235,195 ; por %xmm11,%xmm0
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,15,56,51,209 ; pmovzxwd %xmm1,%xmm2
- DB 102,68,15,56,51,224 ; pmovzxwd %xmm0,%xmm12
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,113,243,8 ; psllw $0x8,%xmm3
- DB 102,65,15,235,217 ; por %xmm9,%xmm3
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,105,203 ; punpckhwd %xmm3,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 102,15,97,195 ; punpcklwd %xmm3,%xmm0
- DB 102,65,15,235,196 ; por %xmm12,%xmm0
- DB 65,128,250,6 ; cmp $0x6,%r10b
- DB 119,24 ; ja 2fb9a <_sk_srcover_bgra_8888_sse41_lowp+0x1ee>
- DB 76,141,21,135,0,0,0 ; lea 0x87(%rip),%r10 # 2fc10 <_sk_srcover_bgra_8888_sse41_lowp+0x264>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,65,15,126,4,144 ; movd %xmm0,(%r8,%rdx,4)
- DB 235,63 ; jmp 2fbd9 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
- DB 243,65,15,127,4,144 ; movdqu %xmm0,(%r8,%rdx,4)
- DB 243,65,15,127,76,144,16 ; movdqu %xmm1,0x10(%r8,%rdx,4)
- DB 235,48 ; jmp 2fbd9 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
- DB 102,65,15,58,22,68,144,8,2 ; pextrd $0x2,%xmm0,0x8(%r8,%rdx,4)
- DB 102,65,15,214,4,144 ; movq %xmm0,(%r8,%rdx,4)
- DB 235,31 ; jmp 2fbd9 <_sk_srcover_bgra_8888_sse41_lowp+0x22d>
- DB 102,65,15,58,22,76,144,24,2 ; pextrd $0x2,%xmm1,0x18(%r8,%rdx,4)
- DB 102,65,15,58,22,76,144,20,1 ; pextrd $0x1,%xmm1,0x14(%r8,%rdx,4)
- DB 102,65,15,126,76,144,16 ; movd %xmm1,0x10(%r8,%rdx,4)
- DB 243,65,15,127,4,144 ; movdqu %xmm0,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
- DB 102,65,15,111,211 ; movdqa %xmm11,%xmm2
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 246,253 ; idiv %ch
- DB 255 ; (bad)
- DB 255,35 ; jmpq *(%rbx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,18 ; callq *(%rdx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,86,254 ; callq *-0x2(%rsi)
- DB 255 ; (bad)
- DB 255,77,254 ; decl -0x2(%rbp)
- DB 255 ; (bad)
- DB 255,68,254,255 ; incl -0x1(%rsi,%rdi,8)
- DB 255,55 ; pushq (%rdi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,130,255,255,255,162 ; incl -0x5d000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,153,255,255,255,195 ; lcall *-0x3c000001(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 188,255,255,255,179 ; mov $0xb3ffffff,%esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 170 ; stos %al,%es:(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_start_pipeline_sse2_lowp
-_sk_start_pipeline_sse2_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 72,137,229 ; mov %rsp,%rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 86 ; push %rsi
- DB 87 ; push %rdi
- DB 83 ; push %rbx
- DB 72,129,236,200,0,0,0 ; sub $0xc8,%rsp
- DB 68,15,41,125,176 ; movaps %xmm15,-0x50(%rbp)
- DB 68,15,41,117,160 ; movaps %xmm14,-0x60(%rbp)
- DB 68,15,41,109,144 ; movaps %xmm13,-0x70(%rbp)
- DB 68,15,41,101,128 ; movaps %xmm12,-0x80(%rbp)
- DB 68,15,41,157,112,255,255,255 ; movaps %xmm11,-0x90(%rbp)
- DB 68,15,41,149,96,255,255,255 ; movaps %xmm10,-0xa0(%rbp)
- DB 68,15,41,141,80,255,255,255 ; movaps %xmm9,-0xb0(%rbp)
- DB 68,15,41,133,64,255,255,255 ; movaps %xmm8,-0xc0(%rbp)
- DB 15,41,189,48,255,255,255 ; movaps %xmm7,-0xd0(%rbp)
- DB 15,41,181,32,255,255,255 ; movaps %xmm6,-0xe0(%rbp)
- DB 77,137,199 ; mov %r8,%r15
- DB 72,137,211 ; mov %rdx,%rbx
- DB 72,137,141,24,255,255,255 ; mov %rcx,-0xe8(%rbp)
- DB 72,139,117,48 ; mov 0x30(%rbp),%rsi
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 73,137,197 ; mov %rax,%r13
- DB 73,137,246 ; mov %rsi,%r14
- DB 76,137,141,8,255,255,255 ; mov %r9,-0xf8(%rbp)
- DB 76,57,203 ; cmp %r9,%rbx
- DB 15,131,153,0,0,0 ; jae 2fd46 <_sk_start_pipeline_sse2_lowp+0x11a>
- DB 72,139,133,24,255,255,255 ; mov -0xe8(%rbp),%rax
- DB 72,141,64,8 ; lea 0x8(%rax),%rax
- DB 72,137,133,16,255,255,255 ; mov %rax,-0xf0(%rbp)
- DB 76,57,189,16,255,255,255 ; cmp %r15,-0xf0(%rbp)
- DB 72,139,149,24,255,255,255 ; mov -0xe8(%rbp),%rdx
- DB 119,62 ; ja 2fd0d <_sk_start_pipeline_sse2_lowp+0xe1>
- DB 76,139,165,24,255,255,255 ; mov -0xe8(%rbp),%r12
- DB 49,255 ; xor %edi,%edi
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 76,137,246 ; mov %r14,%rsi
- DB 76,137,226 ; mov %r12,%rdx
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 73,141,84,36,8 ; lea 0x8(%r12),%rdx
- DB 73,131,196,16 ; add $0x10,%r12
- DB 77,57,252 ; cmp %r15,%r12
- DB 73,137,212 ; mov %rdx,%r12
- DB 118,201 ; jbe 2fcd6 <_sk_start_pipeline_sse2_lowp+0xaa>
- DB 76,137,255 ; mov %r15,%rdi
- DB 72,41,215 ; sub %rdx,%rdi
- DB 116,33 ; je 2fd36 <_sk_start_pipeline_sse2_lowp+0x10a>
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 76,137,246 ; mov %r14,%rsi
- DB 72,137,217 ; mov %rbx,%rcx
- DB 65,255,213 ; callq *%r13
- DB 72,255,195 ; inc %rbx
- DB 72,59,157,8,255,255,255 ; cmp -0xf8(%rbp),%rbx
- DB 15,133,121,255,255,255 ; jne 2fcbf <_sk_start_pipeline_sse2_lowp+0x93>
- DB 15,40,181,32,255,255,255 ; movaps -0xe0(%rbp),%xmm6
- DB 15,40,189,48,255,255,255 ; movaps -0xd0(%rbp),%xmm7
- DB 68,15,40,133,64,255,255,255 ; movaps -0xc0(%rbp),%xmm8
- DB 68,15,40,141,80,255,255,255 ; movaps -0xb0(%rbp),%xmm9
- DB 68,15,40,149,96,255,255,255 ; movaps -0xa0(%rbp),%xmm10
- DB 68,15,40,157,112,255,255,255 ; movaps -0x90(%rbp),%xmm11
- DB 68,15,40,101,128 ; movaps -0x80(%rbp),%xmm12
- DB 68,15,40,109,144 ; movaps -0x70(%rbp),%xmm13
- DB 68,15,40,117,160 ; movaps -0x60(%rbp),%xmm14
- DB 68,15,40,125,176 ; movaps -0x50(%rbp),%xmm15
- DB 72,129,196,200,0,0,0 ; add $0xc8,%rsp
- DB 91 ; pop %rbx
- DB 95 ; pop %rdi
- DB 94 ; pop %rsi
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 195 ; retq
-
-PUBLIC _sk_just_return_sse2_lowp
-_sk_just_return_sse2_lowp LABEL PROC
- DB 195 ; retq
-
-PUBLIC _sk_seed_shader_sse2_lowp
-_sk_seed_shader_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,110,194 ; movd %edx,%xmm0
- DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
- DB 15,91,208 ; cvtdq2ps %xmm0,%xmm2
- DB 15,16,0 ; movups (%rax),%xmm0
- DB 15,16,72,16 ; movups 0x10(%rax),%xmm1
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 102,15,110,209 ; movd %ecx,%xmm2
- DB 102,15,112,210,0 ; pshufd $0x0,%xmm2,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,88,21,213,86,0,0 ; addps 0x56d5(%rip),%xmm2 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_translate_sse2_lowp
-_sk_matrix_translate_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 65,15,88,209 ; addps %xmm9,%xmm2
- DB 65,15,88,217 ; addps %xmm9,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_scale_translate_sse2_lowp
-_sk_matrix_scale_translate_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,88,194 ; addps %xmm10,%xmm0
- DB 65,15,88,202 ; addps %xmm10,%xmm1
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 65,15,89,217 ; mulps %xmm9,%xmm3
- DB 65,15,89,209 ; mulps %xmm9,%xmm2
- DB 65,15,88,208 ; addps %xmm8,%xmm2
- DB 65,15,88,216 ; addps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_2x3_sse2_lowp
-_sk_matrix_2x3_sse2_lowp LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,68,15,16,88,4 ; movss 0x4(%rax),%xmm11
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,68,15,16,80,8 ; movss 0x8(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,72,16 ; movss 0x10(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,40,226 ; movaps %xmm2,%xmm12
- DB 69,15,89,226 ; mulps %xmm10,%xmm12
- DB 68,15,89,211 ; mulps %xmm3,%xmm10
- DB 69,15,88,209 ; addps %xmm9,%xmm10
- DB 69,15,88,225 ; addps %xmm9,%xmm12
- DB 68,15,40,201 ; movaps %xmm1,%xmm9
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 65,15,89,192 ; mulps %xmm8,%xmm0
- DB 65,15,88,196 ; addps %xmm12,%xmm0
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 243,68,15,16,80,12 ; movss 0xc(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,96,20 ; movss 0x14(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 65,15,89,210 ; mulps %xmm10,%xmm2
- DB 68,15,89,211 ; mulps %xmm3,%xmm10
- DB 69,15,88,212 ; addps %xmm12,%xmm10
- DB 65,15,88,212 ; addps %xmm12,%xmm2
- DB 65,15,89,203 ; mulps %xmm11,%xmm1
- DB 68,15,88,209 ; addps %xmm1,%xmm10
- DB 69,15,89,216 ; mulps %xmm8,%xmm11
- DB 65,15,88,211 ; addps %xmm11,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,201 ; movaps %xmm9,%xmm1
- DB 65,15,40,218 ; movaps %xmm10,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_matrix_perspective_sse2_lowp
-_sk_matrix_perspective_sse2_lowp LABEL PROC
- DB 68,15,40,193 ; movaps %xmm1,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,8 ; movss (%rax),%xmm1
- DB 243,68,15,16,80,4 ; movss 0x4(%rax),%xmm10
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,72,8 ; movss 0x8(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,40,219 ; movaps %xmm3,%xmm11
- DB 69,15,89,218 ; mulps %xmm10,%xmm11
- DB 68,15,89,210 ; mulps %xmm2,%xmm10
- DB 69,15,88,209 ; addps %xmm9,%xmm10
- DB 69,15,88,217 ; addps %xmm9,%xmm11
- DB 68,15,40,200 ; movaps %xmm0,%xmm9
- DB 68,15,89,201 ; mulps %xmm1,%xmm9
- DB 69,15,88,202 ; addps %xmm10,%xmm9
- DB 65,15,89,200 ; mulps %xmm8,%xmm1
- DB 65,15,88,203 ; addps %xmm11,%xmm1
- DB 243,68,15,16,96,12 ; movss 0xc(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 243,68,15,16,80,16 ; movss 0x10(%rax),%xmm10
- DB 69,15,198,210,0 ; shufps $0x0,%xmm10,%xmm10
- DB 243,68,15,16,104,20 ; movss 0x14(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 68,15,40,219 ; movaps %xmm3,%xmm11
- DB 69,15,89,218 ; mulps %xmm10,%xmm11
- DB 68,15,89,210 ; mulps %xmm2,%xmm10
- DB 69,15,88,213 ; addps %xmm13,%xmm10
- DB 69,15,88,221 ; addps %xmm13,%xmm11
- DB 68,15,40,232 ; movaps %xmm0,%xmm13
- DB 69,15,89,236 ; mulps %xmm12,%xmm13
- DB 69,15,88,213 ; addps %xmm13,%xmm10
- DB 69,15,89,224 ; mulps %xmm8,%xmm12
- DB 69,15,88,220 ; addps %xmm12,%xmm11
- DB 243,68,15,16,96,24 ; movss 0x18(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 243,68,15,16,104,28 ; movss 0x1c(%rax),%xmm13
- DB 69,15,198,237,0 ; shufps $0x0,%xmm13,%xmm13
- DB 243,68,15,16,112,32 ; movss 0x20(%rax),%xmm14
- DB 69,15,198,246,0 ; shufps $0x0,%xmm14,%xmm14
- DB 65,15,89,221 ; mulps %xmm13,%xmm3
- DB 68,15,89,234 ; mulps %xmm2,%xmm13
- DB 69,15,88,238 ; addps %xmm14,%xmm13
- DB 65,15,88,222 ; addps %xmm14,%xmm3
- DB 65,15,89,196 ; mulps %xmm12,%xmm0
- DB 65,15,88,197 ; addps %xmm13,%xmm0
- DB 69,15,89,224 ; mulps %xmm8,%xmm12
- DB 68,15,88,227 ; addps %xmm3,%xmm12
- DB 15,83,192 ; rcpps %xmm0,%xmm0
- DB 65,15,83,212 ; rcpps %xmm12,%xmm2
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 68,15,89,208 ; mulps %xmm0,%xmm10
- DB 68,15,89,218 ; mulps %xmm2,%xmm11
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 65,15,40,193 ; movaps %xmm9,%xmm0
- DB 65,15,40,210 ; movaps %xmm10,%xmm2
- DB 65,15,40,219 ; movaps %xmm11,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_uniform_color_sse2_lowp
-_sk_uniform_color_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,110,64,16 ; movd 0x10(%rax),%xmm0
- DB 242,15,112,192,0 ; pshuflw $0x0,%xmm0,%xmm0
- DB 102,15,112,192,80 ; pshufd $0x50,%xmm0,%xmm0
- DB 68,15,183,64,18 ; movzwl 0x12(%rax),%r8d
- DB 102,65,15,110,200 ; movd %r8d,%xmm1
- DB 242,15,112,201,0 ; pshuflw $0x0,%xmm1,%xmm1
- DB 102,15,112,201,80 ; pshufd $0x50,%xmm1,%xmm1
- DB 102,15,110,80,20 ; movd 0x14(%rax),%xmm2
- DB 242,15,112,210,0 ; pshuflw $0x0,%xmm2,%xmm2
- DB 102,15,112,210,80 ; pshufd $0x50,%xmm2,%xmm2
- DB 15,183,64,22 ; movzwl 0x16(%rax),%eax
- DB 102,15,110,216 ; movd %eax,%xmm3
- DB 242,15,112,219,0 ; pshuflw $0x0,%xmm3,%xmm3
- DB 102,15,112,219,80 ; pshufd $0x50,%xmm3,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_black_color_sse2_lowp
-_sk_black_color_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,26,84,0,0 ; movaps 0x541a(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_white_color_sse2_lowp
-_sk_white_color_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,5,6,84,0,0 ; movaps 0x5406(%rip),%xmm0 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_set_rgb_sse2_lowp
-_sk_set_rgb_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,21,149,74,0,0 ; movss 0x4a95(%rip),%xmm2 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 243,15,16,0 ; movss (%rax),%xmm0
- DB 243,15,89,194 ; mulss %xmm2,%xmm0
- DB 243,68,15,16,5,84,74,0,0 ; movss 0x4a54(%rip),%xmm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 243,65,15,88,192 ; addss %xmm8,%xmm0
- DB 243,68,15,44,192 ; cvttss2si %xmm0,%r8d
- DB 102,65,15,110,192 ; movd %r8d,%xmm0
- DB 242,15,112,192,0 ; pshuflw $0x0,%xmm0,%xmm0
- DB 102,15,112,192,80 ; pshufd $0x50,%xmm0,%xmm0
- DB 243,15,16,72,4 ; movss 0x4(%rax),%xmm1
- DB 243,15,89,202 ; mulss %xmm2,%xmm1
- DB 243,65,15,88,200 ; addss %xmm8,%xmm1
- DB 243,68,15,44,193 ; cvttss2si %xmm1,%r8d
- DB 102,65,15,110,200 ; movd %r8d,%xmm1
- DB 242,15,112,201,0 ; pshuflw $0x0,%xmm1,%xmm1
- DB 102,15,112,201,80 ; pshufd $0x50,%xmm1,%xmm1
- DB 243,15,89,80,8 ; mulss 0x8(%rax),%xmm2
- DB 243,65,15,88,208 ; addss %xmm8,%xmm2
- DB 243,15,44,194 ; cvttss2si %xmm2,%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 242,15,112,210,0 ; pshuflw $0x0,%xmm2,%xmm2
- DB 102,15,112,210,80 ; pshufd $0x50,%xmm2,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_a_sse2_lowp
-_sk_clamp_a_sse2_lowp LABEL PROC
- DB 102,68,15,111,5,12,91,0,0 ; movdqa 0x5b0c(%rip),%xmm8 # 35be0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 102,69,15,239,200 ; pxor %xmm8,%xmm9
- DB 102,68,15,111,211 ; movdqa %xmm3,%xmm10
- DB 102,69,15,239,208 ; pxor %xmm8,%xmm10
- DB 102,69,15,111,218 ; movdqa %xmm10,%xmm11
- DB 102,69,15,101,217 ; pcmpgtw %xmm9,%xmm11
- DB 102,65,15,219,195 ; pand %xmm11,%xmm0
- DB 102,68,15,223,219 ; pandn %xmm3,%xmm11
- DB 102,65,15,235,195 ; por %xmm11,%xmm0
- DB 102,68,15,111,201 ; movdqa %xmm1,%xmm9
- DB 102,69,15,239,200 ; pxor %xmm8,%xmm9
- DB 102,69,15,111,218 ; movdqa %xmm10,%xmm11
- DB 102,69,15,101,217 ; pcmpgtw %xmm9,%xmm11
- DB 102,65,15,219,203 ; pand %xmm11,%xmm1
- DB 102,68,15,223,219 ; pandn %xmm3,%xmm11
- DB 102,65,15,235,203 ; por %xmm11,%xmm1
- DB 102,68,15,239,194 ; pxor %xmm2,%xmm8
- DB 102,69,15,101,208 ; pcmpgtw %xmm8,%xmm10
- DB 102,65,15,219,210 ; pand %xmm10,%xmm2
- DB 102,68,15,223,211 ; pandn %xmm3,%xmm10
- DB 102,65,15,235,210 ; por %xmm10,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clamp_a_dst_sse2_lowp
-_sk_clamp_a_dst_sse2_lowp LABEL PROC
- DB 102,68,15,111,5,150,90,0,0 ; movdqa 0x5a96(%rip),%xmm8 # 35be0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- DB 102,68,15,111,204 ; movdqa %xmm4,%xmm9
- DB 102,69,15,239,200 ; pxor %xmm8,%xmm9
- DB 102,68,15,111,215 ; movdqa %xmm7,%xmm10
- DB 102,69,15,239,208 ; pxor %xmm8,%xmm10
- DB 102,69,15,111,218 ; movdqa %xmm10,%xmm11
- DB 102,69,15,101,217 ; pcmpgtw %xmm9,%xmm11
- DB 102,65,15,219,227 ; pand %xmm11,%xmm4
- DB 102,68,15,223,223 ; pandn %xmm7,%xmm11
- DB 102,65,15,235,227 ; por %xmm11,%xmm4
- DB 102,68,15,111,205 ; movdqa %xmm5,%xmm9
- DB 102,69,15,239,200 ; pxor %xmm8,%xmm9
- DB 102,69,15,111,218 ; movdqa %xmm10,%xmm11
- DB 102,69,15,101,217 ; pcmpgtw %xmm9,%xmm11
- DB 102,65,15,219,235 ; pand %xmm11,%xmm5
- DB 102,68,15,223,223 ; pandn %xmm7,%xmm11
- DB 102,65,15,235,235 ; por %xmm11,%xmm5
- DB 102,68,15,239,198 ; pxor %xmm6,%xmm8
- DB 102,69,15,101,208 ; pcmpgtw %xmm8,%xmm10
- DB 102,65,15,219,242 ; pand %xmm10,%xmm6
- DB 102,68,15,223,215 ; pandn %xmm7,%xmm10
- DB 102,65,15,235,242 ; por %xmm10,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_sse2_lowp
-_sk_premul_sse2_lowp LABEL PROC
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,68,15,111,5,140,82,0,0 ; movdqa 0x528c(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,213,211 ; pmullw %xmm3,%xmm2
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_premul_dst_sse2_lowp
-_sk_premul_dst_sse2_lowp LABEL PROC
- DB 102,15,213,231 ; pmullw %xmm7,%xmm4
- DB 102,68,15,111,5,85,82,0,0 ; movdqa 0x5255(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,224 ; paddw %xmm8,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,213,239 ; pmullw %xmm7,%xmm5
- DB 102,65,15,253,232 ; paddw %xmm8,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,213,247 ; pmullw %xmm7,%xmm6
- DB 102,65,15,253,240 ; paddw %xmm8,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_force_opaque_sse2_lowp
-_sk_force_opaque_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,34,82,0,0 ; movaps 0x5222(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_force_opaque_dst_sse2_lowp
-_sk_force_opaque_dst_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,23,82,0,0 ; movaps 0x5217(%rip),%xmm7 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_swap_rb_sse2_lowp
-_sk_swap_rb_sse2_lowp LABEL PROC
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 65,15,40,208 ; movaps %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_src_dst_sse2_lowp
-_sk_move_src_dst_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,40,242 ; movaps %xmm2,%xmm6
- DB 15,40,251 ; movaps %xmm3,%xmm7
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_move_dst_src_sse2_lowp
-_sk_move_dst_src_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,40,223 ; movaps %xmm7,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_invert_sse2_lowp
-_sk_invert_sse2_lowp LABEL PROC
- DB 102,68,15,111,5,221,81,0,0 ; movdqa 0x51dd(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
- DB 102,68,15,249,200 ; psubw %xmm0,%xmm9
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,249,209 ; psubw %xmm1,%xmm10
- DB 102,69,15,111,216 ; movdqa %xmm8,%xmm11
- DB 102,68,15,249,218 ; psubw %xmm2,%xmm11
- DB 102,68,15,249,195 ; psubw %xmm3,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
- DB 102,65,15,111,211 ; movdqa %xmm11,%xmm2
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_clear_sse2_lowp
-_sk_clear_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcatop_sse2_lowp
-_sk_srcatop_sse2_lowp LABEL PROC
- DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,111,29,129,81,0,0 ; movdqa 0x5181(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,68,15,111,203 ; movdqa %xmm3,%xmm9
- DB 102,69,15,249,200 ; psubw %xmm8,%xmm9
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,213,196 ; pmullw %xmm4,%xmm8
- DB 102,15,253,195 ; paddw %xmm3,%xmm0
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,213,207 ; pmullw %xmm7,%xmm1
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,213,197 ; pmullw %xmm5,%xmm8
- DB 102,15,253,203 ; paddw %xmm3,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,68,15,213,206 ; pmullw %xmm6,%xmm9
- DB 102,15,253,211 ; paddw %xmm3,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,68,15,111,199 ; movdqa %xmm7,%xmm8
- DB 102,68,15,213,195 ; pmullw %xmm3,%xmm8
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstatop_sse2_lowp
-_sk_dstatop_sse2_lowp LABEL PROC
- DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
- DB 102,68,15,213,195 ; pmullw %xmm3,%xmm8
- DB 102,68,15,111,13,1,81,0,0 ; movdqa 0x5101(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
- DB 102,68,15,111,213 ; movdqa %xmm5,%xmm10
- DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,68,15,111,222 ; movdqa %xmm6,%xmm11
- DB 102,68,15,213,219 ; pmullw %xmm3,%xmm11
- DB 102,69,15,253,217 ; paddw %xmm9,%xmm11
- DB 102,65,15,213,217 ; pmullw %xmm9,%xmm3
- DB 102,65,15,253,217 ; paddw %xmm9,%xmm3
- DB 102,68,15,249,207 ; psubw %xmm7,%xmm9
- DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,65,15,213,201 ; pmullw %xmm9,%xmm1
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,65,15,213,209 ; pmullw %xmm9,%xmm2
- DB 102,65,15,253,211 ; paddw %xmm11,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcin_sse2_lowp
-_sk_srcin_sse2_lowp LABEL PROC
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,68,15,111,5,140,80,0,0 ; movdqa 0x508c(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,213,207 ; pmullw %xmm7,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstin_sse2_lowp
-_sk_dstin_sse2_lowp LABEL PROC
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,68,15,111,5,67,80,0,0 ; movdqa 0x5043(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,111,214 ; movdqa %xmm6,%xmm2
- DB 102,15,213,211 ; pmullw %xmm3,%xmm2
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcout_sse2_lowp
-_sk_srcout_sse2_lowp LABEL PROC
- DB 102,68,15,111,5,250,79,0,0 ; movdqa 0x4ffa(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
- DB 102,68,15,249,207 ; psubw %xmm7,%xmm9
- DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,65,15,213,201 ; pmullw %xmm9,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,65,15,213,209 ; pmullw %xmm9,%xmm2
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,65,15,213,217 ; pmullw %xmm9,%xmm3
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstout_sse2_lowp
-_sk_dstout_sse2_lowp LABEL PROC
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,68,15,111,5,163,79,0,0 ; movdqa 0x4fa3(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,249,216 ; psubw %xmm0,%xmm3
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,213,214 ; pmullw %xmm6,%xmm2
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_sse2_lowp
-_sk_srcover_sse2_lowp LABEL PROC
- DB 102,68,15,111,13,73,79,0,0 ; movdqa 0x4f49(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,249,195 ; psubw %xmm3,%xmm8
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,213,212 ; pmullw %xmm4,%xmm10
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,213,213 ; pmullw %xmm5,%xmm10
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,213,214 ; pmullw %xmm6,%xmm10
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,65,15,253,210 ; paddw %xmm10,%xmm2
- DB 102,68,15,213,199 ; pmullw %xmm7,%xmm8
- DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_dstover_sse2_lowp
-_sk_dstover_sse2_lowp LABEL PROC
- DB 102,68,15,111,5,207,78,0,0 ; movdqa 0x4ecf(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
- DB 102,68,15,249,207 ; psubw %xmm7,%xmm9
- DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,253,196 ; paddw %xmm4,%xmm0
- DB 102,65,15,213,201 ; pmullw %xmm9,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,253,205 ; paddw %xmm5,%xmm1
- DB 102,65,15,213,209 ; pmullw %xmm9,%xmm2
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,253,214 ; paddw %xmm6,%xmm2
- DB 102,65,15,213,217 ; pmullw %xmm9,%xmm3
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,253,223 ; paddw %xmm7,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_modulate_sse2_lowp
-_sk_modulate_sse2_lowp LABEL PROC
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,68,15,111,5,104,78,0,0 ; movdqa 0x4e68(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,213,214 ; pmullw %xmm6,%xmm2
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_multiply_sse2_lowp
-_sk_multiply_sse2_lowp LABEL PROC
- DB 102,68,15,111,13,39,78,0,0 ; movdqa 0x4e27(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,249,195 ; psubw %xmm3,%xmm8
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,213,212 ; pmullw %xmm4,%xmm10
- DB 102,68,15,111,220 ; movdqa %xmm4,%xmm11
- DB 102,69,15,253,217 ; paddw %xmm9,%xmm11
- DB 102,68,15,249,223 ; psubw %xmm7,%xmm11
- DB 102,65,15,213,195 ; pmullw %xmm11,%xmm0
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,213,213 ; pmullw %xmm5,%xmm10
- DB 102,68,15,111,221 ; movdqa %xmm5,%xmm11
- DB 102,69,15,253,217 ; paddw %xmm9,%xmm11
- DB 102,68,15,249,223 ; psubw %xmm7,%xmm11
- DB 102,65,15,213,203 ; pmullw %xmm11,%xmm1
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,68,15,213,214 ; pmullw %xmm6,%xmm10
- DB 102,68,15,111,222 ; movdqa %xmm6,%xmm11
- DB 102,69,15,253,217 ; paddw %xmm9,%xmm11
- DB 102,68,15,249,223 ; psubw %xmm7,%xmm11
- DB 102,65,15,213,211 ; pmullw %xmm11,%xmm2
- DB 102,69,15,253,209 ; paddw %xmm9,%xmm10
- DB 102,65,15,253,210 ; paddw %xmm10,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,68,15,213,199 ; pmullw %xmm7,%xmm8
- DB 102,65,15,213,217 ; pmullw %xmm9,%xmm3
- DB 102,65,15,253,217 ; paddw %xmm9,%xmm3
- DB 102,65,15,253,216 ; paddw %xmm8,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_plus__sse2_lowp
-_sk_plus__sse2_lowp LABEL PROC
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,253,204 ; paddw %xmm4,%xmm1
- DB 102,68,15,111,21,243,85,0,0 ; movdqa 0x55f3(%rip),%xmm10 # 35ce0 <_sk_srcover_bgra_8888_sse2_lowp+0x14c8>
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,65,15,217,194 ; psubusw %xmm10,%xmm0
- DB 102,69,15,239,228 ; pxor %xmm12,%xmm12
- DB 102,65,15,117,196 ; pcmpeqw %xmm12,%xmm0
- DB 102,68,15,111,29,71,77,0,0 ; movdqa 0x4d47(%rip),%xmm11 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 102,65,15,223,195 ; pandn %xmm11,%xmm0
- DB 102,15,235,193 ; por %xmm1,%xmm0
- DB 102,68,15,253,197 ; paddw %xmm5,%xmm8
- DB 102,65,15,111,200 ; movdqa %xmm8,%xmm1
- DB 102,65,15,217,202 ; psubusw %xmm10,%xmm1
- DB 102,65,15,117,204 ; pcmpeqw %xmm12,%xmm1
- DB 102,68,15,219,193 ; pand %xmm1,%xmm8
- DB 102,65,15,223,203 ; pandn %xmm11,%xmm1
- DB 102,65,15,235,200 ; por %xmm8,%xmm1
- DB 102,15,253,214 ; paddw %xmm6,%xmm2
- DB 102,68,15,111,194 ; movdqa %xmm2,%xmm8
- DB 102,69,15,217,194 ; psubusw %xmm10,%xmm8
- DB 102,69,15,117,196 ; pcmpeqw %xmm12,%xmm8
- DB 102,65,15,219,208 ; pand %xmm8,%xmm2
- DB 102,69,15,223,195 ; pandn %xmm11,%xmm8
- DB 102,68,15,235,194 ; por %xmm2,%xmm8
- DB 102,15,253,223 ; paddw %xmm7,%xmm3
- DB 102,68,15,111,203 ; movdqa %xmm3,%xmm9
- DB 102,69,15,217,202 ; psubusw %xmm10,%xmm9
- DB 102,69,15,117,204 ; pcmpeqw %xmm12,%xmm9
- DB 102,65,15,219,217 ; pand %xmm9,%xmm3
- DB 102,69,15,223,203 ; pandn %xmm11,%xmm9
- DB 102,68,15,235,203 ; por %xmm3,%xmm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_screen_sse2_lowp
-_sk_screen_sse2_lowp LABEL PROC
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,68,15,111,21,167,76,0,0 ; movdqa 0x4ca7(%rip),%xmm10 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,68,15,213,197 ; pmullw %xmm5,%xmm8
- DB 102,69,15,253,194 ; paddw %xmm10,%xmm8
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,65,15,249,200 ; psubw %xmm8,%xmm1
- DB 102,68,15,111,198 ; movdqa %xmm6,%xmm8
- DB 102,68,15,253,194 ; paddw %xmm2,%xmm8
- DB 102,15,213,214 ; pmullw %xmm6,%xmm2
- DB 102,65,15,253,210 ; paddw %xmm10,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,68,15,249,194 ; psubw %xmm2,%xmm8
- DB 102,68,15,111,207 ; movdqa %xmm7,%xmm9
- DB 102,68,15,253,203 ; paddw %xmm3,%xmm9
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,65,15,253,218 ; paddw %xmm10,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,68,15,249,203 ; psubw %xmm3,%xmm9
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xor__sse2_lowp
-_sk_xor__sse2_lowp LABEL PROC
- DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,68,15,111,13,37,76,0,0 ; movdqa 0x4c25(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,111,209 ; movdqa %xmm9,%xmm10
- DB 102,68,15,249,215 ; psubw %xmm7,%xmm10
- DB 102,65,15,213,194 ; pmullw %xmm10,%xmm0
- DB 102,65,15,111,217 ; movdqa %xmm9,%xmm3
- DB 102,65,15,249,216 ; psubw %xmm8,%xmm3
- DB 102,68,15,111,219 ; movdqa %xmm3,%xmm11
- DB 102,68,15,213,220 ; pmullw %xmm4,%xmm11
- DB 102,65,15,253,195 ; paddw %xmm11,%xmm0
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,65,15,213,202 ; pmullw %xmm10,%xmm1
- DB 102,68,15,111,219 ; movdqa %xmm3,%xmm11
- DB 102,68,15,213,221 ; pmullw %xmm5,%xmm11
- DB 102,65,15,253,203 ; paddw %xmm11,%xmm1
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,65,15,213,210 ; pmullw %xmm10,%xmm2
- DB 102,68,15,111,219 ; movdqa %xmm3,%xmm11
- DB 102,68,15,213,222 ; pmullw %xmm6,%xmm11
- DB 102,65,15,253,211 ; paddw %xmm11,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,69,15,213,208 ; pmullw %xmm8,%xmm10
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,65,15,253,218 ; paddw %xmm10,%xmm3
- DB 102,65,15,253,217 ; paddw %xmm9,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_darken_sse2_lowp
-_sk_darken_sse2_lowp LABEL PROC
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,68,15,111,208 ; movdqa %xmm0,%xmm10
- DB 102,68,15,111,228 ; movdqa %xmm4,%xmm12
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,68,15,213,215 ; pmullw %xmm7,%xmm10
- DB 102,68,15,213,227 ; pmullw %xmm3,%xmm12
- DB 102,68,15,111,13,0,83,0,0 ; movdqa 0x5300(%rip),%xmm9 # 35be0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- DB 102,69,15,111,218 ; movdqa %xmm10,%xmm11
- DB 102,69,15,239,217 ; pxor %xmm9,%xmm11
- DB 102,65,15,111,204 ; movdqa %xmm12,%xmm1
- DB 102,65,15,239,201 ; pxor %xmm9,%xmm1
- DB 102,65,15,101,203 ; pcmpgtw %xmm11,%xmm1
- DB 102,68,15,219,225 ; pand %xmm1,%xmm12
- DB 102,65,15,223,202 ; pandn %xmm10,%xmm1
- DB 102,65,15,235,204 ; por %xmm12,%xmm1
- DB 102,68,15,111,21,63,75,0,0 ; movdqa 0x4b3f(%rip),%xmm10 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,68,15,111,221 ; movdqa %xmm5,%xmm11
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,68,15,213,199 ; pmullw %xmm7,%xmm8
- DB 102,68,15,213,219 ; pmullw %xmm3,%xmm11
- DB 102,69,15,111,224 ; movdqa %xmm8,%xmm12
- DB 102,69,15,239,225 ; pxor %xmm9,%xmm12
- DB 102,69,15,111,235 ; movdqa %xmm11,%xmm13
- DB 102,69,15,239,233 ; pxor %xmm9,%xmm13
- DB 102,69,15,101,236 ; pcmpgtw %xmm12,%xmm13
- DB 102,69,15,219,221 ; pand %xmm13,%xmm11
- DB 102,69,15,223,232 ; pandn %xmm8,%xmm13
- DB 102,69,15,235,235 ; por %xmm11,%xmm13
- DB 102,69,15,253,234 ; paddw %xmm10,%xmm13
- DB 102,65,15,113,213,8 ; psrlw $0x8,%xmm13
- DB 102,65,15,249,205 ; psubw %xmm13,%xmm1
- DB 102,68,15,111,222 ; movdqa %xmm6,%xmm11
- DB 102,68,15,111,198 ; movdqa %xmm6,%xmm8
- DB 102,68,15,253,194 ; paddw %xmm2,%xmm8
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,68,15,213,219 ; pmullw %xmm3,%xmm11
- DB 102,68,15,111,226 ; movdqa %xmm2,%xmm12
- DB 102,69,15,239,225 ; pxor %xmm9,%xmm12
- DB 102,69,15,239,203 ; pxor %xmm11,%xmm9
- DB 102,69,15,101,204 ; pcmpgtw %xmm12,%xmm9
- DB 102,69,15,219,217 ; pand %xmm9,%xmm11
- DB 102,68,15,223,202 ; pandn %xmm2,%xmm9
- DB 102,69,15,235,203 ; por %xmm11,%xmm9
- DB 102,69,15,253,202 ; paddw %xmm10,%xmm9
- DB 102,65,15,113,209,8 ; psrlw $0x8,%xmm9
- DB 102,69,15,249,193 ; psubw %xmm9,%xmm8
- DB 102,65,15,111,210 ; movdqa %xmm10,%xmm2
- DB 102,15,249,211 ; psubw %xmm3,%xmm2
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,65,15,253,210 ; paddw %xmm10,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,253,218 ; paddw %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lighten_sse2_lowp
-_sk_lighten_sse2_lowp LABEL PROC
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,68,15,111,224 ; movdqa %xmm0,%xmm12
- DB 102,68,15,111,212 ; movdqa %xmm4,%xmm10
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,65,15,253,196 ; paddw %xmm12,%xmm0
- DB 102,68,15,213,231 ; pmullw %xmm7,%xmm12
- DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
- DB 102,68,15,111,13,215,81,0,0 ; movdqa 0x51d7(%rip),%xmm9 # 35be0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- DB 102,69,15,111,220 ; movdqa %xmm12,%xmm11
- DB 102,69,15,239,217 ; pxor %xmm9,%xmm11
- DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
- DB 102,65,15,239,201 ; pxor %xmm9,%xmm1
- DB 102,65,15,101,203 ; pcmpgtw %xmm11,%xmm1
- DB 102,68,15,219,225 ; pand %xmm1,%xmm12
- DB 102,65,15,223,202 ; pandn %xmm10,%xmm1
- DB 102,65,15,235,204 ; por %xmm12,%xmm1
- DB 102,68,15,111,21,22,74,0,0 ; movdqa 0x4a16(%rip),%xmm10 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,68,15,111,221 ; movdqa %xmm5,%xmm11
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,68,15,213,199 ; pmullw %xmm7,%xmm8
- DB 102,68,15,213,219 ; pmullw %xmm3,%xmm11
- DB 102,69,15,111,224 ; movdqa %xmm8,%xmm12
- DB 102,69,15,239,225 ; pxor %xmm9,%xmm12
- DB 102,69,15,111,235 ; movdqa %xmm11,%xmm13
- DB 102,69,15,239,233 ; pxor %xmm9,%xmm13
- DB 102,69,15,101,236 ; pcmpgtw %xmm12,%xmm13
- DB 102,69,15,219,197 ; pand %xmm13,%xmm8
- DB 102,69,15,223,235 ; pandn %xmm11,%xmm13
- DB 102,69,15,235,232 ; por %xmm8,%xmm13
- DB 102,69,15,253,234 ; paddw %xmm10,%xmm13
- DB 102,65,15,113,213,8 ; psrlw $0x8,%xmm13
- DB 102,65,15,249,205 ; psubw %xmm13,%xmm1
- DB 102,68,15,111,222 ; movdqa %xmm6,%xmm11
- DB 102,68,15,111,198 ; movdqa %xmm6,%xmm8
- DB 102,68,15,253,194 ; paddw %xmm2,%xmm8
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,68,15,213,219 ; pmullw %xmm3,%xmm11
- DB 102,68,15,111,226 ; movdqa %xmm2,%xmm12
- DB 102,69,15,239,225 ; pxor %xmm9,%xmm12
- DB 102,69,15,239,203 ; pxor %xmm11,%xmm9
- DB 102,69,15,101,204 ; pcmpgtw %xmm12,%xmm9
- DB 102,65,15,219,209 ; pand %xmm9,%xmm2
- DB 102,69,15,223,203 ; pandn %xmm11,%xmm9
- DB 102,68,15,235,202 ; por %xmm2,%xmm9
- DB 102,69,15,253,202 ; paddw %xmm10,%xmm9
- DB 102,65,15,113,209,8 ; psrlw $0x8,%xmm9
- DB 102,69,15,249,193 ; psubw %xmm9,%xmm8
- DB 102,65,15,111,210 ; movdqa %xmm10,%xmm2
- DB 102,15,249,211 ; psubw %xmm3,%xmm2
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,65,15,253,210 ; paddw %xmm10,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,253,218 ; paddw %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_difference_sse2_lowp
-_sk_difference_sse2_lowp LABEL PROC
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,68,15,111,224 ; movdqa %xmm0,%xmm12
- DB 102,68,15,111,212 ; movdqa %xmm4,%xmm10
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,65,15,253,196 ; paddw %xmm12,%xmm0
- DB 102,68,15,213,231 ; pmullw %xmm7,%xmm12
- DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
- DB 102,68,15,111,13,174,80,0,0 ; movdqa 0x50ae(%rip),%xmm9 # 35be0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- DB 102,69,15,111,220 ; movdqa %xmm12,%xmm11
- DB 102,69,15,239,217 ; pxor %xmm9,%xmm11
- DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
- DB 102,65,15,239,201 ; pxor %xmm9,%xmm1
- DB 102,65,15,101,203 ; pcmpgtw %xmm11,%xmm1
- DB 102,68,15,219,225 ; pand %xmm1,%xmm12
- DB 102,65,15,223,202 ; pandn %xmm10,%xmm1
- DB 102,65,15,235,204 ; por %xmm12,%xmm1
- DB 102,68,15,111,21,237,72,0,0 ; movdqa 0x48ed(%rip),%xmm10 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,15,113,209,7 ; psrlw $0x7,%xmm1
- DB 102,68,15,111,29,90,80,0,0 ; movdqa 0x505a(%rip),%xmm11 # 35bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8>
- DB 102,65,15,219,203 ; pand %xmm11,%xmm1
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,68,15,111,229 ; movdqa %xmm5,%xmm12
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,68,15,213,199 ; pmullw %xmm7,%xmm8
- DB 102,68,15,213,227 ; pmullw %xmm3,%xmm12
- DB 102,69,15,111,232 ; movdqa %xmm8,%xmm13
- DB 102,69,15,239,233 ; pxor %xmm9,%xmm13
- DB 102,69,15,111,244 ; movdqa %xmm12,%xmm14
- DB 102,69,15,239,241 ; pxor %xmm9,%xmm14
- DB 102,69,15,101,245 ; pcmpgtw %xmm13,%xmm14
- DB 102,69,15,219,198 ; pand %xmm14,%xmm8
- DB 102,69,15,223,244 ; pandn %xmm12,%xmm14
- DB 102,69,15,235,240 ; por %xmm8,%xmm14
- DB 102,69,15,253,242 ; paddw %xmm10,%xmm14
- DB 102,65,15,113,214,7 ; psrlw $0x7,%xmm14
- DB 102,69,15,219,243 ; pand %xmm11,%xmm14
- DB 102,65,15,249,206 ; psubw %xmm14,%xmm1
- DB 102,68,15,111,230 ; movdqa %xmm6,%xmm12
- DB 102,68,15,111,198 ; movdqa %xmm6,%xmm8
- DB 102,68,15,253,194 ; paddw %xmm2,%xmm8
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,68,15,213,227 ; pmullw %xmm3,%xmm12
- DB 102,68,15,111,234 ; movdqa %xmm2,%xmm13
- DB 102,69,15,239,233 ; pxor %xmm9,%xmm13
- DB 102,69,15,239,204 ; pxor %xmm12,%xmm9
- DB 102,69,15,101,205 ; pcmpgtw %xmm13,%xmm9
- DB 102,65,15,219,209 ; pand %xmm9,%xmm2
- DB 102,69,15,223,204 ; pandn %xmm12,%xmm9
- DB 102,68,15,235,202 ; por %xmm2,%xmm9
- DB 102,69,15,253,202 ; paddw %xmm10,%xmm9
- DB 102,65,15,113,209,7 ; psrlw $0x7,%xmm9
- DB 102,69,15,219,203 ; pand %xmm11,%xmm9
- DB 102,69,15,249,193 ; psubw %xmm9,%xmm8
- DB 102,65,15,111,210 ; movdqa %xmm10,%xmm2
- DB 102,15,249,211 ; psubw %xmm3,%xmm2
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,65,15,253,210 ; paddw %xmm10,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,253,218 ; paddw %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_exclusion_sse2_lowp
-_sk_exclusion_sse2_lowp LABEL PROC
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,68,15,111,13,234,71,0,0 ; movdqa 0x47ea(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,7 ; psrlw $0x7,%xmm1
- DB 102,68,15,111,21,87,79,0,0 ; movdqa 0x4f57(%rip),%xmm10 # 35bd0 <_sk_srcover_bgra_8888_sse2_lowp+0x13b8>
- DB 102,65,15,219,202 ; pand %xmm10,%xmm1
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,68,15,213,197 ; pmullw %xmm5,%xmm8
- DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
- DB 102,65,15,113,208,7 ; psrlw $0x7,%xmm8
- DB 102,69,15,219,194 ; pand %xmm10,%xmm8
- DB 102,65,15,249,200 ; psubw %xmm8,%xmm1
- DB 102,68,15,111,198 ; movdqa %xmm6,%xmm8
- DB 102,68,15,253,194 ; paddw %xmm2,%xmm8
- DB 102,15,213,214 ; pmullw %xmm6,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,7 ; psrlw $0x7,%xmm2
- DB 102,65,15,219,210 ; pand %xmm10,%xmm2
- DB 102,68,15,249,194 ; psubw %xmm2,%xmm8
- DB 102,65,15,111,209 ; movdqa %xmm9,%xmm2
- DB 102,15,249,211 ; psubw %xmm3,%xmm2
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,253,218 ; paddw %xmm2,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_hardlight_sse2_lowp
-_sk_hardlight_sse2_lowp LABEL PROC
- DB 72,131,236,24 ; sub $0x18,%rsp
- DB 15,41,52,36 ; movaps %xmm6,(%rsp)
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,68,15,111,194 ; movdqa %xmm2,%xmm8
- DB 102,68,15,111,200 ; movdqa %xmm0,%xmm9
- DB 102,15,111,21,67,71,0,0 ; movdqa 0x4743(%rip),%xmm2 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,68,15,111,226 ; movdqa %xmm2,%xmm12
- DB 102,68,15,249,231 ; psubw %xmm7,%xmm12
- DB 102,65,15,111,196 ; movdqa %xmm12,%xmm0
- DB 102,65,15,213,193 ; pmullw %xmm9,%xmm0
- DB 102,68,15,111,218 ; movdqa %xmm2,%xmm11
- DB 102,68,15,249,219 ; psubw %xmm3,%xmm11
- DB 102,69,15,111,251 ; movdqa %xmm11,%xmm15
- DB 102,68,15,213,253 ; pmullw %xmm5,%xmm15
- DB 102,68,15,253,248 ; paddw %xmm0,%xmm15
- DB 102,68,15,111,243 ; movdqa %xmm3,%xmm14
- DB 102,69,15,249,241 ; psubw %xmm9,%xmm14
- DB 102,69,15,253,201 ; paddw %xmm9,%xmm9
- DB 102,15,111,21,143,78,0,0 ; movdqa 0x4e8f(%rip),%xmm2 # 35be0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- DB 102,15,111,199 ; movdqa %xmm7,%xmm0
- DB 102,68,15,111,215 ; movdqa %xmm7,%xmm10
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,68,15,213,211 ; pmullw %xmm3,%xmm10
- DB 102,15,249,197 ; psubw %xmm5,%xmm0
- DB 102,65,15,213,198 ; pmullw %xmm14,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,69,15,111,234 ; movdqa %xmm10,%xmm13
- DB 102,68,15,249,232 ; psubw %xmm0,%xmm13
- DB 102,68,15,111,243 ; movdqa %xmm3,%xmm14
- DB 102,68,15,239,242 ; pxor %xmm2,%xmm14
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,15,239,194 ; pxor %xmm2,%xmm0
- DB 102,65,15,101,198 ; pcmpgtw %xmm14,%xmm0
- DB 102,68,15,213,205 ; pmullw %xmm5,%xmm9
- DB 102,68,15,219,232 ; pand %xmm0,%xmm13
- DB 102,65,15,223,193 ; pandn %xmm9,%xmm0
- DB 102,65,15,235,197 ; por %xmm13,%xmm0
- DB 102,15,253,5,162,70,0,0 ; paddw 0x46a2(%rip),%xmm0 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,199 ; paddw %xmm15,%xmm0
- DB 102,69,15,111,204 ; movdqa %xmm12,%xmm9
- DB 102,68,15,213,201 ; pmullw %xmm1,%xmm9
- DB 102,69,15,111,235 ; movdqa %xmm11,%xmm13
- DB 102,68,15,213,238 ; pmullw %xmm6,%xmm13
- DB 102,69,15,253,233 ; paddw %xmm9,%xmm13
- DB 102,68,15,111,203 ; movdqa %xmm3,%xmm9
- DB 102,68,15,249,201 ; psubw %xmm1,%xmm9
- DB 102,68,15,111,252 ; movdqa %xmm4,%xmm15
- DB 102,68,15,249,254 ; psubw %xmm6,%xmm15
- DB 102,69,15,213,249 ; pmullw %xmm9,%xmm15
- DB 102,69,15,253,255 ; paddw %xmm15,%xmm15
- DB 102,65,15,111,250 ; movdqa %xmm10,%xmm7
- DB 102,65,15,249,255 ; psubw %xmm15,%xmm7
- DB 102,15,253,201 ; paddw %xmm1,%xmm1
- DB 102,68,15,111,201 ; movdqa %xmm1,%xmm9
- DB 102,68,15,239,202 ; pxor %xmm2,%xmm9
- DB 102,69,15,101,206 ; pcmpgtw %xmm14,%xmm9
- DB 102,15,213,206 ; pmullw %xmm6,%xmm1
- DB 102,65,15,219,249 ; pand %xmm9,%xmm7
- DB 102,68,15,223,201 ; pandn %xmm1,%xmm9
- DB 102,68,15,235,207 ; por %xmm7,%xmm9
- DB 102,68,15,253,13,45,70,0,0 ; paddw 0x462d(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,253,205 ; paddw %xmm13,%xmm9
- DB 102,69,15,213,224 ; pmullw %xmm8,%xmm12
- DB 102,69,15,111,251 ; movdqa %xmm11,%xmm15
- DB 102,15,111,12,36 ; movdqa (%rsp),%xmm1
- DB 102,68,15,213,249 ; pmullw %xmm1,%xmm15
- DB 102,69,15,253,252 ; paddw %xmm12,%xmm15
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,69,15,249,224 ; psubw %xmm8,%xmm12
- DB 102,69,15,253,192 ; paddw %xmm8,%xmm8
- DB 102,65,15,239,208 ; pxor %xmm8,%xmm2
- DB 102,65,15,101,214 ; pcmpgtw %xmm14,%xmm2
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,249,249 ; psubw %xmm1,%xmm7
- DB 102,65,15,213,252 ; pmullw %xmm12,%xmm7
- DB 102,15,253,255 ; paddw %xmm7,%xmm7
- DB 102,68,15,249,215 ; psubw %xmm7,%xmm10
- DB 102,68,15,213,193 ; pmullw %xmm1,%xmm8
- DB 102,68,15,111,225 ; movdqa %xmm1,%xmm12
- DB 102,68,15,219,210 ; pand %xmm2,%xmm10
- DB 102,65,15,223,208 ; pandn %xmm8,%xmm2
- DB 102,65,15,235,210 ; por %xmm10,%xmm2
- DB 102,68,15,111,5,190,69,0,0 ; movdqa 0x45be(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,65,15,253,215 ; paddw %xmm15,%xmm2
- DB 102,68,15,213,220 ; pmullw %xmm4,%xmm11
- DB 102,69,15,253,216 ; paddw %xmm8,%xmm11
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,65,15,253,219 ; paddw %xmm11,%xmm3
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,65,15,113,209,8 ; psrlw $0x8,%xmm9
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,65,15,111,244 ; movdqa %xmm12,%xmm6
- DB 72,131,196,24 ; add $0x18,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_overlay_sse2_lowp
-_sk_overlay_sse2_lowp LABEL PROC
- DB 72,131,236,40 ; sub $0x28,%rsp
- DB 102,68,15,111,247 ; movdqa %xmm7,%xmm14
- DB 15,41,52,36 ; movaps %xmm6,(%rsp)
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,127,124,36,16 ; movdqa %xmm7,0x10(%rsp)
- DB 102,68,15,111,193 ; movdqa %xmm1,%xmm8
- DB 102,68,15,111,248 ; movdqa %xmm0,%xmm15
- DB 102,15,111,53,72,69,0,0 ; movdqa 0x4548(%rip),%xmm6 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,68,15,111,222 ; movdqa %xmm6,%xmm11
- DB 102,69,15,249,222 ; psubw %xmm14,%xmm11
- DB 102,65,15,111,203 ; movdqa %xmm11,%xmm1
- DB 102,65,15,213,207 ; pmullw %xmm15,%xmm1
- DB 102,68,15,111,214 ; movdqa %xmm6,%xmm10
- DB 102,68,15,249,211 ; psubw %xmm3,%xmm10
- DB 102,65,15,111,194 ; movdqa %xmm10,%xmm0
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,68,15,111,235 ; movdqa %xmm3,%xmm13
- DB 102,69,15,249,239 ; psubw %xmm15,%xmm13
- DB 102,68,15,213,255 ; pmullw %xmm7,%xmm15
- DB 102,65,15,111,206 ; movdqa %xmm14,%xmm1
- DB 102,15,249,207 ; psubw %xmm7,%xmm1
- DB 102,15,253,255 ; paddw %xmm7,%xmm7
- DB 102,69,15,111,206 ; movdqa %xmm14,%xmm9
- DB 102,68,15,213,203 ; pmullw %xmm3,%xmm9
- DB 102,65,15,213,205 ; pmullw %xmm13,%xmm1
- DB 102,15,253,201 ; paddw %xmm1,%xmm1
- DB 102,69,15,111,225 ; movdqa %xmm9,%xmm12
- DB 102,68,15,249,225 ; psubw %xmm1,%xmm12
- DB 102,15,111,13,108,76,0,0 ; movdqa 0x4c6c(%rip),%xmm1 # 35be0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- DB 102,69,15,111,238 ; movdqa %xmm14,%xmm13
- DB 102,68,15,239,233 ; pxor %xmm1,%xmm13
- DB 102,15,239,249 ; pxor %xmm1,%xmm7
- DB 102,65,15,101,253 ; pcmpgtw %xmm13,%xmm7
- DB 102,69,15,253,255 ; paddw %xmm15,%xmm15
- DB 102,68,15,219,231 ; pand %xmm7,%xmm12
- DB 102,65,15,223,255 ; pandn %xmm15,%xmm7
- DB 102,65,15,235,252 ; por %xmm12,%xmm7
- DB 102,15,253,254 ; paddw %xmm6,%xmm7
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,65,15,111,227 ; movdqa %xmm11,%xmm4
- DB 102,65,15,213,224 ; pmullw %xmm8,%xmm4
- DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,253,204 ; paddw %xmm4,%xmm1
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,69,15,249,224 ; psubw %xmm8,%xmm12
- DB 102,65,15,111,230 ; movdqa %xmm14,%xmm4
- DB 102,15,249,229 ; psubw %xmm5,%xmm4
- DB 102,65,15,213,228 ; pmullw %xmm12,%xmm4
- DB 102,15,253,228 ; paddw %xmm4,%xmm4
- DB 102,69,15,111,225 ; movdqa %xmm9,%xmm12
- DB 102,68,15,249,228 ; psubw %xmm4,%xmm12
- DB 102,68,15,213,197 ; pmullw %xmm5,%xmm8
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,253,228 ; paddw %xmm4,%xmm4
- DB 102,15,111,61,235,75,0,0 ; movdqa 0x4beb(%rip),%xmm7 # 35be0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- DB 102,15,239,231 ; pxor %xmm7,%xmm4
- DB 102,65,15,101,229 ; pcmpgtw %xmm13,%xmm4
- DB 102,69,15,253,192 ; paddw %xmm8,%xmm8
- DB 102,68,15,219,228 ; pand %xmm4,%xmm12
- DB 102,65,15,223,224 ; pandn %xmm8,%xmm4
- DB 102,65,15,235,228 ; por %xmm12,%xmm4
- DB 102,15,253,230 ; paddw %xmm6,%xmm4
- DB 102,68,15,111,230 ; movdqa %xmm6,%xmm12
- DB 102,15,253,204 ; paddw %xmm4,%xmm1
- DB 102,68,15,213,218 ; pmullw %xmm2,%xmm11
- DB 102,69,15,111,194 ; movdqa %xmm10,%xmm8
- DB 102,15,111,52,36 ; movdqa (%rsp),%xmm6
- DB 102,68,15,213,198 ; pmullw %xmm6,%xmm8
- DB 102,69,15,253,195 ; paddw %xmm11,%xmm8
- DB 102,15,111,230 ; movdqa %xmm6,%xmm4
- DB 102,15,253,228 ; paddw %xmm4,%xmm4
- DB 102,15,239,231 ; pxor %xmm7,%xmm4
- DB 102,69,15,111,222 ; movdqa %xmm14,%xmm11
- DB 102,68,15,249,222 ; psubw %xmm6,%xmm11
- DB 102,65,15,101,229 ; pcmpgtw %xmm13,%xmm4
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,15,249,250 ; psubw %xmm2,%xmm7
- DB 102,68,15,213,223 ; pmullw %xmm7,%xmm11
- DB 102,69,15,253,219 ; paddw %xmm11,%xmm11
- DB 102,69,15,249,203 ; psubw %xmm11,%xmm9
- DB 102,15,213,214 ; pmullw %xmm6,%xmm2
- DB 102,15,253,210 ; paddw %xmm2,%xmm2
- DB 102,68,15,219,204 ; pand %xmm4,%xmm9
- DB 102,15,223,226 ; pandn %xmm2,%xmm4
- DB 102,65,15,235,225 ; por %xmm9,%xmm4
- DB 102,65,15,111,212 ; movdqa %xmm12,%xmm2
- DB 102,15,253,226 ; paddw %xmm2,%xmm4
- DB 102,68,15,253,196 ; paddw %xmm4,%xmm8
- DB 102,69,15,213,214 ; pmullw %xmm14,%xmm10
- DB 102,68,15,253,210 ; paddw %xmm2,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,65,15,253,218 ; paddw %xmm10,%xmm3
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,100,36,16 ; movaps 0x10(%rsp),%xmm4
- DB 102,65,15,111,254 ; movdqa %xmm14,%xmm7
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 72,131,196,40 ; add $0x28,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_8888_sse2_lowp
-_sk_load_8888_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 3110e <_sk_load_8888_sse2_lowp+0x44>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,24,1,0,0 ; lea 0x118(%rip),%r9 # 3120c <_sk_load_8888_sse2_lowp+0x142>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 255,224 ; jmpq *%rax
- DB 243,65,15,16,28,144 ; movss (%r8,%rdx,4),%xmm3
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,102 ; jmp 31174 <_sk_load_8888_sse2_lowp+0xaa>
- DB 102,65,15,16,28,144 ; movupd (%r8,%rdx,4),%xmm3
- DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,87 ; jmp 31174 <_sk_load_8888_sse2_lowp+0xaa>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,69,15,18,4,144 ; movlpd (%r8,%rdx,4),%xmm8
- DB 102,65,15,40,216 ; movapd %xmm8,%xmm3
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 235,52 ; jmp 31174 <_sk_load_8888_sse2_lowp+0xaa>
- DB 102,65,15,110,68,144,24 ; movd 0x18(%r8,%rdx,4),%xmm0
- DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
- DB 243,65,15,16,68,144,20 ; movss 0x14(%r8,%rdx,4),%xmm0
- DB 65,15,198,192,0 ; shufps $0x0,%xmm8,%xmm0
- DB 65,15,198,192,226 ; shufps $0xe2,%xmm8,%xmm0
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 243,65,15,16,68,144,16 ; movss 0x10(%r8,%rdx,4),%xmm0
- DB 243,68,15,16,192 ; movss %xmm0,%xmm8
- DB 102,65,15,16,28,144 ; movupd (%r8,%rdx,4),%xmm3
- DB 102,15,40,203 ; movapd %xmm3,%xmm1
- DB 102,15,114,241,16 ; pslld $0x10,%xmm1
- DB 102,15,114,225,16 ; psrad $0x10,%xmm1
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,107,200 ; packssdw %xmm0,%xmm1
- DB 102,68,15,111,13,178,66,0,0 ; movdqa 0x42b2(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,65,15,219,193 ; pand %xmm9,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,65,15,114,210,16 ; psrld $0x10,%xmm10
- DB 102,15,40,211 ; movapd %xmm3,%xmm2
- DB 102,15,114,210,16 ; psrld $0x10,%xmm2
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 102,15,114,227,16 ; psrad $0x10,%xmm3
- DB 102,65,15,114,208,24 ; psrld $0x18,%xmm8
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,114,224,16 ; psrad $0x10,%xmm8
- DB 102,65,15,107,216 ; packssdw %xmm8,%xmm3
- DB 102,15,114,242,16 ; pslld $0x10,%xmm2
- DB 102,15,114,226,16 ; psrad $0x10,%xmm2
- DB 102,65,15,114,242,16 ; pslld $0x10,%xmm10
- DB 102,65,15,114,226,16 ; psrad $0x10,%xmm10
- DB 102,65,15,107,210 ; packssdw %xmm10,%xmm2
- DB 102,65,15,219,209 ; pand %xmm9,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 245 ; cmc
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,34 ; jmpq *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,17 ; callq *(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,98,255 ; jmpq *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,86,255 ; callq *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,65,255 ; incl -0x1(%rcx)
- DB 255 ; (bad)
- DB 255,52,255 ; pushq (%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_8888_dst_sse2_lowp
-_sk_load_8888_dst_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 3126c <_sk_load_8888_dst_sse2_lowp+0x44>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,22,1,0,0 ; lea 0x116(%rip),%r9 # 31368 <_sk_load_8888_dst_sse2_lowp+0x140>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 255,224 ; jmpq *%rax
- DB 243,65,15,16,60,144 ; movss (%r8,%rdx,4),%xmm7
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,102 ; jmp 312d2 <_sk_load_8888_dst_sse2_lowp+0xaa>
- DB 102,65,15,16,60,144 ; movupd (%r8,%rdx,4),%xmm7
- DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,87 ; jmp 312d2 <_sk_load_8888_dst_sse2_lowp+0xaa>
- DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,69,15,18,4,144 ; movlpd (%r8,%rdx,4),%xmm8
- DB 102,65,15,40,248 ; movapd %xmm8,%xmm7
- DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
- DB 235,52 ; jmp 312d2 <_sk_load_8888_dst_sse2_lowp+0xaa>
- DB 102,65,15,110,100,144,24 ; movd 0x18(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 243,65,15,16,100,144,20 ; movss 0x14(%r8,%rdx,4),%xmm4
- DB 65,15,198,224,0 ; shufps $0x0,%xmm8,%xmm4
- DB 65,15,198,224,226 ; shufps $0xe2,%xmm8,%xmm4
- DB 68,15,40,196 ; movaps %xmm4,%xmm8
- DB 243,65,15,16,100,144,16 ; movss 0x10(%r8,%rdx,4),%xmm4
- DB 243,68,15,16,196 ; movss %xmm4,%xmm8
- DB 102,65,15,16,60,144 ; movupd (%r8,%rdx,4),%xmm7
- DB 102,15,40,239 ; movapd %xmm7,%xmm5
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,114,229,16 ; psrad $0x10,%xmm5
- DB 102,65,15,111,224 ; movdqa %xmm8,%xmm4
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,236 ; packssdw %xmm4,%xmm5
- DB 102,68,15,111,13,84,65,0,0 ; movdqa 0x4154(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,65,15,219,225 ; pand %xmm9,%xmm4
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,65,15,114,210,16 ; psrld $0x10,%xmm10
- DB 102,15,40,247 ; movapd %xmm7,%xmm6
- DB 102,15,114,214,16 ; psrld $0x10,%xmm6
- DB 102,15,114,215,24 ; psrld $0x18,%xmm7
- DB 102,15,114,247,16 ; pslld $0x10,%xmm7
- DB 102,15,114,231,16 ; psrad $0x10,%xmm7
- DB 102,65,15,114,208,24 ; psrld $0x18,%xmm8
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,114,224,16 ; psrad $0x10,%xmm8
- DB 102,65,15,107,248 ; packssdw %xmm8,%xmm7
- DB 102,15,114,246,16 ; pslld $0x10,%xmm6
- DB 102,15,114,230,16 ; psrad $0x10,%xmm6
- DB 102,65,15,114,242,16 ; pslld $0x10,%xmm10
- DB 102,65,15,114,226,16 ; psrad $0x10,%xmm10
- DB 102,65,15,107,242 ; packssdw %xmm10,%xmm6
- DB 102,65,15,219,241 ; pand %xmm9,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 247,254 ; idiv %esi
- DB 255 ; (bad)
- DB 255,36,255 ; jmpq *(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,19 ; callq *(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,100,255,255 ; jmpq *-0x1(%rdi,%rdi,8)
- DB 255,88,255 ; lcall *-0x1(%rax)
- DB 255 ; (bad)
- DB 255,67,255 ; incl -0x1(%rbx)
- DB 255 ; (bad)
- DB 255,54 ; pushq (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_8888_sse2_lowp
-_sk_store_8888_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 102,68,15,111,209 ; movdqa %xmm1,%xmm10
- DB 102,65,15,113,242,8 ; psllw $0x8,%xmm10
- DB 102,68,15,235,208 ; por %xmm0,%xmm10
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,69,15,111,218 ; movdqa %xmm10,%xmm11
- DB 102,69,15,97,216 ; punpcklwd %xmm8,%xmm11
- DB 102,69,15,105,208 ; punpckhwd %xmm8,%xmm10
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,65,15,113,244,8 ; psllw $0x8,%xmm12
- DB 102,68,15,235,226 ; por %xmm2,%xmm12
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,69,15,97,204 ; punpcklwd %xmm12,%xmm9
- DB 102,69,15,235,203 ; por %xmm11,%xmm9
- DB 102,69,15,105,196 ; punpckhwd %xmm12,%xmm8
- DB 102,69,15,235,194 ; por %xmm10,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,27 ; ja 31407 <_sk_store_8888_sse2_lowp+0x83>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,98,0,0,0 ; lea 0x62(%rip),%r9 # 31458 <_sk_store_8888_sse2_lowp+0xd4>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,69,15,126,12,144 ; movd %xmm9,(%r8,%rdx,4)
- DB 235,75 ; jmp 31452 <_sk_store_8888_sse2_lowp+0xce>
- DB 243,69,15,127,12,144 ; movdqu %xmm9,(%r8,%rdx,4)
- DB 243,69,15,127,68,144,16 ; movdqu %xmm8,0x10(%r8,%rdx,4)
- DB 235,60 ; jmp 31452 <_sk_store_8888_sse2_lowp+0xce>
- DB 102,69,15,112,193,78 ; pshufd $0x4e,%xmm9,%xmm8
- DB 102,69,15,126,68,144,8 ; movd %xmm8,0x8(%r8,%rdx,4)
- DB 102,69,15,214,12,144 ; movq %xmm9,(%r8,%rdx,4)
- DB 235,39 ; jmp 31452 <_sk_store_8888_sse2_lowp+0xce>
- DB 102,69,15,112,208,78 ; pshufd $0x4e,%xmm8,%xmm10
- DB 102,69,15,126,84,144,24 ; movd %xmm10,0x18(%r8,%rdx,4)
- DB 102,69,15,112,208,229 ; pshufd $0xe5,%xmm8,%xmm10
- DB 102,69,15,126,84,144,20 ; movd %xmm10,0x14(%r8,%rdx,4)
- DB 102,69,15,126,68,144,16 ; movd %xmm8,0x10(%r8,%rdx,4)
- DB 243,69,15,127,12,144 ; movdqu %xmm9,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 167 ; cmpsl %es:(%rdi),%ds:(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,203 ; dec %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 190,255,255,255,244 ; mov $0xf4ffffff,%esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 237 ; in (%dx),%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,224 ; jmpq *%rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,211 ; callq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_sse2_lowp
-_sk_load_bgra_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 314b8 <_sk_load_bgra_sse2_lowp+0x44>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,22,1,0,0 ; lea 0x116(%rip),%r9 # 315b4 <_sk_load_bgra_sse2_lowp+0x140>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 255,224 ; jmpq *%rax
- DB 243,65,15,16,28,144 ; movss (%r8,%rdx,4),%xmm3
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,102 ; jmp 3151e <_sk_load_bgra_sse2_lowp+0xaa>
- DB 102,65,15,16,28,144 ; movupd (%r8,%rdx,4),%xmm3
- DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,87 ; jmp 3151e <_sk_load_bgra_sse2_lowp+0xaa>
- DB 102,65,15,110,68,144,8 ; movd 0x8(%r8,%rdx,4),%xmm0
- DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,69,15,18,4,144 ; movlpd (%r8,%rdx,4),%xmm8
- DB 102,65,15,40,216 ; movapd %xmm8,%xmm3
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 235,52 ; jmp 3151e <_sk_load_bgra_sse2_lowp+0xaa>
- DB 102,65,15,110,68,144,24 ; movd 0x18(%r8,%rdx,4),%xmm0
- DB 102,68,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm8
- DB 243,65,15,16,68,144,20 ; movss 0x14(%r8,%rdx,4),%xmm0
- DB 65,15,198,192,0 ; shufps $0x0,%xmm8,%xmm0
- DB 65,15,198,192,226 ; shufps $0xe2,%xmm8,%xmm0
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 243,65,15,16,68,144,16 ; movss 0x10(%r8,%rdx,4),%xmm0
- DB 243,68,15,16,192 ; movss %xmm0,%xmm8
- DB 102,65,15,16,28,144 ; movupd (%r8,%rdx,4),%xmm3
- DB 102,15,40,203 ; movapd %xmm3,%xmm1
- DB 102,15,114,241,16 ; pslld $0x10,%xmm1
- DB 102,15,114,225,16 ; psrad $0x10,%xmm1
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,107,200 ; packssdw %xmm0,%xmm1
- DB 102,68,15,111,13,8,63,0,0 ; movdqa 0x3f08(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,65,15,219,209 ; pand %xmm9,%xmm2
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,65,15,114,210,16 ; psrld $0x10,%xmm10
- DB 102,15,40,195 ; movapd %xmm3,%xmm0
- DB 102,15,114,208,16 ; psrld $0x10,%xmm0
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 102,15,114,227,16 ; psrad $0x10,%xmm3
- DB 102,65,15,114,208,24 ; psrld $0x18,%xmm8
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,114,224,16 ; psrad $0x10,%xmm8
- DB 102,65,15,107,216 ; packssdw %xmm8,%xmm3
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,65,15,114,242,16 ; pslld $0x10,%xmm10
- DB 102,65,15,114,226,16 ; psrad $0x10,%xmm10
- DB 102,65,15,107,194 ; packssdw %xmm10,%xmm0
- DB 102,65,15,219,193 ; pand %xmm9,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 247,254 ; idiv %esi
- DB 255 ; (bad)
- DB 255,36,255 ; jmpq *(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,19 ; callq *(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,100,255,255 ; jmpq *-0x1(%rdi,%rdi,8)
- DB 255,88,255 ; lcall *-0x1(%rax)
- DB 255 ; (bad)
- DB 255,67,255 ; incl -0x1(%rbx)
- DB 255 ; (bad)
- DB 255,54 ; pushq (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_bgra_dst_sse2_lowp
-_sk_load_bgra_dst_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,41 ; ja 31614 <_sk_load_bgra_dst_sse2_lowp+0x44>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,22,1,0,0 ; lea 0x116(%rip),%r9 # 31710 <_sk_load_bgra_dst_sse2_lowp+0x140>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 255,224 ; jmpq *%rax
- DB 243,65,15,16,60,144 ; movss (%r8,%rdx,4),%xmm7
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,102 ; jmp 3167a <_sk_load_bgra_dst_sse2_lowp+0xaa>
- DB 102,65,15,16,60,144 ; movupd (%r8,%rdx,4),%xmm7
- DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,87 ; jmp 3167a <_sk_load_bgra_dst_sse2_lowp+0xaa>
- DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,69,15,18,4,144 ; movlpd (%r8,%rdx,4),%xmm8
- DB 102,65,15,40,248 ; movapd %xmm8,%xmm7
- DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
- DB 235,52 ; jmp 3167a <_sk_load_bgra_dst_sse2_lowp+0xaa>
- DB 102,65,15,110,100,144,24 ; movd 0x18(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 243,65,15,16,100,144,20 ; movss 0x14(%r8,%rdx,4),%xmm4
- DB 65,15,198,224,0 ; shufps $0x0,%xmm8,%xmm4
- DB 65,15,198,224,226 ; shufps $0xe2,%xmm8,%xmm4
- DB 68,15,40,196 ; movaps %xmm4,%xmm8
- DB 243,65,15,16,100,144,16 ; movss 0x10(%r8,%rdx,4),%xmm4
- DB 243,68,15,16,196 ; movss %xmm4,%xmm8
- DB 102,65,15,16,60,144 ; movupd (%r8,%rdx,4),%xmm7
- DB 102,15,40,239 ; movapd %xmm7,%xmm5
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,114,229,16 ; psrad $0x10,%xmm5
- DB 102,65,15,111,224 ; movdqa %xmm8,%xmm4
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,236 ; packssdw %xmm4,%xmm5
- DB 102,68,15,111,13,172,61,0,0 ; movdqa 0x3dac(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,65,15,219,241 ; pand %xmm9,%xmm6
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,65,15,114,210,16 ; psrld $0x10,%xmm10
- DB 102,15,40,231 ; movapd %xmm7,%xmm4
- DB 102,15,114,212,16 ; psrld $0x10,%xmm4
- DB 102,15,114,215,24 ; psrld $0x18,%xmm7
- DB 102,15,114,247,16 ; pslld $0x10,%xmm7
- DB 102,15,114,231,16 ; psrad $0x10,%xmm7
- DB 102,65,15,114,208,24 ; psrld $0x18,%xmm8
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,114,224,16 ; psrad $0x10,%xmm8
- DB 102,65,15,107,248 ; packssdw %xmm8,%xmm7
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,65,15,114,242,16 ; pslld $0x10,%xmm10
- DB 102,65,15,114,226,16 ; psrad $0x10,%xmm10
- DB 102,65,15,107,226 ; packssdw %xmm10,%xmm4
- DB 102,65,15,219,225 ; pand %xmm9,%xmm4
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 247,254 ; idiv %esi
- DB 255 ; (bad)
- DB 255,36,255 ; jmpq *(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,19 ; callq *(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,100,255,255 ; jmpq *-0x1(%rdi,%rdi,8)
- DB 255,88,255 ; lcall *-0x1(%rax)
- DB 255 ; (bad)
- DB 255,67,255 ; incl -0x1(%rbx)
- DB 255 ; (bad)
- DB 255,54 ; pushq (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_bgra_sse2_lowp
-_sk_store_bgra_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 102,68,15,111,209 ; movdqa %xmm1,%xmm10
- DB 102,65,15,113,242,8 ; psllw $0x8,%xmm10
- DB 102,68,15,235,210 ; por %xmm2,%xmm10
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,69,15,111,218 ; movdqa %xmm10,%xmm11
- DB 102,69,15,97,216 ; punpcklwd %xmm8,%xmm11
- DB 102,69,15,105,208 ; punpckhwd %xmm8,%xmm10
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,65,15,113,244,8 ; psllw $0x8,%xmm12
- DB 102,68,15,235,224 ; por %xmm0,%xmm12
- DB 102,69,15,239,201 ; pxor %xmm9,%xmm9
- DB 102,69,15,97,204 ; punpcklwd %xmm12,%xmm9
- DB 102,69,15,235,203 ; por %xmm11,%xmm9
- DB 102,69,15,105,196 ; punpckhwd %xmm12,%xmm8
- DB 102,69,15,235,194 ; por %xmm10,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,27 ; ja 317af <_sk_store_bgra_sse2_lowp+0x83>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,98,0,0,0 ; lea 0x62(%rip),%r9 # 31800 <_sk_store_bgra_sse2_lowp+0xd4>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,69,15,126,12,144 ; movd %xmm9,(%r8,%rdx,4)
- DB 235,75 ; jmp 317fa <_sk_store_bgra_sse2_lowp+0xce>
- DB 243,69,15,127,12,144 ; movdqu %xmm9,(%r8,%rdx,4)
- DB 243,69,15,127,68,144,16 ; movdqu %xmm8,0x10(%r8,%rdx,4)
- DB 235,60 ; jmp 317fa <_sk_store_bgra_sse2_lowp+0xce>
- DB 102,69,15,112,193,78 ; pshufd $0x4e,%xmm9,%xmm8
- DB 102,69,15,126,68,144,8 ; movd %xmm8,0x8(%r8,%rdx,4)
- DB 102,69,15,214,12,144 ; movq %xmm9,(%r8,%rdx,4)
- DB 235,39 ; jmp 317fa <_sk_store_bgra_sse2_lowp+0xce>
- DB 102,69,15,112,208,78 ; pshufd $0x4e,%xmm8,%xmm10
- DB 102,69,15,126,84,144,24 ; movd %xmm10,0x18(%r8,%rdx,4)
- DB 102,69,15,112,208,229 ; pshufd $0xe5,%xmm8,%xmm10
- DB 102,69,15,126,84,144,20 ; movd %xmm10,0x14(%r8,%rdx,4)
- DB 102,69,15,126,68,144,16 ; movd %xmm8,0x10(%r8,%rdx,4)
- DB 243,69,15,127,12,144 ; movdqu %xmm9,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 167 ; cmpsl %es:(%rdi),%ds:(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,203 ; dec %ebx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 190,255,255,255,244 ; mov $0xf4ffffff,%esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 237 ; in (%dx),%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,224 ; jmpq *%rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,211 ; callq *%rbx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_8888_sse2_lowp
-_sk_gather_8888_sse2_lowp LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 65,15,95,194 ; maxps %xmm10,%xmm0
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 243,68,15,16,64,16 ; movss 0x10(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 65,15,95,218 ; maxps %xmm10,%xmm3
- DB 65,15,95,210 ; maxps %xmm10,%xmm2
- DB 65,15,93,208 ; minps %xmm8,%xmm2
- DB 65,15,93,216 ; minps %xmm8,%xmm3
- DB 243,68,15,91,195 ; cvttps2dq %xmm3,%xmm8
- DB 243,68,15,91,202 ; cvttps2dq %xmm2,%xmm9
- DB 102,15,110,88,8 ; movd 0x8(%rax),%xmm3
- DB 102,15,112,219,0 ; pshufd $0x0,%xmm3,%xmm3
- DB 102,69,15,112,209,245 ; pshufd $0xf5,%xmm9,%xmm10
- DB 102,68,15,244,211 ; pmuludq %xmm3,%xmm10
- DB 102,68,15,111,219 ; movdqa %xmm3,%xmm11
- DB 102,69,15,112,224,245 ; pshufd $0xf5,%xmm8,%xmm12
- DB 102,68,15,244,227 ; pmuludq %xmm3,%xmm12
- DB 102,65,15,244,217 ; pmuludq %xmm9,%xmm3
- DB 72,139,0 ; mov (%rax),%rax
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,65,15,112,210,232 ; pshufd $0xe8,%xmm10,%xmm2
- DB 102,15,98,218 ; punpckldq %xmm2,%xmm3
- DB 102,69,15,244,216 ; pmuludq %xmm8,%xmm11
- DB 102,69,15,112,195,232 ; pshufd $0xe8,%xmm11,%xmm8
- DB 102,65,15,112,212,232 ; pshufd $0xe8,%xmm12,%xmm2
- DB 102,68,15,98,194 ; punpckldq %xmm2,%xmm8
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,65,15,254,200 ; paddd %xmm8,%xmm1
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,73,15,126,208 ; movq %xmm2,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,73,15,126,199 ; movq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 102,66,15,110,4,184 ; movd (%rax,%r15,4),%xmm0
- DB 102,66,15,110,28,160 ; movd (%rax,%r12,4),%xmm3
- DB 102,15,98,216 ; punpckldq %xmm0,%xmm3
- DB 102,15,110,4,152 ; movd (%rax,%rbx,4),%xmm0
- DB 102,66,15,110,12,176 ; movd (%rax,%r14,4),%xmm1
- DB 102,15,98,200 ; punpckldq %xmm0,%xmm1
- DB 102,15,108,217 ; punpcklqdq %xmm1,%xmm3
- DB 102,66,15,110,4,144 ; movd (%rax,%r10,4),%xmm0
- DB 102,70,15,110,4,152 ; movd (%rax,%r11,4),%xmm8
- DB 102,68,15,98,192 ; punpckldq %xmm0,%xmm8
- DB 102,66,15,110,4,128 ; movd (%rax,%r8,4),%xmm0
- DB 102,66,15,110,12,136 ; movd (%rax,%r9,4),%xmm1
- DB 102,15,98,200 ; punpckldq %xmm0,%xmm1
- DB 102,68,15,108,193 ; punpcklqdq %xmm1,%xmm8
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,114,241,16 ; pslld $0x10,%xmm1
- DB 102,15,114,225,16 ; psrad $0x10,%xmm1
- DB 102,15,107,200 ; packssdw %xmm0,%xmm1
- DB 102,68,15,111,13,200,58,0,0 ; movdqa 0x3ac8(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,65,15,219,193 ; pand %xmm9,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,114,210,16 ; psrld $0x10,%xmm2
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,65,15,114,210,16 ; psrld $0x10,%xmm10
- DB 102,65,15,114,208,24 ; psrld $0x18,%xmm8
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,114,224,16 ; psrad $0x10,%xmm8
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 102,15,114,227,16 ; psrad $0x10,%xmm3
- DB 102,65,15,107,216 ; packssdw %xmm8,%xmm3
- DB 102,65,15,114,242,16 ; pslld $0x10,%xmm10
- DB 102,65,15,114,226,16 ; psrad $0x10,%xmm10
- DB 102,15,114,242,16 ; pslld $0x10,%xmm2
- DB 102,15,114,226,16 ; psrad $0x10,%xmm2
- DB 102,65,15,107,210 ; packssdw %xmm10,%xmm2
- DB 102,65,15,219,209 ; pand %xmm9,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gather_bgra_sse2_lowp
-_sk_gather_bgra_sse2_lowp LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 65,15,95,194 ; maxps %xmm10,%xmm0
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 243,68,15,16,64,16 ; movss 0x10(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 65,15,95,218 ; maxps %xmm10,%xmm3
- DB 65,15,95,210 ; maxps %xmm10,%xmm2
- DB 65,15,93,208 ; minps %xmm8,%xmm2
- DB 65,15,93,216 ; minps %xmm8,%xmm3
- DB 243,68,15,91,195 ; cvttps2dq %xmm3,%xmm8
- DB 243,68,15,91,202 ; cvttps2dq %xmm2,%xmm9
- DB 102,15,110,88,8 ; movd 0x8(%rax),%xmm3
- DB 102,15,112,219,0 ; pshufd $0x0,%xmm3,%xmm3
- DB 102,69,15,112,209,245 ; pshufd $0xf5,%xmm9,%xmm10
- DB 102,68,15,244,211 ; pmuludq %xmm3,%xmm10
- DB 102,68,15,111,219 ; movdqa %xmm3,%xmm11
- DB 102,69,15,112,224,245 ; pshufd $0xf5,%xmm8,%xmm12
- DB 102,68,15,244,227 ; pmuludq %xmm3,%xmm12
- DB 102,65,15,244,217 ; pmuludq %xmm9,%xmm3
- DB 72,139,0 ; mov (%rax),%rax
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,65,15,112,210,232 ; pshufd $0xe8,%xmm10,%xmm2
- DB 102,15,98,218 ; punpckldq %xmm2,%xmm3
- DB 102,69,15,244,216 ; pmuludq %xmm8,%xmm11
- DB 102,69,15,112,195,232 ; pshufd $0xe8,%xmm11,%xmm8
- DB 102,65,15,112,212,232 ; pshufd $0xe8,%xmm12,%xmm2
- DB 102,68,15,98,194 ; punpckldq %xmm2,%xmm8
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,65,15,254,200 ; paddd %xmm8,%xmm1
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,73,15,126,208 ; movq %xmm2,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 102,73,15,126,202 ; movq %xmm1,%r10
- DB 69,137,211 ; mov %r10d,%r11d
- DB 73,193,234,32 ; shr $0x20,%r10
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,72,15,126,203 ; movq %xmm1,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,73,15,126,199 ; movq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 102,66,15,110,4,184 ; movd (%rax,%r15,4),%xmm0
- DB 102,66,15,110,28,160 ; movd (%rax,%r12,4),%xmm3
- DB 102,15,98,216 ; punpckldq %xmm0,%xmm3
- DB 102,15,110,4,152 ; movd (%rax,%rbx,4),%xmm0
- DB 102,66,15,110,12,176 ; movd (%rax,%r14,4),%xmm1
- DB 102,15,98,200 ; punpckldq %xmm0,%xmm1
- DB 102,15,108,217 ; punpcklqdq %xmm1,%xmm3
- DB 102,66,15,110,4,144 ; movd (%rax,%r10,4),%xmm0
- DB 102,70,15,110,4,152 ; movd (%rax,%r11,4),%xmm8
- DB 102,68,15,98,192 ; punpckldq %xmm0,%xmm8
- DB 102,66,15,110,4,128 ; movd (%rax,%r8,4),%xmm0
- DB 102,66,15,110,12,136 ; movd (%rax,%r9,4),%xmm1
- DB 102,15,98,200 ; punpckldq %xmm0,%xmm1
- DB 102,68,15,108,193 ; punpcklqdq %xmm1,%xmm8
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,114,241,16 ; pslld $0x10,%xmm1
- DB 102,15,114,225,16 ; psrad $0x10,%xmm1
- DB 102,15,107,200 ; packssdw %xmm0,%xmm1
- DB 102,68,15,111,13,233,56,0,0 ; movdqa 0x38e9(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,65,15,219,209 ; pand %xmm9,%xmm2
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,114,208,16 ; psrld $0x10,%xmm0
- DB 102,69,15,111,208 ; movdqa %xmm8,%xmm10
- DB 102,65,15,114,210,16 ; psrld $0x10,%xmm10
- DB 102,65,15,114,208,24 ; psrld $0x18,%xmm8
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,114,224,16 ; psrad $0x10,%xmm8
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 102,15,114,227,16 ; psrad $0x10,%xmm3
- DB 102,65,15,107,216 ; packssdw %xmm8,%xmm3
- DB 102,65,15,114,242,16 ; pslld $0x10,%xmm10
- DB 102,65,15,114,226,16 ; psrad $0x10,%xmm10
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,65,15,107,194 ; packssdw %xmm10,%xmm0
- DB 102,65,15,219,193 ; pand %xmm9,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_565_sse2_lowp
-_sk_load_565_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 31c16 <_sk_load_565_sse2_lowp+0x3c>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,190,0,0,0 ; lea 0xbe(%rip),%r9 # 31cc0 <_sk_load_565_sse2_lowp+0xe6>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 235,66 ; jmp 31c58 <_sk_load_565_sse2_lowp+0x7e>
- DB 243,65,15,111,4,80 ; movdqu (%r8,%rdx,2),%xmm0
- DB 235,58 ; jmp 31c58 <_sk_load_565_sse2_lowp+0x7e>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,65,15,196,68,80,4,2 ; pinsrw $0x2,0x4(%r8,%rdx,2),%xmm0
- DB 243,65,15,16,12,80 ; movss (%r8,%rdx,2),%xmm1
- DB 243,15,16,193 ; movss %xmm1,%xmm0
- DB 235,34 ; jmp 31c58 <_sk_load_565_sse2_lowp+0x7e>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,65,15,196,68,80,12,6 ; pinsrw $0x6,0xc(%r8,%rdx,2),%xmm0
- DB 102,65,15,196,68,80,10,5 ; pinsrw $0x5,0xa(%r8,%rdx,2),%xmm0
- DB 102,65,15,196,68,80,8,4 ; pinsrw $0x4,0x8(%r8,%rdx,2),%xmm0
- DB 102,65,15,18,4,80 ; movlpd (%r8,%rdx,2),%xmm0
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,219,29,183,63,0,0 ; pand 0x3fb7(%rip),%xmm3 # 35c20 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,113,209,5 ; psrlw $0x5,%xmm1
- DB 102,15,219,13,182,63,0,0 ; pand 0x3fb6(%rip),%xmm1 # 35c30 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
- DB 102,15,111,21,190,63,0,0 ; movdqa 0x3fbe(%rip),%xmm2 # 35c40 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
- DB 102,15,219,208 ; pand %xmm0,%xmm2
- DB 102,15,113,208,13 ; psrlw $0xd,%xmm0
- DB 102,15,235,195 ; por %xmm3,%xmm0
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,113,243,2 ; psllw $0x2,%xmm3
- DB 102,15,113,209,4 ; psrlw $0x4,%xmm1
- DB 102,15,235,203 ; por %xmm3,%xmm1
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,113,243,3 ; psllw $0x3,%xmm3
- DB 102,15,113,210,2 ; psrlw $0x2,%xmm2
- DB 102,15,235,211 ; por %xmm3,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,148,55,0,0 ; movaps 0x3794(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 75,255 ; rex.WXB (bad)
- DB 255 ; (bad)
- DB 255,106,255 ; ljmp *-0x1(%rdx)
- DB 255 ; (bad)
- DB 255,94,255 ; lcall *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,146,255,255,255,138 ; callq *-0x75000001(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,130,255,255,255,118 ; incl 0x76ffffff(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_565_dst_sse2_lowp
-_sk_load_565_dst_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 31d18 <_sk_load_565_dst_sse2_lowp+0x3c>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,188,0,0,0 ; lea 0xbc(%rip),%r9 # 31dc0 <_sk_load_565_dst_sse2_lowp+0xe4>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 235,66 ; jmp 31d5a <_sk_load_565_dst_sse2_lowp+0x7e>
- DB 243,65,15,111,36,80 ; movdqu (%r8,%rdx,2),%xmm4
- DB 235,58 ; jmp 31d5a <_sk_load_565_dst_sse2_lowp+0x7e>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,65,15,196,100,80,4,2 ; pinsrw $0x2,0x4(%r8,%rdx,2),%xmm4
- DB 243,65,15,16,44,80 ; movss (%r8,%rdx,2),%xmm5
- DB 243,15,16,229 ; movss %xmm5,%xmm4
- DB 235,34 ; jmp 31d5a <_sk_load_565_dst_sse2_lowp+0x7e>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,65,15,196,100,80,12,6 ; pinsrw $0x6,0xc(%r8,%rdx,2),%xmm4
- DB 102,65,15,196,100,80,10,5 ; pinsrw $0x5,0xa(%r8,%rdx,2),%xmm4
- DB 102,65,15,196,100,80,8,4 ; pinsrw $0x4,0x8(%r8,%rdx,2),%xmm4
- DB 102,65,15,18,36,80 ; movlpd (%r8,%rdx,2),%xmm4
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,219,61,181,62,0,0 ; pand 0x3eb5(%rip),%xmm7 # 35c20 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,113,213,5 ; psrlw $0x5,%xmm5
- DB 102,15,219,45,180,62,0,0 ; pand 0x3eb4(%rip),%xmm5 # 35c30 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
- DB 102,15,111,53,188,62,0,0 ; movdqa 0x3ebc(%rip),%xmm6 # 35c40 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
- DB 102,15,219,244 ; pand %xmm4,%xmm6
- DB 102,15,113,212,13 ; psrlw $0xd,%xmm4
- DB 102,15,235,231 ; por %xmm7,%xmm4
- DB 102,15,111,253 ; movdqa %xmm5,%xmm7
- DB 102,15,113,247,2 ; psllw $0x2,%xmm7
- DB 102,15,113,213,4 ; psrlw $0x4,%xmm5
- DB 102,15,235,239 ; por %xmm7,%xmm5
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,15,113,247,3 ; psllw $0x3,%xmm7
- DB 102,15,113,214,2 ; psrlw $0x2,%xmm6
- DB 102,15,235,247 ; por %xmm7,%xmm6
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,146,54,0,0 ; movaps 0x3692(%rip),%xmm7 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 255,224 ; jmpq *%rax
- DB 77,255 ; rex.WRB (bad)
- DB 255 ; (bad)
- DB 255,108,255,255 ; ljmp *-0x1(%rdi,%rdi,8)
- DB 255,96,255 ; jmpq *-0x1(%rax)
- DB 255 ; (bad)
- DB 255,148,255,255,255,140,255 ; callq *-0x730001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,132,255,255,255,120,255 ; incl -0x870001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_565_sse2_lowp
-_sk_store_565_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 102,65,15,113,240,8 ; psllw $0x8,%xmm8
- DB 102,68,15,219,5,80,62,0,0 ; pand 0x3e50(%rip),%xmm8 # 35c50 <_sk_srcover_bgra_8888_sse2_lowp+0x1438>
- DB 102,68,15,111,201 ; movdqa %xmm1,%xmm9
- DB 102,65,15,113,241,3 ; psllw $0x3,%xmm9
- DB 102,68,15,219,13,76,62,0,0 ; pand 0x3e4c(%rip),%xmm9 # 35c60 <_sk_srcover_bgra_8888_sse2_lowp+0x1448>
- DB 102,69,15,235,200 ; por %xmm8,%xmm9
- DB 102,68,15,111,194 ; movdqa %xmm2,%xmm8
- DB 102,65,15,113,208,3 ; psrlw $0x3,%xmm8
- DB 102,69,15,235,193 ; por %xmm9,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,31 ; ja 31e52 <_sk_store_565_sse2_lowp+0x76>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,95,0,0,0 ; lea 0x5f(%rip),%r9 # 31e9c <_sk_store_565_sse2_lowp+0xc0>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,68,15,126,192 ; movd %xmm8,%eax
- DB 102,65,137,4,80 ; mov %ax,(%r8,%rdx,2)
- DB 235,70 ; jmp 31e98 <_sk_store_565_sse2_lowp+0xbc>
- DB 243,69,15,127,4,80 ; movdqu %xmm8,(%r8,%rdx,2)
- DB 235,62 ; jmp 31e98 <_sk_store_565_sse2_lowp+0xbc>
- DB 102,65,15,197,192,2 ; pextrw $0x2,%xmm8,%eax
- DB 102,65,137,68,80,4 ; mov %ax,0x4(%r8,%rdx,2)
- DB 102,69,15,126,4,80 ; movd %xmm8,(%r8,%rdx,2)
- DB 235,42 ; jmp 31e98 <_sk_store_565_sse2_lowp+0xbc>
- DB 102,65,15,197,192,6 ; pextrw $0x6,%xmm8,%eax
- DB 102,65,137,68,80,12 ; mov %ax,0xc(%r8,%rdx,2)
- DB 102,65,15,197,192,5 ; pextrw $0x5,%xmm8,%eax
- DB 102,65,137,68,80,10 ; mov %ax,0xa(%r8,%rdx,2)
- DB 102,65,15,197,192,4 ; pextrw $0x4,%xmm8,%eax
- DB 102,65,137,68,80,8 ; mov %ax,0x8(%r8,%rdx,2)
- DB 102,69,15,214,4,80 ; movq %xmm8,(%r8,%rdx,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 170 ; stos %al,%es:(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,202 ; dec %edx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 190,255,255,255,246 ; mov $0xf6ffffff,%esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 234 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 222,255 ; fdivrp %st,%st(7)
- DB 255 ; (bad)
- DB 255,210 ; callq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_565_sse2_lowp
-_sk_gather_565_sse2_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,95,194 ; maxps %xmm10,%xmm0
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 243,68,15,16,64,16 ; movss 0x10(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 65,15,95,210 ; maxps %xmm10,%xmm2
- DB 65,15,95,218 ; maxps %xmm10,%xmm3
- DB 65,15,93,216 ; minps %xmm8,%xmm3
- DB 65,15,93,208 ; minps %xmm8,%xmm2
- DB 243,68,15,91,194 ; cvttps2dq %xmm2,%xmm8
- DB 243,68,15,91,203 ; cvttps2dq %xmm3,%xmm9
- DB 102,15,110,80,8 ; movd 0x8(%rax),%xmm2
- DB 102,15,112,210,0 ; pshufd $0x0,%xmm2,%xmm2
- DB 102,69,15,112,209,245 ; pshufd $0xf5,%xmm9,%xmm10
- DB 102,68,15,244,210 ; pmuludq %xmm2,%xmm10
- DB 102,68,15,111,218 ; movdqa %xmm2,%xmm11
- DB 102,69,15,112,224,245 ; pshufd $0xf5,%xmm8,%xmm12
- DB 102,68,15,244,226 ; pmuludq %xmm2,%xmm12
- DB 102,65,15,244,209 ; pmuludq %xmm9,%xmm2
- DB 76,139,16 ; mov (%rax),%r10
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,65,15,112,218,232 ; pshufd $0xe8,%xmm10,%xmm3
- DB 102,15,98,211 ; punpckldq %xmm3,%xmm2
- DB 102,69,15,244,216 ; pmuludq %xmm8,%xmm11
- DB 102,69,15,112,195,232 ; pshufd $0xe8,%xmm11,%xmm8
- DB 102,65,15,112,220,232 ; pshufd $0xe8,%xmm12,%xmm3
- DB 102,68,15,98,195 ; punpckldq %xmm3,%xmm8
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,15,254,202 ; paddd %xmm2,%xmm1
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,65,15,254,192 ; paddd %xmm8,%xmm0
- DB 102,15,112,208,78 ; pshufd $0x4e,%xmm0,%xmm2
- DB 102,73,15,126,208 ; movq %xmm2,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,195 ; mov %eax,%r11d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,72,15,126,195 ; movq %xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,73,15,126,207 ; movq %xmm1,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 67,15,183,44,122 ; movzwl (%r10,%r15,2),%ebp
- DB 102,15,110,197 ; movd %ebp,%xmm0
- DB 67,15,183,44,98 ; movzwl (%r10,%r12,2),%ebp
- DB 102,15,110,205 ; movd %ebp,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 65,15,183,28,90 ; movzwl (%r10,%rbx,2),%ebx
- DB 102,15,110,195 ; movd %ebx,%xmm0
- DB 67,15,183,28,114 ; movzwl (%r10,%r14,2),%ebx
- DB 102,15,110,211 ; movd %ebx,%xmm2
- DB 102,15,97,208 ; punpcklwd %xmm0,%xmm2
- DB 102,15,98,202 ; punpckldq %xmm2,%xmm1
- DB 65,15,183,4,66 ; movzwl (%r10,%rax,2),%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 67,15,183,4,90 ; movzwl (%r10,%r11,2),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,15,97,194 ; punpcklwd %xmm2,%xmm0
- DB 67,15,183,4,66 ; movzwl (%r10,%r8,2),%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 67,15,183,4,74 ; movzwl (%r10,%r9,2),%eax
- DB 102,15,110,216 ; movd %eax,%xmm3
- DB 102,15,97,218 ; punpcklwd %xmm2,%xmm3
- DB 102,15,98,195 ; punpckldq %xmm3,%xmm0
- DB 102,15,108,193 ; punpcklqdq %xmm1,%xmm0
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,219,29,249,59,0,0 ; pand 0x3bf9(%rip),%xmm3 # 35c20 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,113,209,5 ; psrlw $0x5,%xmm1
- DB 102,15,219,13,248,59,0,0 ; pand 0x3bf8(%rip),%xmm1 # 35c30 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
- DB 102,15,111,21,0,60,0,0 ; movdqa 0x3c00(%rip),%xmm2 # 35c40 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
- DB 102,15,219,208 ; pand %xmm0,%xmm2
- DB 102,15,113,208,13 ; psrlw $0xd,%xmm0
- DB 102,15,235,195 ; por %xmm3,%xmm0
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,113,243,2 ; psllw $0x2,%xmm3
- DB 102,15,113,209,4 ; psrlw $0x4,%xmm1
- DB 102,15,235,203 ; por %xmm3,%xmm1
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,113,243,3 ; psllw $0x3,%xmm3
- DB 102,15,113,210,2 ; psrlw $0x2,%xmm2
- DB 102,15,235,211 ; por %xmm3,%xmm2
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,214,51,0,0 ; movaps 0x33d6(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_4444_sse2_lowp
-_sk_load_4444_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,36 ; ja 320c2 <_sk_load_4444_sse2_lowp+0x3e>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,199,0,0,0 ; lea 0xc7(%rip),%r9 # 32174 <_sk_load_4444_sse2_lowp+0xf0>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 235,69 ; jmp 32107 <_sk_load_4444_sse2_lowp+0x83>
- DB 243,69,15,111,4,80 ; movdqu (%r8,%rdx,2),%xmm8
- DB 235,61 ; jmp 32107 <_sk_load_4444_sse2_lowp+0x83>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,69,15,196,68,80,4,2 ; pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8
- DB 243,65,15,16,4,80 ; movss (%r8,%rdx,2),%xmm0
- DB 243,68,15,16,192 ; movss %xmm0,%xmm8
- DB 235,35 ; jmp 32107 <_sk_load_4444_sse2_lowp+0x83>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,69,15,196,68,80,12,6 ; pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8
- DB 102,69,15,196,68,80,10,5 ; pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8
- DB 102,69,15,196,68,80,8,4 ; pinsrw $0x4,0x8(%r8,%rdx,2),%xmm8
- DB 102,69,15,18,4,80 ; movlpd (%r8,%rdx,2),%xmm8
- DB 102,65,15,111,200 ; movdqa %xmm8,%xmm1
- DB 102,15,113,209,12 ; psrlw $0xc,%xmm1
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,111,5,77,59,0,0 ; movdqa 0x3b4d(%rip),%xmm0 # 35c70 <_sk_srcover_bgra_8888_sse2_lowp+0x1458>
- DB 102,15,219,208 ; pand %xmm0,%xmm2
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,113,211,4 ; psrlw $0x4,%xmm3
- DB 102,15,219,216 ; pand %xmm0,%xmm3
- DB 102,68,15,219,192 ; pand %xmm0,%xmm8
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,113,240,4 ; psllw $0x4,%xmm0
- DB 102,15,235,193 ; por %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,113,241,4 ; psllw $0x4,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,113,242,4 ; psllw $0x4,%xmm2
- DB 102,15,235,211 ; por %xmm3,%xmm2
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,113,243,4 ; psllw $0x4,%xmm3
- DB 102,65,15,235,216 ; por %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 66,255 ; rex.X (bad)
- DB 255 ; (bad)
- DB 255,99,255 ; jmpq *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,86,255 ; callq *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,141,255,255,255,133 ; decl -0x7a000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 125,255 ; jge 32189 <_sk_load_4444_sse2_lowp+0x105>
- DB 255 ; (bad)
- DB 255,112,255 ; pushq -0x1(%rax)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_4444_dst_sse2_lowp
-_sk_load_4444_dst_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,36 ; ja 321ce <_sk_load_4444_dst_sse2_lowp+0x3e>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,199,0,0,0 ; lea 0xc7(%rip),%r9 # 32280 <_sk_load_4444_dst_sse2_lowp+0xf0>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 235,69 ; jmp 32213 <_sk_load_4444_dst_sse2_lowp+0x83>
- DB 243,69,15,111,4,80 ; movdqu (%r8,%rdx,2),%xmm8
- DB 235,61 ; jmp 32213 <_sk_load_4444_dst_sse2_lowp+0x83>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,69,15,196,68,80,4,2 ; pinsrw $0x2,0x4(%r8,%rdx,2),%xmm8
- DB 243,65,15,16,36,80 ; movss (%r8,%rdx,2),%xmm4
- DB 243,68,15,16,196 ; movss %xmm4,%xmm8
- DB 235,35 ; jmp 32213 <_sk_load_4444_dst_sse2_lowp+0x83>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,69,15,196,68,80,12,6 ; pinsrw $0x6,0xc(%r8,%rdx,2),%xmm8
- DB 102,69,15,196,68,80,10,5 ; pinsrw $0x5,0xa(%r8,%rdx,2),%xmm8
- DB 102,69,15,196,68,80,8,4 ; pinsrw $0x4,0x8(%r8,%rdx,2),%xmm8
- DB 102,69,15,18,4,80 ; movlpd (%r8,%rdx,2),%xmm8
- DB 102,65,15,111,232 ; movdqa %xmm8,%xmm5
- DB 102,15,113,213,12 ; psrlw $0xc,%xmm5
- DB 102,65,15,111,240 ; movdqa %xmm8,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,111,37,65,58,0,0 ; movdqa 0x3a41(%rip),%xmm4 # 35c70 <_sk_srcover_bgra_8888_sse2_lowp+0x1458>
- DB 102,15,219,244 ; pand %xmm4,%xmm6
- DB 102,65,15,111,248 ; movdqa %xmm8,%xmm7
- DB 102,15,113,215,4 ; psrlw $0x4,%xmm7
- DB 102,15,219,252 ; pand %xmm4,%xmm7
- DB 102,68,15,219,196 ; pand %xmm4,%xmm8
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,113,244,4 ; psllw $0x4,%xmm4
- DB 102,15,235,229 ; por %xmm5,%xmm4
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,15,113,245,4 ; psllw $0x4,%xmm5
- DB 102,15,235,238 ; por %xmm6,%xmm5
- DB 102,15,111,247 ; movdqa %xmm7,%xmm6
- DB 102,15,113,246,4 ; psllw $0x4,%xmm6
- DB 102,15,235,247 ; por %xmm7,%xmm6
- DB 102,65,15,111,248 ; movdqa %xmm8,%xmm7
- DB 102,15,113,247,4 ; psllw $0x4,%xmm7
- DB 102,65,15,235,248 ; por %xmm8,%xmm7
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 66,255 ; rex.X (bad)
- DB 255 ; (bad)
- DB 255,99,255 ; jmpq *-0x1(%rbx)
- DB 255 ; (bad)
- DB 255,86,255 ; callq *-0x1(%rsi)
- DB 255 ; (bad)
- DB 255,141,255,255,255,133 ; decl -0x7a000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 125,255 ; jge 32295 <_sk_load_4444_dst_sse2_lowp+0x105>
- DB 255 ; (bad)
- DB 255,112,255 ; pushq -0x1(%rax)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_4444_sse2_lowp
-_sk_store_4444_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 102,68,15,111,192 ; movdqa %xmm0,%xmm8
- DB 102,65,15,113,240,8 ; psllw $0x8,%xmm8
- DB 102,68,15,219,5,192,57,0,0 ; pand 0x39c0(%rip),%xmm8 # 35c80 <_sk_srcover_bgra_8888_sse2_lowp+0x1468>
- DB 102,68,15,111,201 ; movdqa %xmm1,%xmm9
- DB 102,65,15,113,241,4 ; psllw $0x4,%xmm9
- DB 102,68,15,219,13,188,57,0,0 ; pand 0x39bc(%rip),%xmm9 # 35c90 <_sk_srcover_bgra_8888_sse2_lowp+0x1478>
- DB 102,69,15,235,200 ; por %xmm8,%xmm9
- DB 102,68,15,111,21,190,57,0,0 ; movdqa 0x39be(%rip),%xmm10 # 35ca0 <_sk_srcover_bgra_8888_sse2_lowp+0x1488>
- DB 102,68,15,219,210 ; pand %xmm2,%xmm10
- DB 102,68,15,111,195 ; movdqa %xmm3,%xmm8
- DB 102,65,15,113,208,4 ; psrlw $0x4,%xmm8
- DB 102,69,15,235,194 ; por %xmm10,%xmm8
- DB 102,69,15,235,193 ; por %xmm9,%xmm8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,31 ; ja 32325 <_sk_store_4444_sse2_lowp+0x89>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,96,0,0,0 ; lea 0x60(%rip),%r9 # 32370 <_sk_store_4444_sse2_lowp+0xd4>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,68,15,126,192 ; movd %xmm8,%eax
- DB 102,65,137,4,80 ; mov %ax,(%r8,%rdx,2)
- DB 235,70 ; jmp 3236b <_sk_store_4444_sse2_lowp+0xcf>
- DB 243,69,15,127,4,80 ; movdqu %xmm8,(%r8,%rdx,2)
- DB 235,62 ; jmp 3236b <_sk_store_4444_sse2_lowp+0xcf>
- DB 102,65,15,197,192,2 ; pextrw $0x2,%xmm8,%eax
- DB 102,65,137,68,80,4 ; mov %ax,0x4(%r8,%rdx,2)
- DB 102,69,15,126,4,80 ; movd %xmm8,(%r8,%rdx,2)
- DB 235,42 ; jmp 3236b <_sk_store_4444_sse2_lowp+0xcf>
- DB 102,65,15,197,192,6 ; pextrw $0x6,%xmm8,%eax
- DB 102,65,137,68,80,12 ; mov %ax,0xc(%r8,%rdx,2)
- DB 102,65,15,197,192,5 ; pextrw $0x5,%xmm8,%eax
- DB 102,65,137,68,80,10 ; mov %ax,0xa(%r8,%rdx,2)
- DB 102,65,15,197,192,4 ; pextrw $0x4,%xmm8,%eax
- DB 102,65,137,68,80,8 ; mov %ax,0x8(%r8,%rdx,2)
- DB 102,69,15,214,4,80 ; movq %xmm8,(%r8,%rdx,2)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 144 ; nop
- DB 169,255,255,255,201 ; test $0xc9ffffff,%eax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 189,255,255,255,245 ; mov $0xf5ffffff,%ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 233,255,255,255,221 ; jmpq ffffffffde032384 <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffddffdb6c>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_4444_sse2_lowp
-_sk_gather_4444_sse2_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,64,12 ; movss 0xc(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,118,201 ; pcmpeqd %xmm9,%xmm9
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 65,15,95,202 ; maxps %xmm10,%xmm1
- DB 65,15,95,194 ; maxps %xmm10,%xmm0
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 243,68,15,16,64,16 ; movss 0x10(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 102,69,15,254,193 ; paddd %xmm9,%xmm8
- DB 65,15,95,210 ; maxps %xmm10,%xmm2
- DB 65,15,95,218 ; maxps %xmm10,%xmm3
- DB 65,15,93,216 ; minps %xmm8,%xmm3
- DB 65,15,93,208 ; minps %xmm8,%xmm2
- DB 243,68,15,91,194 ; cvttps2dq %xmm2,%xmm8
- DB 243,68,15,91,203 ; cvttps2dq %xmm3,%xmm9
- DB 102,15,110,80,8 ; movd 0x8(%rax),%xmm2
- DB 102,15,112,210,0 ; pshufd $0x0,%xmm2,%xmm2
- DB 102,69,15,112,209,245 ; pshufd $0xf5,%xmm9,%xmm10
- DB 102,68,15,244,210 ; pmuludq %xmm2,%xmm10
- DB 102,68,15,111,218 ; movdqa %xmm2,%xmm11
- DB 102,69,15,112,224,245 ; pshufd $0xf5,%xmm8,%xmm12
- DB 102,68,15,244,226 ; pmuludq %xmm2,%xmm12
- DB 102,65,15,244,209 ; pmuludq %xmm9,%xmm2
- DB 76,139,16 ; mov (%rax),%r10
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,65,15,112,218,232 ; pshufd $0xe8,%xmm10,%xmm3
- DB 102,15,98,211 ; punpckldq %xmm3,%xmm2
- DB 102,69,15,244,216 ; pmuludq %xmm8,%xmm11
- DB 102,69,15,112,195,232 ; pshufd $0xe8,%xmm11,%xmm8
- DB 102,65,15,112,220,232 ; pshufd $0xe8,%xmm12,%xmm3
- DB 102,68,15,98,195 ; punpckldq %xmm3,%xmm8
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,15,254,202 ; paddd %xmm2,%xmm1
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,65,15,254,192 ; paddd %xmm8,%xmm0
- DB 102,15,112,208,78 ; pshufd $0x4e,%xmm0,%xmm2
- DB 102,73,15,126,208 ; movq %xmm2,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 102,72,15,126,192 ; movq %xmm0,%rax
- DB 65,137,195 ; mov %eax,%r11d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,72,15,126,195 ; movq %xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,73,15,126,207 ; movq %xmm1,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 67,15,183,44,122 ; movzwl (%r10,%r15,2),%ebp
- DB 102,15,110,197 ; movd %ebp,%xmm0
- DB 67,15,183,44,98 ; movzwl (%r10,%r12,2),%ebp
- DB 102,15,110,205 ; movd %ebp,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 65,15,183,28,90 ; movzwl (%r10,%rbx,2),%ebx
- DB 102,15,110,195 ; movd %ebx,%xmm0
- DB 67,15,183,28,114 ; movzwl (%r10,%r14,2),%ebx
- DB 102,15,110,211 ; movd %ebx,%xmm2
- DB 102,15,97,208 ; punpcklwd %xmm0,%xmm2
- DB 102,15,98,202 ; punpckldq %xmm2,%xmm1
- DB 65,15,183,4,66 ; movzwl (%r10,%rax,2),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 67,15,183,4,90 ; movzwl (%r10,%r11,2),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 102,68,15,97,192 ; punpcklwd %xmm0,%xmm8
- DB 67,15,183,4,66 ; movzwl (%r10,%r8,2),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 67,15,183,4,74 ; movzwl (%r10,%r9,2),%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 102,15,97,208 ; punpcklwd %xmm0,%xmm2
- DB 102,68,15,98,194 ; punpckldq %xmm2,%xmm8
- DB 102,68,15,108,193 ; punpcklqdq %xmm1,%xmm8
- DB 102,65,15,111,200 ; movdqa %xmm8,%xmm1
- DB 102,15,113,209,12 ; psrlw $0xc,%xmm1
- DB 102,65,15,111,208 ; movdqa %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,111,5,102,55,0,0 ; movdqa 0x3766(%rip),%xmm0 # 35c70 <_sk_srcover_bgra_8888_sse2_lowp+0x1458>
- DB 102,15,219,208 ; pand %xmm0,%xmm2
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,113,211,4 ; psrlw $0x4,%xmm3
- DB 102,15,219,216 ; pand %xmm0,%xmm3
- DB 102,68,15,219,192 ; pand %xmm0,%xmm8
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,113,240,4 ; psllw $0x4,%xmm0
- DB 102,15,235,193 ; por %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,113,241,4 ; psllw $0x4,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,113,242,4 ; psllw $0x4,%xmm2
- DB 102,15,235,211 ; por %xmm3,%xmm2
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 102,15,113,243,4 ; psllw $0x4,%xmm3
- DB 102,65,15,235,216 ; por %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_a8_sse2_lowp
-_sk_load_a8_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 3259c <_sk_load_a8_sse2_lowp+0x39>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,140,0,0,0 ; lea 0x8c(%rip),%r9 # 32614 <_sk_load_a8_sse2_lowp+0xb1>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,216 ; movd %eax,%xmm3
- DB 235,97 ; jmp 325fd <_sk_load_a8_sse2_lowp+0x9a>
- DB 243,65,15,126,28,16 ; movq (%r8,%rdx,1),%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 235,85 ; jmp 325fd <_sk_load_a8_sse2_lowp+0x9a>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,196,216,2 ; pinsrw $0x2,%eax,%xmm3
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 243,15,16,216 ; movss %xmm0,%xmm3
- DB 235,51 ; jmp 325fd <_sk_load_a8_sse2_lowp+0x9a>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,196,216,6 ; pinsrw $0x6,%eax,%xmm3
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 102,15,196,216,5 ; pinsrw $0x5,%eax,%xmm3
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 102,15,196,216,4 ; pinsrw $0x4,%eax,%xmm3
- DB 102,65,15,110,4,16 ; movd (%r8,%rdx,1),%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 242,15,16,216 ; movsd %xmm0,%xmm3
- DB 102,15,219,29,75,46,0,0 ; pand 0x2e4b(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 125,255 ; jge 32615 <_sk_load_a8_sse2_lowp+0xb2>
- DB 255 ; (bad)
- DB 255,163,255,255,255,148 ; jmpq *-0x6b000001(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 219,255 ; (bad)
- DB 255 ; (bad)
- DB 255,208 ; callq *%rax
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,197 ; inc %ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 182,255 ; mov $0xff,%dh
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_a8_dst_sse2_lowp
-_sk_load_a8_dst_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 32669 <_sk_load_a8_dst_sse2_lowp+0x39>
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,139,0,0,0 ; lea 0x8b(%rip),%r9 # 326e0 <_sk_load_a8_dst_sse2_lowp+0xb0>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,248 ; movd %eax,%xmm7
- DB 235,97 ; jmp 326ca <_sk_load_a8_dst_sse2_lowp+0x9a>
- DB 243,65,15,126,60,16 ; movq (%r8,%rdx,1),%xmm7
- DB 102,15,96,248 ; punpcklbw %xmm0,%xmm7
- DB 235,85 ; jmp 326ca <_sk_load_a8_dst_sse2_lowp+0x9a>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,196,248,2 ; pinsrw $0x2,%eax,%xmm7
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 243,15,16,252 ; movss %xmm4,%xmm7
- DB 235,51 ; jmp 326ca <_sk_load_a8_dst_sse2_lowp+0x9a>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,196,248,6 ; pinsrw $0x6,%eax,%xmm7
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 102,15,196,248,5 ; pinsrw $0x5,%eax,%xmm7
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 102,15,196,248,4 ; pinsrw $0x4,%eax,%xmm7
- DB 102,65,15,110,36,16 ; movd (%r8,%rdx,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 242,15,16,252 ; movsd %xmm4,%xmm7
- DB 102,15,219,61,126,45,0,0 ; pand 0x2d7e(%rip),%xmm7 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 255,224 ; jmpq *%rax
- DB 144 ; nop
- DB 126,255 ; jle 326e1 <_sk_load_a8_dst_sse2_lowp+0xb1>
- DB 255 ; (bad)
- DB 255,164,255,255,255,149,255 ; jmpq *-0x6a0001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 220,255 ; fdivr %st,%st(7)
- DB 255 ; (bad)
- DB 255,209 ; callq *%rcx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 183,255 ; mov $0xff,%bh
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_store_a8_sse2_lowp
-_sk_store_a8_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,29 ; ja 32730 <_sk_store_a8_sse2_lowp+0x34>
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,147,0,0,0 ; lea 0x93(%rip),%r9 # 327b0 <_sk_store_a8_sse2_lowp+0xb4>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 65,136,4,16 ; mov %al,(%r8,%rdx,1)
- DB 235,123 ; jmp 327ab <_sk_store_a8_sse2_lowp+0xaf>
- DB 102,68,15,111,5,23,45,0,0 ; movdqa 0x2d17(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,68,15,219,195 ; pand %xmm3,%xmm8
- DB 102,69,15,103,192 ; packuswb %xmm8,%xmm8
- DB 102,69,15,214,4,16 ; movq %xmm8,(%r8,%rdx,1)
- DB 235,96 ; jmp 327ab <_sk_store_a8_sse2_lowp+0xaf>
- DB 102,15,197,195,2 ; pextrw $0x2,%xmm3,%eax
- DB 65,136,68,16,2 ; mov %al,0x2(%r8,%rdx,1)
- DB 102,68,15,111,5,242,44,0,0 ; movdqa 0x2cf2(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,68,15,219,195 ; pand %xmm3,%xmm8
- DB 102,69,15,103,192 ; packuswb %xmm8,%xmm8
- DB 102,68,15,126,192 ; movd %xmm8,%eax
- DB 102,65,137,4,16 ; mov %ax,(%r8,%rdx,1)
- DB 235,55 ; jmp 327ab <_sk_store_a8_sse2_lowp+0xaf>
- DB 102,15,197,195,6 ; pextrw $0x6,%xmm3,%eax
- DB 65,136,68,16,6 ; mov %al,0x6(%r8,%rdx,1)
- DB 102,15,197,195,5 ; pextrw $0x5,%xmm3,%eax
- DB 65,136,68,16,5 ; mov %al,0x5(%r8,%rdx,1)
- DB 102,15,197,195,4 ; pextrw $0x4,%xmm3,%eax
- DB 65,136,68,16,4 ; mov %al,0x4(%r8,%rdx,1)
- DB 102,68,15,111,5,181,44,0,0 ; movdqa 0x2cb5(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,68,15,219,195 ; pand %xmm3,%xmm8
- DB 102,69,15,103,192 ; packuswb %xmm8,%xmm8
- DB 102,69,15,126,4,16 ; movd %xmm8,(%r8,%rdx,1)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
- DB 144 ; nop
- DB 118,255 ; jbe 327b1 <_sk_store_a8_sse2_lowp+0xb5>
- DB 255 ; (bad)
- DB 255,165,255,255,255,155 ; jmpq *-0x64000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,226 ; jmpq *%rdx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 216,255 ; fdivr %st(7),%st
- DB 255 ; (bad)
- DB 255,206 ; dec %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,196 ; inc %esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_gather_a8_sse2_lowp
-_sk_gather_a8_sse2_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,72,12 ; movss 0xc(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 102,69,15,118,210 ; pcmpeqd %xmm10,%xmm10
- DB 102,69,15,254,202 ; paddd %xmm10,%xmm9
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 65,15,95,192 ; maxps %xmm8,%xmm0
- DB 65,15,95,200 ; maxps %xmm8,%xmm1
- DB 65,15,93,201 ; minps %xmm9,%xmm1
- DB 65,15,93,193 ; minps %xmm9,%xmm0
- DB 243,68,15,16,72,16 ; movss 0x10(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 102,69,15,254,202 ; paddd %xmm10,%xmm9
- DB 65,15,95,216 ; maxps %xmm8,%xmm3
- DB 65,15,95,208 ; maxps %xmm8,%xmm2
- DB 65,15,93,209 ; minps %xmm9,%xmm2
- DB 65,15,93,217 ; minps %xmm9,%xmm3
- DB 243,68,15,91,203 ; cvttps2dq %xmm3,%xmm9
- DB 243,68,15,91,210 ; cvttps2dq %xmm2,%xmm10
- DB 102,15,110,88,8 ; movd 0x8(%rax),%xmm3
- DB 102,15,112,219,0 ; pshufd $0x0,%xmm3,%xmm3
- DB 102,69,15,112,218,245 ; pshufd $0xf5,%xmm10,%xmm11
- DB 102,68,15,244,219 ; pmuludq %xmm3,%xmm11
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,69,15,112,233,245 ; pshufd $0xf5,%xmm9,%xmm13
- DB 102,68,15,244,235 ; pmuludq %xmm3,%xmm13
- DB 102,65,15,244,218 ; pmuludq %xmm10,%xmm3
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,65,15,112,211,232 ; pshufd $0xe8,%xmm11,%xmm2
- DB 102,15,98,218 ; punpckldq %xmm2,%xmm3
- DB 76,139,16 ; mov (%rax),%r10
- DB 102,69,15,244,225 ; pmuludq %xmm9,%xmm12
- DB 102,69,15,112,204,232 ; pshufd $0xe8,%xmm12,%xmm9
- DB 102,65,15,112,213,232 ; pshufd $0xe8,%xmm13,%xmm2
- DB 102,68,15,98,202 ; punpckldq %xmm2,%xmm9
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,65,15,254,201 ; paddd %xmm9,%xmm1
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,73,15,126,208 ; movq %xmm2,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,195 ; mov %eax,%r11d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,72,15,126,195 ; movq %xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,15,112,192,78 ; pshufd $0x4e,%xmm0,%xmm0
- DB 102,73,15,126,199 ; movq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 71,15,182,36,34 ; movzbl (%r10,%r12,1),%r12d
- DB 67,15,182,44,58 ; movzbl (%r10,%r15,1),%ebp
- DB 193,229,8 ; shl $0x8,%ebp
- DB 68,9,229 ; or %r12d,%ebp
- DB 71,15,182,52,50 ; movzbl (%r10,%r14,1),%r14d
- DB 65,15,182,28,26 ; movzbl (%r10,%rbx,1),%ebx
- DB 193,227,8 ; shl $0x8,%ebx
- DB 68,9,243 ; or %r14d,%ebx
- DB 102,15,110,219 ; movd %ebx,%xmm3
- DB 102,15,196,221,1 ; pinsrw $0x1,%ebp,%xmm3
- DB 67,15,182,44,26 ; movzbl (%r10,%r11,1),%ebp
- DB 65,15,182,4,2 ; movzbl (%r10,%rax,1),%eax
- DB 193,224,8 ; shl $0x8,%eax
- DB 9,232 ; or %ebp,%eax
- DB 102,15,196,216,2 ; pinsrw $0x2,%eax,%xmm3
- DB 67,15,182,4,10 ; movzbl (%r10,%r9,1),%eax
- DB 67,15,182,44,2 ; movzbl (%r10,%r8,1),%ebp
- DB 193,229,8 ; shl $0x8,%ebp
- DB 9,197 ; or %eax,%ebp
- DB 102,15,196,221,3 ; pinsrw $0x3,%ebp,%xmm3
- DB 102,65,15,96,216 ; punpcklbw %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_load_g8_sse2_lowp
-_sk_load_g8_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 3296d <_sk_load_g8_sse2_lowp+0x39>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,147,0,0,0 ; lea 0x93(%rip),%r9 # 329ec <_sk_load_g8_sse2_lowp+0xb8>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,192 ; movd %eax,%xmm0
- DB 235,97 ; jmp 329ce <_sk_load_g8_sse2_lowp+0x9a>
- DB 243,65,15,126,4,16 ; movq (%r8,%rdx,1),%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 235,85 ; jmp 329ce <_sk_load_g8_sse2_lowp+0x9a>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,192,2 ; pinsrw $0x2,%eax,%xmm0
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,200 ; movd %eax,%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 243,15,16,193 ; movss %xmm1,%xmm0
- DB 235,51 ; jmp 329ce <_sk_load_g8_sse2_lowp+0x9a>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,192,6 ; pinsrw $0x6,%eax,%xmm0
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 102,15,196,192,5 ; pinsrw $0x5,%eax,%xmm0
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 102,15,196,192,4 ; pinsrw $0x4,%eax,%xmm0
- DB 102,65,15,110,12,16 ; movd (%r8,%rdx,1),%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 242,15,16,193 ; movsd %xmm1,%xmm0
- DB 102,15,219,5,122,42,0,0 ; pand 0x2a7a(%rip),%xmm0 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,113,42,0,0 ; movaps 0x2a71(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 118,255 ; jbe 329ed <_sk_load_g8_sse2_lowp+0xb9>
- DB 255 ; (bad)
- DB 255,156,255,255,255,141,255 ; lcall *-0x720001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,212 ; callq *%rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 190,255,255,255,175 ; mov $0xafffffff,%esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_load_g8_dst_sse2_lowp
-_sk_load_g8_dst_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 32a41 <_sk_load_g8_dst_sse2_lowp+0x39>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,147,0,0,0 ; lea 0x93(%rip),%r9 # 32ac0 <_sk_load_g8_dst_sse2_lowp+0xb8>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 235,97 ; jmp 32aa2 <_sk_load_g8_dst_sse2_lowp+0x9a>
- DB 243,65,15,126,36,16 ; movq (%r8,%rdx,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 235,85 ; jmp 32aa2 <_sk_load_g8_dst_sse2_lowp+0x9a>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,224,2 ; pinsrw $0x2,%eax,%xmm4
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,15,110,232 ; movd %eax,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 243,15,16,229 ; movss %xmm5,%xmm4
- DB 235,51 ; jmp 32aa2 <_sk_load_g8_dst_sse2_lowp+0x9a>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,224,6 ; pinsrw $0x6,%eax,%xmm4
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 102,15,196,224,5 ; pinsrw $0x5,%eax,%xmm4
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 102,15,196,224,4 ; pinsrw $0x4,%eax,%xmm4
- DB 102,65,15,110,44,16 ; movd (%r8,%rdx,1),%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 102,15,219,37,166,41,0,0 ; pand 0x29a6(%rip),%xmm4 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,61,157,41,0,0 ; movaps 0x299d(%rip),%xmm7 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 118,255 ; jbe 32ac1 <_sk_load_g8_dst_sse2_lowp+0xb9>
- DB 255 ; (bad)
- DB 255,156,255,255,255,141,255 ; lcall *-0x720001(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 255,212 ; callq *%rsp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,201 ; dec %ecx
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 190,255,255,255,175 ; mov $0xafffffff,%esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_luminance_to_alpha_sse2_lowp
-_sk_luminance_to_alpha_sse2_lowp LABEL PROC
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,213,5,200,49,0,0 ; pmullw 0x31c8(%rip),%xmm0 # 35cb0 <_sk_srcover_bgra_8888_sse2_lowp+0x1498>
- DB 102,15,213,13,208,49,0,0 ; pmullw 0x31d0(%rip),%xmm1 # 35cc0 <_sk_srcover_bgra_8888_sse2_lowp+0x14a8>
- DB 102,15,253,200 ; paddw %xmm0,%xmm1
- DB 102,15,213,29,212,49,0,0 ; pmullw 0x31d4(%rip),%xmm3 # 35cd0 <_sk_srcover_bgra_8888_sse2_lowp+0x14b8>
- DB 102,15,253,217 ; paddw %xmm1,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gather_g8_sse2_lowp
-_sk_gather_g8_sse2_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,72,12 ; movss 0xc(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 102,69,15,118,210 ; pcmpeqd %xmm10,%xmm10
- DB 102,69,15,254,202 ; paddd %xmm10,%xmm9
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 65,15,95,192 ; maxps %xmm8,%xmm0
- DB 65,15,95,200 ; maxps %xmm8,%xmm1
- DB 65,15,93,201 ; minps %xmm9,%xmm1
- DB 65,15,93,193 ; minps %xmm9,%xmm0
- DB 243,68,15,16,72,16 ; movss 0x10(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 102,69,15,254,202 ; paddd %xmm10,%xmm9
- DB 65,15,95,216 ; maxps %xmm8,%xmm3
- DB 65,15,95,208 ; maxps %xmm8,%xmm2
- DB 65,15,93,209 ; minps %xmm9,%xmm2
- DB 65,15,93,217 ; minps %xmm9,%xmm3
- DB 243,68,15,91,203 ; cvttps2dq %xmm3,%xmm9
- DB 243,68,15,91,210 ; cvttps2dq %xmm2,%xmm10
- DB 102,15,110,88,8 ; movd 0x8(%rax),%xmm3
- DB 102,15,112,219,0 ; pshufd $0x0,%xmm3,%xmm3
- DB 102,69,15,112,218,245 ; pshufd $0xf5,%xmm10,%xmm11
- DB 102,68,15,244,219 ; pmuludq %xmm3,%xmm11
- DB 102,68,15,111,227 ; movdqa %xmm3,%xmm12
- DB 102,69,15,112,233,245 ; pshufd $0xf5,%xmm9,%xmm13
- DB 102,68,15,244,235 ; pmuludq %xmm3,%xmm13
- DB 102,65,15,244,218 ; pmuludq %xmm10,%xmm3
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,65,15,112,211,232 ; pshufd $0xe8,%xmm11,%xmm2
- DB 102,15,98,218 ; punpckldq %xmm2,%xmm3
- DB 76,139,16 ; mov (%rax),%r10
- DB 102,69,15,244,225 ; pmuludq %xmm9,%xmm12
- DB 102,69,15,112,204,232 ; pshufd $0xe8,%xmm12,%xmm9
- DB 102,65,15,112,213,232 ; pshufd $0xe8,%xmm13,%xmm2
- DB 102,68,15,98,202 ; punpckldq %xmm2,%xmm9
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,65,15,254,201 ; paddd %xmm9,%xmm1
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,73,15,126,208 ; movq %xmm2,%r8
- DB 69,137,193 ; mov %r8d,%r9d
- DB 73,193,232,32 ; shr $0x20,%r8
- DB 102,72,15,126,200 ; movq %xmm1,%rax
- DB 65,137,195 ; mov %eax,%r11d
- DB 72,193,232,32 ; shr $0x20,%rax
- DB 102,72,15,126,195 ; movq %xmm0,%rbx
- DB 65,137,222 ; mov %ebx,%r14d
- DB 72,193,235,32 ; shr $0x20,%rbx
- DB 102,15,112,192,78 ; pshufd $0x4e,%xmm0,%xmm0
- DB 102,73,15,126,199 ; movq %xmm0,%r15
- DB 69,137,252 ; mov %r15d,%r12d
- DB 73,193,239,32 ; shr $0x20,%r15
- DB 71,15,182,36,34 ; movzbl (%r10,%r12,1),%r12d
- DB 67,15,182,44,58 ; movzbl (%r10,%r15,1),%ebp
- DB 193,229,8 ; shl $0x8,%ebp
- DB 68,9,229 ; or %r12d,%ebp
- DB 71,15,182,52,50 ; movzbl (%r10,%r14,1),%r14d
- DB 65,15,182,28,26 ; movzbl (%r10,%rbx,1),%ebx
- DB 193,227,8 ; shl $0x8,%ebx
- DB 68,9,243 ; or %r14d,%ebx
- DB 102,15,110,195 ; movd %ebx,%xmm0
- DB 102,15,196,197,1 ; pinsrw $0x1,%ebp,%xmm0
- DB 67,15,182,44,26 ; movzbl (%r10,%r11,1),%ebp
- DB 65,15,182,4,2 ; movzbl (%r10,%rax,1),%eax
- DB 193,224,8 ; shl $0x8,%eax
- DB 9,232 ; or %ebp,%eax
- DB 102,15,196,192,2 ; pinsrw $0x2,%eax,%xmm0
- DB 67,15,182,4,10 ; movzbl (%r10,%r9,1),%eax
- DB 67,15,182,44,2 ; movzbl (%r10,%r8,1),%ebp
- DB 193,229,8 ; shl $0x8,%ebp
- DB 9,197 ; or %eax,%ebp
- DB 102,15,196,197,3 ; pinsrw $0x3,%ebp,%xmm0
- DB 102,65,15,96,192 ; punpcklbw %xmm8,%xmm0
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,29,226,39,0,0 ; movaps 0x27e2(%rip),%xmm3 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_1_float_sse2_lowp
-_sk_scale_1_float_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,89,5,100,30,0,0 ; mulss 0x1e64(%rip),%xmm8 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 243,68,15,88,5,43,30,0,0 ; addss 0x1e2b(%rip),%xmm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 243,65,15,44,192 ; cvttss2si %xmm8,%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 242,69,15,112,192,0 ; pshuflw $0x0,%xmm8,%xmm8
- DB 102,69,15,112,192,80 ; pshufd $0x50,%xmm8,%xmm8
- DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
- DB 102,68,15,111,13,147,39,0,0 ; movdqa 0x2793(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,65,15,213,208 ; pmullw %xmm8,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,65,15,213,216 ; pmullw %xmm8,%xmm3
- DB 102,65,15,253,217 ; paddw %xmm9,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_lerp_1_float_sse2_lowp
-_sk_lerp_1_float_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,68,15,16,0 ; movss (%rax),%xmm8
- DB 243,68,15,89,5,236,29,0,0 ; mulss 0x1dec(%rip),%xmm8 # 34af4 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc>
- DB 243,68,15,88,5,179,29,0,0 ; addss 0x1db3(%rip),%xmm8 # 34ac4 <_sk_srcover_bgra_8888_sse2_lowp+0x2ac>
- DB 243,65,15,44,192 ; cvttss2si %xmm8,%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 242,69,15,112,192,0 ; pshuflw $0x0,%xmm8,%xmm8
- DB 102,69,15,112,192,80 ; pshufd $0x50,%xmm8,%xmm8
- DB 102,68,15,111,13,32,39,0,0 ; movdqa 0x2720(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,65,15,213,208 ; pmullw %xmm8,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,65,15,213,216 ; pmullw %xmm8,%xmm3
- DB 102,65,15,253,217 ; paddw %xmm9,%xmm3
- DB 102,69,15,249,200 ; psubw %xmm8,%xmm9
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,213,196 ; pmullw %xmm4,%xmm8
- DB 102,65,15,253,192 ; paddw %xmm8,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,213,197 ; pmullw %xmm5,%xmm8
- DB 102,65,15,253,200 ; paddw %xmm8,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,69,15,111,193 ; movdqa %xmm9,%xmm8
- DB 102,68,15,213,198 ; pmullw %xmm6,%xmm8
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,68,15,213,207 ; pmullw %xmm7,%xmm9
- DB 102,65,15,253,217 ; paddw %xmm9,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_scale_u8_sse2_lowp
-_sk_scale_u8_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,36 ; ja 32de7 <_sk_scale_u8_sse2_lowp+0x3b>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,218,0,0,0 ; lea 0xda(%rip),%r9 # 32eac <_sk_scale_u8_sse2_lowp+0x100>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 235,109 ; jmp 32e54 <_sk_scale_u8_sse2_lowp+0xa8>
- DB 243,69,15,126,4,16 ; movq (%r8,%rdx,1),%xmm8
- DB 102,68,15,96,192 ; punpcklbw %xmm0,%xmm8
- DB 235,96 ; jmp 32e54 <_sk_scale_u8_sse2_lowp+0xa8>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,68,15,196,192,2 ; pinsrw $0x2,%eax,%xmm8
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,68,15,110,200 ; movd %eax,%xmm9
- DB 102,68,15,96,200 ; punpcklbw %xmm0,%xmm9
- DB 243,69,15,16,193 ; movss %xmm9,%xmm8
- DB 235,57 ; jmp 32e54 <_sk_scale_u8_sse2_lowp+0xa8>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,68,15,196,192,6 ; pinsrw $0x6,%eax,%xmm8
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 102,68,15,196,192,5 ; pinsrw $0x5,%eax,%xmm8
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 102,68,15,196,192,4 ; pinsrw $0x4,%eax,%xmm8
- DB 102,69,15,110,12,16 ; movd (%r8,%rdx,1),%xmm9
- DB 102,68,15,96,200 ; punpcklbw %xmm0,%xmm9
- DB 242,69,15,16,193 ; movsd %xmm9,%xmm8
- DB 102,68,15,219,5,243,37,0,0 ; pand 0x25f3(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
- DB 102,68,15,111,13,229,37,0,0 ; movdqa 0x25e5(%rip),%xmm9 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,253,193 ; paddw %xmm9,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
- DB 102,65,15,253,201 ; paddw %xmm9,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,65,15,213,208 ; pmullw %xmm8,%xmm2
- DB 102,65,15,253,209 ; paddw %xmm9,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,68,15,213,195 ; pmullw %xmm3,%xmm8
- DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 47 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,89,255 ; lcall *-0x1(%rcx)
- DB 255 ; (bad)
- DB 255,72,255 ; decl -0x1(%rax)
- DB 255 ; (bad)
- DB 255,152,255,255,255,140 ; lcall *-0x73000001(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,128,255,255,255,111 ; incl 0x6fffffff(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_lerp_u8_sse2_lowp
-_sk_lerp_u8_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,36 ; ja 32f03 <_sk_lerp_u8_sse2_lowp+0x3b>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,30,1,0,0 ; lea 0x11e(%rip),%r9 # 3300c <_sk_lerp_u8_sse2_lowp+0x144>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,182,4,16 ; movzbl (%r8,%rdx,1),%eax
- DB 102,68,15,110,192 ; movd %eax,%xmm8
- DB 235,109 ; jmp 32f70 <_sk_lerp_u8_sse2_lowp+0xa8>
- DB 243,69,15,126,4,16 ; movq (%r8,%rdx,1),%xmm8
- DB 102,68,15,96,192 ; punpcklbw %xmm0,%xmm8
- DB 235,96 ; jmp 32f70 <_sk_lerp_u8_sse2_lowp+0xa8>
- DB 65,15,182,68,16,2 ; movzbl 0x2(%r8,%rdx,1),%eax
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,68,15,196,192,2 ; pinsrw $0x2,%eax,%xmm8
- DB 65,15,183,4,16 ; movzwl (%r8,%rdx,1),%eax
- DB 102,68,15,110,200 ; movd %eax,%xmm9
- DB 102,68,15,96,200 ; punpcklbw %xmm0,%xmm9
- DB 243,69,15,16,193 ; movss %xmm9,%xmm8
- DB 235,57 ; jmp 32f70 <_sk_lerp_u8_sse2_lowp+0xa8>
- DB 65,15,182,68,16,6 ; movzbl 0x6(%r8,%rdx,1),%eax
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 102,68,15,196,192,6 ; pinsrw $0x6,%eax,%xmm8
- DB 65,15,182,68,16,5 ; movzbl 0x5(%r8,%rdx,1),%eax
- DB 102,68,15,196,192,5 ; pinsrw $0x5,%eax,%xmm8
- DB 65,15,182,68,16,4 ; movzbl 0x4(%r8,%rdx,1),%eax
- DB 102,68,15,196,192,4 ; pinsrw $0x4,%eax,%xmm8
- DB 102,69,15,110,12,16 ; movd (%r8,%rdx,1),%xmm9
- DB 102,68,15,96,200 ; punpcklbw %xmm0,%xmm9
- DB 242,69,15,16,193 ; movsd %xmm9,%xmm8
- DB 102,68,15,219,5,215,36,0,0 ; pand 0x24d7(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,68,15,111,21,206,36,0,0 ; movdqa 0x24ce(%rip),%xmm10 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
- DB 102,69,15,239,202 ; pxor %xmm10,%xmm9
- DB 102,69,15,111,217 ; movdqa %xmm9,%xmm11
- DB 102,68,15,213,220 ; pmullw %xmm4,%xmm11
- DB 102,65,15,213,192 ; pmullw %xmm8,%xmm0
- DB 102,65,15,253,194 ; paddw %xmm10,%xmm0
- DB 102,65,15,253,195 ; paddw %xmm11,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,69,15,111,217 ; movdqa %xmm9,%xmm11
- DB 102,68,15,213,221 ; pmullw %xmm5,%xmm11
- DB 102,65,15,213,200 ; pmullw %xmm8,%xmm1
- DB 102,65,15,253,202 ; paddw %xmm10,%xmm1
- DB 102,65,15,253,203 ; paddw %xmm11,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,69,15,111,217 ; movdqa %xmm9,%xmm11
- DB 102,68,15,213,222 ; pmullw %xmm6,%xmm11
- DB 102,65,15,213,208 ; pmullw %xmm8,%xmm2
- DB 102,65,15,253,210 ; paddw %xmm10,%xmm2
- DB 102,65,15,253,211 ; paddw %xmm11,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,68,15,213,207 ; pmullw %xmm7,%xmm9
- DB 102,68,15,213,195 ; pmullw %xmm3,%xmm8
- DB 102,69,15,253,194 ; paddw %xmm10,%xmm8
- DB 102,69,15,253,193 ; paddw %xmm9,%xmm8
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 15,31,0 ; nopl (%rax)
- DB 235,254 ; jmp 3300c <_sk_lerp_u8_sse2_lowp+0x144>
- DB 255 ; (bad)
- DB 255,21,255,255,255,4 ; callq *0x4ffffff(%rip) # 5033014 <_sk_srcover_bgra_8888_sse2_lowp+0x4ffe7fc>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,84,255,255 ; callq *-0x1(%rdi,%rdi,8)
- DB 255,72,255 ; decl -0x1(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 60,255 ; cmp $0xff,%al
- DB 255 ; (bad)
- DB 255,43 ; ljmp *(%rbx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_scale_565_sse2_lowp
-_sk_scale_565_sse2_lowp LABEL PROC
- DB 72,131,236,40 ; sub $0x28,%rsp
- DB 102,15,127,116,36,16 ; movdqa %xmm6,0x10(%rsp)
- DB 15,41,44,36 ; movaps %xmm5,(%rsp)
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 33076 <_sk_scale_565_sse2_lowp+0x4e>
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,234,1,0,0 ; lea 0x1ea(%rip),%r9 # 3324c <_sk_scale_565_sse2_lowp+0x224>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,15,110,240 ; movd %eax,%xmm6
- DB 235,67 ; jmp 330b9 <_sk_scale_565_sse2_lowp+0x91>
- DB 243,65,15,111,52,80 ; movdqu (%r8,%rdx,2),%xmm6
- DB 235,59 ; jmp 330b9 <_sk_scale_565_sse2_lowp+0x91>
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,65,15,196,116,80,4,2 ; pinsrw $0x2,0x4(%r8,%rdx,2),%xmm6
- DB 243,69,15,16,12,80 ; movss (%r8,%rdx,2),%xmm9
- DB 243,65,15,16,241 ; movss %xmm9,%xmm6
- DB 235,34 ; jmp 330b9 <_sk_scale_565_sse2_lowp+0x91>
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,65,15,196,116,80,12,6 ; pinsrw $0x6,0xc(%r8,%rdx,2),%xmm6
- DB 102,65,15,196,116,80,10,5 ; pinsrw $0x5,0xa(%r8,%rdx,2),%xmm6
- DB 102,65,15,196,116,80,8,4 ; pinsrw $0x4,0x8(%r8,%rdx,2),%xmm6
- DB 102,65,15,18,52,80 ; movlpd (%r8,%rdx,2),%xmm6
- DB 102,68,15,111,222 ; movdqa %xmm6,%xmm11
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,68,15,219,29,83,43,0,0 ; pand 0x2b53(%rip),%xmm11 # 35c20 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
- DB 102,68,15,111,206 ; movdqa %xmm6,%xmm9
- DB 102,65,15,113,209,5 ; psrlw $0x5,%xmm9
- DB 102,68,15,219,13,79,43,0,0 ; pand 0x2b4f(%rip),%xmm9 # 35c30 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
- DB 102,68,15,111,21,86,43,0,0 ; movdqa 0x2b56(%rip),%xmm10 # 35c40 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
- DB 102,68,15,219,214 ; pand %xmm6,%xmm10
- DB 102,15,113,214,13 ; psrlw $0xd,%xmm6
- DB 102,65,15,235,243 ; por %xmm11,%xmm6
- DB 102,69,15,111,217 ; movdqa %xmm9,%xmm11
- DB 102,65,15,113,243,2 ; psllw $0x2,%xmm11
- DB 102,65,15,113,209,4 ; psrlw $0x4,%xmm9
- DB 102,69,15,235,203 ; por %xmm11,%xmm9
- DB 102,69,15,111,218 ; movdqa %xmm10,%xmm11
- DB 102,65,15,113,243,3 ; psllw $0x3,%xmm11
- DB 102,65,15,113,210,2 ; psrlw $0x2,%xmm10
- DB 102,69,15,235,211 ; por %xmm11,%xmm10
- DB 102,68,15,111,37,178,42,0,0 ; movdqa 0x2ab2(%rip),%xmm12 # 35be0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- DB 102,68,15,111,235 ; movdqa %xmm3,%xmm13
- DB 102,69,15,239,236 ; pxor %xmm12,%xmm13
- DB 102,68,15,111,223 ; movdqa %xmm7,%xmm11
- DB 102,69,15,239,220 ; pxor %xmm12,%xmm11
- DB 102,69,15,101,221 ; pcmpgtw %xmm13,%xmm11
- DB 102,69,15,111,234 ; movdqa %xmm10,%xmm13
- DB 102,69,15,239,236 ; pxor %xmm12,%xmm13
- DB 102,69,15,111,241 ; movdqa %xmm9,%xmm14
- DB 102,69,15,239,244 ; pxor %xmm12,%xmm14
- DB 102,69,15,101,238 ; pcmpgtw %xmm14,%xmm13
- DB 102,69,15,111,245 ; movdqa %xmm13,%xmm14
- DB 102,69,15,223,242 ; pandn %xmm10,%xmm14
- DB 102,69,15,111,249 ; movdqa %xmm9,%xmm15
- DB 102,69,15,219,253 ; pand %xmm13,%xmm15
- DB 102,69,15,235,254 ; por %xmm14,%xmm15
- DB 102,69,15,111,247 ; movdqa %xmm15,%xmm14
- DB 102,69,15,239,244 ; pxor %xmm12,%xmm14
- DB 102,68,15,111,198 ; movdqa %xmm6,%xmm8
- DB 102,69,15,235,196 ; por %xmm12,%xmm8
- DB 102,69,15,101,240 ; pcmpgtw %xmm8,%xmm14
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,65,15,219,198 ; pand %xmm14,%xmm0
- DB 102,69,15,223,247 ; pandn %xmm15,%xmm14
- DB 102,68,15,235,240 ; por %xmm0,%xmm14
- DB 102,65,15,111,194 ; movdqa %xmm10,%xmm0
- DB 102,65,15,219,197 ; pand %xmm13,%xmm0
- DB 102,69,15,223,233 ; pandn %xmm9,%xmm13
- DB 102,68,15,235,232 ; por %xmm0,%xmm13
- DB 102,69,15,239,229 ; pxor %xmm13,%xmm12
- DB 102,69,15,101,224 ; pcmpgtw %xmm8,%xmm12
- DB 102,69,15,219,236 ; pand %xmm12,%xmm13
- DB 102,68,15,223,230 ; pandn %xmm6,%xmm12
- DB 102,69,15,235,229 ; por %xmm13,%xmm12
- DB 102,69,15,219,243 ; pand %xmm11,%xmm14
- DB 102,69,15,223,220 ; pandn %xmm12,%xmm11
- DB 102,69,15,235,222 ; por %xmm14,%xmm11
- DB 102,15,213,245 ; pmullw %xmm5,%xmm6
- DB 102,68,15,213,201 ; pmullw %xmm1,%xmm9
- DB 102,68,15,213,210 ; pmullw %xmm2,%xmm10
- DB 102,68,15,213,219 ; pmullw %xmm3,%xmm11
- DB 102,15,111,5,84,34,0,0 ; movdqa 0x2254(%rip),%xmm0 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,253,240 ; paddw %xmm0,%xmm6
- DB 102,68,15,253,200 ; paddw %xmm0,%xmm9
- DB 102,68,15,253,208 ; paddw %xmm0,%xmm10
- DB 102,68,15,253,216 ; paddw %xmm0,%xmm11
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,65,15,113,209,8 ; psrlw $0x8,%xmm9
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,65,15,111,210 ; movdqa %xmm10,%xmm2
- DB 102,65,15,111,219 ; movdqa %xmm11,%xmm3
- DB 15,40,44,36 ; movaps (%rsp),%xmm5
- DB 15,40,116,36,16 ; movaps 0x10(%rsp),%xmm6
- DB 72,131,196,40 ; add $0x28,%rsp
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 31 ; (bad)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 62,254 ; ds (bad)
- DB 255 ; (bad)
- DB 255,50 ; pushq (%rdx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,103,254 ; jmpq *-0x2(%rdi)
- DB 255 ; (bad)
- DB 255,95,254 ; lcall *-0x2(%rdi)
- DB 255 ; (bad)
- DB 255,87,254 ; callq *-0x2(%rdi)
- DB 255 ; (bad)
- DB 255,75,254 ; decl -0x2(%rbx)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_lerp_565_sse2_lowp
-_sk_lerp_565_sse2_lowp LABEL PROC
- DB 72,131,236,40 ; sub $0x28,%rsp
- DB 102,15,127,84,36,16 ; movdqa %xmm2,0x10(%rsp)
- DB 15,41,12,36 ; movaps %xmm1,(%rsp)
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 77,1,192 ; add %r8,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 137,248 ; mov %edi,%eax
- DB 36,7 ; and $0x7,%al
- DB 254,200 ; dec %al
- DB 60,6 ; cmp $0x6,%al
- DB 119,34 ; ja 332b6 <_sk_lerp_565_sse2_lowp+0x4e>
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 15,182,192 ; movzbl %al,%eax
- DB 76,141,13,46,2,0,0 ; lea 0x22e(%rip),%r9 # 334d0 <_sk_lerp_565_sse2_lowp+0x268>
- DB 73,99,4,129 ; movslq (%r9,%rax,4),%rax
- DB 76,1,200 ; add %r9,%rax
- DB 255,224 ; jmpq *%rax
- DB 65,15,183,4,80 ; movzwl (%r8,%rdx,2),%eax
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 235,67 ; jmp 332f9 <_sk_lerp_565_sse2_lowp+0x91>
- DB 243,65,15,111,20,80 ; movdqu (%r8,%rdx,2),%xmm2
- DB 235,59 ; jmp 332f9 <_sk_lerp_565_sse2_lowp+0x91>
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,65,15,196,84,80,4,2 ; pinsrw $0x2,0x4(%r8,%rdx,2),%xmm2
- DB 243,69,15,16,12,80 ; movss (%r8,%rdx,2),%xmm9
- DB 243,65,15,16,209 ; movss %xmm9,%xmm2
- DB 235,34 ; jmp 332f9 <_sk_lerp_565_sse2_lowp+0x91>
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,65,15,196,84,80,12,6 ; pinsrw $0x6,0xc(%r8,%rdx,2),%xmm2
- DB 102,65,15,196,84,80,10,5 ; pinsrw $0x5,0xa(%r8,%rdx,2),%xmm2
- DB 102,65,15,196,84,80,8,4 ; pinsrw $0x4,0x8(%r8,%rdx,2),%xmm2
- DB 102,65,15,18,20,80 ; movlpd (%r8,%rdx,2),%xmm2
- DB 102,68,15,111,218 ; movdqa %xmm2,%xmm11
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,68,15,219,29,19,41,0,0 ; pand 0x2913(%rip),%xmm11 # 35c20 <_sk_srcover_bgra_8888_sse2_lowp+0x1408>
- DB 102,68,15,111,202 ; movdqa %xmm2,%xmm9
- DB 102,65,15,113,209,5 ; psrlw $0x5,%xmm9
- DB 102,68,15,219,13,15,41,0,0 ; pand 0x290f(%rip),%xmm9 # 35c30 <_sk_srcover_bgra_8888_sse2_lowp+0x1418>
- DB 102,68,15,111,21,22,41,0,0 ; movdqa 0x2916(%rip),%xmm10 # 35c40 <_sk_srcover_bgra_8888_sse2_lowp+0x1428>
- DB 102,68,15,219,210 ; pand %xmm2,%xmm10
- DB 102,15,113,210,13 ; psrlw $0xd,%xmm2
- DB 102,65,15,235,211 ; por %xmm11,%xmm2
- DB 102,69,15,111,217 ; movdqa %xmm9,%xmm11
- DB 102,65,15,113,243,2 ; psllw $0x2,%xmm11
- DB 102,65,15,113,209,4 ; psrlw $0x4,%xmm9
- DB 102,69,15,235,203 ; por %xmm11,%xmm9
- DB 102,69,15,111,218 ; movdqa %xmm10,%xmm11
- DB 102,65,15,113,243,3 ; psllw $0x3,%xmm11
- DB 102,65,15,113,210,2 ; psrlw $0x2,%xmm10
- DB 102,69,15,235,211 ; por %xmm11,%xmm10
- DB 102,68,15,111,37,114,40,0,0 ; movdqa 0x2872(%rip),%xmm12 # 35be0 <_sk_srcover_bgra_8888_sse2_lowp+0x13c8>
- DB 102,68,15,111,235 ; movdqa %xmm3,%xmm13
- DB 102,69,15,239,236 ; pxor %xmm12,%xmm13
- DB 102,68,15,111,223 ; movdqa %xmm7,%xmm11
- DB 102,69,15,239,220 ; pxor %xmm12,%xmm11
- DB 102,69,15,101,221 ; pcmpgtw %xmm13,%xmm11
- DB 102,69,15,111,234 ; movdqa %xmm10,%xmm13
- DB 102,69,15,239,236 ; pxor %xmm12,%xmm13
- DB 102,69,15,111,241 ; movdqa %xmm9,%xmm14
- DB 102,69,15,239,244 ; pxor %xmm12,%xmm14
- DB 102,69,15,101,238 ; pcmpgtw %xmm14,%xmm13
- DB 102,69,15,111,245 ; movdqa %xmm13,%xmm14
- DB 102,69,15,223,242 ; pandn %xmm10,%xmm14
- DB 102,69,15,111,249 ; movdqa %xmm9,%xmm15
- DB 102,69,15,219,253 ; pand %xmm13,%xmm15
- DB 102,69,15,235,254 ; por %xmm14,%xmm15
- DB 102,69,15,111,247 ; movdqa %xmm15,%xmm14
- DB 102,69,15,239,244 ; pxor %xmm12,%xmm14
- DB 102,68,15,111,194 ; movdqa %xmm2,%xmm8
- DB 102,69,15,235,196 ; por %xmm12,%xmm8
- DB 102,69,15,101,240 ; pcmpgtw %xmm8,%xmm14
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,65,15,219,198 ; pand %xmm14,%xmm0
- DB 102,69,15,223,247 ; pandn %xmm15,%xmm14
- DB 102,68,15,235,240 ; por %xmm0,%xmm14
- DB 102,65,15,111,194 ; movdqa %xmm10,%xmm0
- DB 102,65,15,219,197 ; pand %xmm13,%xmm0
- DB 102,69,15,223,233 ; pandn %xmm9,%xmm13
- DB 102,68,15,235,232 ; por %xmm0,%xmm13
- DB 102,69,15,239,229 ; pxor %xmm13,%xmm12
- DB 102,69,15,101,224 ; pcmpgtw %xmm8,%xmm12
- DB 102,69,15,219,236 ; pand %xmm12,%xmm13
- DB 102,68,15,223,226 ; pandn %xmm2,%xmm12
- DB 102,69,15,235,229 ; por %xmm13,%xmm12
- DB 102,69,15,219,243 ; pand %xmm11,%xmm14
- DB 102,69,15,223,220 ; pandn %xmm12,%xmm11
- DB 102,69,15,235,222 ; por %xmm14,%xmm11
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,213,209 ; pmullw %xmm1,%xmm2
- DB 102,68,15,111,5,30,32,0,0 ; movdqa 0x201e(%rip),%xmm8 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,65,15,239,192 ; pxor %xmm8,%xmm0
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,65,15,253,208 ; paddw %xmm8,%xmm2
- DB 102,15,253,208 ; paddw %xmm0,%xmm2
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,68,15,213,12,36 ; pmullw (%rsp),%xmm9
- DB 102,65,15,239,192 ; pxor %xmm8,%xmm0
- DB 102,15,213,197 ; pmullw %xmm5,%xmm0
- DB 102,69,15,253,200 ; paddw %xmm8,%xmm9
- DB 102,68,15,253,200 ; paddw %xmm0,%xmm9
- DB 102,65,15,111,194 ; movdqa %xmm10,%xmm0
- DB 102,68,15,213,84,36,16 ; pmullw 0x10(%rsp),%xmm10
- DB 102,65,15,239,192 ; pxor %xmm8,%xmm0
- DB 102,15,213,198 ; pmullw %xmm6,%xmm0
- DB 102,69,15,253,208 ; paddw %xmm8,%xmm10
- DB 102,68,15,253,208 ; paddw %xmm0,%xmm10
- DB 102,65,15,111,195 ; movdqa %xmm11,%xmm0
- DB 102,68,15,213,219 ; pmullw %xmm3,%xmm11
- DB 102,65,15,239,192 ; pxor %xmm8,%xmm0
- DB 102,69,15,253,216 ; paddw %xmm8,%xmm11
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,68,15,253,216 ; paddw %xmm0,%xmm11
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,65,15,113,209,8 ; psrlw $0x8,%xmm9
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 102,65,15,111,210 ; movdqa %xmm10,%xmm2
- DB 102,65,15,111,219 ; movdqa %xmm11,%xmm3
- DB 72,131,196,40 ; add $0x28,%rsp
- DB 255,224 ; jmpq *%rax
- DB 219,253 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 250 ; cli
- DB 253 ; std
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 238 ; out %al,(%dx)
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,35 ; jmpq *(%rbx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,27 ; lcall *(%rbx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,19 ; callq *(%rbx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,7 ; incl (%rdi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_clamp_x_1_sse2_lowp
-_sk_clamp_x_1_sse2_lowp LABEL PROC
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 65,15,95,200 ; maxps %xmm8,%xmm1
- DB 65,15,95,192 ; maxps %xmm8,%xmm0
- DB 68,15,40,5,176,31,0,0 ; movaps 0x1fb0(%rip),%xmm8 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 65,15,93,192 ; minps %xmm8,%xmm0
- DB 65,15,93,200 ; minps %xmm8,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_repeat_x_1_sse2_lowp
-_sk_repeat_x_1_sse2_lowp LABEL PROC
- DB 243,68,15,91,193 ; cvttps2dq %xmm1,%xmm8
- DB 243,68,15,91,200 ; cvttps2dq %xmm0,%xmm9
- DB 69,15,91,201 ; cvtdq2ps %xmm9,%xmm9
- DB 69,15,91,192 ; cvtdq2ps %xmm8,%xmm8
- DB 68,15,40,209 ; movaps %xmm1,%xmm10
- DB 69,15,194,208,1 ; cmpltps %xmm8,%xmm10
- DB 68,15,40,216 ; movaps %xmm0,%xmm11
- DB 69,15,194,217,1 ; cmpltps %xmm9,%xmm11
- DB 68,15,40,37,120,31,0,0 ; movaps 0x1f78(%rip),%xmm12 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,84,220 ; andps %xmm12,%xmm11
- DB 69,15,84,212 ; andps %xmm12,%xmm10
- DB 69,15,87,237 ; xorps %xmm13,%xmm13
- DB 69,15,92,194 ; subps %xmm10,%xmm8
- DB 69,15,92,203 ; subps %xmm11,%xmm9
- DB 65,15,92,193 ; subps %xmm9,%xmm0
- DB 65,15,92,200 ; subps %xmm8,%xmm1
- DB 65,15,95,205 ; maxps %xmm13,%xmm1
- DB 65,15,95,197 ; maxps %xmm13,%xmm0
- DB 65,15,93,196 ; minps %xmm12,%xmm0
- DB 65,15,93,204 ; minps %xmm12,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_mirror_x_1_sse2_lowp
-_sk_mirror_x_1_sse2_lowp LABEL PROC
- DB 68,15,40,5,160,31,0,0 ; movaps 0x1fa0(%rip),%xmm8 # 35510 <_sk_srcover_bgra_8888_sse2_lowp+0xcf8>
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 68,15,40,21,32,31,0,0 ; movaps 0x1f20(%rip),%xmm10 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,40,217 ; movaps %xmm1,%xmm11
- DB 69,15,89,218 ; mulps %xmm10,%xmm11
- DB 68,15,89,208 ; mulps %xmm0,%xmm10
- DB 243,69,15,91,202 ; cvttps2dq %xmm10,%xmm9
- DB 243,69,15,91,227 ; cvttps2dq %xmm11,%xmm12
- DB 69,15,91,228 ; cvtdq2ps %xmm12,%xmm12
- DB 69,15,91,233 ; cvtdq2ps %xmm9,%xmm13
- DB 69,15,194,213,1 ; cmpltps %xmm13,%xmm10
- DB 69,15,194,220,1 ; cmpltps %xmm12,%xmm11
- DB 68,15,40,13,0,31,0,0 ; movaps 0x1f00(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,84,217 ; andps %xmm9,%xmm11
- DB 69,15,84,209 ; andps %xmm9,%xmm10
- DB 69,15,87,246 ; xorps %xmm14,%xmm14
- DB 69,15,92,234 ; subps %xmm10,%xmm13
- DB 69,15,92,227 ; subps %xmm11,%xmm12
- DB 69,15,88,228 ; addps %xmm12,%xmm12
- DB 69,15,88,237 ; addps %xmm13,%xmm13
- DB 65,15,92,197 ; subps %xmm13,%xmm0
- DB 65,15,92,204 ; subps %xmm12,%xmm1
- DB 65,15,88,200 ; addps %xmm8,%xmm1
- DB 65,15,88,192 ; addps %xmm8,%xmm0
- DB 68,15,40,5,44,36,0,0 ; movaps 0x242c(%rip),%xmm8 # 35a10 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 65,15,84,200 ; andps %xmm8,%xmm1
- DB 65,15,95,206 ; maxps %xmm14,%xmm1
- DB 65,15,95,198 ; maxps %xmm14,%xmm0
- DB 65,15,93,193 ; minps %xmm9,%xmm0
- DB 65,15,93,201 ; minps %xmm9,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_x_sse2_lowp
-_sk_decal_x_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,194,201,2 ; cmpleps %xmm1,%xmm9
- DB 242,69,15,112,201,232 ; pshuflw $0xe8,%xmm9,%xmm9
- DB 243,69,15,112,201,232 ; pshufhw $0xe8,%xmm9,%xmm9
- DB 102,69,15,112,201,232 ; pshufd $0xe8,%xmm9,%xmm9
- DB 68,15,194,192,2 ; cmpleps %xmm0,%xmm8
- DB 242,69,15,112,192,232 ; pshuflw $0xe8,%xmm8,%xmm8
- DB 243,69,15,112,192,232 ; pshufhw $0xe8,%xmm8,%xmm8
- DB 102,69,15,112,192,232 ; pshufd $0xe8,%xmm8,%xmm8
- DB 102,69,15,108,193 ; punpcklqdq %xmm9,%xmm8
- DB 102,65,15,113,240,15 ; psllw $0xf,%xmm8
- DB 102,65,15,113,224,15 ; psraw $0xf,%xmm8
- DB 243,68,15,16,72,64 ; movss 0x40(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,40,209 ; movaps %xmm1,%xmm10
- DB 69,15,194,209,1 ; cmpltps %xmm9,%xmm10
- DB 242,69,15,112,210,232 ; pshuflw $0xe8,%xmm10,%xmm10
- DB 243,69,15,112,210,232 ; pshufhw $0xe8,%xmm10,%xmm10
- DB 102,69,15,112,210,232 ; pshufd $0xe8,%xmm10,%xmm10
- DB 68,15,40,216 ; movaps %xmm0,%xmm11
- DB 69,15,194,217,1 ; cmpltps %xmm9,%xmm11
- DB 242,69,15,112,203,232 ; pshuflw $0xe8,%xmm11,%xmm9
- DB 243,69,15,112,201,232 ; pshufhw $0xe8,%xmm9,%xmm9
- DB 102,69,15,112,201,232 ; pshufd $0xe8,%xmm9,%xmm9
- DB 102,69,15,108,202 ; punpcklqdq %xmm10,%xmm9
- DB 102,65,15,113,241,15 ; psllw $0xf,%xmm9
- DB 102,65,15,113,225,15 ; psraw $0xf,%xmm9
- DB 102,69,15,219,200 ; pand %xmm8,%xmm9
- DB 243,68,15,127,8 ; movdqu %xmm9,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_y_sse2_lowp
-_sk_decal_y_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,194,203,2 ; cmpleps %xmm3,%xmm9
- DB 242,69,15,112,201,232 ; pshuflw $0xe8,%xmm9,%xmm9
- DB 243,69,15,112,201,232 ; pshufhw $0xe8,%xmm9,%xmm9
- DB 102,69,15,112,201,232 ; pshufd $0xe8,%xmm9,%xmm9
- DB 68,15,194,194,2 ; cmpleps %xmm2,%xmm8
- DB 242,69,15,112,192,232 ; pshuflw $0xe8,%xmm8,%xmm8
- DB 243,69,15,112,192,232 ; pshufhw $0xe8,%xmm8,%xmm8
- DB 102,69,15,112,192,232 ; pshufd $0xe8,%xmm8,%xmm8
- DB 102,69,15,108,193 ; punpcklqdq %xmm9,%xmm8
- DB 102,65,15,113,240,15 ; psllw $0xf,%xmm8
- DB 102,65,15,113,224,15 ; psraw $0xf,%xmm8
- DB 243,68,15,16,72,68 ; movss 0x44(%rax),%xmm9
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 68,15,40,211 ; movaps %xmm3,%xmm10
- DB 69,15,194,209,1 ; cmpltps %xmm9,%xmm10
- DB 242,69,15,112,210,232 ; pshuflw $0xe8,%xmm10,%xmm10
- DB 243,69,15,112,210,232 ; pshufhw $0xe8,%xmm10,%xmm10
- DB 102,69,15,112,210,232 ; pshufd $0xe8,%xmm10,%xmm10
- DB 68,15,40,218 ; movaps %xmm2,%xmm11
- DB 69,15,194,217,1 ; cmpltps %xmm9,%xmm11
- DB 242,69,15,112,203,232 ; pshuflw $0xe8,%xmm11,%xmm9
- DB 243,69,15,112,201,232 ; pshufhw $0xe8,%xmm9,%xmm9
- DB 102,69,15,112,201,232 ; pshufd $0xe8,%xmm9,%xmm9
- DB 102,69,15,108,202 ; punpcklqdq %xmm10,%xmm9
- DB 102,65,15,113,241,15 ; psllw $0xf,%xmm9
- DB 102,65,15,113,225,15 ; psraw $0xf,%xmm9
- DB 102,69,15,219,200 ; pand %xmm8,%xmm9
- DB 243,68,15,127,8 ; movdqu %xmm9,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_decal_x_and_y_sse2_lowp
-_sk_decal_x_and_y_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 69,15,87,210 ; xorps %xmm10,%xmm10
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 68,15,194,193,2 ; cmpleps %xmm1,%xmm8
- DB 242,69,15,112,192,232 ; pshuflw $0xe8,%xmm8,%xmm8
- DB 243,69,15,112,192,232 ; pshufhw $0xe8,%xmm8,%xmm8
- DB 102,69,15,112,192,232 ; pshufd $0xe8,%xmm8,%xmm8
- DB 69,15,87,201 ; xorps %xmm9,%xmm9
- DB 68,15,194,200,2 ; cmpleps %xmm0,%xmm9
- DB 242,69,15,112,201,232 ; pshuflw $0xe8,%xmm9,%xmm9
- DB 243,69,15,112,201,232 ; pshufhw $0xe8,%xmm9,%xmm9
- DB 102,69,15,112,201,232 ; pshufd $0xe8,%xmm9,%xmm9
- DB 102,69,15,108,200 ; punpcklqdq %xmm8,%xmm9
- DB 102,65,15,113,241,15 ; psllw $0xf,%xmm9
- DB 102,65,15,113,225,15 ; psraw $0xf,%xmm9
- DB 243,68,15,16,88,64 ; movss 0x40(%rax),%xmm11
- DB 243,68,15,16,64,68 ; movss 0x44(%rax),%xmm8
- DB 69,15,198,219,0 ; shufps $0x0,%xmm11,%xmm11
- DB 68,15,40,225 ; movaps %xmm1,%xmm12
- DB 69,15,194,227,1 ; cmpltps %xmm11,%xmm12
- DB 242,69,15,112,228,232 ; pshuflw $0xe8,%xmm12,%xmm12
- DB 243,69,15,112,228,232 ; pshufhw $0xe8,%xmm12,%xmm12
- DB 102,69,15,112,228,232 ; pshufd $0xe8,%xmm12,%xmm12
- DB 68,15,40,232 ; movaps %xmm0,%xmm13
- DB 69,15,194,235,1 ; cmpltps %xmm11,%xmm13
- DB 242,69,15,112,221,232 ; pshuflw $0xe8,%xmm13,%xmm11
- DB 243,69,15,112,219,232 ; pshufhw $0xe8,%xmm11,%xmm11
- DB 102,69,15,112,219,232 ; pshufd $0xe8,%xmm11,%xmm11
- DB 102,69,15,108,220 ; punpcklqdq %xmm12,%xmm11
- DB 102,65,15,113,243,15 ; psllw $0xf,%xmm11
- DB 102,65,15,113,227,15 ; psraw $0xf,%xmm11
- DB 102,69,15,239,228 ; pxor %xmm12,%xmm12
- DB 68,15,194,227,2 ; cmpleps %xmm3,%xmm12
- DB 242,69,15,112,228,232 ; pshuflw $0xe8,%xmm12,%xmm12
- DB 243,69,15,112,228,232 ; pshufhw $0xe8,%xmm12,%xmm12
- DB 102,69,15,112,228,232 ; pshufd $0xe8,%xmm12,%xmm12
- DB 68,15,194,210,2 ; cmpleps %xmm2,%xmm10
- DB 242,69,15,112,210,232 ; pshuflw $0xe8,%xmm10,%xmm10
- DB 243,69,15,112,210,232 ; pshufhw $0xe8,%xmm10,%xmm10
- DB 102,69,15,112,210,232 ; pshufd $0xe8,%xmm10,%xmm10
- DB 102,69,15,108,212 ; punpcklqdq %xmm12,%xmm10
- DB 102,65,15,113,242,15 ; psllw $0xf,%xmm10
- DB 102,65,15,113,226,15 ; psraw $0xf,%xmm10
- DB 102,69,15,219,209 ; pand %xmm9,%xmm10
- DB 102,69,15,219,211 ; pand %xmm11,%xmm10
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 69,15,194,200,1 ; cmpltps %xmm8,%xmm9
- DB 242,69,15,112,201,232 ; pshuflw $0xe8,%xmm9,%xmm9
- DB 243,69,15,112,201,232 ; pshufhw $0xe8,%xmm9,%xmm9
- DB 102,69,15,112,201,232 ; pshufd $0xe8,%xmm9,%xmm9
- DB 68,15,40,218 ; movaps %xmm2,%xmm11
- DB 69,15,194,216,1 ; cmpltps %xmm8,%xmm11
- DB 242,69,15,112,195,232 ; pshuflw $0xe8,%xmm11,%xmm8
- DB 243,69,15,112,192,232 ; pshufhw $0xe8,%xmm8,%xmm8
- DB 102,69,15,112,192,232 ; pshufd $0xe8,%xmm8,%xmm8
- DB 102,69,15,108,193 ; punpcklqdq %xmm9,%xmm8
- DB 102,65,15,113,240,15 ; psllw $0xf,%xmm8
- DB 102,65,15,113,224,15 ; psraw $0xf,%xmm8
- DB 102,69,15,219,194 ; pand %xmm10,%xmm8
- DB 243,68,15,127,0 ; movdqu %xmm8,(%rax)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_check_decal_mask_sse2_lowp
-_sk_check_decal_mask_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 68,15,16,0 ; movups (%rax),%xmm8
- DB 65,15,84,192 ; andps %xmm8,%xmm0
- DB 65,15,84,200 ; andps %xmm8,%xmm1
- DB 65,15,84,208 ; andps %xmm8,%xmm2
- DB 65,15,84,216 ; andps %xmm8,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_gradient_sse2_lowp
-_sk_gradient_sse2_lowp LABEL PROC
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,129,236,128,0,0,0 ; sub $0x80,%rsp
- DB 15,41,124,36,112 ; movaps %xmm7,0x70(%rsp)
- DB 15,41,116,36,96 ; movaps %xmm6,0x60(%rsp)
- DB 15,41,108,36,80 ; movaps %xmm5,0x50(%rsp)
- DB 15,41,100,36,64 ; movaps %xmm4,0x40(%rsp)
- DB 68,15,40,249 ; movaps %xmm1,%xmm15
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,139,0 ; mov (%rax),%r8
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 73,131,248,2 ; cmp $0x2,%r8
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 114,56 ; jb 3392c <_sk_gradient_sse2_lowp+0x73>
- DB 72,139,88,72 ; mov 0x48(%rax),%rbx
- DB 73,255,200 ; dec %r8
- DB 72,131,195,4 ; add $0x4,%rbx
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 243,15,16,35 ; movss (%rbx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,194,232,2 ; cmpleps %xmm0,%xmm5
- DB 102,15,250,213 ; psubd %xmm5,%xmm2
- DB 65,15,194,231,2 ; cmpleps %xmm15,%xmm4
- DB 102,15,250,220 ; psubd %xmm4,%xmm3
- DB 72,131,195,4 ; add $0x4,%rbx
- DB 73,255,200 ; dec %r8
- DB 117,219 ; jne 33907 <_sk_gradient_sse2_lowp+0x4e>
- DB 102,15,112,227,78 ; pshufd $0x4e,%xmm3,%xmm4
- DB 102,73,15,126,225 ; movq %xmm4,%r9
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 102,73,15,126,219 ; movq %xmm3,%r11
- DB 69,137,218 ; mov %r11d,%r10d
- DB 73,193,235,32 ; shr $0x20,%r11
- DB 102,65,15,126,214 ; movd %xmm2,%r14d
- DB 102,68,15,112,194,229 ; pshufd $0xe5,%xmm2,%xmm8
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,65,15,126,223 ; movd %xmm3,%r15d
- DB 102,15,112,210,231 ; pshufd $0xe7,%xmm2,%xmm2
- DB 102,65,15,126,212 ; movd %xmm2,%r12d
- DB 72,139,88,8 ; mov 0x8(%rax),%rbx
- DB 243,70,15,16,20,155 ; movss (%rbx,%r11,4),%xmm10
- DB 243,70,15,16,12,147 ; movss (%rbx,%r10,4),%xmm9
- DB 243,66,15,16,44,139 ; movss (%rbx,%r9,4),%xmm5
- DB 243,66,15,16,52,131 ; movss (%rbx,%r8,4),%xmm6
- DB 243,66,15,16,60,163 ; movss (%rbx,%r12,4),%xmm7
- DB 243,66,15,16,36,187 ; movss (%rbx,%r15,4),%xmm4
- DB 243,66,15,16,28,179 ; movss (%rbx,%r14,4),%xmm3
- DB 102,69,15,126,197 ; movd %xmm8,%r13d
- DB 243,66,15,16,20,171 ; movss (%rbx,%r13,4),%xmm2
- DB 69,15,20,202 ; unpcklps %xmm10,%xmm9
- DB 15,20,245 ; unpcklps %xmm5,%xmm6
- DB 102,68,15,20,206 ; unpcklpd %xmm6,%xmm9
- DB 15,20,231 ; unpcklps %xmm7,%xmm4
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 102,15,20,220 ; unpcklpd %xmm4,%xmm3
- DB 72,139,88,16 ; mov 0x10(%rax),%rbx
- DB 243,70,15,16,4,155 ; movss (%rbx,%r11,4),%xmm8
- DB 243,70,15,16,36,147 ; movss (%rbx,%r10,4),%xmm12
- DB 243,70,15,16,20,139 ; movss (%rbx,%r9,4),%xmm10
- DB 243,66,15,16,52,131 ; movss (%rbx,%r8,4),%xmm6
- DB 243,66,15,16,60,163 ; movss (%rbx,%r12,4),%xmm7
- DB 243,66,15,16,36,187 ; movss (%rbx,%r15,4),%xmm4
- DB 243,66,15,16,20,179 ; movss (%rbx,%r14,4),%xmm2
- DB 243,66,15,16,44,171 ; movss (%rbx,%r13,4),%xmm5
- DB 69,15,20,224 ; unpcklps %xmm8,%xmm12
- DB 65,15,20,242 ; unpcklps %xmm10,%xmm6
- DB 102,68,15,20,230 ; unpcklpd %xmm6,%xmm12
- DB 15,20,231 ; unpcklps %xmm7,%xmm4
- DB 15,20,213 ; unpcklps %xmm5,%xmm2
- DB 102,15,20,212 ; unpcklpd %xmm4,%xmm2
- DB 72,139,88,24 ; mov 0x18(%rax),%rbx
- DB 243,66,15,16,36,155 ; movss (%rbx,%r11,4),%xmm4
- DB 243,70,15,16,28,147 ; movss (%rbx,%r10,4),%xmm11
- DB 68,15,20,220 ; unpcklps %xmm4,%xmm11
- DB 243,66,15,16,36,139 ; movss (%rbx,%r9,4),%xmm4
- DB 243,66,15,16,44,131 ; movss (%rbx,%r8,4),%xmm5
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 243,66,15,16,36,163 ; movss (%rbx,%r12,4),%xmm4
- DB 243,66,15,16,52,187 ; movss (%rbx,%r15,4),%xmm6
- DB 243,70,15,16,52,179 ; movss (%rbx,%r14,4),%xmm14
- DB 243,66,15,16,60,171 ; movss (%rbx,%r13,4),%xmm7
- DB 102,68,15,20,221 ; unpcklpd %xmm5,%xmm11
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 68,15,20,247 ; unpcklps %xmm7,%xmm14
- DB 102,68,15,20,246 ; unpcklpd %xmm6,%xmm14
- DB 72,139,88,32 ; mov 0x20(%rax),%rbx
- DB 243,66,15,16,36,155 ; movss (%rbx,%r11,4),%xmm4
- DB 243,70,15,16,20,147 ; movss (%rbx,%r10,4),%xmm10
- DB 68,15,20,212 ; unpcklps %xmm4,%xmm10
- DB 243,66,15,16,36,139 ; movss (%rbx,%r9,4),%xmm4
- DB 243,66,15,16,44,131 ; movss (%rbx,%r8,4),%xmm5
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 102,68,15,20,213 ; unpcklpd %xmm5,%xmm10
- DB 243,66,15,16,36,163 ; movss (%rbx,%r12,4),%xmm4
- DB 243,66,15,16,44,187 ; movss (%rbx,%r15,4),%xmm5
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 243,70,15,16,44,179 ; movss (%rbx,%r14,4),%xmm13
- DB 243,66,15,16,36,171 ; movss (%rbx,%r13,4),%xmm4
- DB 68,15,20,236 ; unpcklps %xmm4,%xmm13
- DB 102,68,15,20,237 ; unpcklpd %xmm5,%xmm13
- DB 72,139,88,40 ; mov 0x28(%rax),%rbx
- DB 243,66,15,16,36,163 ; movss (%rbx,%r12,4),%xmm4
- DB 243,66,15,16,52,187 ; movss (%rbx,%r15,4),%xmm6
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 243,66,15,16,44,179 ; movss (%rbx,%r14,4),%xmm5
- DB 243,66,15,16,36,171 ; movss (%rbx,%r13,4),%xmm4
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 102,15,20,238 ; unpcklpd %xmm6,%xmm5
- DB 243,66,15,16,52,155 ; movss (%rbx,%r11,4),%xmm6
- DB 243,66,15,16,36,147 ; movss (%rbx,%r10,4),%xmm4
- DB 15,20,230 ; unpcklps %xmm6,%xmm4
- DB 243,66,15,16,52,139 ; movss (%rbx,%r9,4),%xmm6
- DB 243,66,15,16,60,131 ; movss (%rbx,%r8,4),%xmm7
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 102,15,20,231 ; unpcklpd %xmm7,%xmm4
- DB 72,139,88,48 ; mov 0x30(%rax),%rbx
- DB 243,66,15,16,60,163 ; movss (%rbx,%r12,4),%xmm7
- DB 243,66,15,16,52,187 ; movss (%rbx,%r15,4),%xmm6
- DB 15,20,247 ; unpcklps %xmm7,%xmm6
- DB 243,66,15,16,12,179 ; movss (%rbx,%r14,4),%xmm1
- DB 243,66,15,16,60,171 ; movss (%rbx,%r13,4),%xmm7
- DB 15,20,207 ; unpcklps %xmm7,%xmm1
- DB 102,15,20,206 ; unpcklpd %xmm6,%xmm1
- DB 102,15,41,76,36,16 ; movapd %xmm1,0x10(%rsp)
- DB 243,66,15,16,60,155 ; movss (%rbx,%r11,4),%xmm7
- DB 243,70,15,16,4,147 ; movss (%rbx,%r10,4),%xmm8
- DB 68,15,20,199 ; unpcklps %xmm7,%xmm8
- DB 243,66,15,16,60,139 ; movss (%rbx,%r9,4),%xmm7
- DB 243,66,15,16,52,131 ; movss (%rbx,%r8,4),%xmm6
- DB 15,20,247 ; unpcklps %xmm7,%xmm6
- DB 102,68,15,20,198 ; unpcklpd %xmm6,%xmm8
- DB 72,139,88,56 ; mov 0x38(%rax),%rbx
- DB 243,66,15,16,60,163 ; movss (%rbx,%r12,4),%xmm7
- DB 243,66,15,16,52,187 ; movss (%rbx,%r15,4),%xmm6
- DB 15,20,247 ; unpcklps %xmm7,%xmm6
- DB 243,66,15,16,12,179 ; movss (%rbx,%r14,4),%xmm1
- DB 243,66,15,16,60,171 ; movss (%rbx,%r13,4),%xmm7
- DB 15,20,207 ; unpcklps %xmm7,%xmm1
- DB 102,15,20,206 ; unpcklpd %xmm6,%xmm1
- DB 102,15,41,76,36,32 ; movapd %xmm1,0x20(%rsp)
- DB 243,66,15,16,60,155 ; movss (%rbx,%r11,4),%xmm7
- DB 243,66,15,16,12,147 ; movss (%rbx,%r10,4),%xmm1
- DB 15,20,207 ; unpcklps %xmm7,%xmm1
- DB 243,66,15,16,60,139 ; movss (%rbx,%r9,4),%xmm7
- DB 243,66,15,16,52,131 ; movss (%rbx,%r8,4),%xmm6
- DB 15,20,247 ; unpcklps %xmm7,%xmm6
- DB 102,15,20,206 ; unpcklpd %xmm6,%xmm1
- DB 102,15,41,12,36 ; movapd %xmm1,(%rsp)
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 243,66,15,16,52,160 ; movss (%rax,%r12,4),%xmm6
- DB 243,66,15,16,60,184 ; movss (%rax,%r15,4),%xmm7
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 243,66,15,16,12,176 ; movss (%rax,%r14,4),%xmm1
- DB 243,66,15,16,52,168 ; movss (%rax,%r13,4),%xmm6
- DB 15,20,206 ; unpcklps %xmm6,%xmm1
- DB 102,15,20,207 ; unpcklpd %xmm7,%xmm1
- DB 102,15,41,76,36,48 ; movapd %xmm1,0x30(%rsp)
- DB 243,66,15,16,52,152 ; movss (%rax,%r11,4),%xmm6
- DB 243,66,15,16,12,144 ; movss (%rax,%r10,4),%xmm1
- DB 15,20,206 ; unpcklps %xmm6,%xmm1
- DB 243,66,15,16,52,136 ; movss (%rax,%r9,4),%xmm6
- DB 243,66,15,16,60,128 ; movss (%rax,%r8,4),%xmm7
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 102,15,20,207 ; unpcklpd %xmm7,%xmm1
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 69,15,89,207 ; mulps %xmm15,%xmm9
- DB 68,15,88,204 ; addps %xmm4,%xmm9
- DB 15,40,53,168,25,0,0 ; movaps 0x19a8(%rip),%xmm6 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 15,89,222 ; mulps %xmm6,%xmm3
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 15,40,37,170,24,0,0 ; movaps 0x18aa(%rip),%xmm4 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,88,204 ; addps %xmm4,%xmm9
- DB 15,88,220 ; addps %xmm4,%xmm3
- DB 243,15,91,219 ; cvttps2dq %xmm3,%xmm3
- DB 242,15,112,219,232 ; pshuflw $0xe8,%xmm3,%xmm3
- DB 243,15,112,219,232 ; pshufhw $0xe8,%xmm3,%xmm3
- DB 102,15,112,235,232 ; pshufd $0xe8,%xmm3,%xmm5
- DB 243,65,15,91,217 ; cvttps2dq %xmm9,%xmm3
- DB 242,15,112,219,232 ; pshuflw $0xe8,%xmm3,%xmm3
- DB 243,15,112,219,232 ; pshufhw $0xe8,%xmm3,%xmm3
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,15,108,235 ; punpcklqdq %xmm3,%xmm5
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,88,84,36,16 ; addps 0x10(%rsp),%xmm2
- DB 69,15,89,231 ; mulps %xmm15,%xmm12
- DB 69,15,88,224 ; addps %xmm8,%xmm12
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 68,15,89,230 ; mulps %xmm6,%xmm12
- DB 68,15,88,228 ; addps %xmm4,%xmm12
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 242,15,112,210,232 ; pshuflw $0xe8,%xmm2,%xmm2
- DB 243,15,112,210,232 ; pshufhw $0xe8,%xmm2,%xmm2
- DB 102,68,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm9
- DB 243,65,15,91,212 ; cvttps2dq %xmm12,%xmm2
- DB 242,15,112,210,232 ; pshuflw $0xe8,%xmm2,%xmm2
- DB 243,15,112,210,232 ; pshufhw $0xe8,%xmm2,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,68,15,108,202 ; punpcklqdq %xmm2,%xmm9
- DB 68,15,89,240 ; mulps %xmm0,%xmm14
- DB 68,15,88,116,36,32 ; addps 0x20(%rsp),%xmm14
- DB 69,15,89,223 ; mulps %xmm15,%xmm11
- DB 68,15,88,28,36 ; addps (%rsp),%xmm11
- DB 68,15,89,246 ; mulps %xmm6,%xmm14
- DB 68,15,89,222 ; mulps %xmm6,%xmm11
- DB 68,15,88,220 ; addps %xmm4,%xmm11
- DB 68,15,88,244 ; addps %xmm4,%xmm14
- DB 243,65,15,91,214 ; cvttps2dq %xmm14,%xmm2
- DB 242,15,112,210,232 ; pshuflw $0xe8,%xmm2,%xmm2
- DB 243,15,112,210,232 ; pshufhw $0xe8,%xmm2,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 243,65,15,91,219 ; cvttps2dq %xmm11,%xmm3
- DB 242,15,112,219,232 ; pshuflw $0xe8,%xmm3,%xmm3
- DB 243,15,112,219,232 ; pshufhw $0xe8,%xmm3,%xmm3
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,15,108,211 ; punpcklqdq %xmm3,%xmm2
- DB 68,15,89,232 ; mulps %xmm0,%xmm13
- DB 68,15,88,108,36,48 ; addps 0x30(%rsp),%xmm13
- DB 69,15,89,215 ; mulps %xmm15,%xmm10
- DB 68,15,88,209 ; addps %xmm1,%xmm10
- DB 68,15,89,238 ; mulps %xmm6,%xmm13
- DB 68,15,89,214 ; mulps %xmm6,%xmm10
- DB 68,15,88,212 ; addps %xmm4,%xmm10
- DB 68,15,88,236 ; addps %xmm4,%xmm13
- DB 243,65,15,91,197 ; cvttps2dq %xmm13,%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,216,232 ; pshufd $0xe8,%xmm0,%xmm3
- DB 243,65,15,91,194 ; cvttps2dq %xmm10,%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,108,216 ; punpcklqdq %xmm0,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 15,40,100,36,64 ; movaps 0x40(%rsp),%xmm4
- DB 15,40,108,36,80 ; movaps 0x50(%rsp),%xmm5
- DB 15,40,116,36,96 ; movaps 0x60(%rsp),%xmm6
- DB 15,40,124,36,112 ; movaps 0x70(%rsp),%xmm7
- DB 72,129,196,128,0,0,0 ; add $0x80,%rsp
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_evenly_spaced_gradient_sse2_lowp
-_sk_evenly_spaced_gradient_sse2_lowp LABEL PROC
- DB 85 ; push %rbp
- DB 65,87 ; push %r15
- DB 65,86 ; push %r14
- DB 65,85 ; push %r13
- DB 65,84 ; push %r12
- DB 83 ; push %rbx
- DB 72,129,236,136,0,0,0 ; sub $0x88,%rsp
- DB 15,41,124,36,112 ; movaps %xmm7,0x70(%rsp)
- DB 15,41,116,36,96 ; movaps %xmm6,0x60(%rsp)
- DB 15,41,108,36,80 ; movaps %xmm5,0x50(%rsp)
- DB 15,41,100,36,64 ; movaps %xmm4,0x40(%rsp)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 72,139,24 ; mov (%rax),%rbx
- DB 72,139,104,8 ; mov 0x8(%rax),%rbp
- DB 72,255,203 ; dec %rbx
- DB 120,7 ; js 33d7b <_sk_evenly_spaced_gradient_sse2_lowp+0x3a>
- DB 243,72,15,42,211 ; cvtsi2ss %rbx,%xmm2
- DB 235,21 ; jmp 33d90 <_sk_evenly_spaced_gradient_sse2_lowp+0x4f>
- DB 73,137,216 ; mov %rbx,%r8
- DB 73,209,232 ; shr %r8
- DB 131,227,1 ; and $0x1,%ebx
- DB 76,9,195 ; or %r8,%rbx
- DB 243,72,15,42,211 ; cvtsi2ss %rbx,%xmm2
- DB 243,15,88,210 ; addss %xmm2,%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,41,68,36,48 ; movaps %xmm0,0x30(%rsp)
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 243,15,91,218 ; cvttps2dq %xmm2,%xmm3
- DB 15,41,76,36,32 ; movaps %xmm1,0x20(%rsp)
- DB 102,15,112,211,78 ; pshufd $0x4e,%xmm3,%xmm2
- DB 102,73,15,126,214 ; movq %xmm2,%r14
- DB 69,137,242 ; mov %r14d,%r10d
- DB 73,193,238,32 ; shr $0x20,%r14
- DB 102,73,15,126,221 ; movq %xmm3,%r13
- DB 69,137,239 ; mov %r13d,%r15d
- DB 73,193,237,32 ; shr $0x20,%r13
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,73,15,126,201 ; movq %xmm1,%r9
- DB 69,137,200 ; mov %r9d,%r8d
- DB 73,193,233,32 ; shr $0x20,%r9
- DB 102,73,15,126,196 ; movq %xmm0,%r12
- DB 69,137,227 ; mov %r12d,%r11d
- DB 73,193,236,32 ; shr $0x20,%r12
- DB 243,66,15,16,68,165,0 ; movss 0x0(%rbp,%r12,4),%xmm0
- DB 243,70,15,16,68,157,0 ; movss 0x0(%rbp,%r11,4),%xmm8
- DB 243,66,15,16,76,141,0 ; movss 0x0(%rbp,%r9,4),%xmm1
- DB 243,66,15,16,84,133,0 ; movss 0x0(%rbp,%r8,4),%xmm2
- DB 243,66,15,16,100,173,0 ; movss 0x0(%rbp,%r13,4),%xmm4
- DB 243,66,15,16,92,189,0 ; movss 0x0(%rbp,%r15,4),%xmm3
- DB 243,66,15,16,108,181,0 ; movss 0x0(%rbp,%r14,4),%xmm5
- DB 243,66,15,16,116,149,0 ; movss 0x0(%rbp,%r10,4),%xmm6
- DB 68,15,20,192 ; unpcklps %xmm0,%xmm8
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 102,68,15,20,194 ; unpcklpd %xmm2,%xmm8
- DB 15,20,220 ; unpcklps %xmm4,%xmm3
- DB 15,20,245 ; unpcklps %xmm5,%xmm6
- DB 102,15,20,222 ; unpcklpd %xmm6,%xmm3
- DB 72,139,88,16 ; mov 0x10(%rax),%rbx
- DB 243,66,15,16,4,163 ; movss (%rbx,%r12,4),%xmm0
- DB 243,70,15,16,12,155 ; movss (%rbx,%r11,4),%xmm9
- DB 243,66,15,16,12,139 ; movss (%rbx,%r9,4),%xmm1
- DB 243,66,15,16,36,131 ; movss (%rbx,%r8,4),%xmm4
- DB 243,66,15,16,44,171 ; movss (%rbx,%r13,4),%xmm5
- DB 243,66,15,16,20,187 ; movss (%rbx,%r15,4),%xmm2
- DB 243,66,15,16,52,179 ; movss (%rbx,%r14,4),%xmm6
- DB 243,66,15,16,60,147 ; movss (%rbx,%r10,4),%xmm7
- DB 68,15,20,200 ; unpcklps %xmm0,%xmm9
- DB 15,20,225 ; unpcklps %xmm1,%xmm4
- DB 102,68,15,20,204 ; unpcklpd %xmm4,%xmm9
- DB 15,20,213 ; unpcklps %xmm5,%xmm2
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 102,15,20,215 ; unpcklpd %xmm7,%xmm2
- DB 72,139,88,24 ; mov 0x18(%rax),%rbx
- DB 243,66,15,16,4,163 ; movss (%rbx,%r12,4),%xmm0
- DB 243,70,15,16,28,155 ; movss (%rbx,%r11,4),%xmm11
- DB 68,15,20,216 ; unpcklps %xmm0,%xmm11
- DB 243,66,15,16,4,139 ; movss (%rbx,%r9,4),%xmm0
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 243,66,15,16,4,171 ; movss (%rbx,%r13,4),%xmm0
- DB 243,70,15,16,44,187 ; movss (%rbx,%r15,4),%xmm13
- DB 243,66,15,16,36,179 ; movss (%rbx,%r14,4),%xmm4
- DB 243,66,15,16,44,147 ; movss (%rbx,%r10,4),%xmm5
- DB 102,68,15,20,217 ; unpcklpd %xmm1,%xmm11
- DB 68,15,20,232 ; unpcklps %xmm0,%xmm13
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 102,68,15,20,237 ; unpcklpd %xmm5,%xmm13
- DB 72,139,88,32 ; mov 0x20(%rax),%rbx
- DB 243,66,15,16,4,163 ; movss (%rbx,%r12,4),%xmm0
- DB 243,70,15,16,20,155 ; movss (%rbx,%r11,4),%xmm10
- DB 68,15,20,208 ; unpcklps %xmm0,%xmm10
- DB 243,66,15,16,4,139 ; movss (%rbx,%r9,4),%xmm0
- DB 243,66,15,16,12,131 ; movss (%rbx,%r8,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 102,68,15,20,209 ; unpcklpd %xmm1,%xmm10
- DB 243,66,15,16,4,171 ; movss (%rbx,%r13,4),%xmm0
- DB 243,70,15,16,36,187 ; movss (%rbx,%r15,4),%xmm12
- DB 68,15,20,224 ; unpcklps %xmm0,%xmm12
- DB 243,66,15,16,4,179 ; movss (%rbx,%r14,4),%xmm0
- DB 243,66,15,16,12,147 ; movss (%rbx,%r10,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 102,68,15,20,225 ; unpcklpd %xmm1,%xmm12
- DB 72,139,88,40 ; mov 0x28(%rax),%rbx
- DB 243,66,15,16,12,171 ; movss (%rbx,%r13,4),%xmm1
- DB 243,66,15,16,4,187 ; movss (%rbx,%r15,4),%xmm0
- DB 15,20,193 ; unpcklps %xmm1,%xmm0
- DB 243,66,15,16,12,179 ; movss (%rbx,%r14,4),%xmm1
- DB 243,66,15,16,36,147 ; movss (%rbx,%r10,4),%xmm4
- DB 15,20,225 ; unpcklps %xmm1,%xmm4
- DB 102,15,20,196 ; unpcklpd %xmm4,%xmm0
- DB 243,66,15,16,36,163 ; movss (%rbx,%r12,4),%xmm4
- DB 243,66,15,16,12,155 ; movss (%rbx,%r11,4),%xmm1
- DB 15,20,204 ; unpcklps %xmm4,%xmm1
- DB 243,66,15,16,36,139 ; movss (%rbx,%r9,4),%xmm4
- DB 243,66,15,16,44,131 ; movss (%rbx,%r8,4),%xmm5
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 102,15,20,205 ; unpcklpd %xmm5,%xmm1
- DB 72,139,88,48 ; mov 0x30(%rax),%rbx
- DB 243,66,15,16,36,171 ; movss (%rbx,%r13,4),%xmm4
- DB 243,70,15,16,52,187 ; movss (%rbx,%r15,4),%xmm14
- DB 68,15,20,244 ; unpcklps %xmm4,%xmm14
- DB 243,66,15,16,36,179 ; movss (%rbx,%r14,4),%xmm4
- DB 243,66,15,16,44,147 ; movss (%rbx,%r10,4),%xmm5
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 102,68,15,20,245 ; unpcklpd %xmm5,%xmm14
- DB 243,66,15,16,44,163 ; movss (%rbx,%r12,4),%xmm5
- DB 243,66,15,16,36,155 ; movss (%rbx,%r11,4),%xmm4
- DB 15,20,229 ; unpcklps %xmm5,%xmm4
- DB 243,66,15,16,44,139 ; movss (%rbx,%r9,4),%xmm5
- DB 243,66,15,16,60,131 ; movss (%rbx,%r8,4),%xmm7
- DB 15,20,253 ; unpcklps %xmm5,%xmm7
- DB 102,15,20,231 ; unpcklpd %xmm7,%xmm4
- DB 72,139,88,56 ; mov 0x38(%rax),%rbx
- DB 243,66,15,16,44,171 ; movss (%rbx,%r13,4),%xmm5
- DB 243,66,15,16,52,187 ; movss (%rbx,%r15,4),%xmm6
- DB 15,20,245 ; unpcklps %xmm5,%xmm6
- DB 243,66,15,16,44,179 ; movss (%rbx,%r14,4),%xmm5
- DB 243,66,15,16,60,147 ; movss (%rbx,%r10,4),%xmm7
- DB 15,20,253 ; unpcklps %xmm5,%xmm7
- DB 102,15,20,247 ; unpcklpd %xmm7,%xmm6
- DB 102,15,41,52,36 ; movapd %xmm6,(%rsp)
- DB 243,66,15,16,60,163 ; movss (%rbx,%r12,4),%xmm7
- DB 243,66,15,16,44,155 ; movss (%rbx,%r11,4),%xmm5
- DB 15,20,239 ; unpcklps %xmm7,%xmm5
- DB 243,66,15,16,60,139 ; movss (%rbx,%r9,4),%xmm7
- DB 243,66,15,16,52,131 ; movss (%rbx,%r8,4),%xmm6
- DB 15,20,247 ; unpcklps %xmm7,%xmm6
- DB 102,15,20,238 ; unpcklpd %xmm6,%xmm5
- DB 72,139,64,64 ; mov 0x40(%rax),%rax
- DB 243,66,15,16,52,168 ; movss (%rax,%r13,4),%xmm6
- DB 243,66,15,16,60,184 ; movss (%rax,%r15,4),%xmm7
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 243,70,15,16,60,176 ; movss (%rax,%r14,4),%xmm15
- DB 243,66,15,16,52,144 ; movss (%rax,%r10,4),%xmm6
- DB 65,15,20,247 ; unpcklps %xmm15,%xmm6
- DB 102,15,20,254 ; unpcklpd %xmm6,%xmm7
- DB 102,15,41,124,36,16 ; movapd %xmm7,0x10(%rsp)
- DB 243,66,15,16,52,160 ; movss (%rax,%r12,4),%xmm6
- DB 243,66,15,16,60,152 ; movss (%rax,%r11,4),%xmm7
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 243,66,15,16,52,136 ; movss (%rax,%r9,4),%xmm6
- DB 243,70,15,16,60,128 ; movss (%rax,%r8,4),%xmm15
- DB 68,15,20,254 ; unpcklps %xmm6,%xmm15
- DB 102,65,15,20,255 ; unpcklpd %xmm15,%xmm7
- DB 68,15,40,124,36,32 ; movaps 0x20(%rsp),%xmm15
- DB 65,15,89,223 ; mulps %xmm15,%xmm3
- DB 15,88,216 ; addps %xmm0,%xmm3
- DB 15,40,68,36,48 ; movaps 0x30(%rsp),%xmm0
- DB 68,15,89,192 ; mulps %xmm0,%xmm8
- DB 68,15,88,193 ; addps %xmm1,%xmm8
- DB 15,40,13,41,21,0,0 ; movaps 0x1529(%rip),%xmm1 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 15,89,217 ; mulps %xmm1,%xmm3
- DB 68,15,89,193 ; mulps %xmm1,%xmm8
- DB 15,40,13,43,20,0,0 ; movaps 0x142b(%rip),%xmm1 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,88,193 ; addps %xmm1,%xmm8
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 243,15,91,219 ; cvttps2dq %xmm3,%xmm3
- DB 242,15,112,219,232 ; pshuflw $0xe8,%xmm3,%xmm3
- DB 243,15,112,219,232 ; pshufhw $0xe8,%xmm3,%xmm3
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 243,65,15,91,240 ; cvttps2dq %xmm8,%xmm6
- DB 242,15,112,246,232 ; pshuflw $0xe8,%xmm6,%xmm6
- DB 243,15,112,246,232 ; pshufhw $0xe8,%xmm6,%xmm6
- DB 102,68,15,112,198,232 ; pshufd $0xe8,%xmm6,%xmm8
- DB 102,68,15,108,195 ; punpcklqdq %xmm3,%xmm8
- DB 65,15,89,215 ; mulps %xmm15,%xmm2
- DB 65,15,88,214 ; addps %xmm14,%xmm2
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 68,15,89,206 ; mulps %xmm6,%xmm9
- DB 68,15,88,204 ; addps %xmm4,%xmm9
- DB 15,40,5,205,20,0,0 ; movaps 0x14cd(%rip),%xmm0 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 68,15,88,201 ; addps %xmm1,%xmm9
- DB 15,88,209 ; addps %xmm1,%xmm2
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 242,15,112,210,232 ; pshuflw $0xe8,%xmm2,%xmm2
- DB 243,15,112,210,232 ; pshufhw $0xe8,%xmm2,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 243,65,15,91,217 ; cvttps2dq %xmm9,%xmm3
- DB 242,15,112,219,232 ; pshuflw $0xe8,%xmm3,%xmm3
- DB 243,15,112,219,232 ; pshufhw $0xe8,%xmm3,%xmm3
- DB 102,68,15,112,203,232 ; pshufd $0xe8,%xmm3,%xmm9
- DB 102,68,15,108,202 ; punpcklqdq %xmm2,%xmm9
- DB 69,15,89,239 ; mulps %xmm15,%xmm13
- DB 68,15,88,44,36 ; addps (%rsp),%xmm13
- DB 68,15,89,222 ; mulps %xmm6,%xmm11
- DB 68,15,88,221 ; addps %xmm5,%xmm11
- DB 68,15,89,232 ; mulps %xmm0,%xmm13
- DB 68,15,89,216 ; mulps %xmm0,%xmm11
- DB 68,15,88,217 ; addps %xmm1,%xmm11
- DB 68,15,88,233 ; addps %xmm1,%xmm13
- DB 243,65,15,91,213 ; cvttps2dq %xmm13,%xmm2
- DB 242,15,112,210,232 ; pshuflw $0xe8,%xmm2,%xmm2
- DB 243,15,112,210,232 ; pshufhw $0xe8,%xmm2,%xmm2
- DB 102,15,112,218,232 ; pshufd $0xe8,%xmm2,%xmm3
- DB 243,65,15,91,211 ; cvttps2dq %xmm11,%xmm2
- DB 242,15,112,210,232 ; pshuflw $0xe8,%xmm2,%xmm2
- DB 243,15,112,210,232 ; pshufhw $0xe8,%xmm2,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,108,211 ; punpcklqdq %xmm3,%xmm2
- DB 69,15,89,231 ; mulps %xmm15,%xmm12
- DB 68,15,88,100,36,16 ; addps 0x10(%rsp),%xmm12
- DB 68,15,89,214 ; mulps %xmm6,%xmm10
- DB 68,15,88,215 ; addps %xmm7,%xmm10
- DB 68,15,89,224 ; mulps %xmm0,%xmm12
- DB 68,15,89,208 ; mulps %xmm0,%xmm10
- DB 68,15,88,209 ; addps %xmm1,%xmm10
- DB 68,15,88,225 ; addps %xmm1,%xmm12
- DB 243,65,15,91,196 ; cvttps2dq %xmm12,%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 243,65,15,91,202 ; cvttps2dq %xmm10,%xmm1
- DB 242,15,112,201,232 ; pshuflw $0xe8,%xmm1,%xmm1
- DB 243,15,112,201,232 ; pshufhw $0xe8,%xmm1,%xmm1
- DB 102,15,112,217,232 ; pshufd $0xe8,%xmm1,%xmm3
- DB 102,15,108,216 ; punpcklqdq %xmm0,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 15,40,100,36,64 ; movaps 0x40(%rsp),%xmm4
- DB 15,40,108,36,80 ; movaps 0x50(%rsp),%xmm5
- DB 15,40,116,36,96 ; movaps 0x60(%rsp),%xmm6
- DB 15,40,124,36,112 ; movaps 0x70(%rsp),%xmm7
- DB 72,129,196,136,0,0,0 ; add $0x88,%rsp
- DB 91 ; pop %rbx
- DB 65,92 ; pop %r12
- DB 65,93 ; pop %r13
- DB 65,94 ; pop %r14
- DB 65,95 ; pop %r15
- DB 93 ; pop %rbp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_evenly_spaced_2_stop_gradient_sse2_lowp
-_sk_evenly_spaced_2_stop_gradient_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 243,15,16,24 ; movss (%rax),%xmm3
- DB 243,68,15,16,72,4 ; movss 0x4(%rax),%xmm9
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 243,68,15,16,64,16 ; movss 0x10(%rax),%xmm8
- DB 69,15,198,192,0 ; shufps $0x0,%xmm8,%xmm8
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 65,15,88,216 ; addps %xmm8,%xmm3
- DB 65,15,88,208 ; addps %xmm8,%xmm2
- DB 68,15,40,21,144,19,0,0 ; movaps 0x1390(%rip),%xmm10 # 35590 <_sk_srcover_bgra_8888_sse2_lowp+0xd78>
- DB 65,15,89,210 ; mulps %xmm10,%xmm2
- DB 65,15,89,218 ; mulps %xmm10,%xmm3
- DB 68,15,40,29,144,18,0,0 ; movaps 0x1290(%rip),%xmm11 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 65,15,88,219 ; addps %xmm11,%xmm3
- DB 65,15,88,211 ; addps %xmm11,%xmm2
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 242,15,112,210,232 ; pshuflw $0xe8,%xmm2,%xmm2
- DB 243,15,112,210,232 ; pshufhw $0xe8,%xmm2,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 243,15,91,219 ; cvttps2dq %xmm3,%xmm3
- DB 242,15,112,219,232 ; pshuflw $0xe8,%xmm3,%xmm3
- DB 243,15,112,219,232 ; pshufhw $0xe8,%xmm3,%xmm3
- DB 102,68,15,112,195,232 ; pshufd $0xe8,%xmm3,%xmm8
- DB 102,68,15,108,194 ; punpcklqdq %xmm2,%xmm8
- DB 69,15,198,201,0 ; shufps $0x0,%xmm9,%xmm9
- DB 243,15,16,80,20 ; movss 0x14(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 65,15,89,217 ; mulps %xmm9,%xmm3
- DB 68,15,89,200 ; mulps %xmm0,%xmm9
- DB 68,15,88,202 ; addps %xmm2,%xmm9
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 65,15,89,218 ; mulps %xmm10,%xmm3
- DB 69,15,89,202 ; mulps %xmm10,%xmm9
- DB 69,15,88,203 ; addps %xmm11,%xmm9
- DB 65,15,88,219 ; addps %xmm11,%xmm3
- DB 243,15,91,211 ; cvttps2dq %xmm3,%xmm2
- DB 242,15,112,210,232 ; pshuflw $0xe8,%xmm2,%xmm2
- DB 243,15,112,210,232 ; pshufhw $0xe8,%xmm2,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 243,65,15,91,217 ; cvttps2dq %xmm9,%xmm3
- DB 242,15,112,219,232 ; pshuflw $0xe8,%xmm3,%xmm3
- DB 243,15,112,219,232 ; pshufhw $0xe8,%xmm3,%xmm3
- DB 102,68,15,112,203,232 ; pshufd $0xe8,%xmm3,%xmm9
- DB 102,68,15,108,202 ; punpcklqdq %xmm2,%xmm9
- DB 243,15,16,80,8 ; movss 0x8(%rax),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,68,15,16,96,24 ; movss 0x18(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 15,89,218 ; mulps %xmm2,%xmm3
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 65,15,88,212 ; addps %xmm12,%xmm2
- DB 65,15,88,220 ; addps %xmm12,%xmm3
- DB 65,15,89,218 ; mulps %xmm10,%xmm3
- DB 65,15,89,210 ; mulps %xmm10,%xmm2
- DB 65,15,88,211 ; addps %xmm11,%xmm2
- DB 65,15,88,219 ; addps %xmm11,%xmm3
- DB 243,15,91,219 ; cvttps2dq %xmm3,%xmm3
- DB 242,15,112,219,232 ; pshuflw $0xe8,%xmm3,%xmm3
- DB 243,15,112,219,232 ; pshufhw $0xe8,%xmm3,%xmm3
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 242,15,112,210,232 ; pshuflw $0xe8,%xmm2,%xmm2
- DB 243,15,112,210,232 ; pshufhw $0xe8,%xmm2,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,108,211 ; punpcklqdq %xmm3,%xmm2
- DB 243,15,16,88,12 ; movss 0xc(%rax),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 243,68,15,16,96,28 ; movss 0x1c(%rax),%xmm12
- DB 69,15,198,228,0 ; shufps $0x0,%xmm12,%xmm12
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 65,15,88,220 ; addps %xmm12,%xmm3
- DB 65,15,88,204 ; addps %xmm12,%xmm1
- DB 65,15,89,202 ; mulps %xmm10,%xmm1
- DB 65,15,89,218 ; mulps %xmm10,%xmm3
- DB 65,15,88,219 ; addps %xmm11,%xmm3
- DB 65,15,88,203 ; addps %xmm11,%xmm1
- DB 243,15,91,193 ; cvttps2dq %xmm1,%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 243,15,91,203 ; cvttps2dq %xmm3,%xmm1
- DB 242,15,112,201,232 ; pshuflw $0xe8,%xmm1,%xmm1
- DB 243,15,112,201,232 ; pshufhw $0xe8,%xmm1,%xmm1
- DB 102,15,112,217,232 ; pshufd $0xe8,%xmm1,%xmm3
- DB 102,15,108,216 ; punpcklqdq %xmm0,%xmm3
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,192 ; movdqa %xmm8,%xmm0
- DB 102,65,15,111,201 ; movdqa %xmm9,%xmm1
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_unit_angle_sse2_lowp
-_sk_xy_to_unit_angle_sse2_lowp LABEL PROC
- DB 72,131,236,24 ; sub $0x18,%rsp
- DB 15,41,60,36 ; movaps %xmm7,(%rsp)
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 15,40,245 ; movaps %xmm5,%xmm6
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 68,15,40,37,129,22,0,0 ; movaps 0x1681(%rip),%xmm12 # 35a10 <_sk_srcover_bgra_8888_sse2_lowp+0x11f8>
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 69,15,84,196 ; andps %xmm12,%xmm8
- DB 68,15,40,217 ; movaps %xmm1,%xmm11
- DB 69,15,84,220 ; andps %xmm12,%xmm11
- DB 68,15,40,236 ; movaps %xmm4,%xmm13
- DB 69,15,84,236 ; andps %xmm12,%xmm13
- DB 68,15,84,227 ; andps %xmm3,%xmm12
- DB 69,15,40,211 ; movaps %xmm11,%xmm10
- DB 69,15,194,212,1 ; cmpltps %xmm12,%xmm10
- DB 69,15,40,200 ; movaps %xmm8,%xmm9
- DB 69,15,194,205,1 ; cmpltps %xmm13,%xmm9
- DB 69,15,40,241 ; movaps %xmm9,%xmm14
- DB 69,15,85,245 ; andnps %xmm13,%xmm14
- DB 69,15,40,249 ; movaps %xmm9,%xmm15
- DB 69,15,85,248 ; andnps %xmm8,%xmm15
- DB 69,15,84,193 ; andps %xmm9,%xmm8
- DB 69,15,86,198 ; orps %xmm14,%xmm8
- DB 69,15,40,242 ; movaps %xmm10,%xmm14
- DB 69,15,85,244 ; andnps %xmm12,%xmm14
- DB 65,15,40,194 ; movaps %xmm10,%xmm0
- DB 65,15,85,195 ; andnps %xmm11,%xmm0
- DB 69,15,84,218 ; andps %xmm10,%xmm11
- DB 69,15,86,222 ; orps %xmm14,%xmm11
- DB 69,15,84,233 ; andps %xmm9,%xmm13
- DB 69,15,86,239 ; orps %xmm15,%xmm13
- DB 69,15,94,197 ; divps %xmm13,%xmm8
- DB 69,15,84,226 ; andps %xmm10,%xmm12
- DB 68,15,86,224 ; orps %xmm0,%xmm12
- DB 69,15,94,220 ; divps %xmm12,%xmm11
- DB 69,15,40,240 ; movaps %xmm8,%xmm14
- DB 69,15,89,246 ; mulps %xmm14,%xmm14
- DB 65,15,40,195 ; movaps %xmm11,%xmm0
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 68,15,40,37,100,22,0,0 ; movaps 0x1664(%rip),%xmm12 # 35a80 <_sk_srcover_bgra_8888_sse2_lowp+0x1268>
- DB 68,15,40,232 ; movaps %xmm0,%xmm13
- DB 69,15,89,236 ; mulps %xmm12,%xmm13
- DB 69,15,89,230 ; mulps %xmm14,%xmm12
- DB 68,15,40,61,96,22,0,0 ; movaps 0x1660(%rip),%xmm15 # 35a90 <_sk_srcover_bgra_8888_sse2_lowp+0x1278>
- DB 69,15,88,231 ; addps %xmm15,%xmm12
- DB 69,15,88,239 ; addps %xmm15,%xmm13
- DB 68,15,89,232 ; mulps %xmm0,%xmm13
- DB 69,15,89,230 ; mulps %xmm14,%xmm12
- DB 68,15,40,61,88,22,0,0 ; movaps 0x1658(%rip),%xmm15 # 35aa0 <_sk_srcover_bgra_8888_sse2_lowp+0x1288>
- DB 69,15,88,231 ; addps %xmm15,%xmm12
- DB 69,15,88,239 ; addps %xmm15,%xmm13
- DB 68,15,89,232 ; mulps %xmm0,%xmm13
- DB 69,15,89,230 ; mulps %xmm14,%xmm12
- DB 15,40,5,81,22,0,0 ; movaps 0x1651(%rip),%xmm0 # 35ab0 <_sk_srcover_bgra_8888_sse2_lowp+0x1298>
- DB 68,15,88,224 ; addps %xmm0,%xmm12
- DB 68,15,88,232 ; addps %xmm0,%xmm13
- DB 69,15,89,235 ; mulps %xmm11,%xmm13
- DB 69,15,89,224 ; mulps %xmm8,%xmm12
- DB 15,40,5,74,22,0,0 ; movaps 0x164a(%rip),%xmm0 # 35ac0 <_sk_srcover_bgra_8888_sse2_lowp+0x12a8>
- DB 68,15,40,192 ; movaps %xmm0,%xmm8
- DB 65,15,92,197 ; subps %xmm13,%xmm0
- DB 65,15,84,194 ; andps %xmm10,%xmm0
- DB 69,15,85,213 ; andnps %xmm13,%xmm10
- DB 69,15,92,196 ; subps %xmm12,%xmm8
- DB 68,15,86,208 ; orps %xmm0,%xmm10
- DB 69,15,84,193 ; andps %xmm9,%xmm8
- DB 69,15,85,204 ; andnps %xmm12,%xmm9
- DB 69,15,86,200 ; orps %xmm8,%xmm9
- DB 69,15,87,192 ; xorps %xmm8,%xmm8
- DB 65,15,194,200,1 ; cmpltps %xmm8,%xmm1
- DB 15,40,5,246,15,0,0 ; movaps 0xff6(%rip),%xmm0 # 354a0 <_sk_srcover_bgra_8888_sse2_lowp+0xc88>
- DB 68,15,40,216 ; movaps %xmm0,%xmm11
- DB 65,15,92,194 ; subps %xmm10,%xmm0
- DB 15,84,193 ; andps %xmm1,%xmm0
- DB 65,15,85,202 ; andnps %xmm10,%xmm1
- DB 65,15,194,208,1 ; cmpltps %xmm8,%xmm2
- DB 69,15,92,217 ; subps %xmm9,%xmm11
- DB 15,86,200 ; orps %xmm0,%xmm1
- DB 68,15,84,218 ; andps %xmm2,%xmm11
- DB 65,15,85,209 ; andnps %xmm9,%xmm2
- DB 65,15,86,211 ; orps %xmm11,%xmm2
- DB 68,15,40,219 ; movaps %xmm3,%xmm11
- DB 69,15,194,216,1 ; cmpltps %xmm8,%xmm11
- DB 68,15,40,13,206,15,0,0 ; movaps 0xfce(%rip),%xmm9 # 354b0 <_sk_srcover_bgra_8888_sse2_lowp+0xc98>
- DB 69,15,40,209 ; movaps %xmm9,%xmm10
- DB 68,15,92,201 ; subps %xmm1,%xmm9
- DB 69,15,84,203 ; andps %xmm11,%xmm9
- DB 68,15,85,217 ; andnps %xmm1,%xmm11
- DB 69,15,86,217 ; orps %xmm9,%xmm11
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 65,15,194,192,1 ; cmpltps %xmm8,%xmm0
- DB 68,15,92,210 ; subps %xmm2,%xmm10
- DB 68,15,84,208 ; andps %xmm0,%xmm10
- DB 15,85,194 ; andnps %xmm2,%xmm0
- DB 65,15,86,194 ; orps %xmm10,%xmm0
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 65,15,194,200,7 ; cmpordps %xmm8,%xmm1
- DB 69,15,194,195,7 ; cmpordps %xmm11,%xmm8
- DB 69,15,84,195 ; andps %xmm11,%xmm8
- DB 15,84,200 ; andps %xmm0,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 65,15,40,192 ; movaps %xmm8,%xmm0
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,40,238 ; movaps %xmm6,%xmm5
- DB 15,40,247 ; movaps %xmm7,%xmm6
- DB 15,40,60,36 ; movaps (%rsp),%xmm7
- DB 72,131,196,24 ; add $0x18,%rsp
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_xy_to_radius_sse2_lowp
-_sk_xy_to_radius_sse2_lowp LABEL PROC
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 15,89,201 ; mulps %xmm1,%xmm1
- DB 68,15,40,194 ; movaps %xmm2,%xmm8
- DB 69,15,89,192 ; mulps %xmm8,%xmm8
- DB 68,15,88,192 ; addps %xmm0,%xmm8
- DB 68,15,40,203 ; movaps %xmm3,%xmm9
- DB 69,15,89,201 ; mulps %xmm9,%xmm9
- DB 68,15,88,201 ; addps %xmm1,%xmm9
- DB 65,15,81,192 ; sqrtps %xmm8,%xmm0
- DB 65,15,81,201 ; sqrtps %xmm9,%xmm1
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 255,224 ; jmpq *%rax
-
-PUBLIC _sk_srcover_rgba_8888_sse2_lowp
-_sk_srcover_rgba_8888_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 65,137,250 ; mov %edi,%r10d
- DB 65,128,226,7 ; and $0x7,%r10b
- DB 65,254,202 ; dec %r10b
- DB 69,15,182,202 ; movzbl %r10b,%r9d
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,38 ; ja 345b5 <_sk_srcover_rgba_8888_sse2_lowp+0x4b>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 76,141,29,69,2,0,0 ; lea 0x245(%rip),%r11 # 347e0 <_sk_srcover_rgba_8888_sse2_lowp+0x276>
- DB 75,99,4,139 ; movslq (%r11,%r9,4),%rax
- DB 76,1,216 ; add %r11,%rax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 255,224 ; jmpq *%rax
- DB 243,65,15,16,60,144 ; movss (%r8,%rdx,4),%xmm7
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,102 ; jmp 3461b <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
- DB 102,65,15,16,60,144 ; movupd (%r8,%rdx,4),%xmm7
- DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,87 ; jmp 3461b <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
- DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,69,15,18,4,144 ; movlpd (%r8,%rdx,4),%xmm8
- DB 102,65,15,40,248 ; movapd %xmm8,%xmm7
- DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
- DB 235,52 ; jmp 3461b <_sk_srcover_rgba_8888_sse2_lowp+0xb1>
- DB 102,65,15,110,100,144,24 ; movd 0x18(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 243,65,15,16,100,144,20 ; movss 0x14(%r8,%rdx,4),%xmm4
- DB 65,15,198,224,0 ; shufps $0x0,%xmm8,%xmm4
- DB 65,15,198,224,226 ; shufps $0xe2,%xmm8,%xmm4
- DB 68,15,40,196 ; movaps %xmm4,%xmm8
- DB 243,65,15,16,100,144,16 ; movss 0x10(%r8,%rdx,4),%xmm4
- DB 243,68,15,16,196 ; movss %xmm4,%xmm8
- DB 102,65,15,16,60,144 ; movupd (%r8,%rdx,4),%xmm7
- DB 102,15,40,239 ; movapd %xmm7,%xmm5
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,114,229,16 ; psrad $0x10,%xmm5
- DB 102,65,15,111,224 ; movdqa %xmm8,%xmm4
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,236 ; packssdw %xmm4,%xmm5
- DB 102,68,15,111,37,11,14,0,0 ; movdqa 0xe0b(%rip),%xmm12 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,65,15,219,228 ; pand %xmm12,%xmm4
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
- DB 102,65,15,114,209,16 ; psrld $0x10,%xmm9
- DB 102,15,40,247 ; movapd %xmm7,%xmm6
- DB 102,15,114,214,16 ; psrld $0x10,%xmm6
- DB 102,15,114,215,24 ; psrld $0x18,%xmm7
- DB 102,15,114,247,16 ; pslld $0x10,%xmm7
- DB 102,15,114,231,16 ; psrad $0x10,%xmm7
- DB 102,65,15,114,208,24 ; psrld $0x18,%xmm8
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,114,224,16 ; psrad $0x10,%xmm8
- DB 102,65,15,107,248 ; packssdw %xmm8,%xmm7
- DB 102,15,114,246,16 ; pslld $0x10,%xmm6
- DB 102,15,114,230,16 ; psrad $0x10,%xmm6
- DB 102,65,15,114,241,16 ; pslld $0x10,%xmm9
- DB 102,65,15,114,225,16 ; psrad $0x10,%xmm9
- DB 102,65,15,107,241 ; packssdw %xmm9,%xmm6
- DB 102,65,15,219,244 ; pand %xmm12,%xmm6
- DB 102,69,15,111,196 ; movdqa %xmm12,%xmm8
- DB 102,68,15,249,195 ; psubw %xmm3,%xmm8
- DB 102,68,15,111,204 ; movdqa %xmm4,%xmm9
- DB 102,69,15,213,200 ; pmullw %xmm8,%xmm9
- DB 102,69,15,253,204 ; paddw %xmm12,%xmm9
- DB 102,65,15,113,209,8 ; psrlw $0x8,%xmm9
- DB 102,68,15,253,200 ; paddw %xmm0,%xmm9
- DB 102,68,15,111,213 ; movdqa %xmm5,%xmm10
- DB 102,69,15,213,208 ; pmullw %xmm8,%xmm10
- DB 102,69,15,253,212 ; paddw %xmm12,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,68,15,253,209 ; paddw %xmm1,%xmm10
- DB 102,68,15,111,222 ; movdqa %xmm6,%xmm11
- DB 102,69,15,213,216 ; pmullw %xmm8,%xmm11
- DB 102,69,15,253,220 ; paddw %xmm12,%xmm11
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,68,15,253,218 ; paddw %xmm2,%xmm11
- DB 102,68,15,213,199 ; pmullw %xmm7,%xmm8
- DB 102,69,15,253,196 ; paddw %xmm12,%xmm8
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,68,15,253,195 ; paddw %xmm3,%xmm8
- DB 102,65,15,111,210 ; movdqa %xmm10,%xmm2
- DB 102,15,113,242,8 ; psllw $0x8,%xmm2
- DB 102,65,15,235,209 ; por %xmm9,%xmm2
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,97,216 ; punpcklwd %xmm0,%xmm3
- DB 102,15,105,208 ; punpckhwd %xmm0,%xmm2
- DB 102,65,15,111,200 ; movdqa %xmm8,%xmm1
- DB 102,15,113,241,8 ; psllw $0x8,%xmm1
- DB 102,65,15,235,203 ; por %xmm11,%xmm1
- DB 102,69,15,239,228 ; pxor %xmm12,%xmm12
- DB 102,68,15,97,225 ; punpcklwd %xmm1,%xmm12
- DB 102,68,15,235,227 ; por %xmm3,%xmm12
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,15,235,194 ; por %xmm2,%xmm0
- DB 65,128,250,6 ; cmp $0x6,%r10b
- DB 119,24 ; ja 3477d <_sk_srcover_rgba_8888_sse2_lowp+0x213>
- DB 76,141,21,144,0,0,0 ; lea 0x90(%rip),%r10 # 347fc <_sk_srcover_rgba_8888_sse2_lowp+0x292>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,69,15,126,36,144 ; movd %xmm12,(%r8,%rdx,4)
- DB 235,73 ; jmp 347c6 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
- DB 243,69,15,127,36,144 ; movdqu %xmm12,(%r8,%rdx,4)
- DB 243,65,15,127,68,144,16 ; movdqu %xmm0,0x10(%r8,%rdx,4)
- DB 235,58 ; jmp 347c6 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
- DB 102,65,15,112,196,78 ; pshufd $0x4e,%xmm12,%xmm0
- DB 102,65,15,126,68,144,8 ; movd %xmm0,0x8(%r8,%rdx,4)
- DB 102,69,15,214,36,144 ; movq %xmm12,(%r8,%rdx,4)
- DB 235,37 ; jmp 347c6 <_sk_srcover_rgba_8888_sse2_lowp+0x25c>
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,65,15,126,76,144,24 ; movd %xmm1,0x18(%r8,%rdx,4)
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,65,15,126,76,144,20 ; movd %xmm1,0x14(%r8,%rdx,4)
- DB 102,65,15,126,68,144,16 ; movd %xmm0,0x10(%r8,%rdx,4)
- DB 243,69,15,127,36,144 ; movdqu %xmm12,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
- DB 102,65,15,111,211 ; movdqa %xmm11,%xmm2
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 102,144 ; xchg %ax,%ax
- DB 200,253,255,255 ; enterq $0xfffd,$0xff
- DB 245 ; cmc
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,228 ; jmpq *%rsp
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,53,254,255,255,41 ; pushq 0x29fffffe(%rip) # 2a0347ef <_sk_srcover_bgra_8888_sse2_lowp+0x29ffffd7>
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,20,254 ; callq *(%rsi,%rdi,8)
- DB 255 ; (bad)
- DB 255,7 ; incl (%rdi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 121,255 ; jns 347fd <_sk_srcover_rgba_8888_sse2_lowp+0x293>
- DB 255 ; (bad)
- DB 255,157,255,255,255,144 ; lcall *-0x6f000001(%rbp)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,196 ; inc %esp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 189,255,255,255,177 ; mov $0xb1ffffff,%ebp
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 165 ; movsl %ds:(%rsi),%es:(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-PUBLIC _sk_srcover_bgra_8888_sse2_lowp
-_sk_srcover_bgra_8888_sse2_lowp LABEL PROC
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 76,99,64,8 ; movslq 0x8(%rax),%r8
- DB 76,15,175,193 ; imul %rcx,%r8
- DB 73,193,224,2 ; shl $0x2,%r8
- DB 76,3,0 ; add (%rax),%r8
- DB 65,137,250 ; mov %edi,%r10d
- DB 65,128,226,7 ; and $0x7,%r10b
- DB 65,254,202 ; dec %r10b
- DB 69,15,182,202 ; movzbl %r10b,%r9d
- DB 65,128,249,6 ; cmp $0x6,%r9b
- DB 119,38 ; ja 34863 <_sk_srcover_bgra_8888_sse2_lowp+0x4b>
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 76,141,29,67,2,0,0 ; lea 0x243(%rip),%r11 # 34a8c <_sk_srcover_bgra_8888_sse2_lowp+0x274>
- DB 75,99,4,139 ; movslq (%r11,%r9,4),%rax
- DB 76,1,216 ; add %r11,%rax
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 255,224 ; jmpq *%rax
- DB 243,65,15,16,60,144 ; movss (%r8,%rdx,4),%xmm7
- DB 102,69,15,239,192 ; pxor %xmm8,%xmm8
- DB 235,102 ; jmp 348c9 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
- DB 102,65,15,16,60,144 ; movupd (%r8,%rdx,4),%xmm7
- DB 243,69,15,111,68,144,16 ; movdqu 0x10(%r8,%rdx,4),%xmm8
- DB 235,87 ; jmp 348c9 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
- DB 102,65,15,110,100,144,8 ; movd 0x8(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,69,15,18,4,144 ; movlpd (%r8,%rdx,4),%xmm8
- DB 102,65,15,40,248 ; movapd %xmm8,%xmm7
- DB 102,68,15,111,196 ; movdqa %xmm4,%xmm8
- DB 235,52 ; jmp 348c9 <_sk_srcover_bgra_8888_sse2_lowp+0xb1>
- DB 102,65,15,110,100,144,24 ; movd 0x18(%r8,%rdx,4),%xmm4
- DB 102,68,15,112,196,69 ; pshufd $0x45,%xmm4,%xmm8
- DB 243,65,15,16,100,144,20 ; movss 0x14(%r8,%rdx,4),%xmm4
- DB 65,15,198,224,0 ; shufps $0x0,%xmm8,%xmm4
- DB 65,15,198,224,226 ; shufps $0xe2,%xmm8,%xmm4
- DB 68,15,40,196 ; movaps %xmm4,%xmm8
- DB 243,65,15,16,100,144,16 ; movss 0x10(%r8,%rdx,4),%xmm4
- DB 243,68,15,16,196 ; movss %xmm4,%xmm8
- DB 102,65,15,16,60,144 ; movupd (%r8,%rdx,4),%xmm7
- DB 102,15,40,239 ; movapd %xmm7,%xmm5
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,114,229,16 ; psrad $0x10,%xmm5
- DB 102,65,15,111,224 ; movdqa %xmm8,%xmm4
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,236 ; packssdw %xmm4,%xmm5
- DB 102,68,15,111,37,93,11,0,0 ; movdqa 0xb5d(%rip),%xmm12 # 35450 <_sk_srcover_bgra_8888_sse2_lowp+0xc38>
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,65,15,219,244 ; pand %xmm12,%xmm6
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,69,15,111,200 ; movdqa %xmm8,%xmm9
- DB 102,65,15,114,209,16 ; psrld $0x10,%xmm9
- DB 102,15,40,231 ; movapd %xmm7,%xmm4
- DB 102,15,114,212,16 ; psrld $0x10,%xmm4
- DB 102,15,114,215,24 ; psrld $0x18,%xmm7
- DB 102,15,114,247,16 ; pslld $0x10,%xmm7
- DB 102,15,114,231,16 ; psrad $0x10,%xmm7
- DB 102,65,15,114,208,24 ; psrld $0x18,%xmm8
- DB 102,65,15,114,240,16 ; pslld $0x10,%xmm8
- DB 102,65,15,114,224,16 ; psrad $0x10,%xmm8
- DB 102,65,15,107,248 ; packssdw %xmm8,%xmm7
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,65,15,114,241,16 ; pslld $0x10,%xmm9
- DB 102,65,15,114,225,16 ; psrad $0x10,%xmm9
- DB 102,65,15,107,225 ; packssdw %xmm9,%xmm4
- DB 102,65,15,219,228 ; pand %xmm12,%xmm4
- DB 102,69,15,111,196 ; movdqa %xmm12,%xmm8
- DB 102,68,15,249,195 ; psubw %xmm3,%xmm8
- DB 102,68,15,111,204 ; movdqa %xmm4,%xmm9
- DB 102,69,15,213,200 ; pmullw %xmm8,%xmm9
- DB 102,69,15,253,204 ; paddw %xmm12,%xmm9
- DB 102,65,15,113,209,8 ; psrlw $0x8,%xmm9
- DB 102,68,15,253,200 ; paddw %xmm0,%xmm9
- DB 102,68,15,111,213 ; movdqa %xmm5,%xmm10
- DB 102,69,15,213,208 ; pmullw %xmm8,%xmm10
- DB 102,69,15,253,212 ; paddw %xmm12,%xmm10
- DB 102,65,15,113,210,8 ; psrlw $0x8,%xmm10
- DB 102,68,15,253,209 ; paddw %xmm1,%xmm10
- DB 102,68,15,111,222 ; movdqa %xmm6,%xmm11
- DB 102,69,15,213,216 ; pmullw %xmm8,%xmm11
- DB 102,69,15,253,220 ; paddw %xmm12,%xmm11
- DB 102,65,15,113,211,8 ; psrlw $0x8,%xmm11
- DB 102,68,15,253,218 ; paddw %xmm2,%xmm11
- DB 102,68,15,213,199 ; pmullw %xmm7,%xmm8
- DB 102,69,15,253,196 ; paddw %xmm12,%xmm8
- DB 102,65,15,113,208,8 ; psrlw $0x8,%xmm8
- DB 102,68,15,253,195 ; paddw %xmm3,%xmm8
- DB 102,65,15,111,210 ; movdqa %xmm10,%xmm2
- DB 102,15,113,242,8 ; psllw $0x8,%xmm2
- DB 102,65,15,235,211 ; por %xmm11,%xmm2
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,97,216 ; punpcklwd %xmm0,%xmm3
- DB 102,15,105,208 ; punpckhwd %xmm0,%xmm2
- DB 102,65,15,111,200 ; movdqa %xmm8,%xmm1
- DB 102,15,113,241,8 ; psllw $0x8,%xmm1
- DB 102,65,15,235,201 ; por %xmm9,%xmm1
- DB 102,69,15,239,228 ; pxor %xmm12,%xmm12
- DB 102,68,15,97,225 ; punpcklwd %xmm1,%xmm12
- DB 102,68,15,235,227 ; por %xmm3,%xmm12
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,15,235,194 ; por %xmm2,%xmm0
- DB 65,128,250,6 ; cmp $0x6,%r10b
- DB 119,24 ; ja 34a2b <_sk_srcover_bgra_8888_sse2_lowp+0x213>
- DB 76,141,21,142,0,0,0 ; lea 0x8e(%rip),%r10 # 34aa8 <_sk_srcover_bgra_8888_sse2_lowp+0x290>
- DB 75,99,4,138 ; movslq (%r10,%r9,4),%rax
- DB 76,1,208 ; add %r10,%rax
- DB 255,224 ; jmpq *%rax
- DB 102,69,15,126,36,144 ; movd %xmm12,(%r8,%rdx,4)
- DB 235,73 ; jmp 34a74 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
- DB 243,69,15,127,36,144 ; movdqu %xmm12,(%r8,%rdx,4)
- DB 243,65,15,127,68,144,16 ; movdqu %xmm0,0x10(%r8,%rdx,4)
- DB 235,58 ; jmp 34a74 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
- DB 102,65,15,112,196,78 ; pshufd $0x4e,%xmm12,%xmm0
- DB 102,65,15,126,68,144,8 ; movd %xmm0,0x8(%r8,%rdx,4)
- DB 102,69,15,214,36,144 ; movq %xmm12,(%r8,%rdx,4)
- DB 235,37 ; jmp 34a74 <_sk_srcover_bgra_8888_sse2_lowp+0x25c>
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,65,15,126,76,144,24 ; movd %xmm1,0x18(%r8,%rdx,4)
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,65,15,126,76,144,20 ; movd %xmm1,0x14(%r8,%rdx,4)
- DB 102,65,15,126,68,144,16 ; movd %xmm0,0x10(%r8,%rdx,4)
- DB 243,69,15,127,36,144 ; movdqu %xmm12,(%r8,%rdx,4)
- DB 72,173 ; lods %ds:(%rsi),%rax
- DB 102,65,15,111,193 ; movdqa %xmm9,%xmm0
- DB 102,65,15,111,202 ; movdqa %xmm10,%xmm1
- DB 102,65,15,111,211 ; movdqa %xmm11,%xmm2
- DB 102,65,15,111,216 ; movdqa %xmm8,%xmm3
- DB 255,224 ; jmpq *%rax
- DB 202,253,255 ; lret $0xfffd
- DB 255,247 ; push %rdi
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,230 ; jmpq *%rsi
- DB 253 ; std
- DB 255 ; (bad)
- DB 255,55 ; pushq (%rdi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,43 ; ljmp *(%rbx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,22 ; callq *(%rsi)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255,9 ; decl (%rcx)
- DB 254 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 123,255 ; jnp 34aa9 <_sk_srcover_bgra_8888_sse2_lowp+0x291>
- DB 255 ; (bad)
- DB 255,159,255,255,255,146 ; lcall *-0x6d000001(%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,198 ; inc %esi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 191,255,255,255,179 ; mov $0xb3ffffff,%edi
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
- DB 167 ; cmpsl %es:(%rdi),%ds:(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; .byte 0xff
-
-ALIGN 4
- DB 0,0 ; add %al,(%rax)
- DB 0,63 ; add %bh,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 128,63,1 ; cmpb $0x1,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,4,0 ; add %al,(%rax,%rax,1)
- DB 0,0 ; add %al,(%rax)
- DB 2,0 ; add (%rax),%al
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 128,60,0,0 ; cmpb $0x0,(%rax,%rax,1)
- DB 252 ; cld
- DB 190,0,0,128,191 ; mov $0xbf800000,%esi
- DB 0,0 ; add %al,(%rax)
- DB 224,64 ; loopne 34b28 <.literal4+0x64>
- DB 154 ; (bad)
- DB 153 ; cltd
- DB 153 ; cltd
- DB 62,61,10,23,63,174 ; ds cmp $0xae3f170a,%eax
- DB 71,225,61 ; rex.RXB loope 34b31 <.literal4+0x6d>
- DB 0,0 ; add %al,(%rax)
- DB 127,67 ; jg 34b3b <.literal4+0x77>
- DB 0,0 ; add %al,(%rax)
- DB 128,127,145,131 ; cmpb $0x83,-0x6f(%rdi)
- DB 158 ; sahf
- DB 61,92,143,50,63 ; cmp $0x3f328f5c,%eax
- DB 10,215 ; or %bh,%dl
- DB 35,59 ; and (%rbx),%edi
- DB 174 ; scas %es:(%rdi),%al
- DB 71,97 ; rex.RXB (bad)
- DB 61,82,184,78,65 ; cmp $0x414eb852,%eax
- DB 186,159,98,60,57 ; mov $0x393c629f,%edx
- DB 215 ; xlat %ds:(%rbx)
- DB 32,187,109,165,144,63 ; and %bh,0x3f90a56d(%rbx)
- DB 252 ; cld
- DB 191,16,62,168,177 ; mov $0xb1a83e10,%edi
- DB 152 ; cwtl
- DB 59,0 ; cmp (%rax),%eax
- DB 0,192 ; add %al,%al
- DB 64,0,0 ; add %al,(%rax)
- DB 0,64,0 ; add %al,0x0(%rax)
- DB 0,128,64,171,170,42 ; add %al,0x2aaaab40(%rax)
- DB 62,171 ; ds stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 62,171 ; ds stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 42,63 ; sub (%rdi),%bh
- DB 171 ; stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 190,129,128,128,59 ; mov $0x3b808081,%esi
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%rax)
- DB 8,33 ; or %ah,(%rcx)
- DB 132,55 ; test %dh,(%rdi)
- DB 224,7 ; loopne 34b55 <.literal4+0x91>
- DB 0,0 ; add %al,(%rax)
- DB 33,8 ; and %ecx,(%rax)
- DB 2,58 ; add (%rdx),%bh
- DB 31 ; (bad)
- DB 0,0 ; add %al,(%rax)
- DB 0,8 ; add %cl,(%rax)
- DB 33,4,61,128,0,128,55 ; and %eax,0x37800080(,%rdi,1)
- DB 0,0 ; add %al,(%rax)
- DB 0,52,255 ; add %dh,(%rdi,%rdi,8)
- DB 255 ; (bad)
- DB 127,0 ; jg 34b68 <.literal4+0xa4>
- DB 119,115 ; ja 34bdd <.literal4+0x119>
- DB 248 ; clc
- DB 194,117,191 ; retq $0xbf75
- DB 191,63,249,68,180 ; mov $0xb444f93f,%edi
- DB 62,163,233,220,63,81,140,242,66,141 ; movabs %eax,%ds:0x8d42f28c513fdce9
- DB 188,190,63,248,245 ; mov $0xf5f83fbe,%esp
- DB 154 ; (bad)
- DB 64,254 ; rex (bad)
- DB 210,221 ; rcr %cl,%ch
- DB 65,0,0 ; add %al,(%r8)
- DB 0,75,0 ; add %cl,0x0(%rbx)
- DB 0,200 ; add %cl,%al
- DB 66,0,0 ; rex.X add %al,(%rax)
- DB 0,195 ; add %al,%bl
- DB 0,0 ; add %al,(%rax)
- DB 128,65,203,61 ; addb $0x3d,-0x35(%rcx)
- DB 13,60,111,18,3 ; or $0x3126f3c,%eax
- DB 59,10 ; cmp (%rdx),%ecx
- DB 215 ; xlat %ds:(%rbx)
- DB 163,59,194,24,17,60,203,61,13 ; movabs %eax,0xd3dcb3c1118c23b
- DB 190,80,128,3,62 ; mov $0x3e038050,%esi
- DB 31 ; (bad)
- DB 215 ; xlat %ds:(%rbx)
- DB 118,63 ; jbe 34bf3 <.literal4+0x12f>
- DB 246,64,83,63 ; testb $0x3f,0x53(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 248 ; clc
- DB 65,0,0 ; add %al,(%r8)
- DB 124,66 ; jl 34c02 <.literal4+0x13e>
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%rax)
- DB 137,136,136,55,0,15 ; mov %ecx,0xf003788(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 137,136,136,57,240,0 ; mov %ecx,0xf03988(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 137,136,136,59,15,0 ; mov %ecx,0xf3b88(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 137,136,136,61,0,0 ; mov %ecx,0x3d88(%rax)
- DB 112,65 ; jo 34c25 <.literal4+0x161>
- DB 255,3 ; incl (%rbx)
- DB 0,0 ; add %al,(%rax)
- DB 8,32 ; or %ah,(%rax)
- DB 128,58,0 ; cmpb $0x0,(%rdx)
- DB 192,127,68,0 ; sarb $0x0,0x44(%rdi)
- DB 0,64,64 ; add %al,0x40(%rax)
- DB 0,255 ; add %bh,%bh
- DB 127,71 ; jg 34c3f <.literal4+0x17b>
- DB 208 ; (bad)
- DB 179,89 ; mov $0x59,%bl
- DB 62,89 ; ds pop %rcx
- DB 23 ; (bad)
- DB 55 ; (bad)
- DB 63 ; (bad)
- DB 152 ; cwtl
- DB 221,147,61,111,43,231 ; fstl -0x18d490c3(%rbx)
- DB 187,159,215,202,60 ; mov $0x3ccad79f,%ebx
- DB 212 ; (bad)
- DB 100,84 ; fs push %rsp
- DB 189,169,240,34,62 ; mov $0x3e22f0a9,%ebp
- DB 0,0 ; add %al,(%rax)
- DB 128,62,0 ; cmpb $0x0,(%rsi)
- DB 0,0 ; add %al,(%rax)
- DB 128,0,0 ; addb $0x0,(%rax)
- DB 0,191,0,0,192,191 ; add %bh,-0x40400000(%rdi)
- DB 114,28 ; jb 34c42 <.literal4+0x17e>
- DB 199 ; (bad)
- DB 62,0,0 ; add %al,%ds:(%rax)
- DB 192,63,85 ; sarb $0x55,(%rdi)
- DB 85 ; push %rbp
- DB 149 ; xchg %eax,%ebp
- DB 191,57,142,99,61 ; mov $0x3d638e39,%edi
- DB 114,249 ; jb 34c2f <.literal4+0x16b>
- DB 127,63 ; jg 34c77 <_sk_srcover_bgra_8888_sse2_lowp+0x45f>
- DB 3,0 ; add (%rax),%eax
- DB 0,0 ; add %al,(%rax)
- DB 18,120,57 ; adc 0x39(%rax),%bh
- DB 64,45,16,17,192,32 ; rex sub $0x20c01110,%eax
- DB 148 ; xchg %eax,%esp
- DB 90 ; pop %rdx
- DB 62,4,157 ; ds add $0x9d,%al
- DB 30 ; (bad)
- DB 62,0,24 ; add %bl,%ds:(%rax)
- DB 161,57,0,0,0,0,0,4,0 ; movabs 0x4000000000039,%eax
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 56,255 ; cmp %bh,%bh
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,0 ; jg 34c61 <.literal4+0x19d>
- DB 0,128,56,0,64,254 ; add %al,-0x1bfffc8(%rax)
- DB 255 ; .byte 0xff
-
-ALIGN 32
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 1,0 ; add %eax,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 2,0 ; add (%rax),%al
- DB 0,0 ; add %al,(%rax)
- DB 3,0 ; add (%rax),%eax
- DB 0,0 ; add %al,(%rax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 5,0,0,0,6 ; add $0x6000000,%eax
- DB 0,0 ; add %al,(%rax)
- DB 0,7 ; add %al,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,1 ; add %al,(%rcx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a034cc8 <_sk_srcover_bgra_8888_sse2_lowp+0xa0004b0>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12034cd0 <_sk_srcover_bgra_8888_sse2_lowp+0x120004b8>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a034cd8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0004c0>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3034ce0 <_sk_srcover_bgra_8888_sse2_lowp+0x30004c8>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,6 ; incl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,10 ; decl (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,18 ; callq *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,22 ; callq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,26 ; lcall *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,30 ; lcall *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 1,255 ; add %edi,%edi
- DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a034d28 <_sk_srcover_bgra_8888_sse2_lowp+0xa000510>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12034d30 <_sk_srcover_bgra_8888_sse2_lowp+0x12000518>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a034d38 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000520>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3034d40 <_sk_srcover_bgra_8888_sse2_lowp+0x3000528>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,6 ; incl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,10 ; decl (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,18 ; callq *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,22 ; callq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,26 ; lcall *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,30 ; lcall *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 1,255 ; add %edi,%edi
- DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a034d88 <_sk_srcover_bgra_8888_sse2_lowp+0xa000570>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12034d90 <_sk_srcover_bgra_8888_sse2_lowp+0x12000578>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a034d98 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000580>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3034da0 <_sk_srcover_bgra_8888_sse2_lowp+0x3000588>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,6 ; incl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,10 ; decl (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,18 ; callq *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,22 ; callq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,26 ; lcall *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,30 ; lcall *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 1,255 ; add %edi,%edi
- DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a034de8 <_sk_srcover_bgra_8888_sse2_lowp+0xa0005d0>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12034df0 <_sk_srcover_bgra_8888_sse2_lowp+0x120005d8>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a034df8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0005e0>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3034e00 <_sk_srcover_bgra_8888_sse2_lowp+0x30005e8>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,6 ; incl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,10 ; decl (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,18 ; callq *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,22 ; callq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,26 ; lcall *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,30 ; lcall *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 1,255 ; add %edi,%edi
- DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a034e48 <_sk_srcover_bgra_8888_sse2_lowp+0xa000630>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12034e50 <_sk_srcover_bgra_8888_sse2_lowp+0x12000638>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a034e58 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000640>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3034e60 <_sk_srcover_bgra_8888_sse2_lowp+0x3000648>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,6 ; incl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,10 ; decl (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,18 ; callq *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,22 ; callq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,26 ; lcall *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,30 ; lcall *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 1,255 ; add %edi,%edi
- DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a034ea8 <_sk_srcover_bgra_8888_sse2_lowp+0xa000690>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12034eb0 <_sk_srcover_bgra_8888_sse2_lowp+0x12000698>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a034eb8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0006a0>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3034ec0 <_sk_srcover_bgra_8888_sse2_lowp+0x30006a8>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,6 ; incl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,10 ; decl (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,18 ; callq *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,22 ; callq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,26 ; lcall *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,30 ; lcall *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 1,255 ; add %edi,%edi
- DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a034f08 <_sk_srcover_bgra_8888_sse2_lowp+0xa0006f0>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12034f10 <_sk_srcover_bgra_8888_sse2_lowp+0x120006f8>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a034f18 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000700>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3034f20 <_sk_srcover_bgra_8888_sse2_lowp+0x3000708>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,6 ; incl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,10 ; decl (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,18 ; callq *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,22 ; callq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,26 ; lcall *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,30 ; lcall *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 1,255 ; add %edi,%edi
- DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a034f68 <_sk_srcover_bgra_8888_sse2_lowp+0xa000750>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12034f70 <_sk_srcover_bgra_8888_sse2_lowp+0x12000758>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a034f78 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000760>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3034f80 <_sk_srcover_bgra_8888_sse2_lowp+0x3000768>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,6 ; incl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,10 ; decl (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,18 ; callq *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,22 ; callq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,26 ; lcall *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,30 ; lcall *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 1,255 ; add %edi,%edi
- DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a034fc8 <_sk_srcover_bgra_8888_sse2_lowp+0xa0007b0>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12034fd0 <_sk_srcover_bgra_8888_sse2_lowp+0x120007b8>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a034fd8 <_sk_srcover_bgra_8888_sse2_lowp+0x1a0007c0>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3034fe0 <_sk_srcover_bgra_8888_sse2_lowp+0x30007c8>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,6 ; incl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,10 ; decl (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,18 ; callq *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,22 ; callq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,26 ; lcall *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,30 ; lcall *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 1,255 ; add %edi,%edi
- DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a035028 <_sk_srcover_bgra_8888_sse2_lowp+0xa000810>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,13,255,255,255,17 ; decl 0x11ffffff(%rip) # 12035030 <_sk_srcover_bgra_8888_sse2_lowp+0x12000818>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,21,255,255,255,25 ; callq *0x19ffffff(%rip) # 1a035038 <_sk_srcover_bgra_8888_sse2_lowp+0x1a000820>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,29,255,255,255,2 ; lcall *0x2ffffff(%rip) # 3035040 <_sk_srcover_bgra_8888_sse2_lowp+0x3000828>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,6 ; incl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,10 ; decl (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,18 ; callq *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,22 ; callq *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,26 ; lcall *(%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,30 ; lcall *(%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,254 ; add %bh,%dh
- DB 1,255 ; add %edi,%edi
- DB 0,254 ; add %bh,%dh
- DB 1,255 ; add %edi,%edi
- DB 0,0 ; add %al,(%rax)
- DB 128,255,0 ; cmp $0x0,%bh
- DB 0,128,0,0,0,0 ; add %al,0x0(%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 248 ; clc
- DB 0,63 ; add %bh,(%rdi)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,255 ; add %bh,%bh
- DB 0,248 ; add %bh,%al
- DB 0,63 ; add %bh,(%rdi)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%rax)
- DB 248 ; clc
- DB 224,255 ; loopne 352f3 <.const+0x673>
- DB 248 ; clc
- DB 0,63 ; add %bh,(%rdi)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,255 ; add %bh,%bh
- DB 0,15 ; add %cl,(%rdi)
- DB 0,15 ; add %cl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 240,0,0 ; lock add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 240,255,15 ; lock decl (%rdi)
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,54 ; add %dh,(%rsi)
- DB 0,183,0,19,0,255 ; add %dh,-0xffed00(%rdi)
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,248 ; add %bh,%al
- DB 0,63 ; add %bh,(%rdi)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 128,255,0 ; cmp $0x0,%bh
- DB 248 ; clc
- DB 0,63 ; add %bh,(%rdi)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 128,255,0 ; cmp $0x0,%bh
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,1 ; add %al,(%rcx)
- DB 4,5 ; add $0x5,%al
- DB 8,9 ; or %cl,(%rcx)
- DB 12,13 ; or $0xd,%al
- DB 8,9 ; or %cl,(%rcx)
- DB 12,13 ; or $0xd,%al
- DB 12,13 ; or $0xd,%al
- DB 14 ; (bad)
- DB 15,16,17 ; movups (%rcx),%xmm2
- DB 20,21 ; adc $0x15,%al
- DB 24,25 ; sbb %bl,(%rcx)
- DB 28,29 ; sbb $0x1d,%al
- DB 24,25 ; sbb %bl,(%rcx)
- DB 28,29 ; sbb $0x1d,%al
- DB 28,29 ; sbb $0x1d,%al
- DB 30 ; (bad)
- DB 31 ; (bad)
- DB 0,1 ; add %al,(%rcx)
- DB 4,5 ; add $0x5,%al
- DB 8,9 ; or %cl,(%rcx)
- DB 12,13 ; or $0xd,%al
- DB 8,9 ; or %cl,(%rcx)
- DB 12,13 ; or $0xd,%al
- DB 12,13 ; or $0xd,%al
- DB 14 ; (bad)
- DB 15,16,17 ; movups (%rcx),%xmm2
- DB 20,21 ; adc $0x15,%al
- DB 24,25 ; sbb %bl,(%rcx)
- DB 28,29 ; sbb $0x1d,%al
- DB 24,25 ; sbb %bl,(%rcx)
- DB 28,29 ; sbb $0x1d,%al
- DB 28,29 ; sbb $0x1d,%al
- DB 30 ; (bad)
- DB 31 ; (bad)
- DB 0,1 ; add %al,(%rcx)
- DB 4,5 ; add $0x5,%al
- DB 8,9 ; or %cl,(%rcx)
- DB 12,13 ; or $0xd,%al
- DB 8,9 ; or %cl,(%rcx)
- DB 12,13 ; or $0xd,%al
- DB 12,13 ; or $0xd,%al
- DB 14 ; (bad)
- DB 15,16,17 ; movups (%rcx),%xmm2
- DB 20,21 ; adc $0x15,%al
- DB 24,25 ; sbb %bl,(%rcx)
- DB 28,29 ; sbb $0x1d,%al
- DB 24,25 ; sbb %bl,(%rcx)
- DB 28,29 ; sbb $0x1d,%al
- DB 28,29 ; sbb $0x1d,%al
- DB 30 ; (bad)
- DB 31 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
-
-ALIGN 16
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 0,2 ; add %al,(%rdx)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,2 ; add %al,(%rdx)
- DB 4,6 ; add $0x6,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 1,0 ; add %eax,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 2,0 ; add (%rax),%al
- DB 0,0 ; add %al,(%rax)
- DB 3,0 ; add (%rax),%eax
- DB 0,0 ; add %al,(%rax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 5,0,0,0,6 ; add $0x6000000,%eax
- DB 0,0 ; add %al,(%rax)
- DB 0,7 ; add %al,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 63 ; (bad)
- DB 0,0 ; add %al,(%rax)
- DB 0,63 ; add %bh,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,63 ; add %bh,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,63 ; add %bh,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 128,63,0 ; cmpb $0x0,(%rdi)
- DB 0,128,63,0,0,128 ; add %al,-0x7fffffc1(%rax)
- DB 63 ; (bad)
- DB 0,0 ; add %al,(%rax)
- DB 128,63,1 ; cmpb $0x1,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,1 ; add %al,(%rcx)
- DB 0,0 ; add %al,(%rax)
- DB 0,1 ; add %al,(%rcx)
- DB 0,0 ; add %al,(%rax)
- DB 0,1 ; add %al,(%rcx)
- DB 0,0 ; add %al,(%rax)
- DB 0,4,0 ; add %al,(%rax,%rax,1)
- DB 0,0 ; add %al,(%rax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 2,0 ; add (%rax),%al
- DB 0,0 ; add %al,(%rax)
- DB 2,0 ; add (%rax),%al
- DB 0,0 ; add %al,(%rax)
- DB 2,0 ; add (%rax),%al
- DB 0,0 ; add %al,(%rax)
- DB 2,0 ; add (%rax),%al
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 128,60,0,0 ; cmpb $0x0,(%rax,%rax,1)
- DB 128,60,0,0 ; cmpb $0x0,(%rax,%rax,1)
- DB 128,60,0,0 ; cmpb $0x0,(%rax,%rax,1)
- DB 128,60,0,0 ; cmpb $0x0,(%rax,%rax,1)
- DB 252 ; cld
- DB 190,0,0,252,190 ; mov $0xbefc0000,%esi
- DB 0,0 ; add %al,(%rax)
- DB 252 ; cld
- DB 190,0,0,252,190 ; mov $0xbefc0000,%esi
- DB 0,0 ; add %al,(%rax)
- DB 128,191,0,0,128,191,0 ; cmpb $0x0,-0x40800000(%rdi)
- DB 0,128,191,0,0,128 ; add %al,-0x7fffff41(%rax)
- DB 191,0,0,224,64 ; mov $0x40e00000,%edi
- DB 0,0 ; add %al,(%rax)
- DB 224,64 ; loopne 35568 <.literal16+0x118>
- DB 0,0 ; add %al,(%rax)
- DB 224,64 ; loopne 3556c <.literal16+0x11c>
- DB 0,0 ; add %al,(%rax)
- DB 224,64 ; loopne 35570 <.literal16+0x120>
- DB 154 ; (bad)
- DB 153 ; cltd
- DB 153 ; cltd
- DB 62,154 ; ds (bad)
- DB 153 ; cltd
- DB 153 ; cltd
- DB 62,154 ; ds (bad)
- DB 153 ; cltd
- DB 153 ; cltd
- DB 62,154 ; ds (bad)
- DB 153 ; cltd
- DB 153 ; cltd
- DB 62,61,10,23,63,61 ; ds cmp $0x3d3f170a,%eax
- DB 10,23 ; or (%rdi),%dl
- DB 63 ; (bad)
- DB 61,10,23,63,61 ; cmp $0x3d3f170a,%eax
- DB 10,23 ; or (%rdi),%dl
- DB 63 ; (bad)
- DB 174 ; scas %es:(%rdi),%al
- DB 71,225,61 ; rex.RXB loope 35591 <.literal16+0x141>
- DB 174 ; scas %es:(%rdi),%al
- DB 71,225,61 ; rex.RXB loope 35595 <.literal16+0x145>
- DB 174 ; scas %es:(%rdi),%al
- DB 71,225,61 ; rex.RXB loope 35599 <.literal16+0x149>
- DB 174 ; scas %es:(%rdi),%al
- DB 71,225,61 ; rex.RXB loope 3559d <.literal16+0x14d>
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 1,255 ; add %edi,%edi
- DB 255 ; (bad)
- DB 255,5,255,255,255,9 ; incl 0x9ffffff(%rip) # a035578 <_sk_srcover_bgra_8888_sse2_lowp+0xa000d60>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,13,255,255,255,2 ; decl 0x2ffffff(%rip) # 3035580 <_sk_srcover_bgra_8888_sse2_lowp+0x3000d68>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,6 ; incl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,10 ; decl (%rdx)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,14 ; decl (%rsi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 0,127,67 ; add %bh,0x43(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 127,67 ; jg 355db <.literal16+0x18b>
- DB 0,0 ; add %al,(%rax)
- DB 127,67 ; jg 355df <.literal16+0x18f>
- DB 0,0 ; add %al,(%rax)
- DB 127,67 ; jg 355e3 <.literal16+0x193>
- DB 0,0 ; add %al,(%rax)
- DB 128,127,0,0 ; cmpb $0x0,0x0(%rdi)
- DB 128,127,0,0 ; cmpb $0x0,0x0(%rdi)
- DB 128,127,0,0 ; cmpb $0x0,0x0(%rdi)
- DB 128,127,145,131 ; cmpb $0x83,-0x6f(%rdi)
- DB 158 ; sahf
- DB 61,145,131,158,61 ; cmp $0x3d9e8391,%eax
- DB 145 ; xchg %eax,%ecx
- DB 131,158,61,145,131,158,61 ; sbbl $0x3d,-0x617c6ec3(%rsi)
- DB 92 ; pop %rsp
- DB 143 ; (bad)
- DB 50,63 ; xor (%rdi),%bh
- DB 92 ; pop %rsp
- DB 143 ; (bad)
- DB 50,63 ; xor (%rdi),%bh
- DB 92 ; pop %rsp
- DB 143 ; (bad)
- DB 50,63 ; xor (%rdi),%bh
- DB 92 ; pop %rsp
- DB 143 ; (bad)
- DB 50,63 ; xor (%rdi),%bh
- DB 10,215 ; or %bh,%dl
- DB 35,59 ; and (%rbx),%edi
- DB 10,215 ; or %bh,%dl
- DB 35,59 ; and (%rbx),%edi
- DB 10,215 ; or %bh,%dl
- DB 35,59 ; and (%rbx),%edi
- DB 10,215 ; or %bh,%dl
- DB 35,59 ; and (%rbx),%edi
- DB 174 ; scas %es:(%rdi),%al
- DB 71,97 ; rex.RXB (bad)
- DB 61,174,71,97,61 ; cmp $0x3d6147ae,%eax
- DB 174 ; scas %es:(%rdi),%al
- DB 71,97 ; rex.RXB (bad)
- DB 61,174,71,97,61 ; cmp $0x3d6147ae,%eax
- DB 82 ; push %rdx
- DB 184,78,65,82,184 ; mov $0xb852414e,%eax
- DB 78 ; rex.WRX
- DB 65,82 ; push %r10
- DB 184,78,65,82,184 ; mov $0xb852414e,%eax
- DB 78 ; rex.WRX
- DB 65,57,215 ; cmp %edx,%r15d
- DB 32,187,57,215,32,187 ; and %bh,-0x44df28c7(%rbx)
- DB 57,215 ; cmp %edx,%edi
- DB 32,187,57,215,32,187 ; and %bh,-0x44df28c7(%rbx)
- DB 186,159,98,60,186 ; mov $0xba3c629f,%edx
- DB 159 ; lahf
- DB 98 ; (bad)
- DB 60,186 ; cmp $0xba,%al
- DB 159 ; lahf
- DB 98 ; (bad)
- DB 60,186 ; cmp $0xba,%al
- DB 159 ; lahf
- DB 98 ; (bad)
- DB 60,109 ; cmp $0x6d,%al
- DB 165 ; movsl %ds:(%rsi),%es:(%rdi)
- DB 144 ; nop
- DB 63 ; (bad)
- DB 109 ; insl (%dx),%es:(%rdi)
- DB 165 ; movsl %ds:(%rsi),%es:(%rdi)
- DB 144 ; nop
- DB 63 ; (bad)
- DB 109 ; insl (%dx),%es:(%rdi)
- DB 165 ; movsl %ds:(%rsi),%es:(%rdi)
- DB 144 ; nop
- DB 63 ; (bad)
- DB 109 ; insl (%dx),%es:(%rdi)
- DB 165 ; movsl %ds:(%rsi),%es:(%rdi)
- DB 144 ; nop
- DB 63 ; (bad)
- DB 252 ; cld
- DB 191,16,62,252,191 ; mov $0xbffc3e10,%edi
- DB 16,62 ; adc %bh,(%rsi)
- DB 252 ; cld
- DB 191,16,62,252,191 ; mov $0xbffc3e10,%edi
- DB 16,62 ; adc %bh,(%rsi)
- DB 168,177 ; test $0xb1,%al
- DB 152 ; cwtl
- DB 59,168,177,152,59,168 ; cmp -0x57c4674f(%rax),%ebp
- DB 177,152 ; mov $0x98,%cl
- DB 59,168,177,152,59,0 ; cmp 0x3b98b1(%rax),%ebp
- DB 0,192 ; add %al,%al
- DB 64,0,0 ; add %al,(%rax)
- DB 192,64,0,0 ; rolb $0x0,0x0(%rax)
- DB 192,64,0,0 ; rolb $0x0,0x0(%rax)
- DB 192,64,0,0 ; rolb $0x0,0x0(%rax)
- DB 0,64,0 ; add %al,0x0(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 64,0,0 ; add %al,(%rax)
- DB 0,64,0 ; add %al,0x0(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 64,0,0 ; add %al,(%rax)
- DB 128,64,0,0 ; addb $0x0,0x0(%rax)
- DB 128,64,0,0 ; addb $0x0,0x0(%rax)
- DB 128,64,0,0 ; addb $0x0,0x0(%rax)
- DB 128,64,171,170 ; addb $0xaa,-0x55(%rax)
- DB 42,62 ; sub (%rsi),%bh
- DB 171 ; stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 42,62 ; sub (%rsi),%bh
- DB 171 ; stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 42,62 ; sub (%rsi),%bh
- DB 171 ; stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 42,62 ; sub (%rsi),%bh
- DB 171 ; stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 62,171 ; ds stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 62,171 ; ds stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 62,171 ; ds stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 62,171 ; ds stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 42,63 ; sub (%rdi),%bh
- DB 171 ; stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 42,63 ; sub (%rdi),%bh
- DB 171 ; stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 42,63 ; sub (%rdi),%bh
- DB 171 ; stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 42,63 ; sub (%rdi),%bh
- DB 171 ; stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 190,171,170,170,190 ; mov $0xbeaaaaab,%esi
- DB 171 ; stos %eax,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 170 ; stos %al,%es:(%rdi)
- DB 190,171,170,170,190 ; mov $0xbeaaaaab,%esi
- DB 129,128,128,59,129,128,128,59,129,128; addl $0x80813b80,-0x7f7ec480(%rax)
- DB 128,59,129 ; cmpb $0x81,(%rbx)
- DB 128,128,59,0,248,0,0 ; addb $0x0,0xf8003b(%rax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%rax)
- DB 8,33 ; or %ah,(%rcx)
- DB 132,55 ; test %dh,(%rdi)
- DB 8,33 ; or %ah,(%rcx)
- DB 132,55 ; test %dh,(%rdi)
- DB 8,33 ; or %ah,(%rcx)
- DB 132,55 ; test %dh,(%rdi)
- DB 8,33 ; or %ah,(%rcx)
- DB 132,55 ; test %dh,(%rdi)
- DB 224,7 ; loopne 356f9 <.literal16+0x2a9>
- DB 0,0 ; add %al,(%rax)
- DB 224,7 ; loopne 356fd <.literal16+0x2ad>
- DB 0,0 ; add %al,(%rax)
- DB 224,7 ; loopne 35701 <.literal16+0x2b1>
- DB 0,0 ; add %al,(%rax)
- DB 224,7 ; loopne 35705 <.literal16+0x2b5>
- DB 0,0 ; add %al,(%rax)
- DB 33,8 ; and %ecx,(%rax)
- DB 2,58 ; add (%rdx),%bh
- DB 33,8 ; and %ecx,(%rax)
- DB 2,58 ; add (%rdx),%bh
- DB 33,8 ; and %ecx,(%rax)
- DB 2,58 ; add (%rdx),%bh
- DB 33,8 ; and %ecx,(%rax)
- DB 2,58 ; add (%rdx),%bh
- DB 31 ; (bad)
- DB 0,0 ; add %al,(%rax)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,8 ; add %cl,(%rax)
- DB 33,4,61,8,33,4,61 ; and %eax,0x3d042108(,%rdi,1)
- DB 8,33 ; or %ah,(%rcx)
- DB 4,61 ; add $0x3d,%al
- DB 8,33 ; or %ah,(%rcx)
- DB 4,61 ; add $0x3d,%al
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 8,255 ; or %bh,%bh
- DB 10,255 ; or %bh,%bh
- DB 12,255 ; or $0xff,%al
- DB 14 ; (bad)
- DB 255,0 ; incl (%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,128,0,128,55,128 ; add %al,-0x7fc88000(%rax)
- DB 0,128,55,128,0,128 ; add %al,-0x7fff7fc9(%rax)
- DB 55 ; (bad)
- DB 128,0,128 ; addb $0x80,(%rax)
- DB 55 ; (bad)
- DB 0,0 ; add %al,(%rax)
- DB 0,52,0 ; add %dh,(%rax,%rax,1)
- DB 0,0 ; add %al,(%rax)
- DB 52,0 ; xor $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 52,0 ; xor $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 52,255 ; xor $0xff,%al
- DB 255 ; (bad)
- DB 127,0 ; jg 35774 <.literal16+0x324>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,0 ; jg 35778 <.literal16+0x328>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,0 ; jg 3577c <.literal16+0x32c>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,0 ; jg 35780 <.literal16+0x330>
- DB 119,115 ; ja 357f5 <.literal16+0x3a5>
- DB 248 ; clc
- DB 194,119,115 ; retq $0x7377
- DB 248 ; clc
- DB 194,119,115 ; retq $0x7377
- DB 248 ; clc
- DB 194,119,115 ; retq $0x7377
- DB 248 ; clc
- DB 194,117,191 ; retq $0xbf75
- DB 191,63,117,191,191 ; mov $0xbfbf753f,%edi
- DB 63 ; (bad)
- DB 117,191 ; jne 35759 <.literal16+0x309>
- DB 191,63,117,191,191 ; mov $0xbfbf753f,%edi
- DB 63 ; (bad)
- DB 249 ; stc
- DB 68,180,62 ; rex.R mov $0x3e,%spl
- DB 249 ; stc
- DB 68,180,62 ; rex.R mov $0x3e,%spl
- DB 249 ; stc
- DB 68,180,62 ; rex.R mov $0x3e,%spl
- DB 249 ; stc
- DB 68,180,62 ; rex.R mov $0x3e,%spl
- DB 163,233,220,63,163,233,220,63,163 ; movabs %eax,0xa33fdce9a33fdce9
- DB 233,220,63,163,233 ; jmpq ffffffffe9a6979a <_sk_srcover_bgra_8888_sse2_lowp+0xffffffffe9a34f82>
- DB 220,63 ; fdivrl (%rdi)
- DB 81 ; push %rcx
- DB 140,242 ; mov %?,%edx
- DB 66,81 ; rex.X push %rcx
- DB 140,242 ; mov %?,%edx
- DB 66,81 ; rex.X push %rcx
- DB 140,242 ; mov %?,%edx
- DB 66,81 ; rex.X push %rcx
- DB 140,242 ; mov %?,%edx
- DB 66,141,188,190,63,141,188,190 ; lea -0x414372c1(%rsi,%r15,4),%edi
- DB 63 ; (bad)
- DB 141,188,190,63,141,188,190 ; lea -0x414372c1(%rsi,%rdi,4),%edi
- DB 63 ; (bad)
- DB 248 ; clc
- DB 245 ; cmc
- DB 154 ; (bad)
- DB 64,248 ; rex clc
- DB 245 ; cmc
- DB 154 ; (bad)
- DB 64,248 ; rex clc
- DB 245 ; cmc
- DB 154 ; (bad)
- DB 64,248 ; rex clc
- DB 245 ; cmc
- DB 154 ; (bad)
- DB 64,254 ; rex (bad)
- DB 210,221 ; rcr %cl,%ch
- DB 65,254 ; rex.B (bad)
- DB 210,221 ; rcr %cl,%ch
- DB 65,254 ; rex.B (bad)
- DB 210,221 ; rcr %cl,%ch
- DB 65,254 ; rex.B (bad)
- DB 210,221 ; rcr %cl,%ch
- DB 65,0,0 ; add %al,(%r8)
- DB 0,75,0 ; add %cl,0x0(%rbx)
- DB 0,0 ; add %al,(%rax)
- DB 75,0,0 ; rex.WXB add %al,(%r8)
- DB 0,75,0 ; add %cl,0x0(%rbx)
- DB 0,0 ; add %al,(%rax)
- DB 75,0,0 ; rex.WXB add %al,(%r8)
- DB 200,66,0,0 ; enterq $0x42,$0x0
- DB 200,66,0,0 ; enterq $0x42,$0x0
- DB 200,66,0,0 ; enterq $0x42,$0x0
- DB 200,66,0,0 ; enterq $0x42,$0x0
- DB 0,195 ; add %al,%bl
- DB 0,0 ; add %al,(%rax)
- DB 0,195 ; add %al,%bl
- DB 0,0 ; add %al,(%rax)
- DB 0,195 ; add %al,%bl
- DB 0,0 ; add %al,(%rax)
- DB 0,195 ; add %al,%bl
- DB 0,0 ; add %al,(%rax)
- DB 128,65,0,0 ; addb $0x0,0x0(%rcx)
- DB 128,65,0,0 ; addb $0x0,0x0(%rcx)
- DB 128,65,0,0 ; addb $0x0,0x0(%rcx)
- DB 128,65,203,61 ; addb $0x3d,-0x35(%rcx)
- DB 13,60,203,61,13 ; or $0xd3dcb3c,%eax
- DB 60,203 ; cmp $0xcb,%al
- DB 61,13,60,203,61 ; cmp $0x3dcb3c0d,%eax
- DB 13,60,111,18,3 ; or $0x3126f3c,%eax
- DB 59,111,18 ; cmp 0x12(%rdi),%ebp
- DB 3,59 ; add (%rbx),%edi
- DB 111 ; outsl %ds:(%rsi),(%dx)
- DB 18,3 ; adc (%rbx),%al
- DB 59,111,18 ; cmp 0x12(%rdi),%ebp
- DB 3,59 ; add (%rbx),%edi
- DB 10,215 ; or %bh,%dl
- DB 163,59,10,215,163,59,10,215,163 ; movabs %eax,0xa3d70a3ba3d70a3b
- DB 59,10 ; cmp (%rdx),%ecx
- DB 215 ; xlat %ds:(%rbx)
- DB 163,59,194,24,17,60,194,24,17 ; movabs %eax,0x1118c23c1118c23b
- DB 60,194 ; cmp $0xc2,%al
- DB 24,17 ; sbb %dl,(%rcx)
- DB 60,194 ; cmp $0xc2,%al
- DB 24,17 ; sbb %dl,(%rcx)
- DB 60,203 ; cmp $0xcb,%al
- DB 61,13,190,203,61 ; cmp $0x3dcbbe0d,%eax
- DB 13,190,203,61,13 ; or $0xd3dcbbe,%eax
- DB 190,203,61,13,190 ; mov $0xbe0d3dcb,%esi
- DB 80 ; push %rax
- DB 128,3,62 ; addb $0x3e,(%rbx)
- DB 80 ; push %rax
- DB 128,3,62 ; addb $0x3e,(%rbx)
- DB 80 ; push %rax
- DB 128,3,62 ; addb $0x3e,(%rbx)
- DB 80 ; push %rax
- DB 128,3,62 ; addb $0x3e,(%rbx)
- DB 31 ; (bad)
- DB 215 ; xlat %ds:(%rbx)
- DB 118,63 ; jbe 358e3 <.literal16+0x493>
- DB 31 ; (bad)
- DB 215 ; xlat %ds:(%rbx)
- DB 118,63 ; jbe 358e7 <.literal16+0x497>
- DB 31 ; (bad)
- DB 215 ; xlat %ds:(%rbx)
- DB 118,63 ; jbe 358eb <.literal16+0x49b>
- DB 31 ; (bad)
- DB 215 ; xlat %ds:(%rbx)
- DB 118,63 ; jbe 358ef <.literal16+0x49f>
- DB 246,64,83,63 ; testb $0x3f,0x53(%rax)
- DB 246,64,83,63 ; testb $0x3f,0x53(%rax)
- DB 246,64,83,63 ; testb $0x3f,0x53(%rax)
- DB 246,64,83,63 ; testb $0x3f,0x53(%rax)
- DB 0,4,0 ; add %al,(%rax,%rax,1)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,248 ; add %bh,%al
- DB 65,0,0 ; add %al,(%r8)
- DB 248 ; clc
- DB 65,0,0 ; add %al,(%r8)
- DB 248 ; clc
- DB 65,0,0 ; add %al,(%r8)
- DB 248 ; clc
- DB 65,0,0 ; add %al,(%r8)
- DB 124,66 ; jl 35926 <.literal16+0x4d6>
- DB 0,0 ; add %al,(%rax)
- DB 124,66 ; jl 3592a <.literal16+0x4da>
- DB 0,0 ; add %al,(%rax)
- DB 124,66 ; jl 3592e <.literal16+0x4de>
- DB 0,0 ; add %al,(%rax)
- DB 124,66 ; jl 35932 <.literal16+0x4e2>
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%rax)
- DB 137,136,136,55,137,136 ; mov %ecx,-0x7776c878(%rax)
- DB 136,55 ; mov %dh,(%rdi)
- DB 137,136,136,55,137,136 ; mov %ecx,-0x7776c878(%rax)
- DB 136,55 ; mov %dh,(%rdi)
- DB 0,15 ; add %cl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,15 ; add %cl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,15 ; add %cl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,15 ; add %cl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 137,136,136,57,137,136 ; mov %ecx,-0x7776c678(%rax)
- DB 136,57 ; mov %bh,(%rcx)
- DB 137,136,136,57,137,136 ; mov %ecx,-0x7776c678(%rax)
- DB 136,57 ; mov %bh,(%rcx)
- DB 240,0,0 ; lock add %al,(%rax)
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,137,136,136,59,137 ; add %cl,-0x76c47778(%rcx)
- DB 136,136,59,137,136,136 ; mov %cl,-0x777776c5(%rax)
- DB 59,137,136,136,59,15 ; cmp 0xf3b8888(%rcx),%ecx
- DB 0,0 ; add %al,(%rax)
- DB 0,15 ; add %cl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,15 ; add %cl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,15 ; add %cl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 0,137,136,136,61,137 ; add %cl,-0x76c27778(%rcx)
- DB 136,136,61,137,136,136 ; mov %cl,-0x777776c3(%rax)
- DB 61,137,136,136,61 ; cmp $0x3d888889,%eax
- DB 0,0 ; add %al,(%rax)
- DB 112,65 ; jo 359b5 <.literal16+0x565>
- DB 0,0 ; add %al,(%rax)
- DB 112,65 ; jo 359b9 <.literal16+0x569>
- DB 0,0 ; add %al,(%rax)
- DB 112,65 ; jo 359bd <.literal16+0x56d>
- DB 0,0 ; add %al,(%rax)
- DB 112,65 ; jo 359c1 <.literal16+0x571>
- DB 255,3 ; incl (%rbx)
- DB 0,0 ; add %al,(%rax)
- DB 255,3 ; incl (%rbx)
- DB 0,0 ; add %al,(%rax)
- DB 255,3 ; incl (%rbx)
- DB 0,0 ; add %al,(%rax)
- DB 255,3 ; incl (%rbx)
- DB 0,0 ; add %al,(%rax)
- DB 8,32 ; or %ah,(%rax)
- DB 128,58,8 ; cmpb $0x8,(%rdx)
- DB 32,128,58,8,32,128 ; and %al,-0x7fdff7c6(%rax)
- DB 58,8 ; cmp (%rax),%cl
- DB 32,128,58,0,192,127 ; and %al,0x7fc0003a(%rax)
- DB 68,0,192 ; add %r8b,%al
- DB 127,68 ; jg 359ec <.literal16+0x59c>
- DB 0,192 ; add %al,%al
- DB 127,68 ; jg 359f0 <.literal16+0x5a0>
- DB 0,192 ; add %al,%al
- DB 127,68 ; jg 359f4 <.literal16+0x5a4>
- DB 0,0 ; add %al,(%rax)
- DB 64 ; rex
- DB 64,0,0 ; add %al,(%rax)
- DB 64 ; rex
- DB 64,0,0 ; add %al,(%rax)
- DB 64 ; rex
- DB 64,0,0 ; add %al,(%rax)
- DB 64 ; rex
- DB 64,0,128,0,0,0,128 ; add %al,-0x80000000(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,128,0,0,0,128 ; add %al,-0x80000000(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 255 ; (bad)
- DB 127,0 ; jg 359d3 <.literal16+0x583>
- DB 0,255 ; add %bh,%bh
- DB 127,0 ; jg 359d7 <.literal16+0x587>
- DB 0,255 ; add %bh,%bh
- DB 127,0 ; jg 359db <.literal16+0x58b>
- DB 0,255 ; add %bh,%bh
- DB 127,0 ; jg 359df <.literal16+0x58f>
- DB 0,0 ; add %al,(%rax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 56,0 ; cmp %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 56,0 ; cmp %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 56,0 ; cmp %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 56,0 ; cmp %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 128,0,0 ; addb $0x0,(%rax)
- DB 0,128,0,0,0,128 ; add %al,-0x80000000(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,128,255,255,255,127 ; add %al,0x7fffffff(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,255 ; jg 35a18 <.literal16+0x5c8>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,255 ; jg 35a1c <.literal16+0x5cc>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,0 ; jg 35a21 <.literal16+0x5d1>
- DB 0,128,56,0,0,128 ; add %al,-0x7fffffc8(%rax)
- DB 56,0 ; cmp %al,(%rax)
- DB 0,128,56,0,0,128 ; add %al,-0x7fffffc8(%rax)
- DB 56,0 ; cmp %al,(%rax)
- DB 64,254 ; rex (bad)
- DB 255,0 ; incl (%rax)
- DB 64,254 ; rex (bad)
- DB 255,0 ; incl (%rax)
- DB 64,254 ; rex (bad)
- DB 255,0 ; incl (%rax)
- DB 64,254 ; rex (bad)
- DB 255,0 ; incl (%rax)
- DB 255 ; (bad)
- DB 127,71 ; jg 35a8b <.literal16+0x63b>
- DB 0,255 ; add %bh,%bh
- DB 127,71 ; jg 35a8f <.literal16+0x63f>
- DB 0,255 ; add %bh,%bh
- DB 127,71 ; jg 35a93 <.literal16+0x643>
- DB 0,255 ; add %bh,%bh
- DB 127,71 ; jg 35a97 <.literal16+0x647>
- DB 208 ; (bad)
- DB 179,89 ; mov $0x59,%bl
- DB 62,208 ; ds (bad)
- DB 179,89 ; mov $0x59,%bl
- DB 62,208 ; ds (bad)
- DB 179,89 ; mov $0x59,%bl
- DB 62,208 ; ds (bad)
- DB 179,89 ; mov $0x59,%bl
- DB 62,89 ; ds pop %rcx
- DB 23 ; (bad)
- DB 55 ; (bad)
- DB 63 ; (bad)
- DB 89 ; pop %rcx
- DB 23 ; (bad)
- DB 55 ; (bad)
- DB 63 ; (bad)
- DB 89 ; pop %rcx
- DB 23 ; (bad)
- DB 55 ; (bad)
- DB 63 ; (bad)
- DB 89 ; pop %rcx
- DB 23 ; (bad)
- DB 55 ; (bad)
- DB 63 ; (bad)
- DB 152 ; cwtl
- DB 221,147,61,152,221,147 ; fstl -0x6c2267c3(%rbx)
- DB 61,152,221,147,61 ; cmp $0x3d93dd98,%eax
- DB 152 ; cwtl
- DB 221,147,61,111,43,231 ; fstl -0x18d490c3(%rbx)
- DB 187,111,43,231,187 ; mov $0xbbe72b6f,%ebx
- DB 111 ; outsl %ds:(%rsi),(%dx)
- DB 43,231 ; sub %edi,%esp
- DB 187,111,43,231,187 ; mov $0xbbe72b6f,%ebx
- DB 159 ; lahf
- DB 215 ; xlat %ds:(%rbx)
- DB 202,60,159 ; lret $0x9f3c
- DB 215 ; xlat %ds:(%rbx)
- DB 202,60,159 ; lret $0x9f3c
- DB 215 ; xlat %ds:(%rbx)
- DB 202,60,159 ; lret $0x9f3c
- DB 215 ; xlat %ds:(%rbx)
- DB 202,60,212 ; lret $0xd43c
- DB 100,84 ; fs push %rsp
- DB 189,212,100,84,189 ; mov $0xbd5464d4,%ebp
- DB 212 ; (bad)
- DB 100,84 ; fs push %rsp
- DB 189,212,100,84,189 ; mov $0xbd5464d4,%ebp
- DB 169,240,34,62,169 ; test $0xa93e22f0,%eax
- DB 240,34,62 ; lock and (%rsi),%bh
- DB 169,240,34,62,169 ; test $0xa93e22f0,%eax
- DB 240,34,62 ; lock and (%rsi),%bh
- DB 0,0 ; add %al,(%rax)
- DB 128,62,0 ; cmpb $0x0,(%rsi)
- DB 0,128,62,0,0,128 ; add %al,-0x7fffffc2(%rax)
- DB 62,0,0 ; add %al,%ds:(%rax)
- DB 128,62,0 ; cmpb $0x0,(%rsi)
- DB 0,0 ; add %al,(%rax)
- DB 191,0,0,0,191 ; mov $0xbf000000,%edi
- DB 0,0 ; add %al,(%rax)
- DB 0,191,0,0,0,191 ; add %bh,-0x41000000(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 192,191,0,0,192,191,0 ; sarb $0x0,-0x40400000(%rdi)
- DB 0,192 ; add %al,%al
- DB 191,0,0,192,191 ; mov $0xbfc00000,%edi
- DB 114,28 ; jb 35b0e <.literal16+0x6be>
- DB 199 ; (bad)
- DB 62,114,28 ; jb,pt 35b12 <.literal16+0x6c2>
- DB 199 ; (bad)
- DB 62,114,28 ; jb,pt 35b16 <.literal16+0x6c6>
- DB 199 ; (bad)
- DB 62,114,28 ; jb,pt 35b1a <.literal16+0x6ca>
- DB 199 ; (bad)
- DB 62,85 ; ds push %rbp
- DB 85 ; push %rbp
- DB 149 ; xchg %eax,%ebp
- DB 191,85,85,149,191 ; mov $0xbf955555,%edi
- DB 85 ; push %rbp
- DB 85 ; push %rbp
- DB 149 ; xchg %eax,%ebp
- DB 191,85,85,149,191 ; mov $0xbf955555,%edi
- DB 0,0 ; add %al,(%rax)
- DB 192,63,0 ; sarb $0x0,(%rdi)
- DB 0,192 ; add %al,%al
- DB 63 ; (bad)
- DB 0,0 ; add %al,(%rax)
- DB 192,63,0 ; sarb $0x0,(%rdi)
- DB 0,192 ; add %al,%al
- DB 63 ; (bad)
- DB 57,142,99,61,57,142 ; cmp %ecx,-0x71c6c29d(%rsi)
- DB 99,61,57,142,99,61 ; movslq 0x3d638e39(%rip),%edi # 3d66e965 <_sk_srcover_bgra_8888_sse2_lowp+0x3d63a14d>
- DB 57,142,99,61,114,249 ; cmp %ecx,-0x68dc29d(%rsi)
- DB 127,63 ; jg 35b73 <.literal16+0x723>
- DB 114,249 ; jb 35b2f <.literal16+0x6df>
- DB 127,63 ; jg 35b77 <.literal16+0x727>
- DB 114,249 ; jb 35b33 <.literal16+0x6e3>
- DB 127,63 ; jg 35b7b <.literal16+0x72b>
- DB 114,249 ; jb 35b37 <.literal16+0x6e7>
- DB 127,63 ; jg 35b7f <.literal16+0x72f>
- DB 3,0 ; add (%rax),%eax
- DB 0,0 ; add %al,(%rax)
- DB 3,0 ; add (%rax),%eax
- DB 0,0 ; add %al,(%rax)
- DB 3,0 ; add (%rax),%eax
- DB 0,0 ; add %al,(%rax)
- DB 3,0 ; add (%rax),%eax
- DB 0,0 ; add %al,(%rax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,45,16,17,192,45 ; ljmp *0x2dc01110(%rip) # 2dc36c75 <_sk_srcover_bgra_8888_sse2_lowp+0x2dc0245d>
- DB 16,17 ; adc %dl,(%rcx)
- DB 192,45,16,17,192,45,16 ; shrb $0x10,0x2dc01110(%rip) # 2dc36c7e <_sk_srcover_bgra_8888_sse2_lowp+0x2dc02466>
- DB 17,192 ; adc %eax,%eax
- DB 18,120,57 ; adc 0x39(%rax),%bh
- DB 64,18,120,57 ; adc 0x39(%rax),%dil
- DB 64,18,120,57 ; adc 0x39(%rax),%dil
- DB 64,18,120,57 ; adc 0x39(%rax),%dil
- DB 64,32,148,90,62,32,148,90 ; and %dl,0x5a94203e(%rdx,%rbx,2)
- DB 62,32,148,90,62,32,148,90 ; and %dl,%ds:0x5a94203e(%rdx,%rbx,2)
- DB 62,4,157 ; ds add $0x9d,%al
- DB 30 ; (bad)
- DB 62,4,157 ; ds add $0x9d,%al
- DB 30 ; (bad)
- DB 62,4,157 ; ds add $0x9d,%al
- DB 30 ; (bad)
- DB 62,4,157 ; ds add $0x9d,%al
- DB 30 ; (bad)
- DB 62,0,24 ; add %bl,%ds:(%rax)
- DB 161,57,0,24,161,57,0,24,161 ; movabs 0xa1180039a1180039,%eax
- DB 57,0 ; cmp %eax,(%rax)
- DB 24,161,57,0,0,255 ; sbb %ah,-0xffffc7(%rcx)
- DB 255,0 ; incl (%rax)
- DB 0,255 ; add %bh,%bh
- DB 255,0 ; incl (%rax)
- DB 0,255 ; add %bh,%bh
- DB 255,0 ; incl (%rax)
- DB 0,255 ; add %bh,%bh
- DB 255,0 ; incl (%rax)
- DB 2,4,6 ; add (%rsi,%rax,1),%al
- DB 8,10 ; or %cl,(%rdx)
- DB 12,14 ; or $0xe,%al
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 254,1 ; incb (%rcx)
- DB 254,1 ; incb (%rcx)
- DB 254,1 ; incb (%rcx)
- DB 254,1 ; incb (%rcx)
- DB 254,1 ; incb (%rcx)
- DB 254,1 ; incb (%rcx)
- DB 254,1 ; incb (%rcx)
- DB 254,1 ; incb (%rcx)
- DB 0,128,0,128,0,128 ; add %al,-0x7fff8000(%rax)
- DB 0,128,0,128,0,128 ; add %al,-0x7fff8000(%rax)
- DB 0,128,0,128,0,1 ; add %al,0x1008000(%rax)
- DB 4,5 ; add $0x5,%al
- DB 8,9 ; or %cl,(%rcx)
- DB 12,13 ; or $0xd,%al
- DB 8,9 ; or %cl,(%rcx)
- DB 12,13 ; or $0xd,%al
- DB 12,13 ; or $0xd,%al
- DB 14 ; (bad)
- DB 15,3,255 ; lsl %di,%edi
- DB 7 ; (bad)
- DB 255,11 ; decl (%rbx)
- DB 255,15 ; decl (%rdi)
- DB 255,11 ; decl (%rbx)
- DB 255,15 ; decl (%rdi)
- DB 255,15 ; decl (%rdi)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255,2 ; incl (%rdx)
- DB 3,6 ; add (%rsi),%eax
- DB 7 ; (bad)
- DB 10,11 ; or (%rbx),%cl
- DB 14 ; (bad)
- DB 15,10 ; (bad)
- DB 11,14 ; or (%rsi),%ecx
- DB 15,14 ; femms
- DB 15,255 ; (bad)
- DB 255 ; (bad)
- DB 248 ; clc
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,63 ; add %bh,(%rdi)
- DB 0,63 ; add %bh,(%rdi)
- DB 0,63 ; add %bh,(%rdi)
- DB 0,63 ; add %bh,(%rdi)
- DB 0,63 ; add %bh,(%rdi)
- DB 0,63 ; add %bh,(%rdi)
- DB 0,63 ; add %bh,(%rdi)
- DB 0,63 ; add %bh,(%rdi)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,31 ; add %bl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 248 ; clc
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 224,255 ; loopne 35c61 <.literal16+0x811>
- DB 224,255 ; loopne 35c63 <.literal16+0x813>
- DB 224,255 ; loopne 35c65 <.literal16+0x815>
- DB 224,255 ; loopne 35c67 <.literal16+0x817>
- DB 224,255 ; loopne 35c69 <.literal16+0x819>
- DB 224,255 ; loopne 35c6b <.literal16+0x81b>
- DB 224,255 ; loopne 35c6d <.literal16+0x81d>
- DB 224,255 ; loopne 35c6f <.literal16+0x81f>
- DB 15,0,15 ; str (%rdi)
- DB 0,15 ; add %cl,(%rdi)
- DB 0,15 ; add %cl,(%rdi)
- DB 0,15 ; add %cl,(%rdi)
- DB 0,15 ; add %cl,(%rdi)
- DB 0,15 ; add %cl,(%rdi)
- DB 0,15 ; add %cl,(%rdi)
- DB 0,0 ; add %al,(%rax)
- DB 240,0,240 ; lock add %dh,%al
- DB 0,240 ; add %dh,%al
- DB 0,240 ; add %dh,%al
- DB 0,240 ; add %dh,%al
- DB 0,240 ; add %dh,%al
- DB 0,240 ; add %dh,%al
- DB 0,240 ; add %dh,%al
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 240,255,240 ; lock push %rax
- DB 255,240 ; push %rax
- DB 255,240 ; push %rax
- DB 255,240 ; push %rax
- DB 255,240 ; push %rax
- DB 255,240 ; push %rax
- DB 255,240 ; push %rax
- DB 255,54 ; pushq (%rsi)
- DB 0,54 ; add %dh,(%rsi)
- DB 0,54 ; add %dh,(%rsi)
- DB 0,54 ; add %dh,(%rsi)
- DB 0,54 ; add %dh,(%rsi)
- DB 0,54 ; add %dh,(%rsi)
- DB 0,54 ; add %dh,(%rsi)
- DB 0,54 ; add %dh,(%rsi)
- DB 0,183,0,183,0,183 ; add %dh,-0x48ff4900(%rdi)
- DB 0,183,0,183,0,183 ; add %dh,-0x48ff4900(%rdi)
- DB 0,183,0,183,0,19 ; add %dh,0x1300b700(%rdi)
- DB 0,19 ; add %dl,(%rbx)
- DB 0,19 ; add %dl,(%rbx)
- DB 0,19 ; add %dl,(%rbx)
- DB 0,19 ; add %dl,(%rbx)
- DB 0,19 ; add %dl,(%rbx)
- DB 0,19 ; add %dl,(%rbx)
- DB 0,19 ; add %dl,(%rbx)
- DB 0,254 ; add %bh,%dh
- DB 0,254 ; add %bh,%dh
- DB 0,254 ; add %bh,%dh
- DB 0,254 ; add %bh,%dh
- DB 0,254 ; add %bh,%dh
- DB 0,254 ; add %bh,%dh
- DB 0,254 ; add %bh,%dh
- DB 0,254 ; add %bh,%dh
- DB 0 ; .byte 0x0
-
-ALIGN 8
- DB 1,0 ; add %eax,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 1,0 ; add %eax,(%rax)
- DB 0,0 ; add %al,(%rax)
- DB 2,0 ; add (%rax),%al
- DB 0,0 ; add %al,(%rax)
- DB 2,0 ; add (%rax),%al
- DB 0,0 ; add %al,(%rax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%rax)
- DB 255 ; (bad)
- DB 127,0 ; jg 35d0b <.literal8+0x1b>
- DB 0,255 ; add %bh,%bh
- DB 127,0 ; jg 35d0f <.literal8+0x1f>
- DB 0,0 ; add %al,(%rax)
- DB 128,0,0 ; addb $0x0,(%rax)
- DB 0 ; .byte 0x0
- DB 128,0,0 ; addb $0x0,(%rax)
-ELSE
-.MODEL FLAT,C
-_text32 SEGMENT ALIGN(32) 'CODE'
-ALIGN 32
-
-PUBLIC _sk_start_pipeline_sse2
-_sk_start_pipeline_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,228,240 ; and $0xfffffff0,%esp
- DB 131,236,112 ; sub $0x70,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 59,69,20 ; cmp 0x14(%ebp),%eax
- DB 15,131,174,0,0,0 ; jae c6 <_sk_start_pipeline_sse2+0xc6>
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,117,24 ; mov 0x18(%ebp),%esi
- DB 139,62 ; mov (%esi),%edi
- DB 131,198,4 ; add $0x4,%esi
- DB 141,73,4 ; lea 0x4(%ecx),%ecx
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 57,84,36,8 ; cmp %edx,0x8(%esp)
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 137,76,36,16 ; mov %ecx,0x10(%esp)
- DB 137,68,36,12 ; mov %eax,0xc(%esp)
- DB 137,68,36,20 ; mov %eax,0x14(%esp)
- DB 199,68,36,24,0,0,0,0 ; movl $0x0,0x18(%esp)
- DB 141,68,36,32 ; lea 0x20(%esp),%eax
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,41,64,48 ; movaps %xmm0,0x30(%eax)
- DB 15,41,64,32 ; movaps %xmm0,0x20(%eax)
- DB 15,41,64,16 ; movaps %xmm0,0x10(%eax)
- DB 15,41,0 ; movaps %xmm0,(%eax)
- DB 137,200 ; mov %ecx,%eax
- DB 141,92,36,16 ; lea 0x10(%esp),%ebx
- DB 119,43 ; ja 91 <_sk_start_pipeline_sse2+0x91>
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 86 ; push %esi
- DB 83 ; push %ebx
- DB 255,215 ; call *%edi
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 131,196,16 ; add $0x10,%esp
- DB 139,76,36,16 ; mov 0x10(%esp),%ecx
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 137,68,36,16 ; mov %eax,0x10(%esp)
- DB 131,193,8 ; add $0x8,%ecx
- DB 57,209 ; cmp %edx,%ecx
- DB 118,213 ; jbe 66 <_sk_start_pipeline_sse2+0x66>
- DB 137,209 ; mov %edx,%ecx
- DB 41,193 ; sub %eax,%ecx
- DB 116,33 ; je b8 <_sk_start_pipeline_sse2+0xb8>
- DB 137,76,36,24 ; mov %ecx,0x18(%esp)
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 86 ; push %esi
- DB 141,68,36,28 ; lea 0x1c(%esp),%eax
- DB 80 ; push %eax
- DB 255,215 ; call *%edi
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 131,196,16 ; add $0x10,%esp
- DB 139,68,36,12 ; mov 0xc(%esp),%eax
- DB 64 ; inc %eax
- DB 59,69,20 ; cmp 0x14(%ebp),%eax
- DB 15,133,103,255,255,255 ; jne 2d <_sk_start_pipeline_sse2+0x2d>
- DB 141,101,244 ; lea -0xc(%ebp),%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_just_return_sse2
-_sk_just_return_sse2 LABEL PROC
- DB 195 ; ret
-
-PUBLIC _sk_seed_shader_sse2
-_sk_seed_shader_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 80 ; push %eax
- DB 232,0,0,0,0 ; call d9 <_sk_seed_shader_sse2+0xa>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 102,15,110,1 ; movd (%ecx),%xmm0
- DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
- DB 15,91,200 ; cvtdq2ps %xmm0,%xmm1
- DB 15,16,6 ; movups (%esi),%xmm0
- DB 15,88,193 ; addps %xmm1,%xmm0
- DB 102,15,110,73,4 ; movd 0x4(%ecx),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,88,136,135,6,1,0 ; addps 0x10687(%eax),%xmm1
- DB 141,114,8 ; lea 0x8(%edx),%esi
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,41,81,64 ; movaps %xmm2,0x40(%ecx)
- DB 15,41,81,48 ; movaps %xmm2,0x30(%ecx)
- DB 15,41,81,32 ; movaps %xmm2,0x20(%ecx)
- DB 15,41,81,16 ; movaps %xmm2,0x10(%ecx)
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,144,151,6,1,0 ; movaps 0x10697(%eax),%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,20 ; add $0x14,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_dither_sse2
-_sk_dither_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 131,236,36 ; sub $0x24,%esp
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 15,41,85,232 ; movaps %xmm2,-0x18(%ebp)
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 232,0,0,0,0 ; call 150 <_sk_dither_sse2+0x1a>
- DB 89 ; pop %ecx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 102,15,110,32 ; movd (%eax),%xmm4
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 102,15,254,161,48,6,1,0 ; paddd 0x10630(%ecx),%xmm4
- DB 102,15,110,104,4 ; movd 0x4(%eax),%xmm5
- DB 102,15,112,253,0 ; pshufd $0x0,%xmm5,%xmm7
- DB 102,15,239,252 ; pxor %xmm4,%xmm7
- DB 102,15,111,177,64,6,1,0 ; movdqa 0x10640(%ecx),%xmm6
- DB 102,15,111,207 ; movdqa %xmm7,%xmm1
- DB 102,15,219,206 ; pand %xmm6,%xmm1
- DB 102,15,114,241,5 ; pslld $0x5,%xmm1
- DB 102,15,111,129,96,6,1,0 ; movdqa 0x10660(%ecx),%xmm0
- DB 102,15,111,239 ; movdqa %xmm7,%xmm5
- DB 102,15,219,232 ; pand %xmm0,%xmm5
- DB 102,15,114,245,2 ; pslld $0x2,%xmm5
- DB 102,15,235,233 ; por %xmm1,%xmm5
- DB 102,15,219,244 ; pand %xmm4,%xmm6
- DB 102,15,114,246,4 ; pslld $0x4,%xmm6
- DB 102,15,219,196 ; pand %xmm4,%xmm0
- DB 102,15,254,192 ; paddd %xmm0,%xmm0
- DB 102,15,235,198 ; por %xmm6,%xmm0
- DB 102,15,111,137,80,6,1,0 ; movdqa 0x10650(%ecx),%xmm1
- DB 102,15,219,249 ; pand %xmm1,%xmm7
- DB 102,15,219,225 ; pand %xmm1,%xmm4
- DB 102,15,114,212,2 ; psrld $0x2,%xmm4
- DB 102,15,235,224 ; por %xmm0,%xmm4
- DB 102,15,235,229 ; por %xmm5,%xmm4
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 102,15,114,215,1 ; psrld $0x1,%xmm7
- DB 102,15,235,231 ; por %xmm7,%xmm4
- DB 15,91,196 ; cvtdq2ps %xmm4,%xmm0
- DB 15,89,129,112,6,1,0 ; mulps 0x10670(%ecx),%xmm0
- DB 15,88,129,128,6,1,0 ; addps 0x10680(%ecx),%xmm0
- DB 243,15,16,14 ; movss (%esi),%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,88,209 ; addps %xmm1,%xmm2
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 15,88,77,232 ; addps -0x18(%ebp),%xmm1
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,93,208 ; minps %xmm0,%xmm2
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 15,95,234 ; maxps %xmm2,%xmm5
- DB 15,93,216 ; minps %xmm0,%xmm3
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,227 ; maxps %xmm3,%xmm4
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,93,200 ; minps %xmm0,%xmm1
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 15,95,209 ; maxps %xmm1,%xmm2
- DB 141,74,8 ; lea 0x8(%edx),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 81 ; push %ecx
- DB 80 ; push %eax
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,52 ; add $0x34,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_uniform_color_sse2
-_sk_uniform_color_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,1 ; movss (%ecx),%xmm0
- DB 243,15,16,73,4 ; movss 0x4(%ecx),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,15,16,81,8 ; movss 0x8(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,89,12 ; movss 0xc(%ecx),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_black_color_sse2
-_sk_black_color_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 28c <_sk_black_color_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,152,228,4,1,0 ; movaps 0x104e4(%eax),%xmm3
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 82 ; push %edx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_white_color_sse2
-_sk_white_color_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 2bc <_sk_white_color_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,128,180,4,1,0 ; movaps 0x104b4(%eax),%xmm0
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 82 ; push %edx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_load_rgba_sse2
-_sk_load_rgba_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 15,16,1 ; movups (%ecx),%xmm0
- DB 15,16,73,16 ; movups 0x10(%ecx),%xmm1
- DB 15,16,81,32 ; movups 0x20(%ecx),%xmm2
- DB 15,16,89,48 ; movups 0x30(%ecx),%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_store_rgba_sse2
-_sk_store_rgba_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,17 ; mov (%ecx),%edx
- DB 15,17,2 ; movups %xmm0,(%edx)
- DB 15,17,74,16 ; movups %xmm1,0x10(%edx)
- DB 15,17,82,32 ; movups %xmm2,0x20(%edx)
- DB 15,17,90,48 ; movups %xmm3,0x30(%edx)
- DB 141,81,8 ; lea 0x8(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_clear_sse2
-_sk_clear_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_srcatop_sse2
-_sk_srcatop_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 36b <_sk_srcatop_sse2+0xb>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 15,40,97,64 ; movaps 0x40(%ecx),%xmm4
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,40,170,5,4,1,0 ; movaps 0x10405(%edx),%xmm5
- DB 15,92,235 ; subps %xmm3,%xmm5
- DB 15,40,113,16 ; movaps 0x10(%ecx),%xmm6
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,40,113,32 ; movaps 0x20(%ecx),%xmm6
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,40,113,48 ; movaps 0x30(%ecx),%xmm6
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 141,80,4 ; lea 0x4(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_dstatop_sse2
-_sk_dstatop_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 3ca <_sk_dstatop_sse2+0xb>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 15,40,105,64 ; movaps 0x40(%ecx),%xmm5
- DB 15,40,113,16 ; movaps 0x10(%ecx),%xmm6
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,40,162,166,3,1,0 ; movaps 0x103a6(%edx),%xmm4
- DB 15,92,229 ; subps %xmm5,%xmm4
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,40,113,32 ; movaps 0x20(%ecx),%xmm6
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,40,113,48 ; movaps 0x30(%ecx),%xmm6
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 15,89,235 ; mulps %xmm3,%xmm5
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 15,88,229 ; addps %xmm5,%xmm4
- DB 141,80,4 ; lea 0x4(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_srcin_sse2
-_sk_srcin_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 15,40,97,64 ; movaps 0x40(%ecx),%xmm4
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 141,80,4 ; lea 0x4(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_dstin_sse2
-_sk_dstin_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 15,40,65,16 ; movaps 0x10(%ecx),%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,40,73,32 ; movaps 0x20(%ecx),%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,40,81,48 ; movaps 0x30(%ecx),%xmm2
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,89,89,64 ; mulps 0x40(%ecx),%xmm3
- DB 141,80,4 ; lea 0x4(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_srcout_sse2
-_sk_srcout_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 48b <_sk_srcout_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 15,40,160,229,2,1,0 ; movaps 0x102e5(%eax),%xmm4
- DB 15,92,98,64 ; subps 0x40(%edx),%xmm4
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 82 ; push %edx
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_dstout_sse2
-_sk_dstout_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 4c3 <_sk_dstout_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 15,40,160,173,2,1,0 ; movaps 0x102ad(%eax),%xmm4
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 15,40,66,16 ; movaps 0x10(%edx),%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,40,74,32 ; movaps 0x20(%edx),%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,40,82,48 ; movaps 0x30(%edx),%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,89,98,64 ; mulps 0x40(%edx),%xmm4
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 80 ; push %eax
- DB 82 ; push %edx
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_srcover_sse2
-_sk_srcover_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 50a <_sk_srcover_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 15,40,160,102,2,1,0 ; movaps 0x10266(%eax),%xmm4
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 15,40,106,16 ; movaps 0x10(%edx),%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,40,106,32 ; movaps 0x20(%edx),%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 15,40,106,48 ; movaps 0x30(%edx),%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 15,89,98,64 ; mulps 0x40(%edx),%xmm4
- DB 15,88,220 ; addps %xmm4,%xmm3
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 82 ; push %edx
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_dstover_sse2
-_sk_dstover_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 55a <_sk_dstover_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 15,40,106,64 ; movaps 0x40(%edx),%xmm5
- DB 15,40,160,22,2,1,0 ; movaps 0x10216(%eax),%xmm4
- DB 15,92,229 ; subps %xmm5,%xmm4
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,66,16 ; addps 0x10(%edx),%xmm0
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,74,32 ; addps 0x20(%edx),%xmm1
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,82,48 ; addps 0x30(%edx),%xmm2
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 15,88,229 ; addps %xmm5,%xmm4
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 80 ; push %eax
- DB 82 ; push %edx
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_modulate_sse2
-_sk_modulate_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 15,89,65,16 ; mulps 0x10(%ecx),%xmm0
- DB 15,89,73,32 ; mulps 0x20(%ecx),%xmm1
- DB 15,89,81,48 ; mulps 0x30(%ecx),%xmm2
- DB 15,89,89,64 ; mulps 0x40(%ecx),%xmm3
- DB 141,80,4 ; lea 0x4(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_multiply_sse2
-_sk_multiply_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,56 ; sub $0x38,%esp
- DB 15,41,85,216 ; movaps %xmm2,-0x28(%ebp)
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 232,0,0,0,0 ; call 5d9 <_sk_multiply_sse2+0x12>
- DB 89 ; pop %ecx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 15,40,80,64 ; movaps 0x40(%eax),%xmm2
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 15,40,129,151,1,1,0 ; movaps 0x10197(%ecx),%xmm0
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,92,242 ; subps %xmm2,%xmm6
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 15,89,253 ; mulps %xmm5,%xmm7
- DB 15,92,195 ; subps %xmm3,%xmm0
- DB 15,40,80,16 ; movaps 0x10(%eax),%xmm2
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,89,226 ; mulps %xmm2,%xmm4
- DB 15,88,231 ; addps %xmm7,%xmm4
- DB 15,89,234 ; mulps %xmm2,%xmm5
- DB 15,88,236 ; addps %xmm4,%xmm5
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 15,40,96,32 ; movaps 0x20(%eax),%xmm4
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,89,252 ; mulps %xmm4,%xmm7
- DB 15,88,250 ; addps %xmm2,%xmm7
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 15,41,77,232 ; movaps %xmm1,-0x18(%ebp)
- DB 15,40,206 ; movaps %xmm6,%xmm1
- DB 15,40,85,216 ; movaps -0x28(%ebp),%xmm2
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,40,96,48 ; movaps 0x30(%eax),%xmm4
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,89,252 ; mulps %xmm4,%xmm7
- DB 15,88,249 ; addps %xmm1,%xmm7
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,40,77,200 ; movaps -0x38(%ebp),%xmm1
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,89,217 ; mulps %xmm1,%xmm3
- DB 15,88,216 ; addps %xmm0,%xmm3
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,40,77,232 ; movaps -0x18(%ebp),%xmm1
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,17 ; call *(%ecx)
- DB 131,196,72 ; add $0x48,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_plus__sse2
-_sk_plus__sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 67f <_sk_plus__sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 15,88,66,16 ; addps 0x10(%edx),%xmm0
- DB 15,40,160,241,0,1,0 ; movaps 0x100f1(%eax),%xmm4
- DB 15,93,196 ; minps %xmm4,%xmm0
- DB 15,88,74,32 ; addps 0x20(%edx),%xmm1
- DB 15,93,204 ; minps %xmm4,%xmm1
- DB 15,88,82,48 ; addps 0x30(%edx),%xmm2
- DB 15,93,212 ; minps %xmm4,%xmm2
- DB 15,88,90,64 ; addps 0x40(%edx),%xmm3
- DB 15,93,220 ; minps %xmm4,%xmm3
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 82 ; push %edx
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_screen_sse2
-_sk_screen_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 15,40,105,16 ; movaps 0x10(%ecx),%xmm5
- DB 15,40,113,32 ; movaps 0x20(%ecx),%xmm6
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,88,224 ; addps %xmm0,%xmm4
- DB 15,89,232 ; mulps %xmm0,%xmm5
- DB 15,92,229 ; subps %xmm5,%xmm4
- DB 15,40,238 ; movaps %xmm6,%xmm5
- DB 15,88,233 ; addps %xmm1,%xmm5
- DB 15,89,241 ; mulps %xmm1,%xmm6
- DB 15,92,238 ; subps %xmm6,%xmm5
- DB 15,40,65,48 ; movaps 0x30(%ecx),%xmm0
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,88,242 ; addps %xmm2,%xmm6
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 15,92,240 ; subps %xmm0,%xmm6
- DB 15,40,65,64 ; movaps 0x40(%ecx),%xmm0
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,88,251 ; addps %xmm3,%xmm7
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,92,248 ; subps %xmm0,%xmm7
- DB 141,80,4 ; lea 0x4(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,40,223 ; movaps %xmm7,%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_xor__sse2
-_sk_xor__sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 232,0,0,0,0 ; call 72d <_sk_xor__sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 15,40,105,64 ; movaps 0x40(%ecx),%xmm5
- DB 15,40,154,67,0,1,0 ; movaps 0x10043(%edx),%xmm3
- DB 15,40,243 ; movaps %xmm3,%xmm6
- DB 15,92,245 ; subps %xmm5,%xmm6
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,92,220 ; subps %xmm4,%xmm3
- DB 15,40,121,16 ; movaps 0x10(%ecx),%xmm7
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,40,121,32 ; movaps 0x20(%ecx),%xmm7
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,40,121,48 ; movaps 0x30(%ecx),%xmm7
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 15,89,221 ; mulps %xmm5,%xmm3
- DB 15,88,222 ; addps %xmm6,%xmm3
- DB 141,80,4 ; lea 0x4(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_darken_sse2
-_sk_darken_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 232,0,0,0,0 ; call 795 <_sk_darken_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 15,40,113,64 ; movaps 0x40(%ecx),%xmm6
- DB 15,40,105,16 ; movaps 0x10(%ecx),%xmm5
- DB 15,40,121,32 ; movaps 0x20(%ecx),%xmm7
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 15,89,235 ; mulps %xmm3,%xmm5
- DB 15,95,229 ; maxps %xmm5,%xmm4
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,40,231 ; movaps %xmm7,%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 15,95,207 ; maxps %xmm7,%xmm1
- DB 15,92,225 ; subps %xmm1,%xmm4
- DB 15,40,73,48 ; movaps 0x30(%ecx),%xmm1
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,88,234 ; addps %xmm2,%xmm5
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,95,209 ; maxps %xmm1,%xmm2
- DB 15,92,234 ; subps %xmm2,%xmm5
- DB 15,40,138,219,255,0,0 ; movaps 0xffdb(%edx),%xmm1
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 141,80,4 ; lea 0x4(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 15,40,213 ; movaps %xmm5,%xmm2
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_lighten_sse2
-_sk_lighten_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 232,0,0,0,0 ; call 815 <_sk_lighten_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 15,40,113,64 ; movaps 0x40(%ecx),%xmm6
- DB 15,40,105,16 ; movaps 0x10(%ecx),%xmm5
- DB 15,40,121,32 ; movaps 0x20(%ecx),%xmm7
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 15,89,235 ; mulps %xmm3,%xmm5
- DB 15,93,229 ; minps %xmm5,%xmm4
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,40,231 ; movaps %xmm7,%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 15,93,207 ; minps %xmm7,%xmm1
- DB 15,92,225 ; subps %xmm1,%xmm4
- DB 15,40,73,48 ; movaps 0x30(%ecx),%xmm1
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,88,234 ; addps %xmm2,%xmm5
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,93,209 ; minps %xmm1,%xmm2
- DB 15,92,234 ; subps %xmm2,%xmm5
- DB 15,40,138,91,255,0,0 ; movaps 0xff5b(%edx),%xmm1
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 141,80,4 ; lea 0x4(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 15,40,213 ; movaps %xmm5,%xmm2
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_difference_sse2
-_sk_difference_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 232,0,0,0,0 ; call 898 <_sk_difference_sse2+0x11>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 15,40,105,64 ; movaps 0x40(%ecx),%xmm5
- DB 15,40,113,16 ; movaps 0x10(%ecx),%xmm6
- DB 15,40,121,32 ; movaps 0x20(%ecx),%xmm7
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,88,193 ; addps %xmm1,%xmm0
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,93,206 ; minps %xmm6,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,40,207 ; movaps %xmm7,%xmm1
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 15,93,231 ; minps %xmm7,%xmm4
- DB 15,88,228 ; addps %xmm4,%xmm4
- DB 15,92,204 ; subps %xmm4,%xmm1
- DB 15,40,113,48 ; movaps 0x30(%ecx),%xmm6
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 15,88,226 ; addps %xmm2,%xmm4
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,93,214 ; minps %xmm6,%xmm2
- DB 15,88,210 ; addps %xmm2,%xmm2
- DB 15,92,226 ; subps %xmm2,%xmm4
- DB 15,40,146,216,254,0,0 ; movaps 0xfed8(%edx),%xmm2
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 141,80,4 ; lea 0x4(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_exclusion_sse2
-_sk_exclusion_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 232,0,0,0,0 ; call 91e <_sk_exclusion_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 15,40,105,16 ; movaps 0x10(%ecx),%xmm5
- DB 15,40,113,32 ; movaps 0x20(%ecx),%xmm6
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,88,237 ; addps %xmm5,%xmm5
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 15,89,241 ; mulps %xmm1,%xmm6
- DB 15,88,246 ; addps %xmm6,%xmm6
- DB 15,92,230 ; subps %xmm6,%xmm4
- DB 15,40,73,48 ; movaps 0x30(%ecx),%xmm1
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,88,234 ; addps %xmm2,%xmm5
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,92,233 ; subps %xmm1,%xmm5
- DB 15,40,138,82,254,0,0 ; movaps 0xfe52(%edx),%xmm1
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,89,73,64 ; mulps 0x40(%ecx),%xmm1
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 141,80,4 ; lea 0x4(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 15,40,213 ; movaps %xmm5,%xmm2
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_colorburn_sse2
-_sk_colorburn_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,88 ; sub $0x58,%esp
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 15,41,85,168 ; movaps %xmm2,-0x58(%ebp)
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 232,0,0,0,0 ; call 99d <_sk_colorburn_sse2+0x19>
- DB 89 ; pop %ecx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 15,40,72,64 ; movaps 0x40(%eax),%xmm1
- DB 15,40,104,16 ; movaps 0x10(%eax),%xmm5
- DB 15,41,109,232 ; movaps %xmm5,-0x18(%ebp)
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,83,244 ; rcpps %xmm4,%xmm6
- DB 15,89,240 ; mulps %xmm0,%xmm6
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,93,198 ; minps %xmm6,%xmm0
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,92,232 ; subps %xmm0,%xmm5
- DB 15,40,177,211,253,0,0 ; movaps 0xfdd3(%ecx),%xmm6
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,41,69,200 ; movaps %xmm0,-0x38(%ebp)
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,89,252 ; mulps %xmm4,%xmm7
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,89,232 ; mulps %xmm0,%xmm5
- DB 15,88,239 ; addps %xmm7,%xmm5
- DB 15,92,240 ; subps %xmm0,%xmm6
- DB 15,41,117,184 ; movaps %xmm6,-0x48(%ebp)
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,40,117,232 ; movaps -0x18(%ebp),%xmm6
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 15,194,231,0 ; cmpeqps %xmm7,%xmm4
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 15,84,196 ; andps %xmm4,%xmm0
- DB 15,85,229 ; andnps %xmm5,%xmm4
- DB 15,86,224 ; orps %xmm0,%xmm4
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,194,193,0 ; cmpeqps %xmm1,%xmm0
- DB 15,84,216 ; andps %xmm0,%xmm3
- DB 15,85,196 ; andnps %xmm4,%xmm0
- DB 15,86,195 ; orps %xmm3,%xmm0
- DB 15,41,69,232 ; movaps %xmm0,-0x18(%ebp)
- DB 15,40,96,32 ; movaps 0x20(%eax),%xmm4
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,40,109,216 ; movaps -0x28(%ebp),%xmm5
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,83,218 ; rcpps %xmm2,%xmm3
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,93,195 ; minps %xmm3,%xmm0
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 15,92,216 ; subps %xmm0,%xmm3
- DB 15,40,117,200 ; movaps -0x38(%ebp),%xmm6
- DB 15,89,242 ; mulps %xmm2,%xmm6
- DB 15,40,69,184 ; movaps -0x48(%ebp),%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,194,215,0 ; cmpeqps %xmm7,%xmm2
- DB 15,89,221 ; mulps %xmm5,%xmm3
- DB 15,88,222 ; addps %xmm6,%xmm3
- DB 15,88,216 ; addps %xmm0,%xmm3
- DB 15,84,194 ; andps %xmm2,%xmm0
- DB 15,85,211 ; andnps %xmm3,%xmm2
- DB 15,86,208 ; orps %xmm0,%xmm2
- DB 15,88,244 ; addps %xmm4,%xmm6
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,194,233,0 ; cmpeqps %xmm1,%xmm5
- DB 15,84,245 ; andps %xmm5,%xmm6
- DB 15,85,234 ; andnps %xmm2,%xmm5
- DB 15,86,238 ; orps %xmm6,%xmm5
- DB 15,40,69,168 ; movaps -0x58(%ebp),%xmm0
- DB 15,40,117,200 ; movaps -0x38(%ebp),%xmm6
- DB 15,89,240 ; mulps %xmm0,%xmm6
- DB 15,41,117,200 ; movaps %xmm6,-0x38(%ebp)
- DB 15,194,248,0 ; cmpeqps %xmm0,%xmm7
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 15,40,80,48 ; movaps 0x30(%eax),%xmm2
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,92,194 ; subps %xmm2,%xmm0
- DB 15,89,69,216 ; mulps -0x28(%ebp),%xmm0
- DB 15,83,219 ; rcpps %xmm3,%xmm3
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,93,227 ; minps %xmm3,%xmm4
- DB 15,40,222 ; movaps %xmm6,%xmm3
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 15,40,69,184 ; movaps -0x48(%ebp),%xmm0
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,89,242 ; mulps %xmm2,%xmm6
- DB 15,194,209,0 ; cmpeqps %xmm1,%xmm2
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,41,69,184 ; movaps %xmm0,-0x48(%ebp)
- DB 15,92,204 ; subps %xmm4,%xmm1
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,88,77,200 ; addps -0x38(%ebp),%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,84,247 ; andps %xmm7,%xmm6
- DB 15,85,249 ; andnps %xmm1,%xmm7
- DB 15,86,254 ; orps %xmm6,%xmm7
- DB 15,84,218 ; andps %xmm2,%xmm3
- DB 15,85,215 ; andnps %xmm7,%xmm2
- DB 15,86,211 ; orps %xmm3,%xmm2
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 15,88,93,184 ; addps -0x48(%ebp),%xmm3
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,69,232 ; movaps -0x18(%ebp),%xmm0
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,17 ; call *(%ecx)
- DB 131,196,104 ; add $0x68,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_colordodge_sse2
-_sk_colordodge_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,88 ; sub $0x58,%esp
- DB 15,40,243 ; movaps %xmm3,%xmm6
- DB 15,41,85,168 ; movaps %xmm2,-0x58(%ebp)
- DB 15,41,77,232 ; movaps %xmm1,-0x18(%ebp)
- DB 232,0,0,0,0 ; call b26 <_sk_colordodge_sse2+0x16>
- DB 89 ; pop %ecx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 15,40,72,16 ; movaps 0x10(%eax),%xmm1
- DB 15,40,145,74,252,0,0 ; movaps 0xfc4a(%ecx),%xmm2
- DB 15,40,226 ; movaps %xmm2,%xmm4
- DB 15,92,214 ; subps %xmm6,%xmm2
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,41,85,184 ; movaps %xmm2,-0x48(%ebp)
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 15,41,77,216 ; movaps %xmm1,-0x28(%ebp)
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,92,216 ; subps %xmm0,%xmm3
- DB 15,83,219 ; rcpps %xmm3,%xmm3
- DB 15,89,217 ; mulps %xmm1,%xmm3
- DB 15,40,104,64 ; movaps 0x40(%eax),%xmm5
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,93,203 ; minps %xmm3,%xmm1
- DB 15,92,229 ; subps %xmm5,%xmm4
- DB 15,41,101,200 ; movaps %xmm4,-0x38(%ebp)
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,194,230,0 ; cmpeqps %xmm6,%xmm4
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 15,84,196 ; andps %xmm4,%xmm0
- DB 15,85,225 ; andnps %xmm1,%xmm4
- DB 15,86,224 ; orps %xmm0,%xmm4
- DB 15,88,231 ; addps %xmm7,%xmm4
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,40,125,216 ; movaps -0x28(%ebp),%xmm7
- DB 15,194,248,0 ; cmpeqps %xmm0,%xmm7
- DB 15,84,223 ; andps %xmm7,%xmm3
- DB 15,85,252 ; andnps %xmm4,%xmm7
- DB 15,86,251 ; orps %xmm3,%xmm7
- DB 15,41,125,216 ; movaps %xmm7,-0x28(%ebp)
- DB 15,40,64,32 ; movaps 0x20(%eax),%xmm0
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,89,248 ; mulps %xmm0,%xmm7
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 15,40,85,232 ; movaps -0x18(%ebp),%xmm2
- DB 15,92,226 ; subps %xmm2,%xmm4
- DB 15,83,228 ; rcpps %xmm4,%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,93,204 ; minps %xmm4,%xmm1
- DB 15,40,101,200 ; movaps -0x38(%ebp),%xmm4
- DB 15,89,226 ; mulps %xmm2,%xmm4
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,194,198,0 ; cmpeqps %xmm6,%xmm0
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 15,84,208 ; andps %xmm0,%xmm2
- DB 15,85,193 ; andnps %xmm1,%xmm0
- DB 15,86,194 ; orps %xmm2,%xmm0
- DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,194,217,0 ; cmpeqps %xmm1,%xmm3
- DB 15,84,227 ; andps %xmm3,%xmm4
- DB 15,85,216 ; andnps %xmm0,%xmm3
- DB 15,86,220 ; orps %xmm4,%xmm3
- DB 15,40,64,48 ; movaps 0x30(%eax),%xmm0
- DB 15,194,200,0 ; cmpeqps %xmm0,%xmm1
- DB 15,41,77,232 ; movaps %xmm1,-0x18(%ebp)
- DB 15,40,77,184 ; movaps -0x48(%ebp),%xmm1
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 15,40,125,168 ; movaps -0x58(%ebp),%xmm7
- DB 15,92,231 ; subps %xmm7,%xmm4
- DB 15,83,228 ; rcpps %xmm4,%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,93,236 ; minps %xmm4,%xmm5
- DB 15,40,231 ; movaps %xmm7,%xmm4
- DB 15,40,125,200 ; movaps -0x38(%ebp),%xmm7
- DB 15,89,252 ; mulps %xmm4,%xmm7
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,194,198,0 ; cmpeqps %xmm6,%xmm0
- DB 15,89,238 ; mulps %xmm6,%xmm5
- DB 15,88,239 ; addps %xmm7,%xmm5
- DB 15,84,224 ; andps %xmm0,%xmm4
- DB 15,85,197 ; andnps %xmm5,%xmm0
- DB 15,86,196 ; orps %xmm4,%xmm0
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,40,85,232 ; movaps -0x18(%ebp),%xmm2
- DB 15,84,250 ; andps %xmm2,%xmm7
- DB 15,85,208 ; andnps %xmm0,%xmm2
- DB 15,86,215 ; orps %xmm7,%xmm2
- DB 15,88,241 ; addps %xmm1,%xmm6
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,40,222 ; movaps %xmm6,%xmm3
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,17 ; call *(%ecx)
- DB 131,196,104 ; add $0x68,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_hardlight_sse2
-_sk_hardlight_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,88 ; sub $0x58,%esp
- DB 15,40,243 ; movaps %xmm3,%xmm6
- DB 15,41,85,168 ; movaps %xmm2,-0x58(%ebp)
- DB 15,41,77,232 ; movaps %xmm1,-0x18(%ebp)
- DB 232,0,0,0,0 ; call c87 <_sk_hardlight_sse2+0x16>
- DB 89 ; pop %ecx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 15,40,72,64 ; movaps 0x40(%eax),%xmm1
- DB 15,40,145,233,250,0,0 ; movaps 0xfae9(%ecx),%xmm2
- DB 15,40,234 ; movaps %xmm2,%xmm5
- DB 15,92,233 ; subps %xmm1,%xmm5
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,40,253 ; movaps %xmm5,%xmm7
- DB 15,89,248 ; mulps %xmm0,%xmm7
- DB 15,92,214 ; subps %xmm6,%xmm2
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 15,40,88,16 ; movaps 0x10(%eax),%xmm3
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 15,41,85,216 ; movaps %xmm2,-0x28(%ebp)
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,92,251 ; subps %xmm3,%xmm7
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 15,41,125,184 ; movaps %xmm7,-0x48(%ebp)
- DB 15,88,228 ; addps %xmm4,%xmm4
- DB 15,92,252 ; subps %xmm4,%xmm7
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,88,228 ; addps %xmm4,%xmm4
- DB 15,194,230,2 ; cmpleps %xmm6,%xmm4
- DB 15,88,219 ; addps %xmm3,%xmm3
- DB 15,84,220 ; andps %xmm4,%xmm3
- DB 15,85,231 ; andnps %xmm7,%xmm4
- DB 15,86,227 ; orps %xmm3,%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,40,85,232 ; movaps -0x18(%ebp),%xmm2
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,40,88,32 ; movaps 0x20(%eax),%xmm3
- DB 15,40,69,200 ; movaps -0x38(%ebp),%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,193 ; addps %xmm1,%xmm0
- DB 15,40,77,216 ; movaps -0x28(%ebp),%xmm1
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 15,92,250 ; subps %xmm2,%xmm7
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 15,88,255 ; addps %xmm7,%xmm7
- DB 15,40,85,184 ; movaps -0x48(%ebp),%xmm2
- DB 15,92,215 ; subps %xmm7,%xmm2
- DB 15,40,77,232 ; movaps -0x18(%ebp),%xmm1
- DB 15,89,217 ; mulps %xmm1,%xmm3
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,194,206,2 ; cmpleps %xmm6,%xmm1
- DB 15,88,219 ; addps %xmm3,%xmm3
- DB 15,84,217 ; andps %xmm1,%xmm3
- DB 15,85,202 ; andnps %xmm2,%xmm1
- DB 15,86,203 ; orps %xmm3,%xmm1
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,40,125,168 ; movaps -0x58(%ebp),%xmm7
- DB 15,89,239 ; mulps %xmm7,%xmm5
- DB 15,40,80,48 ; movaps 0x30(%eax),%xmm2
- DB 15,40,93,200 ; movaps -0x38(%ebp),%xmm3
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,41,69,232 ; movaps %xmm0,-0x18(%ebp)
- DB 15,40,239 ; movaps %xmm7,%xmm5
- DB 15,88,237 ; addps %xmm5,%xmm5
- DB 15,194,238,2 ; cmpleps %xmm6,%xmm5
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,92,194 ; subps %xmm2,%xmm0
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,88,222 ; addps %xmm6,%xmm3
- DB 15,92,247 ; subps %xmm7,%xmm6
- DB 15,89,240 ; mulps %xmm0,%xmm6
- DB 15,88,246 ; addps %xmm6,%xmm6
- DB 15,40,125,184 ; movaps -0x48(%ebp),%xmm7
- DB 15,92,254 ; subps %xmm6,%xmm7
- DB 15,88,210 ; addps %xmm2,%xmm2
- DB 15,84,213 ; andps %xmm5,%xmm2
- DB 15,85,239 ; andnps %xmm7,%xmm5
- DB 15,86,234 ; orps %xmm2,%xmm5
- DB 15,88,109,232 ; addps -0x18(%ebp),%xmm5
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,40,213 ; movaps %xmm5,%xmm2
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,17 ; call *(%ecx)
- DB 131,196,104 ; add $0x68,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_overlay_sse2
-_sk_overlay_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,104 ; sub $0x68,%esp
- DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
- DB 15,41,85,152 ; movaps %xmm2,-0x68(%ebp)
- DB 15,41,77,168 ; movaps %xmm1,-0x58(%ebp)
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 232,0,0,0,0 ; call dd2 <_sk_overlay_sse2+0x1a>
- DB 89 ; pop %ecx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 15,40,80,64 ; movaps 0x40(%eax),%xmm2
- DB 15,40,161,158,249,0,0 ; movaps 0xf99e(%ecx),%xmm4
- DB 15,40,244 ; movaps %xmm4,%xmm6
- DB 15,92,242 ; subps %xmm2,%xmm6
- DB 15,40,206 ; movaps %xmm6,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 15,41,101,200 ; movaps %xmm4,-0x38(%ebp)
- DB 15,40,64,16 ; movaps 0x10(%eax),%xmm0
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,92,248 ; subps %xmm0,%xmm7
- DB 15,41,69,216 ; movaps %xmm0,-0x28(%ebp)
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,40,77,232 ; movaps -0x18(%ebp),%xmm1
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,92,229 ; subps %xmm5,%xmm4
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,40,234 ; movaps %xmm2,%xmm5
- DB 15,89,233 ; mulps %xmm1,%xmm5
- DB 15,41,109,184 ; movaps %xmm5,-0x48(%ebp)
- DB 15,88,228 ; addps %xmm4,%xmm4
- DB 15,92,236 ; subps %xmm4,%xmm5
- DB 15,40,77,216 ; movaps -0x28(%ebp),%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,194,202,2 ; cmpleps %xmm2,%xmm1
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,84,193 ; andps %xmm1,%xmm0
- DB 15,85,205 ; andnps %xmm5,%xmm1
- DB 15,86,200 ; orps %xmm0,%xmm1
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 15,41,77,216 ; movaps %xmm1,-0x28(%ebp)
- DB 15,40,206 ; movaps %xmm6,%xmm1
- DB 15,40,69,168 ; movaps -0x58(%ebp),%xmm0
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,40,88,32 ; movaps 0x20(%eax),%xmm3
- DB 15,40,101,200 ; movaps -0x38(%ebp),%xmm4
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,40,235 ; movaps %xmm3,%xmm5
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,40,125,232 ; movaps -0x18(%ebp),%xmm7
- DB 15,92,248 ; subps %xmm0,%xmm7
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 15,88,255 ; addps %xmm7,%xmm7
- DB 15,40,77,184 ; movaps -0x48(%ebp),%xmm1
- DB 15,92,207 ; subps %xmm7,%xmm1
- DB 15,88,237 ; addps %xmm5,%xmm5
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,194,239,2 ; cmpleps %xmm7,%xmm5
- DB 15,88,219 ; addps %xmm3,%xmm3
- DB 15,84,221 ; andps %xmm5,%xmm3
- DB 15,85,233 ; andnps %xmm1,%xmm5
- DB 15,86,235 ; orps %xmm3,%xmm5
- DB 15,88,236 ; addps %xmm4,%xmm5
- DB 15,40,93,152 ; movaps -0x68(%ebp),%xmm3
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,40,72,48 ; movaps 0x30(%eax),%xmm1
- DB 15,40,101,200 ; movaps -0x38(%ebp),%xmm4
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,88,246 ; addps %xmm6,%xmm6
- DB 15,194,247,2 ; cmpleps %xmm7,%xmm6
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,92,249 ; subps %xmm1,%xmm7
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,40,251 ; movaps %xmm3,%xmm7
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 15,88,227 ; addps %xmm3,%xmm4
- DB 15,92,223 ; subps %xmm7,%xmm3
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,88,219 ; addps %xmm3,%xmm3
- DB 15,40,125,184 ; movaps -0x48(%ebp),%xmm7
- DB 15,92,251 ; subps %xmm3,%xmm7
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,84,206 ; andps %xmm6,%xmm1
- DB 15,85,247 ; andnps %xmm7,%xmm6
- DB 15,86,241 ; orps %xmm1,%xmm6
- DB 15,88,242 ; addps %xmm2,%xmm6
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,17 ; call *(%ecx)
- DB 131,196,120 ; add $0x78,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_softlight_sse2
-_sk_softlight_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 129,236,184,0,0,0 ; sub $0xb8,%esp
- DB 15,41,93,168 ; movaps %xmm3,-0x58(%ebp)
- DB 15,41,149,88,255,255,255 ; movaps %xmm2,-0xa8(%ebp)
- DB 15,41,77,136 ; movaps %xmm1,-0x78(%ebp)
- DB 15,41,69,216 ; movaps %xmm0,-0x28(%ebp)
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 15,40,88,64 ; movaps 0x40(%eax),%xmm3
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,194,195,1 ; cmpltps %xmm3,%xmm0
- DB 15,41,69,200 ; movaps %xmm0,-0x38(%ebp)
- DB 15,40,104,16 ; movaps 0x10(%eax),%xmm5
- DB 15,40,213 ; movaps %xmm5,%xmm2
- DB 15,94,211 ; divps %xmm3,%xmm2
- DB 15,84,208 ; andps %xmm0,%xmm2
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,89,246 ; mulps %xmm6,%xmm6
- DB 15,88,241 ; addps %xmm1,%xmm6
- DB 232,0,0,0,0 ; call f62 <_sk_softlight_sse2+0x52>
- DB 89 ; pop %ecx
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,40,137,126,248,0,0 ; movaps 0xf87e(%ecx),%xmm1
- DB 15,41,141,104,255,255,255 ; movaps %xmm1,-0x98(%ebp)
- DB 15,88,193 ; addps %xmm1,%xmm0
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,40,185,14,248,0,0 ; movaps 0xf80e(%ecx),%xmm7
- DB 15,41,125,232 ; movaps %xmm7,-0x18(%ebp)
- DB 15,92,250 ; subps %xmm2,%xmm7
- DB 15,82,242 ; rsqrtps %xmm2,%xmm6
- DB 15,83,206 ; rcpps %xmm6,%xmm1
- DB 15,92,202 ; subps %xmm2,%xmm1
- DB 15,40,161,142,248,0,0 ; movaps 0xf88e(%ecx),%xmm4
- DB 15,41,101,152 ; movaps %xmm4,-0x68(%ebp)
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,40,243 ; movaps %xmm3,%xmm6
- DB 15,41,117,184 ; movaps %xmm6,-0x48(%ebp)
- DB 15,194,198,2 ; cmpleps %xmm6,%xmm0
- DB 15,84,208 ; andps %xmm0,%xmm2
- DB 15,85,193 ; andnps %xmm1,%xmm0
- DB 15,86,194 ; orps %xmm2,%xmm0
- DB 15,40,85,216 ; movaps -0x28(%ebp),%xmm2
- DB 15,88,210 ; addps %xmm2,%xmm2
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,40,93,168 ; movaps -0x58(%ebp),%xmm3
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,88,193 ; addps %xmm1,%xmm0
- DB 15,88,251 ; addps %xmm3,%xmm7
- DB 15,89,253 ; mulps %xmm5,%xmm7
- DB 15,40,101,232 ; movaps -0x18(%ebp),%xmm4
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 15,41,141,120,255,255,255 ; movaps %xmm1,-0x88(%ebp)
- DB 15,40,117,216 ; movaps -0x28(%ebp),%xmm6
- DB 15,89,241 ; mulps %xmm1,%xmm6
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 15,41,101,216 ; movaps %xmm4,-0x28(%ebp)
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,88,245 ; addps %xmm5,%xmm6
- DB 15,40,206 ; movaps %xmm6,%xmm1
- DB 15,194,211,2 ; cmpleps %xmm3,%xmm2
- DB 15,40,243 ; movaps %xmm3,%xmm6
- DB 15,84,250 ; andps %xmm2,%xmm7
- DB 15,85,208 ; andnps %xmm0,%xmm2
- DB 15,86,215 ; orps %xmm7,%xmm2
- DB 15,88,209 ; addps %xmm1,%xmm2
- DB 15,41,149,72,255,255,255 ; movaps %xmm2,-0xb8(%ebp)
- DB 15,40,64,32 ; movaps 0x20(%eax),%xmm0
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,94,101,184 ; divps -0x48(%ebp),%xmm4
- DB 15,84,101,200 ; andps -0x38(%ebp),%xmm4
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,88,201 ; addps %xmm1,%xmm1
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 15,89,219 ; mulps %xmm3,%xmm3
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 15,88,141,104,255,255,255 ; addps -0x98(%ebp),%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,40,125,232 ; movaps -0x18(%ebp),%xmm7
- DB 15,92,252 ; subps %xmm4,%xmm7
- DB 15,82,220 ; rsqrtps %xmm4,%xmm3
- DB 15,83,235 ; rcpps %xmm3,%xmm5
- DB 15,92,236 ; subps %xmm4,%xmm5
- DB 15,89,101,152 ; mulps -0x68(%ebp),%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 15,40,93,136 ; movaps -0x78(%ebp),%xmm3
- DB 15,88,219 ; addps %xmm3,%xmm3
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 15,88,254 ; addps %xmm6,%xmm7
- DB 15,89,248 ; mulps %xmm0,%xmm7
- DB 15,40,117,216 ; movaps -0x28(%ebp),%xmm6
- DB 15,89,240 ; mulps %xmm0,%xmm6
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,194,69,184,2 ; cmpleps -0x48(%ebp),%xmm0
- DB 15,84,224 ; andps %xmm0,%xmm4
- DB 15,85,197 ; andnps %xmm5,%xmm0
- DB 15,86,196 ; orps %xmm4,%xmm0
- DB 15,40,101,184 ; movaps -0x48(%ebp),%xmm4
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,40,109,168 ; movaps -0x58(%ebp),%xmm5
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,40,77,136 ; movaps -0x78(%ebp),%xmm1
- DB 15,89,141,120,255,255,255 ; mulps -0x88(%ebp),%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,194,221,2 ; cmpleps %xmm5,%xmm3
- DB 15,40,245 ; movaps %xmm5,%xmm6
- DB 15,84,251 ; andps %xmm3,%xmm7
- DB 15,85,216 ; andnps %xmm0,%xmm3
- DB 15,86,223 ; orps %xmm7,%xmm3
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 15,40,64,48 ; movaps 0x30(%eax),%xmm0
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,94,252 ; divps %xmm4,%xmm7
- DB 15,84,125,200 ; andps -0x38(%ebp),%xmm7
- DB 15,40,77,232 ; movaps -0x18(%ebp),%xmm1
- DB 15,92,207 ; subps %xmm7,%xmm1
- DB 15,41,77,232 ; movaps %xmm1,-0x18(%ebp)
- DB 15,40,173,104,255,255,255 ; movaps -0x98(%ebp),%xmm5
- DB 15,88,239 ; addps %xmm7,%xmm5
- DB 15,40,101,152 ; movaps -0x68(%ebp),%xmm4
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,82,207 ; rsqrtps %xmm7,%xmm1
- DB 15,83,201 ; rcpps %xmm1,%xmm1
- DB 15,92,207 ; subps %xmm7,%xmm1
- DB 15,41,77,200 ; movaps %xmm1,-0x38(%ebp)
- DB 15,88,255 ; addps %xmm7,%xmm7
- DB 15,88,255 ; addps %xmm7,%xmm7
- DB 15,40,215 ; movaps %xmm7,%xmm2
- DB 15,89,210 ; mulps %xmm2,%xmm2
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 15,40,173,88,255,255,255 ; movaps -0xa8(%ebp),%xmm5
- DB 15,88,237 ; addps %xmm5,%xmm5
- DB 15,40,213 ; movaps %xmm5,%xmm2
- DB 15,92,214 ; subps %xmm6,%xmm2
- DB 15,40,101,232 ; movaps -0x18(%ebp),%xmm4
- DB 15,89,226 ; mulps %xmm2,%xmm4
- DB 15,88,230 ; addps %xmm6,%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,41,101,232 ; movaps %xmm4,-0x18(%ebp)
- DB 15,40,101,216 ; movaps -0x28(%ebp),%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,40,125,184 ; movaps -0x48(%ebp),%xmm7
- DB 15,194,199,2 ; cmpleps %xmm7,%xmm0
- DB 15,84,200 ; andps %xmm0,%xmm1
- DB 15,85,69,200 ; andnps -0x38(%ebp),%xmm0
- DB 15,86,193 ; orps %xmm1,%xmm0
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 15,40,85,168 ; movaps -0x58(%ebp),%xmm2
- DB 15,89,242 ; mulps %xmm2,%xmm6
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,40,141,88,255,255,255 ; movaps -0xa8(%ebp),%xmm1
- DB 15,89,141,120,255,255,255 ; mulps -0x88(%ebp),%xmm1
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 15,194,234,2 ; cmpleps %xmm2,%xmm5
- DB 15,40,226 ; movaps %xmm2,%xmm4
- DB 15,40,85,232 ; movaps -0x18(%ebp),%xmm2
- DB 15,84,213 ; andps %xmm5,%xmm2
- DB 15,85,232 ; andnps %xmm0,%xmm5
- DB 15,86,234 ; orps %xmm2,%xmm5
- DB 15,88,233 ; addps %xmm1,%xmm5
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 15,88,224 ; addps %xmm0,%xmm4
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,133,72,255,255,255 ; movaps -0xb8(%ebp),%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,40,213 ; movaps %xmm5,%xmm2
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,17 ; call *(%ecx)
- DB 129,196,200,0,0,0 ; add $0xc8,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_hue_sse2
-_sk_hue_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 129,236,184,0,0,0 ; sub $0xb8,%esp
- DB 15,40,251 ; movaps %xmm3,%xmm7
- DB 15,41,85,232 ; movaps %xmm2,-0x18(%ebp)
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 15,40,72,16 ; movaps 0x10(%eax),%xmm1
- DB 15,40,64,32 ; movaps 0x20(%eax),%xmm0
- DB 15,41,69,136 ; movaps %xmm0,-0x78(%ebp)
- DB 15,40,88,48 ; movaps 0x30(%eax),%xmm3
- DB 15,41,93,200 ; movaps %xmm3,-0x38(%ebp)
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,95,211 ; maxps %xmm3,%xmm2
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,41,77,152 ; movaps %xmm1,-0x68(%ebp)
- DB 15,95,226 ; maxps %xmm2,%xmm4
- DB 15,93,195 ; minps %xmm3,%xmm0
- DB 15,93,200 ; minps %xmm0,%xmm1
- DB 15,92,225 ; subps %xmm1,%xmm4
- DB 15,41,101,168 ; movaps %xmm4,-0x58(%ebp)
- DB 232,0,0,0,0 ; call 1223 <_sk_hue_sse2+0x4f>
- DB 89 ; pop %ecx
- DB 15,40,221 ; movaps %xmm5,%xmm3
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,40,226 ; movaps %xmm2,%xmm4
- DB 15,40,72,64 ; movaps 0x40(%eax),%xmm1
- DB 15,41,77,216 ; movaps %xmm1,-0x28(%ebp)
- DB 15,40,169,77,245,0,0 ; movaps 0xf54d(%ecx),%xmm5
- DB 15,92,233 ; subps %xmm1,%xmm5
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,41,133,72,255,255,255 ; movaps %xmm0,-0xb8(%ebp)
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,41,181,104,255,255,255 ; movaps %xmm6,-0x98(%ebp)
- DB 15,40,69,232 ; movaps -0x18(%ebp),%xmm0
- DB 15,89,232 ; mulps %xmm0,%xmm5
- DB 15,41,173,88,255,255,255 ; movaps %xmm5,-0xa8(%ebp)
- DB 15,40,215 ; movaps %xmm7,%xmm2
- DB 15,41,85,184 ; movaps %xmm2,-0x48(%ebp)
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,93,200 ; minps %xmm0,%xmm1
- DB 15,40,243 ; movaps %xmm3,%xmm6
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 15,93,249 ; minps %xmm1,%xmm7
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,95,200 ; maxps %xmm0,%xmm1
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 15,95,225 ; maxps %xmm1,%xmm4
- DB 15,92,231 ; subps %xmm7,%xmm4
- DB 15,92,247 ; subps %xmm7,%xmm6
- DB 15,92,239 ; subps %xmm7,%xmm5
- DB 15,92,199 ; subps %xmm7,%xmm0
- DB 15,40,77,168 ; movaps -0x58(%ebp),%xmm1
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,89,241 ; mulps %xmm1,%xmm6
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,89,233 ; mulps %xmm1,%xmm5
- DB 15,41,173,120,255,255,255 ; movaps %xmm5,-0x88(%ebp)
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,40,153,221,245,0,0 ; movaps 0xf5dd(%ecx),%xmm3
- DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
- DB 15,40,117,152 ; movaps -0x68(%ebp),%xmm6
- DB 15,40,206 ; movaps %xmm6,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,40,153,237,245,0,0 ; movaps 0xf5ed(%ecx),%xmm3
- DB 15,40,109,136 ; movaps -0x78(%ebp),%xmm5
- DB 15,40,253 ; movaps %xmm5,%xmm7
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 15,88,249 ; addps %xmm1,%xmm7
- DB 15,40,137,77,245,0,0 ; movaps 0xf54d(%ecx),%xmm1
- DB 15,92,77,184 ; subps -0x48(%ebp),%xmm1
- DB 15,89,241 ; mulps %xmm1,%xmm6
- DB 15,41,117,152 ; movaps %xmm6,-0x68(%ebp)
- DB 15,89,233 ; mulps %xmm1,%xmm5
- DB 15,41,109,136 ; movaps %xmm5,-0x78(%ebp)
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,40,77,200 ; movaps -0x38(%ebp),%xmm1
- DB 15,89,241 ; mulps %xmm1,%xmm6
- DB 15,41,117,168 ; movaps %xmm6,-0x58(%ebp)
- DB 15,40,169,253,245,0,0 ; movaps 0xf5fd(%ecx),%xmm5
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 15,94,212 ; divps %xmm4,%xmm2
- DB 15,40,181,120,255,255,255 ; movaps -0x88(%ebp),%xmm6
- DB 15,94,244 ; divps %xmm4,%xmm6
- DB 15,94,196 ; divps %xmm4,%xmm0
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 15,194,231,4 ; cmpneqps %xmm7,%xmm4
- DB 15,84,212 ; andps %xmm4,%xmm2
- DB 15,84,244 ; andps %xmm4,%xmm6
- DB 15,84,224 ; andps %xmm0,%xmm4
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,89,69,232 ; mulps -0x18(%ebp),%xmm0
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,89,77,184 ; mulps -0x48(%ebp),%xmm1
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,88,209 ; addps %xmm1,%xmm2
- DB 15,88,241 ; addps %xmm1,%xmm6
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,93,193 ; minps %xmm1,%xmm0
- DB 15,40,226 ; movaps %xmm2,%xmm4
- DB 15,93,224 ; minps %xmm0,%xmm4
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,95,193 ; maxps %xmm1,%xmm0
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,95,248 ; maxps %xmm0,%xmm7
- DB 15,40,69,232 ; movaps -0x18(%ebp),%xmm0
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 15,89,222 ; mulps %xmm6,%xmm3
- DB 15,88,216 ; addps %xmm0,%xmm3
- DB 15,89,233 ; mulps %xmm1,%xmm5
- DB 15,88,235 ; addps %xmm3,%xmm5
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,194,196,2 ; cmpleps %xmm4,%xmm0
- DB 15,40,221 ; movaps %xmm5,%xmm3
- DB 15,92,220 ; subps %xmm4,%xmm3
- DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
- DB 15,40,226 ; movaps %xmm2,%xmm4
- DB 15,92,229 ; subps %xmm5,%xmm4
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,94,227 ; divps %xmm3,%xmm4
- DB 15,88,229 ; addps %xmm5,%xmm4
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 15,85,220 ; andnps %xmm4,%xmm3
- DB 15,40,226 ; movaps %xmm2,%xmm4
- DB 15,84,224 ; andps %xmm0,%xmm4
- DB 15,86,227 ; orps %xmm3,%xmm4
- DB 15,40,85,216 ; movaps -0x28(%ebp),%xmm2
- DB 15,40,93,184 ; movaps -0x48(%ebp),%xmm3
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,88,93,216 ; addps -0x28(%ebp),%xmm3
- DB 15,92,218 ; subps %xmm2,%xmm3
- DB 15,41,93,184 ; movaps %xmm3,-0x48(%ebp)
- DB 15,41,85,216 ; movaps %xmm2,-0x28(%ebp)
- DB 15,194,215,1 ; cmpltps %xmm7,%xmm2
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,85,220 ; andnps %xmm4,%xmm3
- DB 15,41,93,200 ; movaps %xmm3,-0x38(%ebp)
- DB 15,92,229 ; subps %xmm5,%xmm4
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 15,92,221 ; subps %xmm5,%xmm3
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 15,92,253 ; subps %xmm5,%xmm7
- DB 15,94,231 ; divps %xmm7,%xmm4
- DB 15,88,229 ; addps %xmm5,%xmm4
- DB 15,84,226 ; andps %xmm2,%xmm4
- DB 15,86,101,200 ; orps -0x38(%ebp),%xmm4
- DB 15,41,101,200 ; movaps %xmm4,-0x38(%ebp)
- DB 15,40,222 ; movaps %xmm6,%xmm3
- DB 15,92,221 ; subps %xmm5,%xmm3
- DB 15,89,221 ; mulps %xmm5,%xmm3
- DB 15,94,93,232 ; divps -0x18(%ebp),%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,85,227 ; andnps %xmm3,%xmm4
- DB 15,84,240 ; andps %xmm0,%xmm6
- DB 15,86,244 ; orps %xmm4,%xmm6
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 15,85,220 ; andnps %xmm4,%xmm3
- DB 15,92,229 ; subps %xmm5,%xmm4
- DB 15,40,117,216 ; movaps -0x28(%ebp),%xmm6
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 15,94,231 ; divps %xmm7,%xmm4
- DB 15,88,229 ; addps %xmm5,%xmm4
- DB 15,84,226 ; andps %xmm2,%xmm4
- DB 15,86,227 ; orps %xmm3,%xmm4
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 15,92,221 ; subps %xmm5,%xmm3
- DB 15,89,221 ; mulps %xmm5,%xmm3
- DB 15,94,93,232 ; divps -0x18(%ebp),%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 15,84,200 ; andps %xmm0,%xmm1
- DB 15,85,195 ; andnps %xmm3,%xmm0
- DB 15,86,193 ; orps %xmm1,%xmm0
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,85,200 ; andnps %xmm0,%xmm1
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,94,199 ; divps %xmm7,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,84,194 ; andps %xmm2,%xmm0
- DB 15,86,193 ; orps %xmm1,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,40,85,200 ; movaps -0x38(%ebp),%xmm2
- DB 15,95,209 ; maxps %xmm1,%xmm2
- DB 15,95,225 ; maxps %xmm1,%xmm4
- DB 15,95,193 ; maxps %xmm1,%xmm0
- DB 15,40,157,72,255,255,255 ; movaps -0xb8(%ebp),%xmm3
- DB 15,88,93,152 ; addps -0x68(%ebp),%xmm3
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 15,40,141,104,255,255,255 ; movaps -0x98(%ebp),%xmm1
- DB 15,88,77,136 ; addps -0x78(%ebp),%xmm1
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 15,40,85,168 ; movaps -0x58(%ebp),%xmm2
- DB 15,88,149,88,255,255,255 ; addps -0xa8(%ebp),%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,40,93,184 ; movaps -0x48(%ebp),%xmm3
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,17 ; call *(%ecx)
- DB 129,196,200,0,0,0 ; add $0xc8,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_saturation_sse2
-_sk_saturation_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 129,236,216,0,0,0 ; sub $0xd8,%esp
- DB 15,41,149,40,255,255,255 ; movaps %xmm2,-0xd8(%ebp)
- DB 15,41,141,56,255,255,255 ; movaps %xmm1,-0xc8(%ebp)
- DB 15,41,133,72,255,255,255 ; movaps %xmm0,-0xb8(%ebp)
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 15,40,112,16 ; movaps 0x10(%eax),%xmm6
- DB 15,41,117,184 ; movaps %xmm6,-0x48(%ebp)
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,95,226 ; maxps %xmm2,%xmm4
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 15,95,236 ; maxps %xmm4,%xmm5
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,93,226 ; minps %xmm2,%xmm4
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,93,212 ; minps %xmm4,%xmm2
- DB 15,40,64,32 ; movaps 0x20(%eax),%xmm0
- DB 15,92,234 ; subps %xmm2,%xmm5
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 15,40,120,48 ; movaps 0x30(%eax),%xmm7
- DB 15,41,125,200 ; movaps %xmm7,-0x38(%ebp)
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 15,93,207 ; minps %xmm7,%xmm1
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,93,209 ; minps %xmm1,%xmm2
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,95,207 ; maxps %xmm7,%xmm1
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,95,225 ; maxps %xmm1,%xmm4
- DB 15,92,226 ; subps %xmm2,%xmm4
- DB 15,92,194 ; subps %xmm2,%xmm0
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,92,218 ; subps %xmm2,%xmm3
- DB 15,92,250 ; subps %xmm2,%xmm7
- DB 15,40,64,64 ; movaps 0x40(%eax),%xmm0
- DB 15,41,69,152 ; movaps %xmm0,-0x68(%ebp)
- DB 15,89,232 ; mulps %xmm0,%xmm5
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,41,77,168 ; movaps %xmm1,-0x58(%ebp)
- DB 15,89,221 ; mulps %xmm5,%xmm3
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,89,253 ; mulps %xmm5,%xmm7
- DB 232,0,0,0,0 ; call 1577 <_sk_saturation_sse2+0xb0>
- DB 89 ; pop %ecx
- DB 15,40,153,137,242,0,0 ; movaps 0xf289(%ecx),%xmm3
- DB 15,41,157,88,255,255,255 ; movaps %xmm3,-0xa8(%ebp)
- DB 15,40,77,184 ; movaps -0x48(%ebp),%xmm1
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,40,153,153,242,0,0 ; movaps 0xf299(%ecx),%xmm3
- DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
- DB 15,40,238 ; movaps %xmm6,%xmm5
- DB 15,89,235 ; mulps %xmm3,%xmm5
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 15,40,129,249,241,0,0 ; movaps 0xf1f9(%ecx),%xmm0
- DB 15,41,133,104,255,255,255 ; movaps %xmm0,-0x98(%ebp)
- DB 15,92,69,216 ; subps -0x28(%ebp),%xmm0
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,41,77,184 ; movaps %xmm1,-0x48(%ebp)
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,89,241 ; mulps %xmm1,%xmm6
- DB 15,41,117,136 ; movaps %xmm6,-0x78(%ebp)
- DB 15,40,69,200 ; movaps -0x38(%ebp),%xmm0
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,41,141,120,255,255,255 ; movaps %xmm1,-0x88(%ebp)
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,129,169,242,0,0 ; movaps 0xf2a9(%ecx),%xmm0
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 15,40,109,168 ; movaps -0x58(%ebp),%xmm5
- DB 15,94,236 ; divps %xmm4,%xmm5
- DB 15,94,212 ; divps %xmm4,%xmm2
- DB 15,94,252 ; divps %xmm4,%xmm7
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,194,227,4 ; cmpneqps %xmm3,%xmm4
- DB 15,84,236 ; andps %xmm4,%xmm5
- DB 15,84,212 ; andps %xmm4,%xmm2
- DB 15,84,231 ; andps %xmm7,%xmm4
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,40,245 ; movaps %xmm5,%xmm6
- DB 15,40,165,88,255,255,255 ; movaps -0xa8(%ebp),%xmm4
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,89,125,232 ; mulps -0x18(%ebp),%xmm7
- DB 15,88,254 ; addps %xmm6,%xmm7
- DB 15,40,243 ; movaps %xmm3,%xmm6
- DB 15,89,240 ; mulps %xmm0,%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 15,89,77,216 ; mulps -0x28(%ebp),%xmm1
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 15,88,233 ; addps %xmm1,%xmm5
- DB 15,88,209 ; addps %xmm1,%xmm2
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,93,217 ; minps %xmm1,%xmm3
- DB 15,40,253 ; movaps %xmm5,%xmm7
- DB 15,93,251 ; minps %xmm3,%xmm7
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,95,217 ; maxps %xmm1,%xmm3
- DB 15,40,245 ; movaps %xmm5,%xmm6
- DB 15,95,243 ; maxps %xmm3,%xmm6
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 15,89,218 ; mulps %xmm2,%xmm3
- DB 15,88,220 ; addps %xmm4,%xmm3
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,88,195 ; addps %xmm3,%xmm0
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,194,223,2 ; cmpleps %xmm7,%xmm3
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,92,215 ; subps %xmm7,%xmm2
- DB 15,41,85,232 ; movaps %xmm2,-0x18(%ebp)
- DB 15,40,253 ; movaps %xmm5,%xmm7
- DB 15,92,248 ; subps %xmm0,%xmm7
- DB 15,89,248 ; mulps %xmm0,%xmm7
- DB 15,94,250 ; divps %xmm2,%xmm7
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,85,215 ; andnps %xmm7,%xmm2
- DB 15,84,235 ; andps %xmm3,%xmm5
- DB 15,86,234 ; orps %xmm2,%xmm5
- DB 15,40,125,152 ; movaps -0x68(%ebp),%xmm7
- DB 15,40,215 ; movaps %xmm7,%xmm2
- DB 15,40,101,216 ; movaps -0x28(%ebp),%xmm4
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,231 ; addps %xmm7,%xmm4
- DB 15,92,226 ; subps %xmm2,%xmm4
- DB 15,41,101,216 ; movaps %xmm4,-0x28(%ebp)
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,194,214,1 ; cmpltps %xmm6,%xmm2
- DB 15,40,226 ; movaps %xmm2,%xmm4
- DB 15,85,229 ; andnps %xmm5,%xmm4
- DB 15,92,232 ; subps %xmm0,%xmm5
- DB 15,92,248 ; subps %xmm0,%xmm7
- DB 15,89,239 ; mulps %xmm7,%xmm5
- DB 15,92,240 ; subps %xmm0,%xmm6
- DB 15,94,238 ; divps %xmm6,%xmm5
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 15,84,234 ; andps %xmm2,%xmm5
- DB 15,86,236 ; orps %xmm4,%xmm5
- DB 15,41,109,168 ; movaps %xmm5,-0x58(%ebp)
- DB 15,40,101,200 ; movaps -0x38(%ebp),%xmm4
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,94,101,232 ; divps -0x18(%ebp),%xmm4
- DB 15,88,224 ; addps %xmm0,%xmm4
- DB 15,40,235 ; movaps %xmm3,%xmm5
- DB 15,85,236 ; andnps %xmm4,%xmm5
- DB 15,40,101,200 ; movaps -0x38(%ebp),%xmm4
- DB 15,84,227 ; andps %xmm3,%xmm4
- DB 15,86,229 ; orps %xmm5,%xmm4
- DB 15,40,234 ; movaps %xmm2,%xmm5
- DB 15,85,236 ; andnps %xmm4,%xmm5
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,94,230 ; divps %xmm6,%xmm4
- DB 15,88,224 ; addps %xmm0,%xmm4
- DB 15,84,226 ; andps %xmm2,%xmm4
- DB 15,86,229 ; orps %xmm5,%xmm4
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,94,101,232 ; divps -0x18(%ebp),%xmm4
- DB 15,88,224 ; addps %xmm0,%xmm4
- DB 15,84,203 ; andps %xmm3,%xmm1
- DB 15,85,220 ; andnps %xmm4,%xmm3
- DB 15,86,217 ; orps %xmm1,%xmm3
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,85,203 ; andnps %xmm3,%xmm1
- DB 15,92,216 ; subps %xmm0,%xmm3
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 15,94,222 ; divps %xmm6,%xmm3
- DB 15,88,216 ; addps %xmm0,%xmm3
- DB 15,84,218 ; andps %xmm2,%xmm3
- DB 15,86,217 ; orps %xmm1,%xmm3
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,40,77,168 ; movaps -0x58(%ebp),%xmm1
- DB 15,95,200 ; maxps %xmm0,%xmm1
- DB 15,95,232 ; maxps %xmm0,%xmm5
- DB 15,95,216 ; maxps %xmm0,%xmm3
- DB 15,40,165,104,255,255,255 ; movaps -0x98(%ebp),%xmm4
- DB 15,92,101,152 ; subps -0x68(%ebp),%xmm4
- DB 15,40,133,72,255,255,255 ; movaps -0xb8(%ebp),%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,69,184 ; addps -0x48(%ebp),%xmm0
- DB 15,88,193 ; addps %xmm1,%xmm0
- DB 15,40,141,56,255,255,255 ; movaps -0xc8(%ebp),%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,77,136 ; addps -0x78(%ebp),%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 15,89,165,40,255,255,255 ; mulps -0xd8(%ebp),%xmm4
- DB 15,40,149,120,255,255,255 ; movaps -0x88(%ebp),%xmm2
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,17 ; call *(%ecx)
- DB 129,196,232,0,0,0 ; add $0xe8,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_color_sse2
-_sk_color_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 129,236,200,0,0,0 ; sub $0xc8,%esp
- DB 15,41,93,200 ; movaps %xmm3,-0x38(%ebp)
- DB 15,41,85,152 ; movaps %xmm2,-0x68(%ebp)
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,41,165,104,255,255,255 ; movaps %xmm4,-0x98(%ebp)
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 15,41,173,120,255,255,255 ; movaps %xmm5,-0x88(%ebp)
- DB 232,0,0,0,0 ; call 17d2 <_sk_color_sse2+0x2a>
- DB 89 ; pop %ecx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 15,40,80,16 ; movaps 0x10(%eax),%xmm2
- DB 15,40,72,32 ; movaps 0x20(%eax),%xmm1
- DB 15,40,177,46,240,0,0 ; movaps 0xf02e(%ecx),%xmm6
- DB 15,41,117,216 ; movaps %xmm6,-0x28(%ebp)
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,40,153,62,240,0,0 ; movaps 0xf03e(%ecx),%xmm3
- DB 15,41,93,184 ; movaps %xmm3,-0x48(%ebp)
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,88,240 ; addps %xmm0,%xmm6
- DB 15,40,129,158,239,0,0 ; movaps 0xef9e(%ecx),%xmm0
- DB 15,41,69,168 ; movaps %xmm0,-0x58(%ebp)
- DB 15,92,69,200 ; subps -0x38(%ebp),%xmm0
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,41,149,56,255,255,255 ; movaps %xmm2,-0xc8(%ebp)
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,41,141,88,255,255,255 ; movaps %xmm1,-0xa8(%ebp)
- DB 15,40,80,48 ; movaps 0x30(%eax),%xmm2
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 15,41,133,72,255,255,255 ; movaps %xmm0,-0xb8(%ebp)
- DB 15,40,137,78,240,0,0 ; movaps 0xf04e(%ecx),%xmm1
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 15,40,88,64 ; movaps 0x40(%eax),%xmm3
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,40,243 ; movaps %xmm3,%xmm6
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 15,89,109,216 ; mulps -0x28(%ebp),%xmm5
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 15,89,125,184 ; mulps -0x48(%ebp),%xmm7
- DB 15,88,253 ; addps %xmm5,%xmm7
- DB 15,40,109,168 ; movaps -0x58(%ebp),%xmm5
- DB 15,92,235 ; subps %xmm3,%xmm5
- DB 15,41,109,168 ; movaps %xmm5,-0x58(%ebp)
- DB 15,40,109,200 ; movaps -0x38(%ebp),%xmm5
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
- DB 15,40,101,232 ; movaps -0x18(%ebp),%xmm4
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,41,101,232 ; movaps %xmm4,-0x18(%ebp)
- DB 15,88,235 ; addps %xmm3,%xmm5
- DB 15,41,109,200 ; movaps %xmm5,-0x38(%ebp)
- DB 15,40,235 ; movaps %xmm3,%xmm5
- DB 15,89,109,152 ; mulps -0x68(%ebp),%xmm5
- DB 15,40,221 ; movaps %xmm5,%xmm3
- DB 15,89,217 ; mulps %xmm1,%xmm3
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,88,242 ; addps %xmm2,%xmm6
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 15,40,222 ; movaps %xmm6,%xmm3
- DB 15,93,218 ; minps %xmm2,%xmm3
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,93,227 ; minps %xmm3,%xmm4
- DB 15,40,222 ; movaps %xmm6,%xmm3
- DB 15,95,218 ; maxps %xmm2,%xmm3
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 15,95,235 ; maxps %xmm3,%xmm5
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,40,125,184 ; movaps -0x48(%ebp),%xmm7
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 15,88,251 ; addps %xmm3,%xmm7
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 15,194,252,2 ; cmpleps %xmm4,%xmm7
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 15,92,220 ; subps %xmm4,%xmm3
- DB 15,41,93,184 ; movaps %xmm3,-0x48(%ebp)
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,92,225 ; subps %xmm1,%xmm4
- DB 15,89,225 ; mulps %xmm1,%xmm4
- DB 15,94,227 ; divps %xmm3,%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 15,40,223 ; movaps %xmm7,%xmm3
- DB 15,85,220 ; andnps %xmm4,%xmm3
- DB 15,84,199 ; andps %xmm7,%xmm0
- DB 15,86,195 ; orps %xmm3,%xmm0
- DB 15,40,93,200 ; movaps -0x38(%ebp),%xmm3
- DB 15,40,101,232 ; movaps -0x18(%ebp),%xmm4
- DB 15,92,220 ; subps %xmm4,%xmm3
- DB 15,41,93,200 ; movaps %xmm3,-0x38(%ebp)
- DB 15,41,101,216 ; movaps %xmm4,-0x28(%ebp)
- DB 15,194,229,1 ; cmpltps %xmm5,%xmm4
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,85,216 ; andnps %xmm0,%xmm3
- DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 15,92,217 ; subps %xmm1,%xmm3
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,92,233 ; subps %xmm1,%xmm5
- DB 15,41,109,136 ; movaps %xmm5,-0x78(%ebp)
- DB 15,94,197 ; divps %xmm5,%xmm0
- DB 15,88,193 ; addps %xmm1,%xmm0
- DB 15,84,196 ; andps %xmm4,%xmm0
- DB 15,86,69,232 ; orps -0x18(%ebp),%xmm0
- DB 15,40,222 ; movaps %xmm6,%xmm3
- DB 15,92,217 ; subps %xmm1,%xmm3
- DB 15,89,217 ; mulps %xmm1,%xmm3
- DB 15,94,93,184 ; divps -0x48(%ebp),%xmm3
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 15,41,125,232 ; movaps %xmm7,-0x18(%ebp)
- DB 15,40,109,232 ; movaps -0x18(%ebp),%xmm5
- DB 15,85,235 ; andnps %xmm3,%xmm5
- DB 15,41,109,232 ; movaps %xmm5,-0x18(%ebp)
- DB 15,84,247 ; andps %xmm7,%xmm6
- DB 15,86,117,232 ; orps -0x18(%ebp),%xmm6
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,85,222 ; andnps %xmm6,%xmm3
- DB 15,92,241 ; subps %xmm1,%xmm6
- DB 15,89,117,216 ; mulps -0x28(%ebp),%xmm6
- DB 15,40,109,136 ; movaps -0x78(%ebp),%xmm5
- DB 15,94,245 ; divps %xmm5,%xmm6
- DB 15,88,241 ; addps %xmm1,%xmm6
- DB 15,84,244 ; andps %xmm4,%xmm6
- DB 15,86,243 ; orps %xmm3,%xmm6
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,92,217 ; subps %xmm1,%xmm3
- DB 15,89,217 ; mulps %xmm1,%xmm3
- DB 15,94,93,184 ; divps -0x48(%ebp),%xmm3
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 15,84,215 ; andps %xmm7,%xmm2
- DB 15,85,251 ; andnps %xmm3,%xmm7
- DB 15,86,250 ; orps %xmm2,%xmm7
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 15,85,215 ; andnps %xmm7,%xmm2
- DB 15,92,249 ; subps %xmm1,%xmm7
- DB 15,89,125,216 ; mulps -0x28(%ebp),%xmm7
- DB 15,94,253 ; divps %xmm5,%xmm7
- DB 15,88,249 ; addps %xmm1,%xmm7
- DB 15,84,252 ; andps %xmm4,%xmm7
- DB 15,86,250 ; orps %xmm2,%xmm7
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,95,193 ; maxps %xmm1,%xmm0
- DB 15,95,241 ; maxps %xmm1,%xmm6
- DB 15,95,249 ; maxps %xmm1,%xmm7
- DB 15,40,141,120,255,255,255 ; movaps -0x88(%ebp),%xmm1
- DB 15,40,85,168 ; movaps -0x58(%ebp),%xmm2
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,88,141,56,255,255,255 ; addps -0xc8(%ebp),%xmm1
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,40,141,104,255,255,255 ; movaps -0x98(%ebp),%xmm1
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,88,141,88,255,255,255 ; addps -0xa8(%ebp),%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,40,85,152 ; movaps -0x68(%ebp),%xmm2
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,88,149,72,255,255,255 ; addps -0xb8(%ebp),%xmm2
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,93,200 ; movaps -0x38(%ebp),%xmm3
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,17 ; call *(%ecx)
- DB 129,196,216,0,0,0 ; add $0xd8,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_luminosity_sse2
-_sk_luminosity_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 129,236,184,0,0,0 ; sub $0xb8,%esp
- DB 15,40,242 ; movaps %xmm2,%xmm6
- DB 232,0,0,0,0 ; call 1a35 <_sk_luminosity_sse2+0x11>
- DB 89 ; pop %ecx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 15,40,161,203,237,0,0 ; movaps 0xedcb(%ecx),%xmm4
- DB 15,41,101,232 ; movaps %xmm4,-0x18(%ebp)
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,40,161,219,237,0,0 ; movaps 0xeddb(%ecx),%xmm4
- DB 15,41,101,216 ; movaps %xmm4,-0x28(%ebp)
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,88,234 ; addps %xmm2,%xmm5
- DB 15,40,80,64 ; movaps 0x40(%eax),%xmm2
- DB 15,41,85,184 ; movaps %xmm2,-0x48(%ebp)
- DB 15,40,161,59,237,0,0 ; movaps 0xed3b(%ecx),%xmm4
- DB 15,40,252 ; movaps %xmm4,%xmm7
- DB 15,92,250 ; subps %xmm2,%xmm7
- DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 15,41,133,72,255,255,255 ; movaps %xmm0,-0xb8(%ebp)
- DB 15,89,207 ; mulps %xmm7,%xmm1
- DB 15,41,141,88,255,255,255 ; movaps %xmm1,-0xa8(%ebp)
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 15,41,189,104,255,255,255 ; movaps %xmm7,-0x98(%ebp)
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,40,137,235,237,0,0 ; movaps 0xedeb(%ecx),%xmm1
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 15,40,104,16 ; movaps 0x10(%eax),%xmm5
- DB 15,41,109,136 ; movaps %xmm5,-0x78(%ebp)
- DB 15,89,235 ; mulps %xmm3,%xmm5
- DB 15,40,112,32 ; movaps 0x20(%eax),%xmm6
- DB 15,41,117,152 ; movaps %xmm6,-0x68(%ebp)
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,89,69,232 ; mulps -0x18(%ebp),%xmm0
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 15,89,125,216 ; mulps -0x28(%ebp),%xmm7
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 15,41,93,168 ; movaps %xmm3,-0x58(%ebp)
- DB 15,40,69,136 ; movaps -0x78(%ebp),%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,41,69,136 ; movaps %xmm0,-0x78(%ebp)
- DB 15,40,69,152 ; movaps -0x68(%ebp),%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,41,69,152 ; movaps %xmm0,-0x68(%ebp)
- DB 15,40,64,48 ; movaps 0x30(%eax),%xmm0
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,41,165,120,255,255,255 ; movaps %xmm4,-0x88(%ebp)
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,40,93,184 ; movaps -0x48(%ebp),%xmm3
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,92,208 ; subps %xmm0,%xmm2
- DB 15,88,234 ; addps %xmm2,%xmm5
- DB 15,88,242 ; addps %xmm2,%xmm6
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,93,194 ; minps %xmm2,%xmm0
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,93,224 ; minps %xmm0,%xmm4
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,95,194 ; maxps %xmm2,%xmm0
- DB 15,40,253 ; movaps %xmm5,%xmm7
- DB 15,95,248 ; maxps %xmm0,%xmm7
- DB 15,41,125,200 ; movaps %xmm7,-0x38(%ebp)
- DB 15,40,69,232 ; movaps -0x18(%ebp),%xmm0
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,40,125,216 ; movaps -0x28(%ebp),%xmm7
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,194,196,2 ; cmpleps %xmm4,%xmm0
- DB 15,40,249 ; movaps %xmm1,%xmm7
- DB 15,92,252 ; subps %xmm4,%xmm7
- DB 15,41,125,216 ; movaps %xmm7,-0x28(%ebp)
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,92,225 ; subps %xmm1,%xmm4
- DB 15,89,225 ; mulps %xmm1,%xmm4
- DB 15,94,231 ; divps %xmm7,%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,85,252 ; andnps %xmm4,%xmm7
- DB 15,84,232 ; andps %xmm0,%xmm5
- DB 15,86,239 ; orps %xmm7,%xmm5
- DB 15,40,251 ; movaps %xmm3,%xmm7
- DB 15,40,231 ; movaps %xmm7,%xmm4
- DB 15,40,93,168 ; movaps -0x58(%ebp),%xmm3
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 15,92,220 ; subps %xmm4,%xmm3
- DB 15,41,93,168 ; movaps %xmm3,-0x58(%ebp)
- DB 15,41,101,232 ; movaps %xmm4,-0x18(%ebp)
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,40,125,200 ; movaps -0x38(%ebp),%xmm7
- DB 15,194,223,1 ; cmpltps %xmm7,%xmm3
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,85,229 ; andnps %xmm5,%xmm4
- DB 15,41,101,184 ; movaps %xmm4,-0x48(%ebp)
- DB 15,92,233 ; subps %xmm1,%xmm5
- DB 15,40,101,232 ; movaps -0x18(%ebp),%xmm4
- DB 15,92,225 ; subps %xmm1,%xmm4
- DB 15,41,101,232 ; movaps %xmm4,-0x18(%ebp)
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,92,249 ; subps %xmm1,%xmm7
- DB 15,41,125,200 ; movaps %xmm7,-0x38(%ebp)
- DB 15,94,239 ; divps %xmm7,%xmm5
- DB 15,88,233 ; addps %xmm1,%xmm5
- DB 15,84,235 ; andps %xmm3,%xmm5
- DB 15,86,109,184 ; orps -0x48(%ebp),%xmm5
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 15,92,225 ; subps %xmm1,%xmm4
- DB 15,89,225 ; mulps %xmm1,%xmm4
- DB 15,94,101,216 ; divps -0x28(%ebp),%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,85,252 ; andnps %xmm4,%xmm7
- DB 15,84,240 ; andps %xmm0,%xmm6
- DB 15,86,247 ; orps %xmm7,%xmm6
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,85,230 ; andnps %xmm6,%xmm4
- DB 15,92,241 ; subps %xmm1,%xmm6
- DB 15,40,125,232 ; movaps -0x18(%ebp),%xmm7
- DB 15,89,247 ; mulps %xmm7,%xmm6
- DB 15,94,117,200 ; divps -0x38(%ebp),%xmm6
- DB 15,88,241 ; addps %xmm1,%xmm6
- DB 15,84,243 ; andps %xmm3,%xmm6
- DB 15,86,244 ; orps %xmm4,%xmm6
- DB 15,40,226 ; movaps %xmm2,%xmm4
- DB 15,92,225 ; subps %xmm1,%xmm4
- DB 15,89,225 ; mulps %xmm1,%xmm4
- DB 15,94,101,216 ; divps -0x28(%ebp),%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 15,84,208 ; andps %xmm0,%xmm2
- DB 15,85,196 ; andnps %xmm4,%xmm0
- DB 15,86,194 ; orps %xmm2,%xmm0
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,85,208 ; andnps %xmm0,%xmm2
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 15,94,69,200 ; divps -0x38(%ebp),%xmm0
- DB 15,88,193 ; addps %xmm1,%xmm0
- DB 15,84,195 ; andps %xmm3,%xmm0
- DB 15,86,194 ; orps %xmm2,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,95,233 ; maxps %xmm1,%xmm5
- DB 15,95,241 ; maxps %xmm1,%xmm6
- DB 15,95,193 ; maxps %xmm1,%xmm0
- DB 15,40,157,72,255,255,255 ; movaps -0xb8(%ebp),%xmm3
- DB 15,88,93,136 ; addps -0x78(%ebp),%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 15,40,141,88,255,255,255 ; movaps -0xa8(%ebp),%xmm1
- DB 15,88,77,152 ; addps -0x68(%ebp),%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,40,149,120,255,255,255 ; movaps -0x88(%ebp),%xmm2
- DB 15,88,149,104,255,255,255 ; addps -0x98(%ebp),%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,40,93,168 ; movaps -0x58(%ebp),%xmm3
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,17 ; call *(%ecx)
- DB 129,196,200,0,0,0 ; add $0xc8,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_srcover_rgba_8888_sse2
-_sk_srcover_rgba_8888_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,44 ; sub $0x2c,%esp
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 102,15,127,77,216 ; movdqa %xmm1,-0x28(%ebp)
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 232,0,0,0,0 ; call 1ca4 <_sk_srcover_rgba_8888_sse2+0x1b>
- DB 95 ; pop %edi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,48 ; mov (%eax),%esi
- DB 139,86,4 ; mov 0x4(%esi),%edx
- DB 15,175,81,4 ; imul 0x4(%ecx),%edx
- DB 193,226,2 ; shl $0x2,%edx
- DB 3,22 ; add (%esi),%edx
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,49 ; mov (%ecx),%esi
- DB 15,133,2,1,0,0 ; jne 1dc8 <_sk_srcover_rgba_8888_sse2+0x13f>
- DB 243,15,111,12,178 ; movdqu (%edx,%esi,4),%xmm1
- DB 102,15,111,135,140,235,0,0 ; movdqa 0xeb8c(%edi),%xmm0
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,219,208 ; pand %xmm0,%xmm2
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,114,214,8 ; psrld $0x8,%xmm6
- DB 102,15,219,240 ; pand %xmm0,%xmm6
- DB 102,15,111,249 ; movdqa %xmm1,%xmm7
- DB 102,15,114,215,16 ; psrld $0x10,%xmm7
- DB 102,15,219,248 ; pand %xmm0,%xmm7
- DB 15,91,194 ; cvtdq2ps %xmm2,%xmm0
- DB 15,41,65,16 ; movaps %xmm0,0x10(%ecx)
- DB 15,40,167,204,234,0,0 ; movaps 0xeacc(%edi),%xmm4
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 15,40,151,156,235,0,0 ; movaps 0xeb9c(%edi),%xmm2
- DB 15,89,234 ; mulps %xmm2,%xmm5
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,91,238 ; cvtdq2ps %xmm6,%xmm5
- DB 15,41,105,32 ; movaps %xmm5,0x20(%ecx)
- DB 15,40,117,216 ; movaps -0x28(%ebp),%xmm6
- DB 15,89,242 ; mulps %xmm2,%xmm6
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,88,238 ; addps %xmm6,%xmm5
- DB 15,91,247 ; cvtdq2ps %xmm7,%xmm6
- DB 15,41,113,48 ; movaps %xmm6,0x30(%ecx)
- DB 15,40,125,200 ; movaps -0x38(%ebp),%xmm7
- DB 15,89,250 ; mulps %xmm2,%xmm7
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 102,15,114,209,24 ; psrld $0x18,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,41,73,64 ; movaps %xmm1,0x40(%ecx)
- DB 15,89,218 ; mulps %xmm2,%xmm3
- DB 15,89,225 ; mulps %xmm1,%xmm4
- DB 15,88,227 ; addps %xmm3,%xmm4
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,95,200 ; maxps %xmm0,%xmm1
- DB 15,93,202 ; minps %xmm2,%xmm1
- DB 102,15,91,201 ; cvtps2dq %xmm1,%xmm1
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,95,221 ; maxps %xmm5,%xmm3
- DB 15,93,218 ; minps %xmm2,%xmm3
- DB 102,15,91,219 ; cvtps2dq %xmm3,%xmm3
- DB 102,15,114,243,8 ; pslld $0x8,%xmm3
- DB 102,15,235,217 ; por %xmm1,%xmm3
- DB 102,15,87,201 ; xorpd %xmm1,%xmm1
- DB 15,95,206 ; maxps %xmm6,%xmm1
- DB 15,93,202 ; minps %xmm2,%xmm1
- DB 15,95,252 ; maxps %xmm4,%xmm7
- DB 15,93,250 ; minps %xmm2,%xmm7
- DB 102,15,91,209 ; cvtps2dq %xmm1,%xmm2
- DB 102,15,114,242,16 ; pslld $0x10,%xmm2
- DB 102,15,91,207 ; cvtps2dq %xmm7,%xmm1
- DB 102,15,114,241,24 ; pslld $0x18,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 102,15,235,203 ; por %xmm3,%xmm1
- DB 133,219 ; test %ebx,%ebx
- DB 117,92 ; jne 1e03 <_sk_srcover_rgba_8888_sse2+0x17a>
- DB 243,15,127,12,178 ; movdqu %xmm1,(%edx,%esi,4)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,60 ; add $0x3c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,216 ; mov %ebx,%eax
- DB 136,69,243 ; mov %al,-0xd(%ebp)
- DB 128,101,243,3 ; andb $0x3,-0xd(%ebp)
- DB 128,125,243,1 ; cmpb $0x1,-0xd(%ebp)
- DB 116,80 ; je 1e27 <_sk_srcover_rgba_8888_sse2+0x19e>
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 128,125,243,2 ; cmpb $0x2,-0xd(%ebp)
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 116,21 ; je 1df9 <_sk_srcover_rgba_8888_sse2+0x170>
- DB 128,125,243,3 ; cmpb $0x3,-0xd(%ebp)
- DB 15,133,221,254,255,255 ; jne 1ccb <_sk_srcover_rgba_8888_sse2+0x42>
- DB 102,15,110,68,178,8 ; movd 0x8(%edx,%esi,4),%xmm0
- DB 102,15,112,200,69 ; pshufd $0x45,%xmm0,%xmm1
- DB 102,15,18,12,178 ; movlpd (%edx,%esi,4),%xmm1
- DB 233,200,254,255,255 ; jmp 1ccb <_sk_srcover_rgba_8888_sse2+0x42>
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,41 ; je 1e34 <_sk_srcover_rgba_8888_sse2+0x1ab>
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,16 ; je 1e20 <_sk_srcover_rgba_8888_sse2+0x197>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,151 ; jne 1dac <_sk_srcover_rgba_8888_sse2+0x123>
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,15,126,84,178,8 ; movd %xmm2,0x8(%edx,%esi,4)
- DB 102,15,214,12,178 ; movq %xmm1,(%edx,%esi,4)
- DB 235,133 ; jmp 1dac <_sk_srcover_rgba_8888_sse2+0x123>
- DB 102,15,110,12,178 ; movd (%edx,%esi,4),%xmm1
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 233,151,254,255,255 ; jmp 1ccb <_sk_srcover_rgba_8888_sse2+0x42>
- DB 102,15,126,12,178 ; movd %xmm1,(%edx,%esi,4)
- DB 233,110,255,255,255 ; jmp 1dac <_sk_srcover_rgba_8888_sse2+0x123>
-
-PUBLIC _sk_srcover_bgra_8888_sse2
-_sk_srcover_bgra_8888_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,44 ; sub $0x2c,%esp
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 15,41,77,216 ; movaps %xmm1,-0x28(%ebp)
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 232,0,0,0,0 ; call 1e58 <_sk_srcover_bgra_8888_sse2+0x1a>
- DB 95 ; pop %edi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,48 ; mov (%eax),%esi
- DB 139,86,4 ; mov 0x4(%esi),%edx
- DB 15,175,81,4 ; imul 0x4(%ecx),%edx
- DB 193,226,2 ; shl $0x2,%edx
- DB 3,22 ; add (%esi),%edx
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,49 ; mov (%ecx),%esi
- DB 15,133,252,0,0,0 ; jne 1f76 <_sk_srcover_bgra_8888_sse2+0x138>
- DB 243,15,111,36,178 ; movdqu (%edx,%esi,4),%xmm4
- DB 102,15,111,135,216,233,0,0 ; movdqa 0xe9d8(%edi),%xmm0
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,114,213,8 ; psrld $0x8,%xmm5
- DB 102,15,219,232 ; pand %xmm0,%xmm5
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,114,214,16 ; psrld $0x10,%xmm6
- DB 102,15,219,240 ; pand %xmm0,%xmm6
- DB 15,91,209 ; cvtdq2ps %xmm1,%xmm2
- DB 15,41,81,48 ; movaps %xmm2,0x30(%ecx)
- DB 15,91,205 ; cvtdq2ps %xmm5,%xmm1
- DB 15,41,73,32 ; movaps %xmm1,0x20(%ecx)
- DB 15,91,198 ; cvtdq2ps %xmm6,%xmm0
- DB 15,41,65,16 ; movaps %xmm0,0x10(%ecx)
- DB 15,40,175,24,233,0,0 ; movaps 0xe918(%edi),%xmm5
- DB 15,92,235 ; subps %xmm3,%xmm5
- DB 15,40,183,232,233,0,0 ; movaps 0xe9e8(%edi),%xmm6
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,40,125,216 ; movaps -0x28(%ebp),%xmm7
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 15,40,125,200 ; movaps -0x38(%ebp),%xmm7
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 102,15,114,212,24 ; psrld $0x18,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,41,97,64 ; movaps %xmm4,0x40(%ecx)
- DB 15,89,222 ; mulps %xmm6,%xmm3
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,88,235 ; addps %xmm3,%xmm5
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,95,218 ; maxps %xmm2,%xmm3
- DB 15,93,222 ; minps %xmm6,%xmm3
- DB 102,15,91,219 ; cvtps2dq %xmm3,%xmm3
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,225 ; maxps %xmm1,%xmm4
- DB 15,93,230 ; minps %xmm6,%xmm4
- DB 102,15,91,228 ; cvtps2dq %xmm4,%xmm4
- DB 102,15,114,244,8 ; pslld $0x8,%xmm4
- DB 102,15,235,227 ; por %xmm3,%xmm4
- DB 102,15,87,219 ; xorpd %xmm3,%xmm3
- DB 15,95,216 ; maxps %xmm0,%xmm3
- DB 15,93,222 ; minps %xmm6,%xmm3
- DB 15,95,253 ; maxps %xmm5,%xmm7
- DB 15,93,254 ; minps %xmm6,%xmm7
- DB 102,15,91,243 ; cvtps2dq %xmm3,%xmm6
- DB 102,15,114,246,16 ; pslld $0x10,%xmm6
- DB 102,15,91,223 ; cvtps2dq %xmm7,%xmm3
- DB 102,15,114,243,24 ; pslld $0x18,%xmm3
- DB 102,15,235,222 ; por %xmm6,%xmm3
- DB 102,15,235,220 ; por %xmm4,%xmm3
- DB 133,219 ; test %ebx,%ebx
- DB 117,86 ; jne 1fb1 <_sk_srcover_bgra_8888_sse2+0x173>
- DB 243,15,127,28,178 ; movdqu %xmm3,(%edx,%esi,4)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,221 ; movaps %xmm5,%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,60 ; add $0x3c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 137,216 ; mov %ebx,%eax
- DB 136,69,243 ; mov %al,-0xd(%ebp)
- DB 128,101,243,3 ; andb $0x3,-0xd(%ebp)
- DB 128,125,243,1 ; cmpb $0x1,-0xd(%ebp)
- DB 116,80 ; je 1fd5 <_sk_srcover_bgra_8888_sse2+0x197>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 128,125,243,2 ; cmpb $0x2,-0xd(%ebp)
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 116,21 ; je 1fa7 <_sk_srcover_bgra_8888_sse2+0x169>
- DB 128,125,243,3 ; cmpb $0x3,-0xd(%ebp)
- DB 15,133,227,254,255,255 ; jne 1e7f <_sk_srcover_bgra_8888_sse2+0x41>
- DB 102,15,110,68,178,8 ; movd 0x8(%edx,%esi,4),%xmm0
- DB 102,15,112,224,69 ; pshufd $0x45,%xmm0,%xmm4
- DB 102,15,18,36,178 ; movlpd (%edx,%esi,4),%xmm4
- DB 233,206,254,255,255 ; jmp 1e7f <_sk_srcover_bgra_8888_sse2+0x41>
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,41 ; je 1fe2 <_sk_srcover_bgra_8888_sse2+0x1a4>
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,16 ; je 1fce <_sk_srcover_bgra_8888_sse2+0x190>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,157 ; jne 1f60 <_sk_srcover_bgra_8888_sse2+0x122>
- DB 102,15,112,227,78 ; pshufd $0x4e,%xmm3,%xmm4
- DB 102,15,126,100,178,8 ; movd %xmm4,0x8(%edx,%esi,4)
- DB 102,15,214,28,178 ; movq %xmm3,(%edx,%esi,4)
- DB 235,139 ; jmp 1f60 <_sk_srcover_bgra_8888_sse2+0x122>
- DB 102,15,110,36,178 ; movd (%edx,%esi,4),%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 233,157,254,255,255 ; jmp 1e7f <_sk_srcover_bgra_8888_sse2+0x41>
- DB 102,15,126,28,178 ; movd %xmm3,(%edx,%esi,4)
- DB 233,116,255,255,255 ; jmp 1f60 <_sk_srcover_bgra_8888_sse2+0x122>
-
-PUBLIC _sk_clamp_0_sse2
-_sk_clamp_0_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,196 ; maxps %xmm4,%xmm0
- DB 15,95,204 ; maxps %xmm4,%xmm1
- DB 15,95,212 ; maxps %xmm4,%xmm2
- DB 15,95,220 ; maxps %xmm4,%xmm3
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_clamp_1_sse2
-_sk_clamp_1_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 2020 <_sk_clamp_1_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,40,160,80,231,0,0 ; movaps 0xe750(%eax),%xmm4
- DB 15,93,196 ; minps %xmm4,%xmm0
- DB 15,93,204 ; minps %xmm4,%xmm1
- DB 15,93,212 ; minps %xmm4,%xmm2
- DB 15,93,220 ; minps %xmm4,%xmm3
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_clamp_a_sse2
-_sk_clamp_a_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 2053 <_sk_clamp_a_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,93,152,29,231,0,0 ; minps 0xe71d(%eax),%xmm3
- DB 15,93,195 ; minps %xmm3,%xmm0
- DB 15,93,203 ; minps %xmm3,%xmm1
- DB 15,93,211 ; minps %xmm3,%xmm2
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_clamp_a_dst_sse2
-_sk_clamp_a_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 2083 <_sk_clamp_a_dst_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 15,40,98,64 ; movaps 0x40(%edx),%xmm4
- DB 15,93,160,237,230,0,0 ; minps 0xe6ed(%eax),%xmm4
- DB 15,41,98,64 ; movaps %xmm4,0x40(%edx)
- DB 15,40,106,16 ; movaps 0x10(%edx),%xmm5
- DB 15,40,114,32 ; movaps 0x20(%edx),%xmm6
- DB 15,93,236 ; minps %xmm4,%xmm5
- DB 15,41,106,16 ; movaps %xmm5,0x10(%edx)
- DB 15,93,244 ; minps %xmm4,%xmm6
- DB 15,41,114,32 ; movaps %xmm6,0x20(%edx)
- DB 15,40,106,48 ; movaps 0x30(%edx),%xmm5
- DB 15,93,236 ; minps %xmm4,%xmm5
- DB 15,41,106,48 ; movaps %xmm5,0x30(%edx)
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 82 ; push %edx
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_set_rgb_sse2
-_sk_set_rgb_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,1 ; movss (%ecx),%xmm0
- DB 243,15,16,73,4 ; movss 0x4(%ecx),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,15,16,81,8 ; movss 0x8(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_swap_rb_sse2
-_sk_swap_rb_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_invert_sse2
-_sk_invert_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 212e <_sk_invert_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,40,160,66,230,0,0 ; movaps 0xe642(%eax),%xmm4
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,92,232 ; subps %xmm0,%xmm5
- DB 15,40,244 ; movaps %xmm4,%xmm6
- DB 15,92,241 ; subps %xmm1,%xmm6
- DB 15,40,252 ; movaps %xmm4,%xmm7
- DB 15,92,250 ; subps %xmm2,%xmm7
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,40,206 ; movaps %xmm6,%xmm1
- DB 15,40,215 ; movaps %xmm7,%xmm2
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_move_src_dst_sse2
-_sk_move_src_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 15,41,65,16 ; movaps %xmm0,0x10(%ecx)
- DB 15,41,73,32 ; movaps %xmm1,0x20(%ecx)
- DB 15,41,81,48 ; movaps %xmm2,0x30(%ecx)
- DB 15,41,89,64 ; movaps %xmm3,0x40(%ecx)
- DB 141,80,4 ; lea 0x4(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_move_dst_src_sse2
-_sk_move_dst_src_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 15,40,65,16 ; movaps 0x10(%ecx),%xmm0
- DB 15,40,73,32 ; movaps 0x20(%ecx),%xmm1
- DB 15,40,81,48 ; movaps 0x30(%ecx),%xmm2
- DB 15,40,89,64 ; movaps 0x40(%ecx),%xmm3
- DB 141,80,4 ; lea 0x4(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_premul_sse2
-_sk_premul_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_premul_dst_sse2
-_sk_premul_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 15,40,97,64 ; movaps 0x40(%ecx),%xmm4
- DB 15,40,105,16 ; movaps 0x10(%ecx),%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,41,105,16 ; movaps %xmm5,0x10(%ecx)
- DB 15,40,105,32 ; movaps 0x20(%ecx),%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,41,105,32 ; movaps %xmm5,0x20(%ecx)
- DB 15,89,97,48 ; mulps 0x30(%ecx),%xmm4
- DB 15,41,97,48 ; movaps %xmm4,0x30(%ecx)
- DB 141,80,4 ; lea 0x4(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_unpremul_sse2
-_sk_unpremul_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 222c <_sk_unpremul_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,40,160,68,229,0,0 ; movaps 0xe544(%eax),%xmm4
- DB 15,94,227 ; divps %xmm3,%xmm4
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,194,168,36,230,0,0,1 ; cmpltps 0xe624(%eax),%xmm5
- DB 15,84,236 ; andps %xmm4,%xmm5
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_force_opaque_sse2
-_sk_force_opaque_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 226d <_sk_force_opaque_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,152,3,229,0,0 ; movaps 0xe503(%eax),%xmm3
- DB 82 ; push %edx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_force_opaque_dst_sse2
-_sk_force_opaque_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 2294 <_sk_force_opaque_dst_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 15,40,160,220,228,0,0 ; movaps 0xe4dc(%eax),%xmm4
- DB 15,41,98,64 ; movaps %xmm4,0x40(%edx)
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 82 ; push %edx
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_from_srgb_sse2
-_sk_from_srgb_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,56 ; sub $0x38,%esp
- DB 15,41,93,200 ; movaps %xmm3,-0x38(%ebp)
- DB 15,40,234 ; movaps %xmm2,%xmm5
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 232,0,0,0,0 ; call 22cd <_sk_from_srgb_sse2+0x18>
- DB 88 ; pop %eax
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,89,201 ; mulps %xmm1,%xmm1
- DB 15,40,160,51,229,0,0 ; movaps 0xe533(%eax),%xmm4
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,40,176,163,229,0,0 ; movaps 0xe5a3(%eax),%xmm6
- DB 15,41,117,216 ; movaps %xmm6,-0x28(%ebp)
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,40,176,147,229,0,0 ; movaps 0xe593(%eax),%xmm6
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,40,184,179,229,0,0 ; movaps 0xe5b3(%eax),%xmm7
- DB 15,41,125,232 ; movaps %xmm7,-0x18(%ebp)
- DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,40,184,195,229,0,0 ; movaps 0xe5c3(%eax),%xmm7
- DB 15,194,215,1 ; cmpltps %xmm7,%xmm2
- DB 15,84,202 ; andps %xmm2,%xmm1
- DB 15,85,208 ; andnps %xmm0,%xmm2
- DB 15,86,209 ; orps %xmm1,%xmm2
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,77,216 ; addps -0x28(%ebp),%xmm1
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,88,77,232 ; addps -0x18(%ebp),%xmm1
- DB 15,194,223,1 ; cmpltps %xmm7,%xmm3
- DB 15,84,195 ; andps %xmm3,%xmm0
- DB 15,85,217 ; andnps %xmm1,%xmm3
- DB 15,86,216 ; orps %xmm0,%xmm3
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,101,216 ; addps -0x28(%ebp),%xmm4
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,88,101,232 ; addps -0x18(%ebp),%xmm4
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,194,239,1 ; cmpltps %xmm7,%xmm5
- DB 15,84,245 ; andps %xmm5,%xmm6
- DB 15,85,236 ; andnps %xmm4,%xmm5
- DB 15,86,238 ; orps %xmm6,%xmm5
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,40,213 ; movaps %xmm5,%xmm2
- DB 15,40,93,200 ; movaps -0x38(%ebp),%xmm3
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,72 ; add $0x48,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_from_srgb_dst_sse2
-_sk_from_srgb_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,72 ; sub $0x48,%esp
- DB 15,41,93,184 ; movaps %xmm3,-0x48(%ebp)
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 15,41,77,216 ; movaps %xmm1,-0x28(%ebp)
- DB 15,41,69,232 ; movaps %xmm0,-0x18(%ebp)
- DB 232,0,0,0,0 ; call 23a8 <_sk_from_srgb_dst_sse2+0x1b>
- DB 89 ; pop %ecx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 15,40,72,16 ; movaps 0x10(%eax),%xmm1
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,89,237 ; mulps %xmm5,%xmm5
- DB 15,40,161,88,228,0,0 ; movaps 0xe458(%ecx),%xmm4
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,40,177,200,228,0,0 ; movaps 0xe4c8(%ecx),%xmm6
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,40,169,184,228,0,0 ; movaps 0xe4b8(%ecx),%xmm5
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,40,185,216,228,0,0 ; movaps 0xe4d8(%ecx),%xmm7
- DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,40,153,232,228,0,0 ; movaps 0xe4e8(%ecx),%xmm3
- DB 15,194,203,1 ; cmpltps %xmm3,%xmm1
- DB 15,84,209 ; andps %xmm1,%xmm2
- DB 15,85,200 ; andnps %xmm0,%xmm1
- DB 15,86,202 ; orps %xmm2,%xmm1
- DB 15,40,64,32 ; movaps 0x20(%eax),%xmm0
- DB 15,41,72,16 ; movaps %xmm1,0x10(%eax)
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,89,201 ; mulps %xmm1,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 15,194,195,1 ; cmpltps %xmm3,%xmm0
- DB 15,84,200 ; andps %xmm0,%xmm1
- DB 15,85,194 ; andnps %xmm2,%xmm0
- DB 15,86,193 ; orps %xmm1,%xmm0
- DB 15,41,64,32 ; movaps %xmm0,0x20(%eax)
- DB 15,40,64,48 ; movaps 0x30(%eax),%xmm0
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,88,230 ; addps %xmm6,%xmm4
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,89,201 ; mulps %xmm1,%xmm1
- DB 15,89,225 ; mulps %xmm1,%xmm4
- DB 15,88,231 ; addps %xmm7,%xmm4
- DB 15,89,232 ; mulps %xmm0,%xmm5
- DB 15,194,195,1 ; cmpltps %xmm3,%xmm0
- DB 15,84,232 ; andps %xmm0,%xmm5
- DB 15,85,196 ; andnps %xmm4,%xmm0
- DB 15,86,197 ; orps %xmm5,%xmm0
- DB 15,41,64,48 ; movaps %xmm0,0x30(%eax)
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,81,4 ; lea 0x4(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,69,232 ; movaps -0x18(%ebp),%xmm0
- DB 15,40,77,216 ; movaps -0x28(%ebp),%xmm1
- DB 15,40,85,200 ; movaps -0x38(%ebp),%xmm2
- DB 15,40,93,184 ; movaps -0x48(%ebp),%xmm3
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,17 ; call *(%ecx)
- DB 131,196,88 ; add $0x58,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_to_srgb_sse2
-_sk_to_srgb_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,72 ; sub $0x48,%esp
- DB 15,41,93,184 ; movaps %xmm3,-0x48(%ebp)
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 232,0,0,0,0 ; call 2493 <_sk_to_srgb_sse2+0x18>
- DB 88 ; pop %eax
- DB 15,82,218 ; rsqrtps %xmm2,%xmm3
- DB 15,40,160,29,228,0,0 ; movaps 0xe41d(%eax),%xmm4
- DB 15,40,235 ; movaps %xmm3,%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,40,128,45,228,0,0 ; movaps 0xe42d(%eax),%xmm0
- DB 15,41,69,232 ; movaps %xmm0,-0x18(%ebp)
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 15,89,235 ; mulps %xmm3,%xmm5
- DB 15,40,128,61,228,0,0 ; movaps 0xe43d(%eax),%xmm0
- DB 15,41,69,200 ; movaps %xmm0,-0x38(%ebp)
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 15,40,128,77,228,0,0 ; movaps 0xe44d(%eax),%xmm0
- DB 15,41,69,216 ; movaps %xmm0,-0x28(%ebp)
- DB 15,88,216 ; addps %xmm0,%xmm3
- DB 15,83,195 ; rcpps %xmm3,%xmm0
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,40,168,13,228,0,0 ; movaps 0xe40d(%eax),%xmm5
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,40,152,93,228,0,0 ; movaps 0xe45d(%eax),%xmm3
- DB 15,194,211,1 ; cmpltps %xmm3,%xmm2
- DB 15,84,202 ; andps %xmm2,%xmm1
- DB 15,85,208 ; andnps %xmm0,%xmm2
- DB 15,86,209 ; orps %xmm1,%xmm2
- DB 15,82,198 ; rsqrtps %xmm6,%xmm0
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,77,232 ; addps -0x18(%ebp),%xmm1
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,88,77,200 ; addps -0x38(%ebp),%xmm1
- DB 15,88,69,216 ; addps -0x28(%ebp),%xmm0
- DB 15,83,192 ; rcpps %xmm0,%xmm0
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,40,206 ; movaps %xmm6,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,194,243,1 ; cmpltps %xmm3,%xmm6
- DB 15,84,206 ; andps %xmm6,%xmm1
- DB 15,85,240 ; andnps %xmm0,%xmm6
- DB 15,86,241 ; orps %xmm1,%xmm6
- DB 15,82,199 ; rsqrtps %xmm7,%xmm0
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,88,101,232 ; addps -0x18(%ebp),%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,88,101,200 ; addps -0x38(%ebp),%xmm4
- DB 15,88,69,216 ; addps -0x28(%ebp),%xmm0
- DB 15,83,192 ; rcpps %xmm0,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,89,239 ; mulps %xmm7,%xmm5
- DB 15,194,251,1 ; cmpltps %xmm3,%xmm7
- DB 15,84,239 ; andps %xmm7,%xmm5
- DB 15,85,248 ; andnps %xmm0,%xmm7
- DB 15,86,253 ; orps %xmm5,%xmm7
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,40,206 ; movaps %xmm6,%xmm1
- DB 15,40,215 ; movaps %xmm7,%xmm2
- DB 15,40,93,184 ; movaps -0x48(%ebp),%xmm3
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,88 ; add $0x58,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_rgb_to_hsl_sse2
-_sk_rgb_to_hsl_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,56 ; sub $0x38,%esp
- DB 15,41,93,200 ; movaps %xmm3,-0x38(%ebp)
- DB 15,40,249 ; movaps %xmm1,%xmm7
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 232,0,0,0,0 ; call 258a <_sk_rgb_to_hsl_sse2+0x15>
- DB 88 ; pop %eax
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 15,95,194 ; maxps %xmm2,%xmm0
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,95,216 ; maxps %xmm0,%xmm3
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 15,93,194 ; minps %xmm2,%xmm0
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 15,93,200 ; minps %xmm0,%xmm1
- DB 15,41,77,232 ; movaps %xmm1,-0x18(%ebp)
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,41,69,216 ; movaps %xmm0,-0x28(%ebp)
- DB 15,40,136,230,225,0,0 ; movaps 0xe1e6(%eax),%xmm1
- DB 15,94,200 ; divps %xmm0,%xmm1
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 15,92,194 ; subps %xmm2,%xmm0
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,40,239 ; movaps %xmm7,%xmm5
- DB 15,194,234,1 ; cmpltps %xmm2,%xmm5
- DB 15,84,168,118,227,0,0 ; andps 0xe376(%eax),%xmm5
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,194,196,0 ; cmpeqps %xmm4,%xmm0
- DB 15,40,243 ; movaps %xmm3,%xmm6
- DB 15,194,247,0 ; cmpeqps %xmm7,%xmm6
- DB 15,92,212 ; subps %xmm4,%xmm2
- DB 15,92,231 ; subps %xmm7,%xmm4
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 15,89,225 ; mulps %xmm1,%xmm4
- DB 15,40,136,134,227,0,0 ; movaps 0xe386(%eax),%xmm1
- DB 15,88,209 ; addps %xmm1,%xmm2
- DB 15,88,160,150,227,0,0 ; addps 0xe396(%eax),%xmm4
- DB 15,84,214 ; andps %xmm6,%xmm2
- DB 15,85,244 ; andnps %xmm4,%xmm6
- DB 15,86,242 ; orps %xmm2,%xmm6
- DB 15,84,232 ; andps %xmm0,%xmm5
- DB 15,85,198 ; andnps %xmm6,%xmm0
- DB 15,86,197 ; orps %xmm5,%xmm0
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,40,85,232 ; movaps -0x18(%ebp),%xmm2
- DB 15,194,226,4 ; cmpneqps %xmm2,%xmm4
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 15,40,168,214,225,0,0 ; movaps 0xe1d6(%eax),%xmm5
- DB 15,92,202 ; subps %xmm2,%xmm1
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,194,234,1 ; cmpltps %xmm2,%xmm5
- DB 15,84,205 ; andps %xmm5,%xmm1
- DB 15,85,235 ; andnps %xmm3,%xmm5
- DB 15,86,233 ; orps %xmm1,%xmm5
- DB 15,40,77,216 ; movaps -0x28(%ebp),%xmm1
- DB 15,94,205 ; divps %xmm5,%xmm1
- DB 15,89,128,166,227,0,0 ; mulps 0xe3a6(%eax),%xmm0
- DB 15,84,196 ; andps %xmm4,%xmm0
- DB 15,84,204 ; andps %xmm4,%xmm1
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,93,200 ; movaps -0x38(%ebp),%xmm3
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,72 ; add $0x48,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_hsl_to_rgb_sse2
-_sk_hsl_to_rgb_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 129,236,200,0,0,0 ; sub $0xc8,%esp
- DB 15,41,157,56,255,255,255 ; movaps %xmm3,-0xc8(%ebp)
- DB 15,41,69,184 ; movaps %xmm0,-0x48(%ebp)
- DB 232,0,0,0,0 ; call 2685 <_sk_hsl_to_rgb_sse2+0x19>
- DB 88 ; pop %eax
- DB 15,40,160,219,224,0,0 ; movaps 0xe0db(%eax),%xmm4
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,41,165,104,255,255,255 ; movaps %xmm4,-0x98(%ebp)
- DB 15,194,218,2 ; cmpleps %xmm2,%xmm3
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,194,233,0 ; cmpeqps %xmm1,%xmm5
- DB 15,41,109,232 ; movaps %xmm5,-0x18(%ebp)
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,92,241 ; subps %xmm1,%xmm6
- DB 15,84,243 ; andps %xmm3,%xmm6
- DB 15,85,217 ; andnps %xmm1,%xmm3
- DB 15,86,222 ; orps %xmm6,%xmm3
- DB 15,40,168,187,226,0,0 ; movaps 0xe2bb(%eax),%xmm5
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 243,15,91,205 ; cvttps2dq %xmm5,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,194,193,1 ; cmpltps %xmm1,%xmm0
- DB 15,40,176,235,224,0,0 ; movaps 0xe0eb(%eax),%xmm6
- DB 15,41,117,136 ; movaps %xmm6,-0x78(%ebp)
- DB 15,84,198 ; andps %xmm6,%xmm0
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,92,233 ; subps %xmm1,%xmm5
- DB 15,41,149,72,255,255,255 ; movaps %xmm2,-0xb8(%ebp)
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 15,88,210 ; addps %xmm2,%xmm2
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,40,184,203,226,0,0 ; movaps 0xe2cb(%eax),%xmm7
- DB 15,41,189,88,255,255,255 ; movaps %xmm7,-0xa8(%ebp)
- DB 15,194,253,2 ; cmpleps %xmm5,%xmm7
- DB 15,92,218 ; subps %xmm2,%xmm3
- DB 15,41,93,200 ; movaps %xmm3,-0x38(%ebp)
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 15,194,205,2 ; cmpleps %xmm5,%xmm1
- DB 15,40,160,171,226,0,0 ; movaps 0xe2ab(%eax),%xmm4
- DB 15,41,165,120,255,255,255 ; movaps %xmm4,-0x88(%ebp)
- DB 15,194,229,2 ; cmpleps %xmm5,%xmm4
- DB 15,40,176,123,226,0,0 ; movaps 0xe27b(%eax),%xmm6
- DB 15,89,238 ; mulps %xmm6,%xmm5
- DB 15,40,128,155,226,0,0 ; movaps 0xe29b(%eax),%xmm0
- DB 15,41,69,168 ; movaps %xmm0,-0x58(%ebp)
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,84,223 ; andps %xmm7,%xmm3
- DB 15,85,248 ; andnps %xmm0,%xmm7
- DB 15,86,251 ; orps %xmm3,%xmm7
- DB 15,84,249 ; andps %xmm1,%xmm7
- DB 15,85,77,216 ; andnps -0x28(%ebp),%xmm1
- DB 15,86,207 ; orps %xmm7,%xmm1
- DB 15,40,125,200 ; movaps -0x38(%ebp),%xmm7
- DB 15,89,239 ; mulps %xmm7,%xmm5
- DB 15,88,234 ; addps %xmm2,%xmm5
- DB 15,84,204 ; andps %xmm4,%xmm1
- DB 15,85,229 ; andnps %xmm5,%xmm4
- DB 15,86,225 ; orps %xmm1,%xmm4
- DB 15,40,69,232 ; movaps -0x18(%ebp),%xmm0
- DB 15,85,196 ; andnps %xmm4,%xmm0
- DB 15,41,69,152 ; movaps %xmm0,-0x68(%ebp)
- DB 15,40,93,184 ; movaps -0x48(%ebp),%xmm3
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,194,200,1 ; cmpltps %xmm0,%xmm1
- DB 15,84,136,235,224,0,0 ; andps 0xe0eb(%eax),%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,40,128,203,226,0,0 ; movaps 0xe2cb(%eax),%xmm0
- DB 15,194,193,2 ; cmpleps %xmm1,%xmm0
- DB 15,40,152,219,224,0,0 ; movaps 0xe0db(%eax),%xmm3
- DB 15,194,217,2 ; cmpleps %xmm1,%xmm3
- DB 15,40,160,171,226,0,0 ; movaps 0xe2ab(%eax),%xmm4
- DB 15,194,225,2 ; cmpleps %xmm1,%xmm4
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,40,168,155,226,0,0 ; movaps 0xe29b(%eax),%xmm5
- DB 15,92,233 ; subps %xmm1,%xmm5
- DB 15,89,239 ; mulps %xmm7,%xmm5
- DB 15,88,234 ; addps %xmm2,%xmm5
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,84,248 ; andps %xmm0,%xmm7
- DB 15,85,197 ; andnps %xmm5,%xmm0
- DB 15,86,199 ; orps %xmm7,%xmm0
- DB 15,84,195 ; andps %xmm3,%xmm0
- DB 15,85,93,216 ; andnps -0x28(%ebp),%xmm3
- DB 15,86,216 ; orps %xmm0,%xmm3
- DB 15,40,109,200 ; movaps -0x38(%ebp),%xmm5
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 15,84,220 ; andps %xmm4,%xmm3
- DB 15,85,225 ; andnps %xmm1,%xmm4
- DB 15,86,227 ; orps %xmm3,%xmm4
- DB 15,40,125,232 ; movaps -0x18(%ebp),%xmm7
- DB 15,85,252 ; andnps %xmm4,%xmm7
- DB 15,40,93,184 ; movaps -0x48(%ebp),%xmm3
- DB 15,88,152,219,226,0,0 ; addps 0xe2db(%eax),%xmm3
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,194,200,1 ; cmpltps %xmm0,%xmm1
- DB 15,84,77,136 ; andps -0x78(%ebp),%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,92,216 ; subps %xmm0,%xmm3
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,40,77,168 ; movaps -0x58(%ebp),%xmm1
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,226 ; addps %xmm2,%xmm4
- DB 15,88,242 ; addps %xmm2,%xmm6
- DB 15,40,141,88,255,255,255 ; movaps -0xa8(%ebp),%xmm1
- DB 15,194,203,2 ; cmpleps %xmm3,%xmm1
- DB 15,84,209 ; andps %xmm1,%xmm2
- DB 15,85,204 ; andnps %xmm4,%xmm1
- DB 15,86,202 ; orps %xmm2,%xmm1
- DB 15,40,133,104,255,255,255 ; movaps -0x98(%ebp),%xmm0
- DB 15,194,195,2 ; cmpleps %xmm3,%xmm0
- DB 15,84,200 ; andps %xmm0,%xmm1
- DB 15,85,69,216 ; andnps -0x28(%ebp),%xmm0
- DB 15,86,193 ; orps %xmm1,%xmm0
- DB 15,40,141,120,255,255,255 ; movaps -0x88(%ebp),%xmm1
- DB 15,194,203,2 ; cmpleps %xmm3,%xmm1
- DB 15,84,193 ; andps %xmm1,%xmm0
- DB 15,85,206 ; andnps %xmm6,%xmm1
- DB 15,86,200 ; orps %xmm0,%xmm1
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 15,40,157,72,255,255,255 ; movaps -0xb8(%ebp),%xmm3
- DB 15,40,77,232 ; movaps -0x18(%ebp),%xmm1
- DB 15,84,217 ; andps %xmm1,%xmm3
- DB 15,85,202 ; andnps %xmm2,%xmm1
- DB 15,40,69,152 ; movaps -0x68(%ebp),%xmm0
- DB 15,86,195 ; orps %xmm3,%xmm0
- DB 15,86,251 ; orps %xmm3,%xmm7
- DB 15,86,217 ; orps %xmm1,%xmm3
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,207 ; movaps %xmm7,%xmm1
- DB 15,40,157,56,255,255,255 ; movaps -0xc8(%ebp),%xmm3
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 129,196,216,0,0,0 ; add $0xd8,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_scale_1_float_sse2
-_sk_scale_1_float_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,33 ; movss (%ecx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_scale_u8_sse2
-_sk_scale_u8_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 28ff <_sk_scale_u8_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,65 ; jne 295b <_sk_scale_u8_sse2+0x6a>
- DB 102,15,110,36,62 ; movd (%esi,%edi,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,219,162,49,223,0,0 ; pand 0xdf31(%edx),%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,162,113,224,0,0 ; mulps 0xe071(%edx),%xmm4
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,50 ; je 2995 <_sk_scale_u8_sse2+0xa4>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,19 ; je 297f <_sk_scale_u8_sse2+0x8e>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,182 ; jne 2927 <_sk_scale_u8_sse2+0x36>
- DB 15,182,92,62,2 ; movzbl 0x2(%esi,%edi,1),%ebx
- DB 102,15,110,227 ; movd %ebx,%xmm4
- DB 102,15,112,228,69 ; pshufd $0x45,%xmm4,%xmm4
- DB 15,183,52,62 ; movzwl (%esi,%edi,1),%esi
- DB 102,15,110,238 ; movd %esi,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 102,15,97,232 ; punpcklwd %xmm0,%xmm5
- DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 235,146 ; jmp 2927 <_sk_scale_u8_sse2+0x36>
- DB 15,182,52,62 ; movzbl (%esi,%edi,1),%esi
- DB 102,15,110,230 ; movd %esi,%xmm4
- DB 235,136 ; jmp 2927 <_sk_scale_u8_sse2+0x36>
-
-PUBLIC _sk_scale_565_sse2
-_sk_scale_565_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,44 ; sub $0x2c,%esp
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 15,41,77,216 ; movaps %xmm1,-0x28(%ebp)
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call 29b9 <_sk_scale_565_sse2+0x1a>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 1,246 ; add %esi,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 15,133,157,0,0,0 ; jne 2a77 <_sk_scale_565_sse2+0xd8>
- DB 243,15,126,52,126 ; movq (%esi,%edi,2),%xmm6
- DB 102,15,97,240 ; punpcklwd %xmm0,%xmm6
- DB 102,15,111,162,199,223,0,0 ; movdqa 0xdfc7(%edx),%xmm4
- DB 102,15,219,230 ; pand %xmm6,%xmm4
- DB 15,91,212 ; cvtdq2ps %xmm4,%xmm2
- DB 15,89,146,215,223,0,0 ; mulps 0xdfd7(%edx),%xmm2
- DB 102,15,111,170,231,223,0,0 ; movdqa 0xdfe7(%edx),%xmm5
- DB 102,15,219,238 ; pand %xmm6,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,170,247,223,0,0 ; mulps 0xdff7(%edx),%xmm5
- DB 102,15,219,178,7,224,0,0 ; pand 0xe007(%edx),%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,178,23,224,0,0 ; mulps 0xe017(%edx),%xmm6
- DB 15,40,253 ; movaps %xmm5,%xmm7
- DB 15,93,254 ; minps %xmm6,%xmm7
- DB 15,40,226 ; movaps %xmm2,%xmm4
- DB 15,93,231 ; minps %xmm7,%xmm4
- DB 15,40,253 ; movaps %xmm5,%xmm7
- DB 15,95,254 ; maxps %xmm6,%xmm7
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,95,199 ; maxps %xmm7,%xmm0
- DB 15,40,251 ; movaps %xmm3,%xmm7
- DB 15,194,121,64,1 ; cmpltps 0x40(%ecx),%xmm7
- DB 15,84,231 ; andps %xmm7,%xmm4
- DB 15,85,248 ; andnps %xmm0,%xmm7
- DB 15,86,252 ; orps %xmm4,%xmm7
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 15,89,109,216 ; mulps -0x28(%ebp),%xmm5
- DB 15,89,117,200 ; mulps -0x38(%ebp),%xmm6
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,40,223 ; movaps %xmm7,%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,60 ; add $0x3c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,51 ; je 2ab2 <_sk_scale_565_sse2+0x113>
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,23 ; je 2a9f <_sk_scale_565_sse2+0x100>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 15,133,82,255,255,255 ; jne 29e3 <_sk_scale_565_sse2+0x44>
- DB 15,183,92,126,4 ; movzwl 0x4(%esi,%edi,2),%ebx
- DB 102,15,110,227 ; movd %ebx,%xmm4
- DB 102,15,112,244,69 ; pshufd $0x45,%xmm4,%xmm6
- DB 102,15,110,36,126 ; movd (%esi,%edi,2),%xmm4
- DB 242,15,112,228,212 ; pshuflw $0xd4,%xmm4,%xmm4
- DB 242,15,16,244 ; movsd %xmm4,%xmm6
- DB 233,49,255,255,255 ; jmp 29e3 <_sk_scale_565_sse2+0x44>
- DB 15,183,52,126 ; movzwl (%esi,%edi,2),%esi
- DB 102,15,110,246 ; movd %esi,%xmm6
- DB 233,36,255,255,255 ; jmp 29e3 <_sk_scale_565_sse2+0x44>
-
-PUBLIC _sk_lerp_1_float_sse2
-_sk_lerp_1_float_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,17 ; mov (%ecx),%edx
- DB 243,15,16,34 ; movss (%edx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,40,104,16 ; movaps 0x10(%eax),%xmm5
- DB 15,40,112,32 ; movaps 0x20(%eax),%xmm6
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,40,104,48 ; movaps 0x30(%eax),%xmm5
- DB 15,92,213 ; subps %xmm5,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 15,40,104,64 ; movaps 0x40(%eax),%xmm5
- DB 15,92,221 ; subps %xmm5,%xmm3
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 141,81,8 ; lea 0x8(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_lerp_u8_sse2
-_sk_lerp_u8_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 2b27 <_sk_lerp_u8_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,102 ; jne 2ba8 <_sk_lerp_u8_sse2+0x8f>
- DB 102,15,110,36,62 ; movd (%esi,%edi,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,219,162,9,221,0,0 ; pand 0xdd09(%edx),%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,162,73,222,0,0 ; mulps 0xde49(%edx),%xmm4
- DB 15,40,105,16 ; movaps 0x10(%ecx),%xmm5
- DB 15,40,113,32 ; movaps 0x20(%ecx),%xmm6
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,40,105,48 ; movaps 0x30(%ecx),%xmm5
- DB 15,92,213 ; subps %xmm5,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 15,40,105,64 ; movaps 0x40(%ecx),%xmm5
- DB 15,92,221 ; subps %xmm5,%xmm3
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,53 ; je 2be5 <_sk_lerp_u8_sse2+0xcc>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,19 ; je 2bcc <_sk_lerp_u8_sse2+0xb3>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,145 ; jne 2b4f <_sk_lerp_u8_sse2+0x36>
- DB 15,182,92,62,2 ; movzbl 0x2(%esi,%edi,1),%ebx
- DB 102,15,110,227 ; movd %ebx,%xmm4
- DB 102,15,112,228,69 ; pshufd $0x45,%xmm4,%xmm4
- DB 15,183,52,62 ; movzwl (%esi,%edi,1),%esi
- DB 102,15,110,238 ; movd %esi,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 102,15,97,232 ; punpcklwd %xmm0,%xmm5
- DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 233,106,255,255,255 ; jmp 2b4f <_sk_lerp_u8_sse2+0x36>
- DB 15,182,52,62 ; movzbl (%esi,%edi,1),%esi
- DB 102,15,110,230 ; movd %esi,%xmm4
- DB 233,93,255,255,255 ; jmp 2b4f <_sk_lerp_u8_sse2+0x36>
-
-PUBLIC _sk_lerp_565_sse2
-_sk_lerp_565_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,108 ; sub $0x6c,%esp
- DB 15,41,93,168 ; movaps %xmm3,-0x58(%ebp)
- DB 15,41,85,136 ; movaps %xmm2,-0x78(%ebp)
- DB 15,41,77,152 ; movaps %xmm1,-0x68(%ebp)
- DB 102,15,127,69,184 ; movdqa %xmm0,-0x48(%ebp)
- DB 232,0,0,0,0 ; call 2c11 <_sk_lerp_565_sse2+0x1f>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 1,246 ; add %esi,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 15,133,211,0,0,0 ; jne 2d05 <_sk_lerp_565_sse2+0x113>
- DB 243,15,126,44,126 ; movq (%esi,%edi,2),%xmm5
- DB 102,15,97,232 ; punpcklwd %xmm0,%xmm5
- DB 102,15,111,162,111,221,0,0 ; movdqa 0xdd6f(%edx),%xmm4
- DB 102,15,219,229 ; pand %xmm5,%xmm4
- DB 15,91,204 ; cvtdq2ps %xmm4,%xmm1
- DB 15,89,138,127,221,0,0 ; mulps 0xdd7f(%edx),%xmm1
- DB 102,15,111,178,143,221,0,0 ; movdqa 0xdd8f(%edx),%xmm6
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,178,159,221,0,0 ; mulps 0xdd9f(%edx),%xmm6
- DB 102,15,219,170,175,221,0,0 ; pand 0xddaf(%edx),%xmm5
- DB 15,91,213 ; cvtdq2ps %xmm5,%xmm2
- DB 15,89,146,191,221,0,0 ; mulps 0xddbf(%edx),%xmm2
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,41,93,200 ; movaps %xmm3,-0x38(%ebp)
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 15,40,65,32 ; movaps 0x20(%ecx),%xmm0
- DB 15,41,69,216 ; movaps %xmm0,-0x28(%ebp)
- DB 15,40,101,152 ; movaps -0x68(%ebp),%xmm4
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 15,93,243 ; minps %xmm3,%xmm6
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 15,40,65,16 ; movaps 0x10(%ecx),%xmm0
- DB 15,40,109,184 ; movaps -0x48(%ebp),%xmm5
- DB 15,92,232 ; subps %xmm0,%xmm5
- DB 15,89,233 ; mulps %xmm1,%xmm5
- DB 15,93,206 ; minps %xmm6,%xmm1
- DB 15,40,113,64 ; movaps 0x40(%ecx),%xmm6
- DB 15,95,251 ; maxps %xmm3,%xmm7
- DB 15,95,215 ; maxps %xmm7,%xmm2
- DB 15,40,93,168 ; movaps -0x58(%ebp),%xmm3
- DB 15,40,251 ; movaps %xmm3,%xmm7
- DB 15,194,254,1 ; cmpltps %xmm6,%xmm7
- DB 15,84,207 ; andps %xmm7,%xmm1
- DB 15,85,250 ; andnps %xmm2,%xmm7
- DB 15,86,249 ; orps %xmm1,%xmm7
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 15,88,101,216 ; addps -0x28(%ebp),%xmm4
- DB 15,40,65,48 ; movaps 0x30(%ecx),%xmm0
- DB 15,40,85,136 ; movaps -0x78(%ebp),%xmm2
- DB 15,92,208 ; subps %xmm0,%xmm2
- DB 15,89,85,200 ; mulps -0x38(%ebp),%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 15,92,222 ; subps %xmm6,%xmm3
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 15,88,222 ; addps %xmm6,%xmm3
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,124 ; add $0x7c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,51 ; je 2d40 <_sk_lerp_565_sse2+0x14e>
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,23 ; je 2d2d <_sk_lerp_565_sse2+0x13b>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 15,133,28,255,255,255 ; jne 2c3b <_sk_lerp_565_sse2+0x49>
- DB 15,183,92,126,4 ; movzwl 0x4(%esi,%edi,2),%ebx
- DB 102,15,110,227 ; movd %ebx,%xmm4
- DB 102,15,112,236,69 ; pshufd $0x45,%xmm4,%xmm5
- DB 102,15,110,36,126 ; movd (%esi,%edi,2),%xmm4
- DB 242,15,112,228,212 ; pshuflw $0xd4,%xmm4,%xmm4
- DB 242,15,16,236 ; movsd %xmm4,%xmm5
- DB 233,251,254,255,255 ; jmp 2c3b <_sk_lerp_565_sse2+0x49>
- DB 15,183,52,126 ; movzwl (%esi,%edi,2),%esi
- DB 102,15,110,238 ; movd %esi,%xmm5
- DB 233,238,254,255,255 ; jmp 2c3b <_sk_lerp_565_sse2+0x49>
-
-PUBLIC _sk_load_tables_sse2
-_sk_load_tables_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 2d5b <_sk_load_tables_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,48 ; mov (%eax),%esi
- DB 139,65,8 ; mov 0x8(%ecx),%eax
- DB 133,192 ; test %eax,%eax
- DB 139,57 ; mov (%ecx),%edi
- DB 139,30 ; mov (%esi),%ebx
- DB 15,133,22,1,0,0 ; jne 2e89 <_sk_load_tables_sse2+0x13c>
- DB 243,15,111,28,187 ; movdqu (%ebx,%edi,4),%xmm3
- DB 102,15,111,146,213,218,0,0 ; movdqa 0xdad5(%edx),%xmm2
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,15,112,224,231 ; pshufd $0xe7,%xmm0,%xmm4
- DB 102,15,126,224 ; movd %xmm4,%eax
- DB 139,126,4 ; mov 0x4(%esi),%edi
- DB 243,15,16,36,135 ; movss (%edi,%eax,4),%xmm4
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 243,15,16,44,135 ; movss (%edi,%eax,4),%xmm5
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 243,15,16,4,135 ; movss (%edi,%eax,4),%xmm0
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 243,15,16,12,135 ; movss (%edi,%eax,4),%xmm1
- DB 139,70,8 ; mov 0x8(%esi),%eax
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 15,20,193 ; unpcklps %xmm1,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,114,209,8 ; psrld $0x8,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 102,15,112,225,78 ; pshufd $0x4e,%xmm1,%xmm4
- DB 102,15,112,241,231 ; pshufd $0xe7,%xmm1,%xmm6
- DB 102,15,126,247 ; movd %xmm6,%edi
- DB 243,15,16,52,184 ; movss (%eax,%edi,4),%xmm6
- DB 102,15,126,231 ; movd %xmm4,%edi
- DB 243,15,16,36,184 ; movss (%eax,%edi,4),%xmm4
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,249,229 ; pshufd $0xe5,%xmm1,%xmm7
- DB 243,15,16,12,184 ; movss (%eax,%edi,4),%xmm1
- DB 102,15,126,255 ; movd %xmm7,%edi
- DB 243,15,16,60,184 ; movss (%eax,%edi,4),%xmm7
- DB 102,15,20,197 ; unpcklpd %xmm5,%xmm0
- DB 15,20,230 ; unpcklps %xmm6,%xmm4
- DB 15,20,207 ; unpcklps %xmm7,%xmm1
- DB 139,70,12 ; mov 0xc(%esi),%eax
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,114,213,16 ; psrld $0x10,%xmm5
- DB 102,15,219,234 ; pand %xmm2,%xmm5
- DB 102,15,112,213,78 ; pshufd $0x4e,%xmm5,%xmm2
- DB 102,15,112,245,231 ; pshufd $0xe7,%xmm5,%xmm6
- DB 102,15,126,246 ; movd %xmm6,%esi
- DB 243,15,16,52,176 ; movss (%eax,%esi,4),%xmm6
- DB 102,15,126,214 ; movd %xmm2,%esi
- DB 243,15,16,60,176 ; movss (%eax,%esi,4),%xmm7
- DB 102,15,126,238 ; movd %xmm5,%esi
- DB 102,15,112,237,229 ; pshufd $0xe5,%xmm5,%xmm5
- DB 243,15,16,20,176 ; movss (%eax,%esi,4),%xmm2
- DB 102,15,126,238 ; movd %xmm5,%esi
- DB 243,15,16,44,176 ; movss (%eax,%esi,4),%xmm5
- DB 102,15,20,204 ; unpcklpd %xmm4,%xmm1
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 15,20,213 ; unpcklps %xmm5,%xmm2
- DB 102,15,20,215 ; unpcklpd %xmm7,%xmm2
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,154,21,220,0,0 ; mulps 0xdc15(%edx),%xmm3
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 137,194 ; mov %eax,%edx
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 36,3 ; and $0x3,%al
- DB 60,1 ; cmp $0x1,%al
- DB 116,37 ; je 2eb4 <_sk_load_tables_sse2+0x167>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 60,2 ; cmp $0x2,%al
- DB 116,19 ; je 2eaa <_sk_load_tables_sse2+0x15d>
- DB 60,3 ; cmp $0x3,%al
- DB 15,133,217,254,255,255 ; jne 2d78 <_sk_load_tables_sse2+0x2b>
- DB 102,15,110,68,187,8 ; movd 0x8(%ebx,%edi,4),%xmm0
- DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
- DB 102,15,18,28,187 ; movlpd (%ebx,%edi,4),%xmm3
- DB 233,196,254,255,255 ; jmp 2d78 <_sk_load_tables_sse2+0x2b>
- DB 102,15,110,28,187 ; movd (%ebx,%edi,4),%xmm3
- DB 233,186,254,255,255 ; jmp 2d78 <_sk_load_tables_sse2+0x2b>
-
-PUBLIC _sk_load_tables_u16_be_sse2
-_sk_load_tables_u16_be_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,44 ; sub $0x2c,%esp
- DB 232,0,0,0,0 ; call 2ecc <_sk_load_tables_u16_be_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,57 ; mov (%ecx),%edi
- DB 139,65,8 ; mov 0x8(%ecx),%eax
- DB 193,231,2 ; shl $0x2,%edi
- DB 133,192 ; test %eax,%eax
- DB 139,54 ; mov (%esi),%esi
- DB 139,30 ; mov (%esi),%ebx
- DB 15,133,210,1,0,0 ; jne 30b9 <_sk_load_tables_u16_be_sse2+0x1fb>
- DB 102,15,16,4,123 ; movupd (%ebx,%edi,2),%xmm0
- DB 243,15,111,76,123,16 ; movdqu 0x10(%ebx,%edi,2),%xmm1
- DB 102,15,40,216 ; movapd %xmm0,%xmm3
- DB 102,15,97,217 ; punpcklwd %xmm1,%xmm3
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 102,15,105,216 ; punpckhwd %xmm0,%xmm3
- DB 102,15,126,77,208 ; movd %xmm1,-0x30(%ebp)
- DB 102,15,112,193,229 ; pshufd $0xe5,%xmm1,%xmm0
- DB 102,15,126,69,212 ; movd %xmm0,-0x2c(%ebp)
- DB 243,15,126,69,208 ; movq -0x30(%ebp),%xmm0
- DB 102,15,97,192 ; punpcklwd %xmm0,%xmm0
- DB 102,15,112,209,231 ; pshufd $0xe7,%xmm1,%xmm2
- DB 102,15,126,85,220 ; movd %xmm2,-0x24(%ebp)
- DB 102,15,112,201,78 ; pshufd $0x4e,%xmm1,%xmm1
- DB 102,15,126,77,216 ; movd %xmm1,-0x28(%ebp)
- DB 243,15,126,77,216 ; movq -0x28(%ebp),%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 102,15,126,93,224 ; movd %xmm3,-0x20(%ebp)
- DB 102,15,112,211,229 ; pshufd $0xe5,%xmm3,%xmm2
- DB 102,15,126,85,228 ; movd %xmm2,-0x1c(%ebp)
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,111,146,20,219,0,0 ; movdqa 0xdb14(%edx),%xmm2
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,97,196 ; punpcklwd %xmm4,%xmm0
- DB 102,15,112,232,78 ; pshufd $0x4e,%xmm0,%xmm5
- DB 102,15,112,240,231 ; pshufd $0xe7,%xmm0,%xmm6
- DB 102,15,126,240 ; movd %xmm6,%eax
- DB 139,126,4 ; mov 0x4(%esi),%edi
- DB 243,15,16,52,135 ; movss (%edi,%eax,4),%xmm6
- DB 102,15,126,232 ; movd %xmm5,%eax
- DB 243,15,16,44,135 ; movss (%edi,%eax,4),%xmm5
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,248,229 ; pshufd $0xe5,%xmm0,%xmm7
- DB 243,15,16,4,135 ; movss (%edi,%eax,4),%xmm0
- DB 102,15,126,248 ; movd %xmm7,%eax
- DB 243,15,16,60,135 ; movss (%edi,%eax,4),%xmm7
- DB 139,70,8 ; mov 0x8(%esi),%eax
- DB 15,20,238 ; unpcklps %xmm6,%xmm5
- DB 15,20,199 ; unpcklps %xmm7,%xmm0
- DB 102,15,20,197 ; unpcklpd %xmm5,%xmm0
- DB 242,15,112,201,232 ; pshuflw $0xe8,%xmm1,%xmm1
- DB 243,15,112,201,232 ; pshufhw $0xe8,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 102,15,97,204 ; punpcklwd %xmm4,%xmm1
- DB 102,15,112,233,78 ; pshufd $0x4e,%xmm1,%xmm5
- DB 102,15,112,241,231 ; pshufd $0xe7,%xmm1,%xmm6
- DB 102,15,126,247 ; movd %xmm6,%edi
- DB 243,15,16,52,184 ; movss (%eax,%edi,4),%xmm6
- DB 102,15,126,239 ; movd %xmm5,%edi
- DB 243,15,16,44,184 ; movss (%eax,%edi,4),%xmm5
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,249,229 ; pshufd $0xe5,%xmm1,%xmm7
- DB 243,15,16,12,184 ; movss (%eax,%edi,4),%xmm1
- DB 102,15,126,255 ; movd %xmm7,%edi
- DB 243,15,16,60,184 ; movss (%eax,%edi,4),%xmm7
- DB 15,20,238 ; unpcklps %xmm6,%xmm5
- DB 243,15,126,117,224 ; movq -0x20(%ebp),%xmm6
- DB 102,15,97,240 ; punpcklwd %xmm0,%xmm6
- DB 15,20,207 ; unpcklps %xmm7,%xmm1
- DB 102,15,20,205 ; unpcklpd %xmm5,%xmm1
- DB 139,70,12 ; mov 0xc(%esi),%eax
- DB 242,15,112,238,232 ; pshuflw $0xe8,%xmm6,%xmm5
- DB 243,15,112,237,232 ; pshufhw $0xe8,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,219,234 ; pand %xmm2,%xmm5
- DB 102,15,97,236 ; punpcklwd %xmm4,%xmm5
- DB 102,15,112,213,78 ; pshufd $0x4e,%xmm5,%xmm2
- DB 102,15,112,245,231 ; pshufd $0xe7,%xmm5,%xmm6
- DB 102,15,126,246 ; movd %xmm6,%esi
- DB 243,15,16,52,176 ; movss (%eax,%esi,4),%xmm6
- DB 102,15,126,214 ; movd %xmm2,%esi
- DB 243,15,16,60,176 ; movss (%eax,%esi,4),%xmm7
- DB 102,15,126,238 ; movd %xmm5,%esi
- DB 102,15,112,237,229 ; pshufd $0xe5,%xmm5,%xmm5
- DB 243,15,16,20,176 ; movss (%eax,%esi,4),%xmm2
- DB 102,15,126,238 ; movd %xmm5,%esi
- DB 243,15,16,44,176 ; movss (%eax,%esi,4),%xmm5
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 15,20,213 ; unpcklps %xmm5,%xmm2
- DB 102,15,20,215 ; unpcklpd %xmm7,%xmm2
- DB 102,15,112,219,78 ; pshufd $0x4e,%xmm3,%xmm3
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,113,245,8 ; psllw $0x8,%xmm5
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,235,221 ; por %xmm5,%xmm3
- DB 102,15,126,93,232 ; movd %xmm3,-0x18(%ebp)
- DB 102,15,112,219,229 ; pshufd $0xe5,%xmm3,%xmm3
- DB 102,15,126,93,236 ; movd %xmm3,-0x14(%ebp)
- DB 243,15,126,93,232 ; movq -0x18(%ebp),%xmm3
- DB 102,15,97,220 ; punpcklwd %xmm4,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,154,36,219,0,0 ; mulps 0xdb24(%edx),%xmm3
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 137,194 ; mov %eax,%edx
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,60 ; add $0x3c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 242,15,16,4,123 ; movsd (%ebx,%edi,2),%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 131,248,1 ; cmp $0x1,%eax
- DB 15,132,39,254,255,255 ; je 2ef2 <_sk_load_tables_u16_be_sse2+0x34>
- DB 102,15,22,68,123,8 ; movhpd 0x8(%ebx,%edi,2),%xmm0
- DB 131,248,3 ; cmp $0x3,%eax
- DB 15,130,24,254,255,255 ; jb 2ef2 <_sk_load_tables_u16_be_sse2+0x34>
- DB 243,15,126,76,123,16 ; movq 0x10(%ebx,%edi,2),%xmm1
- DB 233,13,254,255,255 ; jmp 2ef2 <_sk_load_tables_u16_be_sse2+0x34>
-
-PUBLIC _sk_load_tables_rgb_u16_be_sse2
-_sk_load_tables_rgb_u16_be_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,28 ; sub $0x1c,%esp
- DB 232,0,0,0,0 ; call 30f3 <_sk_load_tables_rgb_u16_be_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,65,8 ; mov 0x8(%ecx),%eax
- DB 107,57,3 ; imul $0x3,(%ecx),%edi
- DB 133,192 ; test %eax,%eax
- DB 139,54 ; mov (%esi),%esi
- DB 139,30 ; mov (%esi),%ebx
- DB 15,133,179,1,0,0 ; jne 32bf <_sk_load_tables_rgb_u16_be_sse2+0x1da>
- DB 243,15,111,4,123 ; movdqu (%ebx,%edi,2),%xmm0
- DB 243,15,111,92,123,8 ; movdqu 0x8(%ebx,%edi,2),%xmm3
- DB 102,15,115,219,4 ; psrldq $0x4,%xmm3
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,115,217,6 ; psrldq $0x6,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,115,218,6 ; psrldq $0x6,%xmm2
- DB 102,15,97,202 ; punpcklwd %xmm2,%xmm1
- DB 102,15,97,195 ; punpcklwd %xmm3,%xmm0
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,97,209 ; punpcklwd %xmm1,%xmm2
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,15,126,85,216 ; movd %xmm2,-0x28(%ebp)
- DB 102,15,112,202,229 ; pshufd $0xe5,%xmm2,%xmm1
- DB 102,15,126,77,220 ; movd %xmm1,-0x24(%ebp)
- DB 243,15,126,85,216 ; movq -0x28(%ebp),%xmm2
- DB 102,15,97,208 ; punpcklwd %xmm0,%xmm2
- DB 102,15,126,93,224 ; movd %xmm3,-0x20(%ebp)
- DB 102,15,112,203,229 ; pshufd $0xe5,%xmm3,%xmm1
- DB 102,15,126,77,228 ; movd %xmm1,-0x1c(%ebp)
- DB 243,15,126,77,224 ; movq -0x20(%ebp),%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 102,15,126,69,232 ; movd %xmm0,-0x18(%ebp)
- DB 102,15,112,192,229 ; pshufd $0xe5,%xmm0,%xmm0
- DB 102,15,126,69,236 ; movd %xmm0,-0x14(%ebp)
- DB 242,15,112,194,232 ; pshuflw $0xe8,%xmm2,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,111,146,237,216,0,0 ; movdqa 0xd8ed(%edx),%xmm2
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,97,195 ; punpcklwd %xmm3,%xmm0
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,15,112,232,231 ; pshufd $0xe7,%xmm0,%xmm5
- DB 102,15,126,232 ; movd %xmm5,%eax
- DB 139,126,4 ; mov 0x4(%esi),%edi
- DB 243,15,16,44,135 ; movss (%edi,%eax,4),%xmm5
- DB 102,15,126,224 ; movd %xmm4,%eax
- DB 243,15,16,36,135 ; movss (%edi,%eax,4),%xmm4
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,240,229 ; pshufd $0xe5,%xmm0,%xmm6
- DB 243,15,16,4,135 ; movss (%edi,%eax,4),%xmm0
- DB 102,15,126,240 ; movd %xmm6,%eax
- DB 243,15,16,52,135 ; movss (%edi,%eax,4),%xmm6
- DB 139,70,8 ; mov 0x8(%esi),%eax
- DB 15,20,229 ; unpcklps %xmm5,%xmm4
- DB 15,20,198 ; unpcklps %xmm6,%xmm0
- DB 242,15,112,201,232 ; pshuflw $0xe8,%xmm1,%xmm1
- DB 243,15,112,201,232 ; pshufhw $0xe8,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 102,15,97,203 ; punpcklwd %xmm3,%xmm1
- DB 102,15,112,233,78 ; pshufd $0x4e,%xmm1,%xmm5
- DB 102,15,112,241,231 ; pshufd $0xe7,%xmm1,%xmm6
- DB 102,15,126,247 ; movd %xmm6,%edi
- DB 243,15,16,52,184 ; movss (%eax,%edi,4),%xmm6
- DB 102,15,126,239 ; movd %xmm5,%edi
- DB 243,15,16,44,184 ; movss (%eax,%edi,4),%xmm5
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,249,229 ; pshufd $0xe5,%xmm1,%xmm7
- DB 243,15,16,12,184 ; movss (%eax,%edi,4),%xmm1
- DB 102,15,126,255 ; movd %xmm7,%edi
- DB 243,15,16,60,184 ; movss (%eax,%edi,4),%xmm7
- DB 102,15,20,196 ; unpcklpd %xmm4,%xmm0
- DB 243,15,126,101,232 ; movq -0x18(%ebp),%xmm4
- DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 15,20,238 ; unpcklps %xmm6,%xmm5
- DB 139,70,12 ; mov 0xc(%esi),%eax
- DB 242,15,112,228,232 ; pshuflw $0xe8,%xmm4,%xmm4
- DB 243,15,112,228,232 ; pshufhw $0xe8,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,219,226 ; pand %xmm2,%xmm4
- DB 102,15,97,227 ; punpcklwd %xmm3,%xmm4
- DB 102,15,112,212,78 ; pshufd $0x4e,%xmm4,%xmm2
- DB 102,15,112,220,231 ; pshufd $0xe7,%xmm4,%xmm3
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 243,15,16,28,176 ; movss (%eax,%esi,4),%xmm3
- DB 102,15,126,214 ; movd %xmm2,%esi
- DB 243,15,16,52,176 ; movss (%eax,%esi,4),%xmm6
- DB 102,15,126,230 ; movd %xmm4,%esi
- DB 102,15,112,228,229 ; pshufd $0xe5,%xmm4,%xmm4
- DB 243,15,16,20,176 ; movss (%eax,%esi,4),%xmm2
- DB 102,15,126,230 ; movd %xmm4,%esi
- DB 243,15,16,36,176 ; movss (%eax,%esi,4),%xmm4
- DB 15,20,207 ; unpcklps %xmm7,%xmm1
- DB 102,15,20,205 ; unpcklpd %xmm5,%xmm1
- DB 15,20,243 ; unpcklps %xmm3,%xmm6
- DB 15,20,212 ; unpcklps %xmm4,%xmm2
- DB 102,15,20,214 ; unpcklpd %xmm6,%xmm2
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 137,198 ; mov %eax,%esi
- DB 141,70,8 ; lea 0x8(%esi),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,154,125,214,0,0 ; movaps 0xd67d(%edx),%xmm3
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,86,4 ; call *0x4(%esi)
- DB 131,196,44 ; add $0x2c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 102,15,110,4,123 ; movd (%ebx,%edi,2),%xmm0
- DB 102,15,196,68,123,4,2 ; pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 131,248,1 ; cmp $0x1,%eax
- DB 117,13 ; jne 32e1 <_sk_load_tables_rgb_u16_be_sse2+0x1fc>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 233,77,254,255,255 ; jmp 312e <_sk_load_tables_rgb_u16_be_sse2+0x49>
- DB 102,15,110,76,123,6 ; movd 0x6(%ebx,%edi,2),%xmm1
- DB 102,15,196,76,123,10,2 ; pinsrw $0x2,0xa(%ebx,%edi,2),%xmm1
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 131,248,3 ; cmp $0x3,%eax
- DB 114,18 ; jb 3309 <_sk_load_tables_rgb_u16_be_sse2+0x224>
- DB 102,15,110,92,123,12 ; movd 0xc(%ebx,%edi,2),%xmm3
- DB 102,15,196,92,123,16,2 ; pinsrw $0x2,0x10(%ebx,%edi,2),%xmm3
- DB 233,37,254,255,255 ; jmp 312e <_sk_load_tables_rgb_u16_be_sse2+0x49>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 233,28,254,255,255 ; jmp 312e <_sk_load_tables_rgb_u16_be_sse2+0x49>
-
-PUBLIC _sk_byte_tables_sse2
-_sk_byte_tables_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 3320 <_sk_byte_tables_sse2+0xe>
- DB 89 ; pop %ecx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,95,232 ; maxps %xmm0,%xmm5
- DB 15,40,129,80,212,0,0 ; movaps 0xd450(%ecx),%xmm0
- DB 15,93,232 ; minps %xmm0,%xmm5
- DB 15,40,161,32,213,0,0 ; movaps 0xd520(%ecx),%xmm4
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 102,15,91,237 ; cvtps2dq %xmm5,%xmm5
- DB 102,15,112,245,78 ; pshufd $0x4e,%xmm5,%xmm6
- DB 102,15,126,246 ; movd %xmm6,%esi
- DB 102,15,112,245,231 ; pshufd $0xe7,%xmm5,%xmm6
- DB 139,58 ; mov (%edx),%edi
- DB 15,182,52,55 ; movzbl (%edi,%esi,1),%esi
- DB 102,15,126,243 ; movd %xmm6,%ebx
- DB 15,182,28,31 ; movzbl (%edi,%ebx,1),%ebx
- DB 193,227,8 ; shl $0x8,%ebx
- DB 9,243 ; or %esi,%ebx
- DB 102,15,112,245,229 ; pshufd $0xe5,%xmm5,%xmm6
- DB 102,15,126,238 ; movd %xmm5,%esi
- DB 15,182,52,55 ; movzbl (%edi,%esi,1),%esi
- DB 102,15,126,240 ; movd %xmm6,%eax
- DB 15,182,4,7 ; movzbl (%edi,%eax,1),%eax
- DB 193,224,8 ; shl $0x8,%eax
- DB 9,240 ; or %esi,%eax
- DB 102,15,110,232 ; movd %eax,%xmm5
- DB 139,66,4 ; mov 0x4(%edx),%eax
- DB 102,15,196,235,1 ; pinsrw $0x1,%ebx,%xmm5
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 15,95,241 ; maxps %xmm1,%xmm6
- DB 15,93,240 ; minps %xmm0,%xmm6
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 102,15,91,206 ; cvtps2dq %xmm6,%xmm1
- DB 102,15,112,241,78 ; pshufd $0x4e,%xmm1,%xmm6
- DB 102,15,126,246 ; movd %xmm6,%esi
- DB 102,15,112,241,231 ; pshufd $0xe7,%xmm1,%xmm6
- DB 15,182,52,48 ; movzbl (%eax,%esi,1),%esi
- DB 102,15,126,247 ; movd %xmm6,%edi
- DB 15,182,60,56 ; movzbl (%eax,%edi,1),%edi
- DB 193,231,8 ; shl $0x8,%edi
- DB 9,247 ; or %esi,%edi
- DB 102,15,112,241,229 ; pshufd $0xe5,%xmm1,%xmm6
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 15,182,52,48 ; movzbl (%eax,%esi,1),%esi
- DB 102,15,126,243 ; movd %xmm6,%ebx
- DB 15,182,4,24 ; movzbl (%eax,%ebx,1),%eax
- DB 193,224,8 ; shl $0x8,%eax
- DB 9,240 ; or %esi,%eax
- DB 102,15,110,200 ; movd %eax,%xmm1
- DB 102,15,196,207,1 ; pinsrw $0x1,%edi,%xmm1
- DB 139,66,8 ; mov 0x8(%edx),%eax
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 15,95,242 ; maxps %xmm2,%xmm6
- DB 15,93,240 ; minps %xmm0,%xmm6
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 102,15,91,214 ; cvtps2dq %xmm6,%xmm2
- DB 102,15,112,242,78 ; pshufd $0x4e,%xmm2,%xmm6
- DB 102,15,126,246 ; movd %xmm6,%esi
- DB 102,15,112,242,231 ; pshufd $0xe7,%xmm2,%xmm6
- DB 15,182,52,48 ; movzbl (%eax,%esi,1),%esi
- DB 102,15,126,247 ; movd %xmm6,%edi
- DB 15,182,60,56 ; movzbl (%eax,%edi,1),%edi
- DB 193,231,8 ; shl $0x8,%edi
- DB 9,247 ; or %esi,%edi
- DB 102,15,112,242,229 ; pshufd $0xe5,%xmm2,%xmm6
- DB 102,15,126,214 ; movd %xmm2,%esi
- DB 15,182,52,48 ; movzbl (%eax,%esi,1),%esi
- DB 102,15,126,243 ; movd %xmm6,%ebx
- DB 15,182,4,24 ; movzbl (%eax,%ebx,1),%eax
- DB 193,224,8 ; shl $0x8,%eax
- DB 9,240 ; or %esi,%eax
- DB 102,15,87,210 ; xorpd %xmm2,%xmm2
- DB 15,95,211 ; maxps %xmm3,%xmm2
- DB 15,93,208 ; minps %xmm0,%xmm2
- DB 102,15,110,216 ; movd %eax,%xmm3
- DB 102,15,196,223,1 ; pinsrw $0x1,%edi,%xmm3
- DB 139,66,12 ; mov 0xc(%edx),%eax
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 102,15,91,194 ; cvtps2dq %xmm2,%xmm0
- DB 102,15,112,208,78 ; pshufd $0x4e,%xmm0,%xmm2
- DB 102,15,126,210 ; movd %xmm2,%edx
- DB 102,15,112,208,231 ; pshufd $0xe7,%xmm0,%xmm2
- DB 102,15,126,214 ; movd %xmm2,%esi
- DB 15,182,20,16 ; movzbl (%eax,%edx,1),%edx
- DB 15,182,52,48 ; movzbl (%eax,%esi,1),%esi
- DB 193,230,8 ; shl $0x8,%esi
- DB 9,214 ; or %edx,%esi
- DB 102,15,126,194 ; movd %xmm0,%edx
- DB 102,15,112,192,229 ; pshufd $0xe5,%xmm0,%xmm0
- DB 15,182,20,16 ; movzbl (%eax,%edx,1),%edx
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 15,182,4,56 ; movzbl (%eax,%edi,1),%eax
- DB 193,224,8 ; shl $0x8,%eax
- DB 9,208 ; or %edx,%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,196,230,1 ; pinsrw $0x1,%esi,%xmm4
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,96,234 ; punpcklbw %xmm2,%xmm5
- DB 102,15,97,234 ; punpcklwd %xmm2,%xmm5
- DB 15,91,197 ; cvtdq2ps %xmm5,%xmm0
- DB 102,15,96,202 ; punpcklbw %xmm2,%xmm1
- DB 102,15,97,202 ; punpcklwd %xmm2,%xmm1
- DB 102,15,96,218 ; punpcklbw %xmm2,%xmm3
- DB 102,15,97,218 ; punpcklwd %xmm2,%xmm3
- DB 102,15,96,226 ; punpcklbw %xmm2,%xmm4
- DB 102,15,97,226 ; punpcklwd %xmm2,%xmm4
- DB 15,40,169,80,214,0,0 ; movaps 0xd650(%ecx),%xmm5
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,91,211 ; cvtdq2ps %xmm3,%xmm2
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,91,220 ; cvtdq2ps %xmm4,%xmm3
- DB 15,89,221 ; mulps %xmm5,%xmm3
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,65,8 ; lea 0x8(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_byte_tables_rgb_sse2
-_sk_byte_tables_rgb_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 34f3 <_sk_byte_tables_rgb_sse2+0xe>
- DB 89 ; pop %ecx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,114,12 ; mov 0xc(%edx),%esi
- DB 78 ; dec %esi
- DB 102,15,110,230 ; movd %esi,%xmm4
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,95,232 ; maxps %xmm0,%xmm5
- DB 15,40,129,125,210,0,0 ; movaps 0xd27d(%ecx),%xmm0
- DB 15,93,232 ; minps %xmm0,%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 102,15,91,237 ; cvtps2dq %xmm5,%xmm5
- DB 102,15,112,245,78 ; pshufd $0x4e,%xmm5,%xmm6
- DB 102,15,126,246 ; movd %xmm6,%esi
- DB 102,15,112,245,231 ; pshufd $0xe7,%xmm5,%xmm6
- DB 139,58 ; mov (%edx),%edi
- DB 15,182,52,55 ; movzbl (%edi,%esi,1),%esi
- DB 102,15,126,243 ; movd %xmm6,%ebx
- DB 15,182,28,31 ; movzbl (%edi,%ebx,1),%ebx
- DB 193,227,8 ; shl $0x8,%ebx
- DB 9,243 ; or %esi,%ebx
- DB 102,15,112,245,229 ; pshufd $0xe5,%xmm5,%xmm6
- DB 102,15,126,238 ; movd %xmm5,%esi
- DB 15,182,52,55 ; movzbl (%edi,%esi,1),%esi
- DB 102,15,126,240 ; movd %xmm6,%eax
- DB 15,182,4,7 ; movzbl (%edi,%eax,1),%eax
- DB 193,224,8 ; shl $0x8,%eax
- DB 9,240 ; or %esi,%eax
- DB 102,15,110,232 ; movd %eax,%xmm5
- DB 139,66,4 ; mov 0x4(%edx),%eax
- DB 102,15,196,235,1 ; pinsrw $0x1,%ebx,%xmm5
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 15,95,241 ; maxps %xmm1,%xmm6
- DB 15,93,240 ; minps %xmm0,%xmm6
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 102,15,91,206 ; cvtps2dq %xmm6,%xmm1
- DB 102,15,112,241,78 ; pshufd $0x4e,%xmm1,%xmm6
- DB 102,15,126,246 ; movd %xmm6,%esi
- DB 102,15,112,241,231 ; pshufd $0xe7,%xmm1,%xmm6
- DB 15,182,52,48 ; movzbl (%eax,%esi,1),%esi
- DB 102,15,126,247 ; movd %xmm6,%edi
- DB 15,182,60,56 ; movzbl (%eax,%edi,1),%edi
- DB 193,231,8 ; shl $0x8,%edi
- DB 9,247 ; or %esi,%edi
- DB 102,15,112,241,229 ; pshufd $0xe5,%xmm1,%xmm6
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 15,182,52,48 ; movzbl (%eax,%esi,1),%esi
- DB 102,15,126,243 ; movd %xmm6,%ebx
- DB 15,182,4,24 ; movzbl (%eax,%ebx,1),%eax
- DB 193,224,8 ; shl $0x8,%eax
- DB 9,240 ; or %esi,%eax
- DB 102,15,87,201 ; xorpd %xmm1,%xmm1
- DB 15,95,202 ; maxps %xmm2,%xmm1
- DB 15,93,200 ; minps %xmm0,%xmm1
- DB 102,15,110,208 ; movd %eax,%xmm2
- DB 102,15,196,215,1 ; pinsrw $0x1,%edi,%xmm2
- DB 139,66,8 ; mov 0x8(%edx),%eax
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 102,15,91,193 ; cvtps2dq %xmm1,%xmm0
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,15,126,202 ; movd %xmm1,%edx
- DB 102,15,112,200,231 ; pshufd $0xe7,%xmm0,%xmm1
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 15,182,20,16 ; movzbl (%eax,%edx,1),%edx
- DB 15,182,52,48 ; movzbl (%eax,%esi,1),%esi
- DB 193,230,8 ; shl $0x8,%esi
- DB 9,214 ; or %edx,%esi
- DB 102,15,126,194 ; movd %xmm0,%edx
- DB 102,15,112,192,229 ; pshufd $0xe5,%xmm0,%xmm0
- DB 15,182,20,16 ; movzbl (%eax,%edx,1),%edx
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 15,182,4,56 ; movzbl (%eax,%edi,1),%eax
- DB 193,224,8 ; shl $0x8,%eax
- DB 9,208 ; or %edx,%eax
- DB 102,15,110,224 ; movd %eax,%xmm4
- DB 102,15,196,230,1 ; pinsrw $0x1,%esi,%xmm4
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,96,233 ; punpcklbw %xmm1,%xmm5
- DB 102,15,97,233 ; punpcklwd %xmm1,%xmm5
- DB 15,91,197 ; cvtdq2ps %xmm5,%xmm0
- DB 102,15,96,209 ; punpcklbw %xmm1,%xmm2
- DB 102,15,97,209 ; punpcklwd %xmm1,%xmm2
- DB 102,15,96,225 ; punpcklbw %xmm1,%xmm4
- DB 102,15,97,225 ; punpcklwd %xmm1,%xmm4
- DB 15,40,169,125,212,0,0 ; movaps 0xd47d(%ecx),%xmm5
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,91,202 ; cvtdq2ps %xmm2,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,91,212 ; cvtdq2ps %xmm4,%xmm2
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,65,8 ; lea 0x8(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_table_r_sse2
-_sk_table_r_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 139,81,4 ; mov 0x4(%ecx),%edx
- DB 74 ; dec %edx
- DB 102,15,110,226 ; movd %edx,%xmm4
- DB 232,0,0,0,0 ; call 3675 <_sk_table_r_sse2+0x18>
- DB 90 ; pop %edx
- DB 139,9 ; mov (%ecx),%ecx
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,95,232 ; maxps %xmm0,%xmm5
- DB 15,93,170,251,208,0,0 ; minps 0xd0fb(%edx),%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 102,15,91,197 ; cvtps2dq %xmm5,%xmm0
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,15,112,232,231 ; pshufd $0xe7,%xmm0,%xmm5
- DB 102,15,126,234 ; movd %xmm5,%edx
- DB 243,15,16,44,145 ; movss (%ecx,%edx,4),%xmm5
- DB 102,15,126,226 ; movd %xmm4,%edx
- DB 243,15,16,36,145 ; movss (%ecx,%edx,4),%xmm4
- DB 102,15,126,194 ; movd %xmm0,%edx
- DB 102,15,112,240,229 ; pshufd $0xe5,%xmm0,%xmm6
- DB 243,15,16,4,145 ; movss (%ecx,%edx,4),%xmm0
- DB 102,15,126,242 ; movd %xmm6,%edx
- DB 243,15,16,52,145 ; movss (%ecx,%edx,4),%xmm6
- DB 15,20,229 ; unpcklps %xmm5,%xmm4
- DB 15,20,198 ; unpcklps %xmm6,%xmm0
- DB 102,15,20,196 ; unpcklpd %xmm4,%xmm0
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_table_g_sse2
-_sk_table_g_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 139,81,4 ; mov 0x4(%ecx),%edx
- DB 74 ; dec %edx
- DB 102,15,110,226 ; movd %edx,%xmm4
- DB 232,0,0,0,0 ; call 36fb <_sk_table_g_sse2+0x18>
- DB 90 ; pop %edx
- DB 139,9 ; mov (%ecx),%ecx
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,95,233 ; maxps %xmm1,%xmm5
- DB 15,93,170,117,208,0,0 ; minps 0xd075(%edx),%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 102,15,91,205 ; cvtps2dq %xmm5,%xmm1
- DB 102,15,112,225,78 ; pshufd $0x4e,%xmm1,%xmm4
- DB 102,15,112,233,231 ; pshufd $0xe7,%xmm1,%xmm5
- DB 102,15,126,234 ; movd %xmm5,%edx
- DB 243,15,16,44,145 ; movss (%ecx,%edx,4),%xmm5
- DB 102,15,126,226 ; movd %xmm4,%edx
- DB 243,15,16,36,145 ; movss (%ecx,%edx,4),%xmm4
- DB 102,15,126,202 ; movd %xmm1,%edx
- DB 102,15,112,241,229 ; pshufd $0xe5,%xmm1,%xmm6
- DB 243,15,16,12,145 ; movss (%ecx,%edx,4),%xmm1
- DB 102,15,126,242 ; movd %xmm6,%edx
- DB 243,15,16,52,145 ; movss (%ecx,%edx,4),%xmm6
- DB 15,20,229 ; unpcklps %xmm5,%xmm4
- DB 15,20,206 ; unpcklps %xmm6,%xmm1
- DB 102,15,20,204 ; unpcklpd %xmm4,%xmm1
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_table_b_sse2
-_sk_table_b_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 139,81,4 ; mov 0x4(%ecx),%edx
- DB 74 ; dec %edx
- DB 102,15,110,226 ; movd %edx,%xmm4
- DB 232,0,0,0,0 ; call 3781 <_sk_table_b_sse2+0x18>
- DB 90 ; pop %edx
- DB 139,9 ; mov (%ecx),%ecx
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,95,234 ; maxps %xmm2,%xmm5
- DB 15,93,170,239,207,0,0 ; minps 0xcfef(%edx),%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 102,15,91,213 ; cvtps2dq %xmm5,%xmm2
- DB 102,15,112,226,78 ; pshufd $0x4e,%xmm2,%xmm4
- DB 102,15,112,234,231 ; pshufd $0xe7,%xmm2,%xmm5
- DB 102,15,126,234 ; movd %xmm5,%edx
- DB 243,15,16,44,145 ; movss (%ecx,%edx,4),%xmm5
- DB 102,15,126,226 ; movd %xmm4,%edx
- DB 243,15,16,36,145 ; movss (%ecx,%edx,4),%xmm4
- DB 102,15,126,210 ; movd %xmm2,%edx
- DB 102,15,112,242,229 ; pshufd $0xe5,%xmm2,%xmm6
- DB 243,15,16,20,145 ; movss (%ecx,%edx,4),%xmm2
- DB 102,15,126,242 ; movd %xmm6,%edx
- DB 243,15,16,52,145 ; movss (%ecx,%edx,4),%xmm6
- DB 15,20,229 ; unpcklps %xmm5,%xmm4
- DB 15,20,214 ; unpcklps %xmm6,%xmm2
- DB 102,15,20,212 ; unpcklpd %xmm4,%xmm2
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_table_a_sse2
-_sk_table_a_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 139,81,4 ; mov 0x4(%ecx),%edx
- DB 74 ; dec %edx
- DB 102,15,110,226 ; movd %edx,%xmm4
- DB 232,0,0,0,0 ; call 3807 <_sk_table_a_sse2+0x18>
- DB 90 ; pop %edx
- DB 139,9 ; mov (%ecx),%ecx
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,95,235 ; maxps %xmm3,%xmm5
- DB 15,93,170,105,207,0,0 ; minps 0xcf69(%edx),%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 102,15,91,221 ; cvtps2dq %xmm5,%xmm3
- DB 102,15,112,227,78 ; pshufd $0x4e,%xmm3,%xmm4
- DB 102,15,112,235,231 ; pshufd $0xe7,%xmm3,%xmm5
- DB 102,15,126,234 ; movd %xmm5,%edx
- DB 243,15,16,44,145 ; movss (%ecx,%edx,4),%xmm5
- DB 102,15,126,226 ; movd %xmm4,%edx
- DB 243,15,16,36,145 ; movss (%ecx,%edx,4),%xmm4
- DB 102,15,126,218 ; movd %xmm3,%edx
- DB 102,15,112,243,229 ; pshufd $0xe5,%xmm3,%xmm6
- DB 243,15,16,28,145 ; movss (%ecx,%edx,4),%xmm3
- DB 102,15,126,242 ; movd %xmm6,%edx
- DB 243,15,16,52,145 ; movss (%ecx,%edx,4),%xmm6
- DB 15,20,229 ; unpcklps %xmm5,%xmm4
- DB 15,20,222 ; unpcklps %xmm6,%xmm3
- DB 102,15,20,220 ; unpcklpd %xmm4,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_parametric_r_sse2
-_sk_parametric_r_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,40 ; sub $0x28,%esp
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 15,41,85,232 ; movaps %xmm2,-0x18(%ebp)
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 232,0,0,0,0 ; call 388e <_sk_parametric_r_sse2+0x19>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,113,16 ; movss 0x10(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 243,15,16,81,12 ; movss 0xc(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 243,15,16,105,4 ; movss 0x4(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,233 ; mulps %xmm1,%xmm5
- DB 15,194,206,2 ; cmpleps %xmm6,%xmm1
- DB 243,15,16,113,24 ; movss 0x18(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 243,15,16,113,8 ; movss 0x8(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,88,238 ; addps %xmm6,%xmm5
- DB 15,91,245 ; cvtdq2ps %xmm5,%xmm6
- DB 15,89,178,114,209,0,0 ; mulps 0xd172(%edx),%xmm6
- DB 15,40,186,130,209,0,0 ; movaps 0xd182(%edx),%xmm7
- DB 15,84,253 ; andps %xmm5,%xmm7
- DB 15,86,186,210,206,0,0 ; orps 0xced2(%edx),%xmm7
- DB 15,88,178,146,209,0,0 ; addps 0xd192(%edx),%xmm6
- DB 15,40,162,162,209,0,0 ; movaps 0xd1a2(%edx),%xmm4
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,92,244 ; subps %xmm4,%xmm6
- DB 15,88,186,178,209,0,0 ; addps 0xd1b2(%edx),%xmm7
- DB 15,40,162,194,209,0,0 ; movaps 0xd1c2(%edx),%xmm4
- DB 15,94,231 ; divps %xmm7,%xmm4
- DB 15,92,244 ; subps %xmm4,%xmm6
- DB 243,15,16,33 ; movss (%ecx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 243,15,91,230 ; cvttps2dq %xmm6,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,194,196,1 ; cmpltps %xmm4,%xmm0
- DB 15,40,186,226,206,0,0 ; movaps 0xcee2(%edx),%xmm7
- DB 15,84,199 ; andps %xmm7,%xmm0
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,88,178,210,209,0,0 ; addps 0xd1d2(%edx),%xmm6
- DB 15,40,162,226,209,0,0 ; movaps 0xd1e2(%edx),%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,92,244 ; subps %xmm4,%xmm6
- DB 15,40,162,242,209,0,0 ; movaps 0xd1f2(%edx),%xmm4
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,40,130,2,210,0,0 ; movaps 0xd202(%edx),%xmm0
- DB 15,94,196 ; divps %xmm4,%xmm0
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,89,130,18,210,0,0 ; mulps 0xd212(%edx),%xmm0
- DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,194,236,4 ; cmpneqps %xmm4,%xmm5
- DB 15,84,232 ; andps %xmm0,%xmm5
- DB 243,15,16,65,20 ; movss 0x14(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,84,209 ; andps %xmm1,%xmm2
- DB 15,85,200 ; andnps %xmm0,%xmm1
- DB 15,86,202 ; orps %xmm2,%xmm1
- DB 15,95,204 ; maxps %xmm4,%xmm1
- DB 15,93,207 ; minps %xmm7,%xmm1
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,40,85,232 ; movaps -0x18(%ebp),%xmm2
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,56 ; add $0x38,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_parametric_g_sse2
-_sk_parametric_g_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,40 ; sub $0x28,%esp
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 15,41,85,232 ; movaps %xmm2,-0x18(%ebp)
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 232,0,0,0,0 ; call 39d1 <_sk_parametric_g_sse2+0x16>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,113,16 ; movss 0x10(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 243,15,16,81,12 ; movss 0xc(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 243,15,16,105,4 ; movss 0x4(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,233 ; mulps %xmm1,%xmm5
- DB 15,194,206,2 ; cmpleps %xmm6,%xmm1
- DB 243,15,16,113,24 ; movss 0x18(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 243,15,16,113,8 ; movss 0x8(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,88,238 ; addps %xmm6,%xmm5
- DB 15,91,245 ; cvtdq2ps %xmm5,%xmm6
- DB 15,89,178,47,208,0,0 ; mulps 0xd02f(%edx),%xmm6
- DB 15,40,186,63,208,0,0 ; movaps 0xd03f(%edx),%xmm7
- DB 15,84,253 ; andps %xmm5,%xmm7
- DB 15,86,186,143,205,0,0 ; orps 0xcd8f(%edx),%xmm7
- DB 15,88,178,79,208,0,0 ; addps 0xd04f(%edx),%xmm6
- DB 15,40,162,95,208,0,0 ; movaps 0xd05f(%edx),%xmm4
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,92,244 ; subps %xmm4,%xmm6
- DB 15,88,186,111,208,0,0 ; addps 0xd06f(%edx),%xmm7
- DB 15,40,162,127,208,0,0 ; movaps 0xd07f(%edx),%xmm4
- DB 15,94,231 ; divps %xmm7,%xmm4
- DB 15,92,244 ; subps %xmm4,%xmm6
- DB 243,15,16,33 ; movss (%ecx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 243,15,91,230 ; cvttps2dq %xmm6,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,194,196,1 ; cmpltps %xmm4,%xmm0
- DB 15,40,186,159,205,0,0 ; movaps 0xcd9f(%edx),%xmm7
- DB 15,84,199 ; andps %xmm7,%xmm0
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,88,178,143,208,0,0 ; addps 0xd08f(%edx),%xmm6
- DB 15,40,162,159,208,0,0 ; movaps 0xd09f(%edx),%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,92,244 ; subps %xmm4,%xmm6
- DB 15,40,162,175,208,0,0 ; movaps 0xd0af(%edx),%xmm4
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,40,130,191,208,0,0 ; movaps 0xd0bf(%edx),%xmm0
- DB 15,94,196 ; divps %xmm4,%xmm0
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,89,130,207,208,0,0 ; mulps 0xd0cf(%edx),%xmm0
- DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,194,236,4 ; cmpneqps %xmm4,%xmm5
- DB 15,84,232 ; andps %xmm0,%xmm5
- DB 243,15,16,65,20 ; movss 0x14(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,84,209 ; andps %xmm1,%xmm2
- DB 15,85,200 ; andnps %xmm0,%xmm1
- DB 15,86,202 ; orps %xmm2,%xmm1
- DB 15,95,204 ; maxps %xmm4,%xmm1
- DB 15,93,207 ; minps %xmm7,%xmm1
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,40,85,232 ; movaps -0x18(%ebp),%xmm2
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,56 ; add $0x38,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_parametric_b_sse2
-_sk_parametric_b_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,40 ; sub $0x28,%esp
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 15,41,77,232 ; movaps %xmm1,-0x18(%ebp)
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 232,0,0,0,0 ; call 3b11 <_sk_parametric_b_sse2+0x16>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,113,16 ; movss 0x10(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 243,15,16,73,12 ; movss 0xc(%ecx),%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 243,15,16,105,4 ; movss 0x4(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,234 ; mulps %xmm2,%xmm5
- DB 15,194,214,2 ; cmpleps %xmm6,%xmm2
- DB 243,15,16,113,24 ; movss 0x18(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 243,15,16,113,8 ; movss 0x8(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,88,238 ; addps %xmm6,%xmm5
- DB 15,91,245 ; cvtdq2ps %xmm5,%xmm6
- DB 15,89,178,239,206,0,0 ; mulps 0xceef(%edx),%xmm6
- DB 15,40,186,255,206,0,0 ; movaps 0xceff(%edx),%xmm7
- DB 15,84,253 ; andps %xmm5,%xmm7
- DB 15,86,186,79,204,0,0 ; orps 0xcc4f(%edx),%xmm7
- DB 15,88,178,15,207,0,0 ; addps 0xcf0f(%edx),%xmm6
- DB 15,40,162,31,207,0,0 ; movaps 0xcf1f(%edx),%xmm4
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,92,244 ; subps %xmm4,%xmm6
- DB 15,88,186,47,207,0,0 ; addps 0xcf2f(%edx),%xmm7
- DB 15,40,162,63,207,0,0 ; movaps 0xcf3f(%edx),%xmm4
- DB 15,94,231 ; divps %xmm7,%xmm4
- DB 15,92,244 ; subps %xmm4,%xmm6
- DB 243,15,16,33 ; movss (%ecx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 243,15,91,230 ; cvttps2dq %xmm6,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,194,196,1 ; cmpltps %xmm4,%xmm0
- DB 15,40,186,95,204,0,0 ; movaps 0xcc5f(%edx),%xmm7
- DB 15,84,199 ; andps %xmm7,%xmm0
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,88,178,79,207,0,0 ; addps 0xcf4f(%edx),%xmm6
- DB 15,40,162,95,207,0,0 ; movaps 0xcf5f(%edx),%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,92,244 ; subps %xmm4,%xmm6
- DB 15,40,162,111,207,0,0 ; movaps 0xcf6f(%edx),%xmm4
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,40,130,127,207,0,0 ; movaps 0xcf7f(%edx),%xmm0
- DB 15,94,196 ; divps %xmm4,%xmm0
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,89,130,143,207,0,0 ; mulps 0xcf8f(%edx),%xmm0
- DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,194,236,4 ; cmpneqps %xmm4,%xmm5
- DB 15,84,232 ; andps %xmm0,%xmm5
- DB 243,15,16,65,20 ; movss 0x14(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,84,202 ; andps %xmm2,%xmm1
- DB 15,85,208 ; andnps %xmm0,%xmm2
- DB 15,86,209 ; orps %xmm1,%xmm2
- DB 15,95,212 ; maxps %xmm4,%xmm2
- DB 15,93,215 ; minps %xmm7,%xmm2
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,40,77,232 ; movaps -0x18(%ebp),%xmm1
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,56 ; add $0x38,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_parametric_a_sse2
-_sk_parametric_a_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,40 ; sub $0x28,%esp
- DB 15,41,85,216 ; movaps %xmm2,-0x28(%ebp)
- DB 15,41,77,232 ; movaps %xmm1,-0x18(%ebp)
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 232,0,0,0,0 ; call 3c51 <_sk_parametric_a_sse2+0x16>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,113,16 ; movss 0x10(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 243,15,16,73,12 ; movss 0xc(%ecx),%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 243,15,16,105,4 ; movss 0x4(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,235 ; mulps %xmm3,%xmm5
- DB 15,194,222,2 ; cmpleps %xmm6,%xmm3
- DB 243,15,16,113,24 ; movss 0x18(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 243,15,16,113,8 ; movss 0x8(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,88,238 ; addps %xmm6,%xmm5
- DB 15,91,245 ; cvtdq2ps %xmm5,%xmm6
- DB 15,89,178,175,205,0,0 ; mulps 0xcdaf(%edx),%xmm6
- DB 15,40,186,191,205,0,0 ; movaps 0xcdbf(%edx),%xmm7
- DB 15,84,253 ; andps %xmm5,%xmm7
- DB 15,86,186,15,203,0,0 ; orps 0xcb0f(%edx),%xmm7
- DB 15,88,178,207,205,0,0 ; addps 0xcdcf(%edx),%xmm6
- DB 15,40,162,223,205,0,0 ; movaps 0xcddf(%edx),%xmm4
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,92,244 ; subps %xmm4,%xmm6
- DB 15,88,186,239,205,0,0 ; addps 0xcdef(%edx),%xmm7
- DB 15,40,162,255,205,0,0 ; movaps 0xcdff(%edx),%xmm4
- DB 15,94,231 ; divps %xmm7,%xmm4
- DB 15,92,244 ; subps %xmm4,%xmm6
- DB 243,15,16,33 ; movss (%ecx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 243,15,91,230 ; cvttps2dq %xmm6,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,194,196,1 ; cmpltps %xmm4,%xmm0
- DB 15,40,186,31,203,0,0 ; movaps 0xcb1f(%edx),%xmm7
- DB 15,84,199 ; andps %xmm7,%xmm0
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,88,178,15,206,0,0 ; addps 0xce0f(%edx),%xmm6
- DB 15,40,162,31,206,0,0 ; movaps 0xce1f(%edx),%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,92,244 ; subps %xmm4,%xmm6
- DB 15,40,162,47,206,0,0 ; movaps 0xce2f(%edx),%xmm4
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,40,130,63,206,0,0 ; movaps 0xce3f(%edx),%xmm0
- DB 15,94,196 ; divps %xmm4,%xmm0
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,89,130,79,206,0,0 ; mulps 0xce4f(%edx),%xmm0
- DB 102,15,91,192 ; cvtps2dq %xmm0,%xmm0
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,194,236,4 ; cmpneqps %xmm4,%xmm5
- DB 15,84,232 ; andps %xmm0,%xmm5
- DB 243,15,16,65,20 ; movss 0x14(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,84,203 ; andps %xmm3,%xmm1
- DB 15,85,216 ; andnps %xmm0,%xmm3
- DB 15,86,217 ; orps %xmm1,%xmm3
- DB 15,95,220 ; maxps %xmm4,%xmm3
- DB 15,93,223 ; minps %xmm7,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,40,77,232 ; movaps -0x18(%ebp),%xmm1
- DB 15,40,85,216 ; movaps -0x28(%ebp),%xmm2
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,56 ; add $0x38,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_gamma_sse2
-_sk_gamma_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,88 ; sub $0x58,%esp
- DB 15,41,93,168 ; movaps %xmm3,-0x58(%ebp)
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 15,41,77,232 ; movaps %xmm1,-0x18(%ebp)
- DB 15,41,69,184 ; movaps %xmm0,-0x48(%ebp)
- DB 232,0,0,0,0 ; call 3d96 <_sk_gamma_sse2+0x1b>
- DB 88 ; pop %eax
- DB 15,91,232 ; cvtdq2ps %xmm0,%xmm5
- DB 15,89,168,106,204,0,0 ; mulps 0xcc6a(%eax),%xmm5
- DB 15,40,160,122,204,0,0 ; movaps 0xcc7a(%eax),%xmm4
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,84,212 ; andps %xmm4,%xmm2
- DB 15,86,144,202,201,0,0 ; orps 0xc9ca(%eax),%xmm2
- DB 15,88,168,138,204,0,0 ; addps 0xcc8a(%eax),%xmm5
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,89,136,154,204,0,0 ; mulps 0xcc9a(%eax),%xmm1
- DB 15,92,233 ; subps %xmm1,%xmm5
- DB 15,88,144,170,204,0,0 ; addps 0xccaa(%eax),%xmm2
- DB 15,40,136,186,204,0,0 ; movaps 0xccba(%eax),%xmm1
- DB 15,94,202 ; divps %xmm2,%xmm1
- DB 15,92,233 ; subps %xmm1,%xmm5
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,17 ; mov (%ecx),%edx
- DB 243,15,16,2 ; movss (%edx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,41,69,216 ; movaps %xmm0,-0x28(%ebp)
- DB 15,89,232 ; mulps %xmm0,%xmm5
- DB 243,15,91,197 ; cvttps2dq %xmm5,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,194,200,1 ; cmpltps %xmm0,%xmm1
- DB 15,84,136,218,201,0,0 ; andps 0xc9da(%eax),%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,88,168,202,204,0,0 ; addps 0xccca(%eax),%xmm5
- DB 15,40,184,234,204,0,0 ; movaps 0xccea(%eax),%xmm7
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,40,176,218,204,0,0 ; movaps 0xccda(%eax),%xmm6
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,92,233 ; subps %xmm1,%xmm5
- DB 15,40,144,250,204,0,0 ; movaps 0xccfa(%eax),%xmm2
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,94,216 ; divps %xmm0,%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 15,40,77,232 ; movaps -0x18(%ebp),%xmm1
- DB 15,91,193 ; cvtdq2ps %xmm1,%xmm0
- DB 15,89,128,106,204,0,0 ; mulps 0xcc6a(%eax),%xmm0
- DB 15,84,204 ; andps %xmm4,%xmm1
- DB 15,86,136,202,201,0,0 ; orps 0xc9ca(%eax),%xmm1
- DB 15,88,128,138,204,0,0 ; addps 0xcc8a(%eax),%xmm0
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,89,168,154,204,0,0 ; mulps 0xcc9a(%eax),%xmm5
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,88,136,170,204,0,0 ; addps 0xccaa(%eax),%xmm1
- DB 15,40,168,186,204,0,0 ; movaps 0xccba(%eax),%xmm5
- DB 15,94,233 ; divps %xmm1,%xmm5
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,89,69,216 ; mulps -0x28(%ebp),%xmm0
- DB 243,15,91,200 ; cvttps2dq %xmm0,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 15,194,233,1 ; cmpltps %xmm1,%xmm5
- DB 15,84,168,218,201,0,0 ; andps 0xc9da(%eax),%xmm5
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 15,92,233 ; subps %xmm1,%xmm5
- DB 15,88,128,202,204,0,0 ; addps 0xccca(%eax),%xmm0
- DB 15,40,207 ; movaps %xmm7,%xmm1
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 15,89,238 ; mulps %xmm6,%xmm5
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,40,234 ; movaps %xmm2,%xmm5
- DB 15,94,233 ; divps %xmm1,%xmm5
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 15,40,77,200 ; movaps -0x38(%ebp),%xmm1
- DB 15,91,193 ; cvtdq2ps %xmm1,%xmm0
- DB 15,89,128,106,204,0,0 ; mulps 0xcc6a(%eax),%xmm0
- DB 15,84,225 ; andps %xmm1,%xmm4
- DB 15,86,160,202,201,0,0 ; orps 0xc9ca(%eax),%xmm4
- DB 15,88,128,138,204,0,0 ; addps 0xcc8a(%eax),%xmm0
- DB 15,40,136,154,204,0,0 ; movaps 0xcc9a(%eax),%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,88,160,170,204,0,0 ; addps 0xccaa(%eax),%xmm4
- DB 15,40,136,186,204,0,0 ; movaps 0xccba(%eax),%xmm1
- DB 15,94,204 ; divps %xmm4,%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,89,69,216 ; mulps -0x28(%ebp),%xmm0
- DB 243,15,91,200 ; cvttps2dq %xmm0,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,194,225,1 ; cmpltps %xmm1,%xmm4
- DB 15,84,160,218,201,0,0 ; andps 0xc9da(%eax),%xmm4
- DB 15,92,204 ; subps %xmm4,%xmm1
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,92,225 ; subps %xmm1,%xmm4
- DB 15,88,128,202,204,0,0 ; addps 0xccca(%eax),%xmm0
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 15,92,198 ; subps %xmm6,%xmm0
- DB 15,92,252 ; subps %xmm4,%xmm7
- DB 15,94,215 ; divps %xmm7,%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 15,40,128,10,205,0,0 ; movaps 0xcd0a(%eax),%xmm0
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,89,232 ; mulps %xmm0,%xmm5
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 102,15,91,203 ; cvtps2dq %xmm3,%xmm1
- DB 15,40,69,184 ; movaps -0x48(%ebp),%xmm0
- DB 15,194,196,4 ; cmpneqps %xmm4,%xmm0
- DB 15,84,193 ; andps %xmm1,%xmm0
- DB 102,15,91,205 ; cvtps2dq %xmm5,%xmm1
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 15,194,220,4 ; cmpneqps %xmm4,%xmm3
- DB 15,84,217 ; andps %xmm1,%xmm3
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,40,93,200 ; movaps -0x38(%ebp),%xmm3
- DB 15,194,220,4 ; cmpneqps %xmm4,%xmm3
- DB 102,15,91,210 ; cvtps2dq %xmm2,%xmm2
- DB 15,84,218 ; andps %xmm2,%xmm3
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 141,65,8 ; lea 0x8(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,93,168 ; movaps -0x58(%ebp),%xmm3
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,104 ; add $0x68,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_gamma_dst_sse2
-_sk_gamma_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 129,236,212,0,0,0 ; sub $0xd4,%esp
- DB 15,41,157,40,255,255,255 ; movaps %xmm3,-0xd8(%ebp)
- DB 15,41,149,56,255,255,255 ; movaps %xmm2,-0xc8(%ebp)
- DB 15,41,141,72,255,255,255 ; movaps %xmm1,-0xb8(%ebp)
- DB 15,41,133,88,255,255,255 ; movaps %xmm0,-0xa8(%ebp)
- DB 232,0,0,0,0 ; call 3fbd <_sk_gamma_dst_sse2+0x2b>
- DB 94 ; pop %esi
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 15,40,72,16 ; movaps 0x10(%eax),%xmm1
- DB 15,91,193 ; cvtdq2ps %xmm1,%xmm0
- DB 15,40,150,67,202,0,0 ; movaps 0xca43(%esi),%xmm2
- DB 15,41,149,104,255,255,255 ; movaps %xmm2,-0x98(%ebp)
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 15,40,166,83,202,0,0 ; movaps 0xca53(%esi),%xmm4
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 15,84,212 ; andps %xmm4,%xmm2
- DB 15,40,158,163,199,0,0 ; movaps 0xc7a3(%esi),%xmm3
- DB 15,41,157,120,255,255,255 ; movaps %xmm3,-0x88(%ebp)
- DB 15,86,211 ; orps %xmm3,%xmm2
- DB 15,40,158,99,202,0,0 ; movaps 0xca63(%esi),%xmm3
- DB 15,41,93,136 ; movaps %xmm3,-0x78(%ebp)
- DB 15,88,195 ; addps %xmm3,%xmm0
- DB 15,40,174,115,202,0,0 ; movaps 0xca73(%esi),%xmm5
- DB 15,41,109,152 ; movaps %xmm5,-0x68(%ebp)
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,89,221 ; mulps %xmm5,%xmm3
- DB 15,92,195 ; subps %xmm3,%xmm0
- DB 15,40,158,131,202,0,0 ; movaps 0xca83(%esi),%xmm3
- DB 15,41,93,168 ; movaps %xmm3,-0x58(%ebp)
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 15,40,158,147,202,0,0 ; movaps 0xca93(%esi),%xmm3
- DB 15,41,93,184 ; movaps %xmm3,-0x48(%ebp)
- DB 15,94,218 ; divps %xmm2,%xmm3
- DB 15,92,195 ; subps %xmm3,%xmm0
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,17 ; mov (%ecx),%edx
- DB 243,15,16,18 ; movss (%edx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 243,15,91,208 ; cvttps2dq %xmm0,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 15,194,218,1 ; cmpltps %xmm2,%xmm3
- DB 15,40,174,179,199,0,0 ; movaps 0xc7b3(%esi),%xmm5
- DB 15,41,109,200 ; movaps %xmm5,-0x38(%ebp)
- DB 15,84,221 ; andps %xmm5,%xmm3
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 15,92,218 ; subps %xmm2,%xmm3
- DB 15,40,150,163,202,0,0 ; movaps 0xcaa3(%esi),%xmm2
- DB 15,41,85,216 ; movaps %xmm2,-0x28(%ebp)
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,40,190,195,202,0,0 ; movaps 0xcac3(%esi),%xmm7
- DB 15,40,239 ; movaps %xmm7,%xmm5
- DB 15,92,235 ; subps %xmm3,%xmm5
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,40,182,179,202,0,0 ; movaps 0xcab3(%esi),%xmm6
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,92,194 ; subps %xmm2,%xmm0
- DB 15,40,158,211,202,0,0 ; movaps 0xcad3(%esi),%xmm3
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,94,213 ; divps %xmm5,%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 15,40,134,227,202,0,0 ; movaps 0xcae3(%esi),%xmm0
- DB 15,41,69,232 ; movaps %xmm0,-0x18(%ebp)
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 102,15,91,194 ; cvtps2dq %xmm2,%xmm0
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,194,202,4 ; cmpneqps %xmm2,%xmm1
- DB 15,84,200 ; andps %xmm0,%xmm1
- DB 15,40,64,32 ; movaps 0x20(%eax),%xmm0
- DB 15,41,72,16 ; movaps %xmm1,0x10(%eax)
- DB 15,91,200 ; cvtdq2ps %xmm0,%xmm1
- DB 15,89,141,104,255,255,255 ; mulps -0x98(%ebp),%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,84,212 ; andps %xmm4,%xmm2
- DB 15,86,149,120,255,255,255 ; orps -0x88(%ebp),%xmm2
- DB 15,88,77,136 ; addps -0x78(%ebp),%xmm1
- DB 15,40,234 ; movaps %xmm2,%xmm5
- DB 15,89,109,152 ; mulps -0x68(%ebp),%xmm5
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 15,88,85,168 ; addps -0x58(%ebp),%xmm2
- DB 15,40,109,184 ; movaps -0x48(%ebp),%xmm5
- DB 15,94,234 ; divps %xmm2,%xmm5
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 243,15,16,18 ; movss (%edx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 243,15,91,209 ; cvttps2dq %xmm1,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,194,234,1 ; cmpltps %xmm2,%xmm5
- DB 15,84,109,200 ; andps -0x38(%ebp),%xmm5
- DB 15,92,213 ; subps %xmm5,%xmm2
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,92,234 ; subps %xmm2,%xmm5
- DB 15,88,77,216 ; addps -0x28(%ebp),%xmm1
- DB 15,40,215 ; movaps %xmm7,%xmm2
- DB 15,92,213 ; subps %xmm5,%xmm2
- DB 15,89,238 ; mulps %xmm6,%xmm5
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 15,40,235 ; movaps %xmm3,%xmm5
- DB 15,94,234 ; divps %xmm2,%xmm5
- DB 15,88,233 ; addps %xmm1,%xmm5
- DB 15,89,109,232 ; mulps -0x18(%ebp),%xmm5
- DB 102,15,91,205 ; cvtps2dq %xmm5,%xmm1
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,194,197,4 ; cmpneqps %xmm5,%xmm0
- DB 15,84,193 ; andps %xmm1,%xmm0
- DB 15,41,64,32 ; movaps %xmm0,0x20(%eax)
- DB 15,40,64,48 ; movaps 0x30(%eax),%xmm0
- DB 15,91,200 ; cvtdq2ps %xmm0,%xmm1
- DB 15,89,141,104,255,255,255 ; mulps -0x98(%ebp),%xmm1
- DB 15,84,224 ; andps %xmm0,%xmm4
- DB 15,86,165,120,255,255,255 ; orps -0x88(%ebp),%xmm4
- DB 15,88,77,136 ; addps -0x78(%ebp),%xmm1
- DB 15,40,85,152 ; movaps -0x68(%ebp),%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,92,202 ; subps %xmm2,%xmm1
- DB 15,88,101,168 ; addps -0x58(%ebp),%xmm4
- DB 15,40,85,184 ; movaps -0x48(%ebp),%xmm2
- DB 15,94,212 ; divps %xmm4,%xmm2
- DB 15,92,202 ; subps %xmm2,%xmm1
- DB 243,15,16,18 ; movss (%edx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 243,15,91,209 ; cvttps2dq %xmm1,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,194,226,1 ; cmpltps %xmm2,%xmm4
- DB 15,84,101,200 ; andps -0x38(%ebp),%xmm4
- DB 15,92,212 ; subps %xmm4,%xmm2
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,92,226 ; subps %xmm2,%xmm4
- DB 15,88,77,216 ; addps -0x28(%ebp),%xmm1
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 15,92,252 ; subps %xmm4,%xmm7
- DB 15,94,223 ; divps %xmm7,%xmm3
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 15,89,93,232 ; mulps -0x18(%ebp),%xmm3
- DB 15,194,197,4 ; cmpneqps %xmm5,%xmm0
- DB 102,15,91,203 ; cvtps2dq %xmm3,%xmm1
- DB 15,84,193 ; andps %xmm1,%xmm0
- DB 15,41,64,48 ; movaps %xmm0,0x30(%eax)
- DB 141,81,8 ; lea 0x8(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,133,88,255,255,255 ; movaps -0xa8(%ebp),%xmm0
- DB 15,40,141,72,255,255,255 ; movaps -0xb8(%ebp),%xmm1
- DB 15,40,149,56,255,255,255 ; movaps -0xc8(%ebp),%xmm2
- DB 15,40,157,40,255,255,255 ; movaps -0xd8(%ebp),%xmm3
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,81,4 ; call *0x4(%ecx)
- DB 129,196,228,0,0,0 ; add $0xe4,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_lab_to_xyz_sse2
-_sk_lab_to_xyz_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,24 ; sub $0x18,%esp
- DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 232,0,0,0,0 ; call 4219 <_sk_lab_to_xyz_sse2+0x15>
- DB 88 ; pop %eax
- DB 15,89,144,151,200,0,0 ; mulps 0xc897(%eax),%xmm2
- DB 15,40,160,39,198,0,0 ; movaps 0xc627(%eax),%xmm4
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,40,168,167,200,0,0 ; movaps 0xc8a7(%eax),%xmm5
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 15,88,144,183,200,0,0 ; addps 0xc8b7(%eax),%xmm2
- DB 15,89,144,199,200,0,0 ; mulps 0xc8c7(%eax),%xmm2
- DB 15,89,136,215,200,0,0 ; mulps 0xc8d7(%eax),%xmm1
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 15,89,152,231,200,0,0 ; mulps 0xc8e7(%eax),%xmm3
- DB 15,40,234 ; movaps %xmm2,%xmm5
- DB 15,92,235 ; subps %xmm3,%xmm5
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,40,152,247,200,0,0 ; movaps 0xc8f7(%eax),%xmm3
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,194,224,1 ; cmpltps %xmm0,%xmm4
- DB 15,40,176,7,201,0,0 ; movaps 0xc907(%eax),%xmm6
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,40,184,23,201,0,0 ; movaps 0xc917(%eax),%xmm7
- DB 15,89,207 ; mulps %xmm7,%xmm1
- DB 15,84,196 ; andps %xmm4,%xmm0
- DB 15,85,225 ; andnps %xmm1,%xmm4
- DB 15,86,224 ; orps %xmm0,%xmm4
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,194,200,1 ; cmpltps %xmm0,%xmm1
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,84,193 ; andps %xmm1,%xmm0
- DB 15,85,202 ; andnps %xmm2,%xmm1
- DB 15,86,200 ; orps %xmm0,%xmm1
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,88,238 ; addps %xmm6,%xmm5
- DB 15,89,239 ; mulps %xmm7,%xmm5
- DB 15,194,216,1 ; cmpltps %xmm0,%xmm3
- DB 15,84,195 ; andps %xmm3,%xmm0
- DB 15,85,221 ; andnps %xmm5,%xmm3
- DB 15,86,216 ; orps %xmm0,%xmm3
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,89,160,39,201,0,0 ; mulps 0xc927(%eax),%xmm4
- DB 15,89,152,55,201,0,0 ; mulps 0xc937(%eax),%xmm3
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,40 ; add $0x28,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_load_a8_sse2
-_sk_load_a8_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 4309 <_sk_load_a8_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,60 ; jne 4360 <_sk_load_a8_sse2+0x65>
- DB 102,15,110,4,62 ; movd (%esi,%edi,1),%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 102,15,97,192 ; punpcklwd %xmm0,%xmm0
- DB 102,15,219,130,39,197,0,0 ; pand 0xc527(%edx),%xmm0
- DB 15,91,216 ; cvtdq2ps %xmm0,%xmm3
- DB 15,89,154,103,198,0,0 ; mulps 0xc667(%edx),%xmm3
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 102,15,87,201 ; xorpd %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,50 ; je 439a <_sk_load_a8_sse2+0x9f>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,19 ; je 4384 <_sk_load_a8_sse2+0x89>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,187 ; jne 4331 <_sk_load_a8_sse2+0x36>
- DB 15,182,92,62,2 ; movzbl 0x2(%esi,%edi,1),%ebx
- DB 102,15,110,195 ; movd %ebx,%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 15,183,52,62 ; movzwl (%esi,%edi,1),%esi
- DB 102,15,110,206 ; movd %esi,%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 242,15,16,193 ; movsd %xmm1,%xmm0
- DB 235,151 ; jmp 4331 <_sk_load_a8_sse2+0x36>
- DB 15,182,52,62 ; movzbl (%esi,%edi,1),%esi
- DB 102,15,110,198 ; movd %esi,%xmm0
- DB 235,141 ; jmp 4331 <_sk_load_a8_sse2+0x36>
-
-PUBLIC _sk_load_a8_dst_sse2
-_sk_load_a8_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,16 ; mov (%eax),%edx
- DB 139,49 ; mov (%ecx),%esi
- DB 139,122,4 ; mov 0x4(%edx),%edi
- DB 15,175,121,4 ; imul 0x4(%ecx),%edi
- DB 3,58 ; add (%edx),%edi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,127,97,48 ; movdqa %xmm4,0x30(%ecx)
- DB 102,15,127,97,32 ; movdqa %xmm4,0x20(%ecx)
- DB 102,15,127,97,16 ; movdqa %xmm4,0x10(%ecx)
- DB 133,219 ; test %ebx,%ebx
- DB 232,0,0,0,0 ; call 43dd <_sk_load_a8_dst_sse2+0x39>
- DB 90 ; pop %edx
- DB 117,54 ; jne 4416 <_sk_load_a8_dst_sse2+0x72>
- DB 102,15,110,36,55 ; movd (%edi,%esi,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,219,162,83,196,0,0 ; pand 0xc453(%edx),%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,162,147,197,0,0 ; mulps 0xc593(%edx),%xmm4
- DB 15,41,97,64 ; movaps %xmm4,0x40(%ecx)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,46 ; je 444c <_sk_load_a8_dst_sse2+0xa8>
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,19 ; je 4436 <_sk_load_a8_dst_sse2+0x92>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,197 ; jne 43ed <_sk_load_a8_dst_sse2+0x49>
- DB 15,182,92,55,2 ; movzbl 0x2(%edi,%esi,1),%ebx
- DB 102,15,110,227 ; movd %ebx,%xmm4
- DB 102,15,112,228,69 ; pshufd $0x45,%xmm4,%xmm4
- DB 15,183,52,55 ; movzwl (%edi,%esi,1),%esi
- DB 102,15,110,238 ; movd %esi,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 102,15,97,232 ; punpcklwd %xmm0,%xmm5
- DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 235,161 ; jmp 43ed <_sk_load_a8_dst_sse2+0x49>
- DB 15,182,52,55 ; movzbl (%edi,%esi,1),%esi
- DB 102,15,110,230 ; movd %esi,%xmm4
- DB 235,151 ; jmp 43ed <_sk_load_a8_dst_sse2+0x49>
-
-PUBLIC _sk_gather_a8_sse2
-_sk_gather_a8_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,81,8 ; movss 0x8(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,254,211 ; paddd %xmm3,%xmm2
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,224 ; maxps %xmm0,%xmm4
- DB 15,93,226 ; minps %xmm2,%xmm4
- DB 243,15,16,65,12 ; movss 0xc(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,95,209 ; maxps %xmm1,%xmm2
- DB 15,93,208 ; minps %xmm0,%xmm2
- DB 139,17 ; mov (%ecx),%edx
- DB 243,15,91,194 ; cvttps2dq %xmm2,%xmm0
- DB 102,15,110,73,4 ; movd 0x4(%ecx),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,208,245 ; pshufd $0xf5,%xmm0,%xmm2
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,15,91,204 ; cvttps2dq %xmm4,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 102,15,112,193,229 ; pshufd $0xe5,%xmm1,%xmm0
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,15,126,214 ; movd %xmm2,%esi
- DB 102,15,112,201,231 ; pshufd $0xe7,%xmm1,%xmm1
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 15,182,52,50 ; movzbl (%edx,%esi,1),%esi
- DB 15,182,60,58 ; movzbl (%edx,%edi,1),%edi
- DB 193,231,8 ; shl $0x8,%edi
- DB 9,247 ; or %esi,%edi
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 15,182,12,10 ; movzbl (%edx,%ecx,1),%ecx
- DB 15,182,20,50 ; movzbl (%edx,%esi,1),%edx
- DB 193,226,8 ; shl $0x8,%edx
- DB 9,202 ; or %ecx,%edx
- DB 102,15,110,194 ; movd %edx,%xmm0
- DB 102,15,196,199,1 ; pinsrw $0x1,%edi,%xmm0
- DB 232,0,0,0,0 ; call 450a <_sk_gather_a8_sse2+0xb4>
- DB 89 ; pop %ecx
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,96,193 ; punpcklbw %xmm1,%xmm0
- DB 102,15,97,193 ; punpcklwd %xmm1,%xmm0
- DB 15,91,216 ; cvtdq2ps %xmm0,%xmm3
- DB 15,89,153,102,196,0,0 ; mulps 0xc466(%ecx),%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,16 ; add $0x10,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_store_a8_sse2
-_sk_store_a8_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 454e <_sk_store_a8_sse2+0xe>
- DB 94 ; pop %esi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,87,4 ; mov 0x4(%edi),%edx
- DB 15,175,81,4 ; imul 0x4(%ecx),%edx
- DB 3,23 ; add (%edi),%edx
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,227 ; maxps %xmm3,%xmm4
- DB 15,93,166,34,194,0,0 ; minps 0xc222(%esi),%xmm4
- DB 15,89,166,242,194,0,0 ; mulps 0xc2f2(%esi),%xmm4
- DB 102,15,91,228 ; cvtps2dq %xmm4,%xmm4
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,224 ; packssdw %xmm0,%xmm4
- DB 102,15,103,224 ; packuswb %xmm0,%xmm4
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,26 ; jne 45ad <_sk_store_a8_sse2+0x6d>
- DB 102,15,126,230 ; movd %xmm4,%esi
- DB 137,52,58 ; mov %esi,(%edx,%edi,1)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,54 ; je 45f3 <_sk_store_a8_sse2+0xb3>
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,14 ; je 45d0 <_sk_store_a8_sse2+0x90>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,211 ; jne 459a <_sk_store_a8_sse2+0x5a>
- DB 102,15,197,220,4 ; pextrw $0x4,%xmm4,%ebx
- DB 136,92,58,2 ; mov %bl,0x2(%edx,%edi,1)
- DB 102,15,112,228,212 ; pshufd $0xd4,%xmm4,%xmm4
- DB 102,15,219,166,18,198,0,0 ; pand 0xc612(%esi),%xmm4
- DB 102,15,103,228 ; packuswb %xmm4,%xmm4
- DB 102,15,103,228 ; packuswb %xmm4,%xmm4
- DB 102,15,103,228 ; packuswb %xmm4,%xmm4
- DB 102,15,126,230 ; movd %xmm4,%esi
- DB 102,137,52,58 ; mov %si,(%edx,%edi,1)
- DB 235,167 ; jmp 459a <_sk_store_a8_sse2+0x5a>
- DB 102,15,126,227 ; movd %xmm4,%ebx
- DB 136,28,58 ; mov %bl,(%edx,%edi,1)
- DB 235,158 ; jmp 459a <_sk_store_a8_sse2+0x5a>
-
-PUBLIC _sk_load_g8_sse2
-_sk_load_g8_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 460a <_sk_load_g8_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,63 ; jne 4664 <_sk_load_g8_sse2+0x68>
- DB 102,15,110,4,62 ; movd (%esi,%edi,1),%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 102,15,97,192 ; punpcklwd %xmm0,%xmm0
- DB 102,15,219,130,38,194,0,0 ; pand 0xc226(%edx),%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,130,102,195,0,0 ; mulps 0xc366(%edx),%xmm0
- DB 141,112,8 ; lea 0x8(%eax),%esi
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,154,102,193,0,0 ; movaps 0xc166(%edx),%xmm3
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,50 ; je 469e <_sk_load_g8_sse2+0xa2>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,19 ; je 4688 <_sk_load_g8_sse2+0x8c>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,184 ; jne 4632 <_sk_load_g8_sse2+0x36>
- DB 15,182,92,62,2 ; movzbl 0x2(%esi,%edi,1),%ebx
- DB 102,15,110,195 ; movd %ebx,%xmm0
- DB 102,15,112,192,69 ; pshufd $0x45,%xmm0,%xmm0
- DB 15,183,52,62 ; movzwl (%esi,%edi,1),%esi
- DB 102,15,110,206 ; movd %esi,%xmm1
- DB 102,15,96,200 ; punpcklbw %xmm0,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 242,15,16,193 ; movsd %xmm1,%xmm0
- DB 235,148 ; jmp 4632 <_sk_load_g8_sse2+0x36>
- DB 15,182,52,62 ; movzbl (%esi,%edi,1),%esi
- DB 102,15,110,198 ; movd %esi,%xmm0
- DB 235,138 ; jmp 4632 <_sk_load_g8_sse2+0x36>
-
-PUBLIC _sk_load_g8_dst_sse2
-_sk_load_g8_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 46b6 <_sk_load_g8_dst_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,73 ; jne 471a <_sk_load_g8_dst_sse2+0x72>
- DB 102,15,110,36,62 ; movd (%esi,%edi,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,219,162,122,193,0,0 ; pand 0xc17a(%edx),%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,162,186,194,0,0 ; mulps 0xc2ba(%edx),%xmm4
- DB 15,41,97,48 ; movaps %xmm4,0x30(%ecx)
- DB 15,41,97,32 ; movaps %xmm4,0x20(%ecx)
- DB 15,41,97,16 ; movaps %xmm4,0x10(%ecx)
- DB 15,40,162,186,192,0,0 ; movaps 0xc0ba(%edx),%xmm4
- DB 15,41,97,64 ; movaps %xmm4,0x40(%ecx)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,50 ; je 4754 <_sk_load_g8_dst_sse2+0xac>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,19 ; je 473e <_sk_load_g8_dst_sse2+0x96>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,174 ; jne 46de <_sk_load_g8_dst_sse2+0x36>
- DB 15,182,92,62,2 ; movzbl 0x2(%esi,%edi,1),%ebx
- DB 102,15,110,227 ; movd %ebx,%xmm4
- DB 102,15,112,228,69 ; pshufd $0x45,%xmm4,%xmm4
- DB 15,183,52,62 ; movzwl (%esi,%edi,1),%esi
- DB 102,15,110,238 ; movd %esi,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 102,15,97,232 ; punpcklwd %xmm0,%xmm5
- DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 235,138 ; jmp 46de <_sk_load_g8_dst_sse2+0x36>
- DB 15,182,52,62 ; movzbl (%esi,%edi,1),%esi
- DB 102,15,110,230 ; movd %esi,%xmm4
- DB 235,128 ; jmp 46de <_sk_load_g8_dst_sse2+0x36>
-
-PUBLIC _sk_gather_g8_sse2
-_sk_gather_g8_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,81,8 ; movss 0x8(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,254,211 ; paddd %xmm3,%xmm2
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,224 ; maxps %xmm0,%xmm4
- DB 15,93,226 ; minps %xmm2,%xmm4
- DB 243,15,16,65,12 ; movss 0xc(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,95,209 ; maxps %xmm1,%xmm2
- DB 15,93,208 ; minps %xmm0,%xmm2
- DB 139,17 ; mov (%ecx),%edx
- DB 243,15,91,194 ; cvttps2dq %xmm2,%xmm0
- DB 102,15,110,73,4 ; movd 0x4(%ecx),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,208,245 ; pshufd $0xf5,%xmm0,%xmm2
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,15,91,204 ; cvttps2dq %xmm4,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 102,15,112,193,229 ; pshufd $0xe5,%xmm1,%xmm0
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,15,126,214 ; movd %xmm2,%esi
- DB 102,15,112,201,231 ; pshufd $0xe7,%xmm1,%xmm1
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 15,182,52,50 ; movzbl (%edx,%esi,1),%esi
- DB 15,182,60,58 ; movzbl (%edx,%edi,1),%edi
- DB 193,231,8 ; shl $0x8,%edi
- DB 9,247 ; or %esi,%edi
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 15,182,12,10 ; movzbl (%edx,%ecx,1),%ecx
- DB 15,182,20,50 ; movzbl (%edx,%esi,1),%edx
- DB 193,226,8 ; shl $0x8,%edx
- DB 9,202 ; or %ecx,%edx
- DB 102,15,110,194 ; movd %edx,%xmm0
- DB 232,0,0,0,0 ; call 480d <_sk_gather_g8_sse2+0xaf>
- DB 89 ; pop %ecx
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 102,15,196,199,1 ; pinsrw $0x1,%edi,%xmm0
- DB 102,15,96,193 ; punpcklbw %xmm1,%xmm0
- DB 102,15,97,193 ; punpcklwd %xmm1,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,129,99,193,0,0 ; mulps 0xc163(%ecx),%xmm0
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,153,99,191,0,0 ; movaps 0xbf63(%ecx),%xmm3
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 82 ; push %edx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,16 ; add $0x10,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_load_565_sse2
-_sk_load_565_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 4858 <_sk_load_565_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 1,246 ; add %esi,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,97 ; jne 48d6 <_sk_load_565_sse2+0x8c>
- DB 243,15,126,20,126 ; movq (%esi,%edi,2),%xmm2
- DB 102,15,97,208 ; punpcklwd %xmm0,%xmm2
- DB 102,15,111,130,40,193,0,0 ; movdqa 0xc128(%edx),%xmm0
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,130,56,193,0,0 ; mulps 0xc138(%edx),%xmm0
- DB 102,15,111,138,72,193,0,0 ; movdqa 0xc148(%edx),%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,138,88,193,0,0 ; mulps 0xc158(%edx),%xmm1
- DB 102,15,219,146,104,193,0,0 ; pand 0xc168(%edx),%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,146,120,193,0,0 ; mulps 0xc178(%edx),%xmm2
- DB 141,112,8 ; lea 0x8(%eax),%esi
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,154,24,191,0,0 ; movaps 0xbf18(%edx),%xmm3
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,47 ; je 490d <_sk_load_565_sse2+0xc3>
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,19 ; je 48fa <_sk_load_565_sse2+0xb0>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,146 ; jne 487e <_sk_load_565_sse2+0x34>
- DB 15,183,92,126,4 ; movzwl 0x4(%esi,%edi,2),%ebx
- DB 102,15,110,195 ; movd %ebx,%xmm0
- DB 102,15,112,208,69 ; pshufd $0x45,%xmm0,%xmm2
- DB 102,15,110,4,126 ; movd (%esi,%edi,2),%xmm0
- DB 242,15,112,192,212 ; pshuflw $0xd4,%xmm0,%xmm0
- DB 242,15,16,208 ; movsd %xmm0,%xmm2
- DB 233,113,255,255,255 ; jmp 487e <_sk_load_565_sse2+0x34>
- DB 15,183,52,126 ; movzwl (%esi,%edi,2),%esi
- DB 102,15,110,214 ; movd %esi,%xmm2
- DB 233,100,255,255,255 ; jmp 487e <_sk_load_565_sse2+0x34>
-
-PUBLIC _sk_load_565_dst_sse2
-_sk_load_565_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 4928 <_sk_load_565_dst_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 1,246 ; add %esi,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,113 ; jne 49b6 <_sk_load_565_dst_sse2+0x9c>
- DB 243,15,126,36,126 ; movq (%esi,%edi,2),%xmm4
- DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,111,170,88,192,0,0 ; movdqa 0xc058(%edx),%xmm5
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,170,104,192,0,0 ; mulps 0xc068(%edx),%xmm5
- DB 15,41,105,16 ; movaps %xmm5,0x10(%ecx)
- DB 102,15,111,170,120,192,0,0 ; movdqa 0xc078(%edx),%xmm5
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,170,136,192,0,0 ; mulps 0xc088(%edx),%xmm5
- DB 15,41,105,32 ; movaps %xmm5,0x20(%ecx)
- DB 102,15,219,162,152,192,0,0 ; pand 0xc098(%edx),%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,162,168,192,0,0 ; mulps 0xc0a8(%edx),%xmm4
- DB 15,41,97,48 ; movaps %xmm4,0x30(%ecx)
- DB 15,40,162,72,190,0,0 ; movaps 0xbe48(%edx),%xmm4
- DB 15,41,97,64 ; movaps %xmm4,0x40(%ecx)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,47 ; je 49ed <_sk_load_565_dst_sse2+0xd3>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,19 ; je 49da <_sk_load_565_dst_sse2+0xc0>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,130 ; jne 494e <_sk_load_565_dst_sse2+0x34>
- DB 15,183,92,126,4 ; movzwl 0x4(%esi,%edi,2),%ebx
- DB 102,15,110,227 ; movd %ebx,%xmm4
- DB 102,15,112,228,69 ; pshufd $0x45,%xmm4,%xmm4
- DB 102,15,110,44,126 ; movd (%esi,%edi,2),%xmm5
- DB 242,15,112,237,212 ; pshuflw $0xd4,%xmm5,%xmm5
- DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 233,97,255,255,255 ; jmp 494e <_sk_load_565_dst_sse2+0x34>
- DB 15,183,52,126 ; movzwl (%esi,%edi,2),%esi
- DB 102,15,110,230 ; movd %esi,%xmm4
- DB 233,84,255,255,255 ; jmp 494e <_sk_load_565_dst_sse2+0x34>
-
-PUBLIC _sk_gather_565_sse2
-_sk_gather_565_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,81,8 ; movss 0x8(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,254,211 ; paddd %xmm3,%xmm2
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,224 ; maxps %xmm0,%xmm4
- DB 15,93,226 ; minps %xmm2,%xmm4
- DB 243,15,16,65,12 ; movss 0xc(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,95,209 ; maxps %xmm1,%xmm2
- DB 15,93,208 ; minps %xmm0,%xmm2
- DB 139,17 ; mov (%ecx),%edx
- DB 243,15,91,194 ; cvttps2dq %xmm2,%xmm0
- DB 102,15,110,73,4 ; movd 0x4(%ecx),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,208,245 ; pshufd $0xf5,%xmm0,%xmm2
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,15,91,204 ; cvttps2dq %xmm4,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 102,15,112,193,229 ; pshufd $0xe5,%xmm1,%xmm0
- DB 15,183,12,74 ; movzwl (%edx,%ecx,2),%ecx
- DB 102,15,110,209 ; movd %ecx,%xmm2
- DB 102,15,126,193 ; movd %xmm0,%ecx
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 15,183,12,74 ; movzwl (%edx,%ecx,2),%ecx
- DB 102,15,196,209,1 ; pinsrw $0x1,%ecx,%xmm2
- DB 102,15,126,193 ; movd %xmm0,%ecx
- DB 102,15,112,193,231 ; pshufd $0xe7,%xmm1,%xmm0
- DB 15,183,12,74 ; movzwl (%edx,%ecx,2),%ecx
- DB 102,15,196,209,2 ; pinsrw $0x2,%ecx,%xmm2
- DB 102,15,126,193 ; movd %xmm0,%ecx
- DB 15,183,12,74 ; movzwl (%edx,%ecx,2),%ecx
- DB 232,0,0,0,0 ; call 4aaa <_sk_gather_565_sse2+0xb0>
- DB 90 ; pop %edx
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,209,3 ; pinsrw $0x3,%ecx,%xmm2
- DB 102,15,97,208 ; punpcklwd %xmm0,%xmm2
- DB 102,15,111,130,214,190,0,0 ; movdqa 0xbed6(%edx),%xmm0
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,130,230,190,0,0 ; mulps 0xbee6(%edx),%xmm0
- DB 102,15,111,138,246,190,0,0 ; movdqa 0xbef6(%edx),%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,138,6,191,0,0 ; mulps 0xbf06(%edx),%xmm1
- DB 102,15,219,146,22,191,0,0 ; pand 0xbf16(%edx),%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,146,38,191,0,0 ; mulps 0xbf26(%edx),%xmm2
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,154,198,188,0,0 ; movaps 0xbcc6(%edx),%xmm3
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_store_565_sse2
-_sk_store_565_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 4b1d <_sk_store_565_sse2+0xe>
- DB 94 ; pop %esi
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,95,232 ; maxps %xmm0,%xmm5
- DB 15,40,182,83,188,0,0 ; movaps 0xbc53(%esi),%xmm6
- DB 15,93,238 ; minps %xmm6,%xmm5
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 15,95,249 ; maxps %xmm1,%xmm7
- DB 15,93,254 ; minps %xmm6,%xmm7
- DB 15,95,226 ; maxps %xmm2,%xmm4
- DB 15,93,230 ; minps %xmm6,%xmm4
- DB 15,40,182,83,192,0,0 ; movaps 0xc053(%esi),%xmm6
- DB 15,89,238 ; mulps %xmm6,%xmm5
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 102,15,91,237 ; cvtps2dq %xmm5,%xmm5
- DB 102,15,114,245,11 ; pslld $0xb,%xmm5
- DB 102,15,91,228 ; cvtps2dq %xmm4,%xmm4
- DB 102,15,86,229 ; orpd %xmm5,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,87,4 ; mov 0x4(%edi),%edx
- DB 15,175,81,4 ; imul 0x4(%ecx),%edx
- DB 1,210 ; add %edx,%edx
- DB 3,23 ; add (%edi),%edx
- DB 139,57 ; mov (%ecx),%edi
- DB 15,89,190,99,192,0,0 ; mulps 0xc063(%esi),%xmm7
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 102,15,91,239 ; cvtps2dq %xmm7,%xmm5
- DB 102,15,114,245,5 ; pslld $0x5,%xmm5
- DB 102,15,86,229 ; orpd %xmm5,%xmm4
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,224 ; packssdw %xmm0,%xmm4
- DB 102,15,126,101,232 ; movd %xmm4,-0x18(%ebp)
- DB 102,15,112,236,229 ; pshufd $0xe5,%xmm4,%xmm5
- DB 102,15,126,109,236 ; movd %xmm5,-0x14(%ebp)
- DB 133,219 ; test %ebx,%ebx
- DB 117,34 ; jne 4bcd <_sk_store_565_sse2+0xbe>
- DB 102,15,126,230 ; movd %xmm4,%esi
- DB 102,15,126,235 ; movd %xmm5,%ebx
- DB 137,52,122 ; mov %esi,(%edx,%edi,2)
- DB 137,92,122,4 ; mov %ebx,0x4(%edx,%edi,2)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 243,15,126,101,232 ; movq -0x18(%ebp),%xmm4
- DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,37 ; je 4c03 <_sk_store_565_sse2+0xf4>
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,15 ; je 4bf2 <_sk_store_565_sse2+0xe3>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,210 ; jne 4bba <_sk_store_565_sse2+0xab>
- DB 102,15,197,244,4 ; pextrw $0x4,%xmm4,%esi
- DB 102,137,116,122,4 ; mov %si,0x4(%edx,%edi,2)
- DB 102,15,112,228,212 ; pshufd $0xd4,%xmm4,%xmm4
- DB 242,15,112,228,232 ; pshuflw $0xe8,%xmm4,%xmm4
- DB 102,15,126,36,122 ; movd %xmm4,(%edx,%edi,2)
- DB 235,183 ; jmp 4bba <_sk_store_565_sse2+0xab>
- DB 102,15,126,230 ; movd %xmm4,%esi
- DB 102,137,52,122 ; mov %si,(%edx,%edi,2)
- DB 235,173 ; jmp 4bba <_sk_store_565_sse2+0xab>
-
-PUBLIC _sk_load_4444_sse2
-_sk_load_4444_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 4c1b <_sk_load_4444_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 1,246 ; add %esi,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,112 ; jne 4ca8 <_sk_load_4444_sse2+0x9b>
- DB 243,15,126,28,126 ; movq (%esi,%edi,2),%xmm3
- DB 102,15,97,216 ; punpcklwd %xmm0,%xmm3
- DB 102,15,111,130,117,191,0,0 ; movdqa 0xbf75(%edx),%xmm0
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,130,133,191,0,0 ; mulps 0xbf85(%edx),%xmm0
- DB 102,15,111,138,149,191,0,0 ; movdqa 0xbf95(%edx),%xmm1
- DB 102,15,219,203 ; pand %xmm3,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,138,165,191,0,0 ; mulps 0xbfa5(%edx),%xmm1
- DB 102,15,111,146,181,191,0,0 ; movdqa 0xbfb5(%edx),%xmm2
- DB 102,15,219,211 ; pand %xmm3,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,146,197,191,0,0 ; mulps 0xbfc5(%edx),%xmm2
- DB 102,15,219,154,213,191,0,0 ; pand 0xbfd5(%edx),%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,154,229,191,0,0 ; mulps 0xbfe5(%edx),%xmm3
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,47 ; je 4cdf <_sk_load_4444_sse2+0xd2>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,19 ; je 4ccc <_sk_load_4444_sse2+0xbf>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,131 ; jne 4c41 <_sk_load_4444_sse2+0x34>
- DB 15,183,92,126,4 ; movzwl 0x4(%esi,%edi,2),%ebx
- DB 102,15,110,195 ; movd %ebx,%xmm0
- DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
- DB 102,15,110,4,126 ; movd (%esi,%edi,2),%xmm0
- DB 242,15,112,192,212 ; pshuflw $0xd4,%xmm0,%xmm0
- DB 242,15,16,216 ; movsd %xmm0,%xmm3
- DB 233,98,255,255,255 ; jmp 4c41 <_sk_load_4444_sse2+0x34>
- DB 15,183,52,126 ; movzwl (%esi,%edi,2),%esi
- DB 102,15,110,222 ; movd %esi,%xmm3
- DB 233,85,255,255,255 ; jmp 4c41 <_sk_load_4444_sse2+0x34>
-
-PUBLIC _sk_load_4444_dst_sse2
-_sk_load_4444_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 4cfa <_sk_load_4444_dst_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 1,246 ; add %esi,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 15,133,128,0,0,0 ; jne 4d9b <_sk_load_4444_dst_sse2+0xaf>
- DB 243,15,126,36,126 ; movq (%esi,%edi,2),%xmm4
- DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,111,170,150,190,0,0 ; movdqa 0xbe96(%edx),%xmm5
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,170,166,190,0,0 ; mulps 0xbea6(%edx),%xmm5
- DB 15,41,105,16 ; movaps %xmm5,0x10(%ecx)
- DB 102,15,111,170,182,190,0,0 ; movdqa 0xbeb6(%edx),%xmm5
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,170,198,190,0,0 ; mulps 0xbec6(%edx),%xmm5
- DB 15,41,105,32 ; movaps %xmm5,0x20(%ecx)
- DB 102,15,111,170,214,190,0,0 ; movdqa 0xbed6(%edx),%xmm5
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,89,170,230,190,0,0 ; mulps 0xbee6(%edx),%xmm5
- DB 15,41,105,48 ; movaps %xmm5,0x30(%ecx)
- DB 102,15,219,162,246,190,0,0 ; pand 0xbef6(%edx),%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,162,6,191,0,0 ; mulps 0xbf06(%edx),%xmm4
- DB 15,41,97,64 ; movaps %xmm4,0x40(%ecx)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,51 ; je 4dd6 <_sk_load_4444_dst_sse2+0xea>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,23 ; je 4dc3 <_sk_load_4444_dst_sse2+0xd7>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 15,133,111,255,255,255 ; jne 4d24 <_sk_load_4444_dst_sse2+0x38>
- DB 15,183,92,126,4 ; movzwl 0x4(%esi,%edi,2),%ebx
- DB 102,15,110,227 ; movd %ebx,%xmm4
- DB 102,15,112,228,69 ; pshufd $0x45,%xmm4,%xmm4
- DB 102,15,110,44,126 ; movd (%esi,%edi,2),%xmm5
- DB 242,15,112,237,212 ; pshuflw $0xd4,%xmm5,%xmm5
- DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 233,78,255,255,255 ; jmp 4d24 <_sk_load_4444_dst_sse2+0x38>
- DB 15,183,52,126 ; movzwl (%esi,%edi,2),%esi
- DB 102,15,110,230 ; movd %esi,%xmm4
- DB 233,65,255,255,255 ; jmp 4d24 <_sk_load_4444_dst_sse2+0x38>
-
-PUBLIC _sk_gather_4444_sse2
-_sk_gather_4444_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,81,8 ; movss 0x8(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,254,211 ; paddd %xmm3,%xmm2
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,224 ; maxps %xmm0,%xmm4
- DB 15,93,226 ; minps %xmm2,%xmm4
- DB 243,15,16,65,12 ; movss 0xc(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,95,209 ; maxps %xmm1,%xmm2
- DB 15,93,208 ; minps %xmm0,%xmm2
- DB 139,17 ; mov (%ecx),%edx
- DB 243,15,91,194 ; cvttps2dq %xmm2,%xmm0
- DB 102,15,110,73,4 ; movd 0x4(%ecx),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,208,245 ; pshufd $0xf5,%xmm0,%xmm2
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,15,91,204 ; cvttps2dq %xmm4,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 102,15,112,193,229 ; pshufd $0xe5,%xmm1,%xmm0
- DB 15,183,12,74 ; movzwl (%edx,%ecx,2),%ecx
- DB 102,15,110,217 ; movd %ecx,%xmm3
- DB 102,15,126,193 ; movd %xmm0,%ecx
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 15,183,12,74 ; movzwl (%edx,%ecx,2),%ecx
- DB 102,15,196,217,1 ; pinsrw $0x1,%ecx,%xmm3
- DB 102,15,126,193 ; movd %xmm0,%ecx
- DB 102,15,112,193,231 ; pshufd $0xe7,%xmm1,%xmm0
- DB 15,183,12,74 ; movzwl (%edx,%ecx,2),%ecx
- DB 102,15,196,217,2 ; pinsrw $0x2,%ecx,%xmm3
- DB 102,15,126,193 ; movd %xmm0,%ecx
- DB 15,183,12,74 ; movzwl (%edx,%ecx,2),%ecx
- DB 102,15,196,217,3 ; pinsrw $0x3,%ecx,%xmm3
- DB 232,0,0,0,0 ; call 4e98 <_sk_gather_4444_sse2+0xb5>
- DB 89 ; pop %ecx
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,97,216 ; punpcklwd %xmm0,%xmm3
- DB 102,15,111,129,248,188,0,0 ; movdqa 0xbcf8(%ecx),%xmm0
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,129,8,189,0,0 ; mulps 0xbd08(%ecx),%xmm0
- DB 102,15,111,137,24,189,0,0 ; movdqa 0xbd18(%ecx),%xmm1
- DB 102,15,219,203 ; pand %xmm3,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,137,40,189,0,0 ; mulps 0xbd28(%ecx),%xmm1
- DB 102,15,111,145,56,189,0,0 ; movdqa 0xbd38(%ecx),%xmm2
- DB 102,15,219,211 ; pand %xmm3,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,145,72,189,0,0 ; mulps 0xbd48(%ecx),%xmm2
- DB 102,15,219,153,88,189,0,0 ; pand 0xbd58(%ecx),%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,153,104,189,0,0 ; mulps 0xbd68(%ecx),%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_store_4444_sse2
-_sk_store_4444_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,44 ; sub $0x2c,%esp
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 232,0,0,0,0 ; call 4f19 <_sk_store_4444_sse2+0x12>
- DB 88 ; pop %eax
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,224 ; maxps %xmm0,%xmm4
- DB 15,40,168,87,184,0,0 ; movaps 0xb857(%eax),%xmm5
- DB 15,93,229 ; minps %xmm5,%xmm4
- DB 15,40,176,247,188,0,0 ; movaps 0xbcf7(%eax),%xmm6
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 102,15,91,228 ; cvtps2dq %xmm4,%xmm4
- DB 102,15,114,244,12 ; pslld $0xc,%xmm4
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 15,95,249 ; maxps %xmm1,%xmm7
- DB 15,93,253 ; minps %xmm5,%xmm7
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 102,15,91,255 ; cvtps2dq %xmm7,%xmm7
- DB 102,15,114,247,8 ; pslld $0x8,%xmm7
- DB 102,15,235,252 ; por %xmm4,%xmm7
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 15,95,226 ; maxps %xmm2,%xmm4
- DB 15,93,229 ; minps %xmm5,%xmm4
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,95,93,216 ; maxps -0x28(%ebp),%xmm3
- DB 15,93,221 ; minps %xmm5,%xmm3
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 15,89,222 ; mulps %xmm6,%xmm3
- DB 102,15,91,236 ; cvtps2dq %xmm4,%xmm5
- DB 102,15,114,245,4 ; pslld $0x4,%xmm5
- DB 102,15,91,227 ; cvtps2dq %xmm3,%xmm4
- DB 102,15,86,229 ; orpd %xmm5,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,17 ; mov (%ecx),%edx
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 1,246 ; add %esi,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 102,15,86,231 ; orpd %xmm7,%xmm4
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,224 ; packssdw %xmm0,%xmm4
- DB 102,15,126,101,232 ; movd %xmm4,-0x18(%ebp)
- DB 102,15,112,236,229 ; pshufd $0xe5,%xmm4,%xmm5
- DB 102,15,126,109,236 ; movd %xmm5,-0x14(%ebp)
- DB 133,219 ; test %ebx,%ebx
- DB 117,42 ; jne 4fec <_sk_store_4444_sse2+0xe5>
- DB 102,15,126,231 ; movd %xmm4,%edi
- DB 102,15,126,235 ; movd %xmm5,%ebx
- DB 137,60,86 ; mov %edi,(%esi,%edx,2)
- DB 137,92,86,4 ; mov %ebx,0x4(%esi,%edx,2)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,85,200 ; movaps -0x38(%ebp),%xmm2
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,60 ; add $0x3c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 243,15,126,101,232 ; movq -0x18(%ebp),%xmm4
- DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,37 ; je 5022 <_sk_store_4444_sse2+0x11b>
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,15 ; je 5011 <_sk_store_4444_sse2+0x10a>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,202 ; jne 4fd1 <_sk_store_4444_sse2+0xca>
- DB 102,15,197,252,4 ; pextrw $0x4,%xmm4,%edi
- DB 102,137,124,86,4 ; mov %di,0x4(%esi,%edx,2)
- DB 102,15,112,220,212 ; pshufd $0xd4,%xmm4,%xmm3
- DB 242,15,112,219,232 ; pshuflw $0xe8,%xmm3,%xmm3
- DB 102,15,126,28,86 ; movd %xmm3,(%esi,%edx,2)
- DB 235,175 ; jmp 4fd1 <_sk_store_4444_sse2+0xca>
- DB 102,15,126,231 ; movd %xmm4,%edi
- DB 102,137,60,86 ; mov %di,(%esi,%edx,2)
- DB 235,165 ; jmp 4fd1 <_sk_store_4444_sse2+0xca>
-
-PUBLIC _sk_load_8888_sse2
-_sk_load_8888_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 503a <_sk_load_8888_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 193,230,2 ; shl $0x2,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,102 ; jne 50be <_sk_load_8888_sse2+0x92>
- DB 243,15,111,28,190 ; movdqu (%esi,%edi,4),%xmm3
- DB 102,15,111,146,246,183,0,0 ; movdqa 0xb7f6(%edx),%xmm2
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,162,54,185,0,0 ; movaps 0xb936(%edx),%xmm4
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,114,209,8 ; psrld $0x8,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,114,213,16 ; psrld $0x10,%xmm5
- DB 102,15,219,234 ; pand %xmm2,%xmm5
- DB 15,91,213 ; cvtdq2ps %xmm5,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,35 ; je 50e9 <_sk_load_8888_sse2+0xbd>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,16 ; je 50df <_sk_load_8888_sse2+0xb3>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,137 ; jne 505d <_sk_load_8888_sse2+0x31>
- DB 102,15,110,68,190,8 ; movd 0x8(%esi,%edi,4),%xmm0
- DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
- DB 102,15,18,28,190 ; movlpd (%esi,%edi,4),%xmm3
- DB 233,116,255,255,255 ; jmp 505d <_sk_load_8888_sse2+0x31>
- DB 102,15,110,28,190 ; movd (%esi,%edi,4),%xmm3
- DB 233,106,255,255,255 ; jmp 505d <_sk_load_8888_sse2+0x31>
-
-PUBLIC _sk_load_8888_dst_sse2
-_sk_load_8888_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 5101 <_sk_load_8888_dst_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 193,230,2 ; shl $0x2,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,118 ; jne 5195 <_sk_load_8888_dst_sse2+0xa2>
- DB 243,15,111,36,190 ; movdqu (%esi,%edi,4),%xmm4
- DB 102,15,111,170,47,183,0,0 ; movdqa 0xb72f(%edx),%xmm5
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,40,186,111,184,0,0 ; movaps 0xb86f(%edx),%xmm7
- DB 15,89,247 ; mulps %xmm7,%xmm6
- DB 15,41,113,16 ; movaps %xmm6,0x10(%ecx)
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,114,214,8 ; psrld $0x8,%xmm6
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,247 ; mulps %xmm7,%xmm6
- DB 15,41,113,32 ; movaps %xmm6,0x20(%ecx)
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,114,214,16 ; psrld $0x10,%xmm6
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 15,91,238 ; cvtdq2ps %xmm6,%xmm5
- DB 15,89,239 ; mulps %xmm7,%xmm5
- DB 15,41,105,48 ; movaps %xmm5,0x30(%ecx)
- DB 102,15,114,212,24 ; psrld $0x18,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,41,97,64 ; movaps %xmm4,0x40(%ecx)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,39 ; je 51c4 <_sk_load_8888_dst_sse2+0xd1>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,20 ; je 51ba <_sk_load_8888_dst_sse2+0xc7>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 15,133,117,255,255,255 ; jne 5124 <_sk_load_8888_dst_sse2+0x31>
- DB 102,15,110,100,190,8 ; movd 0x8(%esi,%edi,4),%xmm4
- DB 102,15,112,228,69 ; pshufd $0x45,%xmm4,%xmm4
- DB 102,15,18,36,190 ; movlpd (%esi,%edi,4),%xmm4
- DB 233,96,255,255,255 ; jmp 5124 <_sk_load_8888_dst_sse2+0x31>
- DB 102,15,110,36,190 ; movd (%esi,%edi,4),%xmm4
- DB 233,86,255,255,255 ; jmp 5124 <_sk_load_8888_dst_sse2+0x31>
-
-PUBLIC _sk_gather_8888_sse2
-_sk_gather_8888_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,81,8 ; movss 0x8(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,254,211 ; paddd %xmm3,%xmm2
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,95,232 ; maxps %xmm0,%xmm5
- DB 15,93,234 ; minps %xmm2,%xmm5
- DB 243,15,16,65,12 ; movss 0xc(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 15,95,225 ; maxps %xmm1,%xmm4
- DB 15,93,224 ; minps %xmm0,%xmm4
- DB 139,17 ; mov (%ecx),%edx
- DB 243,15,91,196 ; cvttps2dq %xmm4,%xmm0
- DB 102,15,110,73,4 ; movd 0x4(%ecx),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,208,245 ; pshufd $0xf5,%xmm0,%xmm2
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,15,91,205 ; cvttps2dq %xmm5,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,15,112,209,231 ; pshufd $0xe7,%xmm1,%xmm2
- DB 102,15,126,209 ; movd %xmm2,%ecx
- DB 102,15,110,20,138 ; movd (%edx,%ecx,4),%xmm2
- DB 102,15,126,193 ; movd %xmm0,%ecx
- DB 102,15,110,4,138 ; movd (%edx,%ecx,4),%xmm0
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 102,15,112,201,229 ; pshufd $0xe5,%xmm1,%xmm1
- DB 102,15,110,28,138 ; movd (%edx,%ecx,4),%xmm3
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 102,15,110,12,138 ; movd (%edx,%ecx,4),%xmm1
- DB 232,0,0,0,0 ; call 5274 <_sk_gather_8888_sse2+0xa6>
- DB 89 ; pop %ecx
- DB 102,15,98,194 ; punpckldq %xmm2,%xmm0
- DB 102,15,98,217 ; punpckldq %xmm1,%xmm3
- DB 102,15,108,216 ; punpcklqdq %xmm0,%xmm3
- DB 102,15,111,145,188,181,0,0 ; movdqa 0xb5bc(%ecx),%xmm2
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,161,252,182,0,0 ; movaps 0xb6fc(%ecx),%xmm4
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,114,209,8 ; psrld $0x8,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,114,213,16 ; psrld $0x10,%xmm5
- DB 102,15,219,234 ; pand %xmm2,%xmm5
- DB 15,91,213 ; cvtdq2ps %xmm5,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_store_8888_sse2
-_sk_store_8888_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,44 ; sub $0x2c,%esp
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 232,0,0,0,0 ; call 52f3 <_sk_store_8888_sse2+0x12>
- DB 88 ; pop %eax
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,224 ; maxps %xmm0,%xmm4
- DB 15,40,168,125,180,0,0 ; movaps 0xb47d(%eax),%xmm5
- DB 15,93,229 ; minps %xmm5,%xmm4
- DB 15,40,176,77,181,0,0 ; movaps 0xb54d(%eax),%xmm6
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 102,15,91,228 ; cvtps2dq %xmm4,%xmm4
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 15,95,249 ; maxps %xmm1,%xmm7
- DB 15,93,253 ; minps %xmm5,%xmm7
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 102,15,91,255 ; cvtps2dq %xmm7,%xmm7
- DB 102,15,114,247,8 ; pslld $0x8,%xmm7
- DB 102,15,235,252 ; por %xmm4,%xmm7
- DB 102,15,87,228 ; xorpd %xmm4,%xmm4
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 15,95,226 ; maxps %xmm2,%xmm4
- DB 15,93,229 ; minps %xmm5,%xmm4
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,95,93,216 ; maxps -0x28(%ebp),%xmm3
- DB 15,93,221 ; minps %xmm5,%xmm3
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 15,89,222 ; mulps %xmm6,%xmm3
- DB 102,15,91,236 ; cvtps2dq %xmm4,%xmm5
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,91,227 ; cvtps2dq %xmm3,%xmm4
- DB 102,15,114,244,24 ; pslld $0x18,%xmm4
- DB 102,15,235,229 ; por %xmm5,%xmm4
- DB 102,15,235,231 ; por %xmm7,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,17 ; mov (%ecx),%edx
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 193,230,2 ; shl $0x2,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 117,32 ; jne 53a0 <_sk_store_8888_sse2+0xbf>
- DB 243,15,127,36,150 ; movdqu %xmm4,(%esi,%edx,4)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,85,200 ; movaps -0x38(%ebp),%xmm2
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,60 ; add $0x3c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,28 ; je 53c4 <_sk_store_8888_sse2+0xe3>
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,16 ; je 53bd <_sk_store_8888_sse2+0xdc>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,211 ; jne 5385 <_sk_store_8888_sse2+0xa4>
- DB 102,15,112,220,78 ; pshufd $0x4e,%xmm4,%xmm3
- DB 102,15,126,92,150,8 ; movd %xmm3,0x8(%esi,%edx,4)
- DB 102,15,214,36,150 ; movq %xmm4,(%esi,%edx,4)
- DB 235,193 ; jmp 5385 <_sk_store_8888_sse2+0xa4>
- DB 102,15,126,36,150 ; movd %xmm4,(%esi,%edx,4)
- DB 235,186 ; jmp 5385 <_sk_store_8888_sse2+0xa4>
-
-PUBLIC _sk_load_bgra_sse2
-_sk_load_bgra_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 53d9 <_sk_load_bgra_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 193,230,2 ; shl $0x2,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,102 ; jne 545d <_sk_load_bgra_sse2+0x92>
- DB 243,15,111,28,190 ; movdqu (%esi,%edi,4),%xmm3
- DB 102,15,111,130,87,180,0,0 ; movdqa 0xb457(%edx),%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 15,91,209 ; cvtdq2ps %xmm1,%xmm2
- DB 15,40,162,151,181,0,0 ; movaps 0xb597(%edx),%xmm4
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,114,209,8 ; psrld $0x8,%xmm1
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,114,213,16 ; psrld $0x10,%xmm5
- DB 102,15,219,232 ; pand %xmm0,%xmm5
- DB 15,91,197 ; cvtdq2ps %xmm5,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,35 ; je 5488 <_sk_load_bgra_sse2+0xbd>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,16 ; je 547e <_sk_load_bgra_sse2+0xb3>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,137 ; jne 53fc <_sk_load_bgra_sse2+0x31>
- DB 102,15,110,68,190,8 ; movd 0x8(%esi,%edi,4),%xmm0
- DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
- DB 102,15,18,28,190 ; movlpd (%esi,%edi,4),%xmm3
- DB 233,116,255,255,255 ; jmp 53fc <_sk_load_bgra_sse2+0x31>
- DB 102,15,110,28,190 ; movd (%esi,%edi,4),%xmm3
- DB 233,106,255,255,255 ; jmp 53fc <_sk_load_bgra_sse2+0x31>
-
-PUBLIC _sk_load_bgra_dst_sse2
-_sk_load_bgra_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 54a0 <_sk_load_bgra_dst_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 193,230,2 ; shl $0x2,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,118 ; jne 5534 <_sk_load_bgra_dst_sse2+0xa2>
- DB 243,15,111,36,190 ; movdqu (%esi,%edi,4),%xmm4
- DB 102,15,111,170,144,179,0,0 ; movdqa 0xb390(%edx),%xmm5
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,40,186,208,180,0,0 ; movaps 0xb4d0(%edx),%xmm7
- DB 15,89,247 ; mulps %xmm7,%xmm6
- DB 15,41,113,48 ; movaps %xmm6,0x30(%ecx)
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,114,214,8 ; psrld $0x8,%xmm6
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,247 ; mulps %xmm7,%xmm6
- DB 15,41,113,32 ; movaps %xmm6,0x20(%ecx)
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,114,214,16 ; psrld $0x10,%xmm6
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 15,91,238 ; cvtdq2ps %xmm6,%xmm5
- DB 15,89,239 ; mulps %xmm7,%xmm5
- DB 15,41,105,16 ; movaps %xmm5,0x10(%ecx)
- DB 102,15,114,212,24 ; psrld $0x18,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,41,97,64 ; movaps %xmm4,0x40(%ecx)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,39 ; je 5563 <_sk_load_bgra_dst_sse2+0xd1>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,20 ; je 5559 <_sk_load_bgra_dst_sse2+0xc7>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 15,133,117,255,255,255 ; jne 54c3 <_sk_load_bgra_dst_sse2+0x31>
- DB 102,15,110,100,190,8 ; movd 0x8(%esi,%edi,4),%xmm4
- DB 102,15,112,228,69 ; pshufd $0x45,%xmm4,%xmm4
- DB 102,15,18,36,190 ; movlpd (%esi,%edi,4),%xmm4
- DB 233,96,255,255,255 ; jmp 54c3 <_sk_load_bgra_dst_sse2+0x31>
- DB 102,15,110,36,190 ; movd (%esi,%edi,4),%xmm4
- DB 233,86,255,255,255 ; jmp 54c3 <_sk_load_bgra_dst_sse2+0x31>
-
-PUBLIC _sk_gather_bgra_sse2
-_sk_gather_bgra_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,81,8 ; movss 0x8(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,254,211 ; paddd %xmm3,%xmm2
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,95,232 ; maxps %xmm0,%xmm5
- DB 15,93,234 ; minps %xmm2,%xmm5
- DB 243,15,16,65,12 ; movss 0xc(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 15,95,225 ; maxps %xmm1,%xmm4
- DB 15,93,224 ; minps %xmm0,%xmm4
- DB 139,17 ; mov (%ecx),%edx
- DB 243,15,91,196 ; cvttps2dq %xmm4,%xmm0
- DB 102,15,110,73,4 ; movd 0x4(%ecx),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,208,245 ; pshufd $0xf5,%xmm0,%xmm2
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,15,91,205 ; cvttps2dq %xmm5,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,15,112,209,231 ; pshufd $0xe7,%xmm1,%xmm2
- DB 102,15,126,209 ; movd %xmm2,%ecx
- DB 102,15,110,20,138 ; movd (%edx,%ecx,4),%xmm2
- DB 102,15,126,193 ; movd %xmm0,%ecx
- DB 102,15,110,4,138 ; movd (%edx,%ecx,4),%xmm0
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 102,15,112,201,229 ; pshufd $0xe5,%xmm1,%xmm1
- DB 102,15,110,28,138 ; movd (%edx,%ecx,4),%xmm3
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 102,15,110,12,138 ; movd (%edx,%ecx,4),%xmm1
- DB 232,0,0,0,0 ; call 5613 <_sk_gather_bgra_sse2+0xa6>
- DB 89 ; pop %ecx
- DB 102,15,98,194 ; punpckldq %xmm2,%xmm0
- DB 102,15,98,217 ; punpckldq %xmm1,%xmm3
- DB 102,15,108,216 ; punpcklqdq %xmm0,%xmm3
- DB 102,15,111,129,29,178,0,0 ; movdqa 0xb21d(%ecx),%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 15,91,209 ; cvtdq2ps %xmm1,%xmm2
- DB 15,40,161,93,179,0,0 ; movaps 0xb35d(%ecx),%xmm4
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,114,209,8 ; psrld $0x8,%xmm1
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,114,213,16 ; psrld $0x10,%xmm5
- DB 102,15,219,232 ; pand %xmm0,%xmm5
- DB 15,91,197 ; cvtdq2ps %xmm5,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_store_bgra_sse2
-_sk_store_bgra_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,44 ; sub $0x2c,%esp
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 232,0,0,0,0 ; call 5692 <_sk_store_bgra_sse2+0x12>
- DB 88 ; pop %eax
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 15,95,226 ; maxps %xmm2,%xmm4
- DB 15,40,168,222,176,0,0 ; movaps 0xb0de(%eax),%xmm5
- DB 15,93,229 ; minps %xmm5,%xmm4
- DB 15,40,176,174,177,0,0 ; movaps 0xb1ae(%eax),%xmm6
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 102,15,91,228 ; cvtps2dq %xmm4,%xmm4
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 15,95,249 ; maxps %xmm1,%xmm7
- DB 15,93,253 ; minps %xmm5,%xmm7
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 102,15,91,255 ; cvtps2dq %xmm7,%xmm7
- DB 102,15,114,247,8 ; pslld $0x8,%xmm7
- DB 102,15,235,252 ; por %xmm4,%xmm7
- DB 102,15,87,228 ; xorpd %xmm4,%xmm4
- DB 15,95,224 ; maxps %xmm0,%xmm4
- DB 15,93,229 ; minps %xmm5,%xmm4
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,95,93,216 ; maxps -0x28(%ebp),%xmm3
- DB 15,93,221 ; minps %xmm5,%xmm3
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 15,89,222 ; mulps %xmm6,%xmm3
- DB 102,15,91,236 ; cvtps2dq %xmm4,%xmm5
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,91,227 ; cvtps2dq %xmm3,%xmm4
- DB 102,15,114,244,24 ; pslld $0x18,%xmm4
- DB 102,15,235,229 ; por %xmm5,%xmm4
- DB 102,15,235,231 ; por %xmm7,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,17 ; mov (%ecx),%edx
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 193,230,2 ; shl $0x2,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 117,32 ; jne 573f <_sk_store_bgra_sse2+0xbf>
- DB 243,15,127,36,150 ; movdqu %xmm4,(%esi,%edx,4)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,85,200 ; movaps -0x38(%ebp),%xmm2
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,60 ; add $0x3c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,28 ; je 5763 <_sk_store_bgra_sse2+0xe3>
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,16 ; je 575c <_sk_store_bgra_sse2+0xdc>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,211 ; jne 5724 <_sk_store_bgra_sse2+0xa4>
- DB 102,15,112,220,78 ; pshufd $0x4e,%xmm4,%xmm3
- DB 102,15,126,92,150,8 ; movd %xmm3,0x8(%esi,%edx,4)
- DB 102,15,214,36,150 ; movq %xmm4,(%esi,%edx,4)
- DB 235,193 ; jmp 5724 <_sk_store_bgra_sse2+0xa4>
- DB 102,15,126,36,150 ; movd %xmm4,(%esi,%edx,4)
- DB 235,186 ; jmp 5724 <_sk_store_bgra_sse2+0xa4>
-
-PUBLIC _sk_load_1010102_sse2
-_sk_load_1010102_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 5778 <_sk_load_1010102_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 193,230,2 ; shl $0x2,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,106 ; jne 5800 <_sk_load_1010102_sse2+0x96>
- DB 243,15,111,28,190 ; movdqu (%esi,%edi,4),%xmm3
- DB 102,15,111,146,168,180,0,0 ; movdqa 0xb4a8(%edx),%xmm2
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,162,184,180,0,0 ; movaps 0xb4b8(%edx),%xmm4
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,114,209,10 ; psrld $0xa,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,114,213,20 ; psrld $0x14,%xmm5
- DB 102,15,219,234 ; pand %xmm2,%xmm5
- DB 15,91,213 ; cvtdq2ps %xmm5,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 102,15,114,211,30 ; psrld $0x1e,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,154,200,177,0,0 ; mulps 0xb1c8(%edx),%xmm3
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,35 ; je 582b <_sk_load_1010102_sse2+0xc1>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,16 ; je 5821 <_sk_load_1010102_sse2+0xb7>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,133 ; jne 579b <_sk_load_1010102_sse2+0x31>
- DB 102,15,110,68,190,8 ; movd 0x8(%esi,%edi,4),%xmm0
- DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
- DB 102,15,18,28,190 ; movlpd (%esi,%edi,4),%xmm3
- DB 233,112,255,255,255 ; jmp 579b <_sk_load_1010102_sse2+0x31>
- DB 102,15,110,28,190 ; movd (%esi,%edi,4),%xmm3
- DB 233,102,255,255,255 ; jmp 579b <_sk_load_1010102_sse2+0x31>
-
-PUBLIC _sk_load_1010102_dst_sse2
-_sk_load_1010102_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 5843 <_sk_load_1010102_dst_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 193,230,2 ; shl $0x2,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 117,122 ; jne 58db <_sk_load_1010102_dst_sse2+0xa6>
- DB 243,15,111,36,190 ; movdqu (%esi,%edi,4),%xmm4
- DB 102,15,111,170,221,179,0,0 ; movdqa 0xb3dd(%edx),%xmm5
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,40,186,237,179,0,0 ; movaps 0xb3ed(%edx),%xmm7
- DB 15,89,247 ; mulps %xmm7,%xmm6
- DB 15,41,113,16 ; movaps %xmm6,0x10(%ecx)
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,114,214,10 ; psrld $0xa,%xmm6
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,89,247 ; mulps %xmm7,%xmm6
- DB 15,41,113,32 ; movaps %xmm6,0x20(%ecx)
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,114,214,20 ; psrld $0x14,%xmm6
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 15,91,238 ; cvtdq2ps %xmm6,%xmm5
- DB 15,89,239 ; mulps %xmm7,%xmm5
- DB 15,41,105,48 ; movaps %xmm5,0x30(%ecx)
- DB 102,15,114,212,30 ; psrld $0x1e,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,162,253,176,0,0 ; mulps 0xb0fd(%edx),%xmm4
- DB 15,41,97,64 ; movaps %xmm4,0x40(%ecx)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,39 ; je 590a <_sk_load_1010102_dst_sse2+0xd5>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,20 ; je 5900 <_sk_load_1010102_dst_sse2+0xcb>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 15,133,113,255,255,255 ; jne 5866 <_sk_load_1010102_dst_sse2+0x31>
- DB 102,15,110,100,190,8 ; movd 0x8(%esi,%edi,4),%xmm4
- DB 102,15,112,228,69 ; pshufd $0x45,%xmm4,%xmm4
- DB 102,15,18,36,190 ; movlpd (%esi,%edi,4),%xmm4
- DB 233,92,255,255,255 ; jmp 5866 <_sk_load_1010102_dst_sse2+0x31>
- DB 102,15,110,36,190 ; movd (%esi,%edi,4),%xmm4
- DB 233,82,255,255,255 ; jmp 5866 <_sk_load_1010102_dst_sse2+0x31>
-
-PUBLIC _sk_gather_1010102_sse2
-_sk_gather_1010102_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,81,8 ; movss 0x8(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,254,211 ; paddd %xmm3,%xmm2
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,95,232 ; maxps %xmm0,%xmm5
- DB 15,93,234 ; minps %xmm2,%xmm5
- DB 243,15,16,65,12 ; movss 0xc(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 15,95,225 ; maxps %xmm1,%xmm4
- DB 15,93,224 ; minps %xmm0,%xmm4
- DB 139,17 ; mov (%ecx),%edx
- DB 243,15,91,196 ; cvttps2dq %xmm4,%xmm0
- DB 102,15,110,73,4 ; movd 0x4(%ecx),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,208,245 ; pshufd $0xf5,%xmm0,%xmm2
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,15,91,205 ; cvttps2dq %xmm5,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,15,112,209,231 ; pshufd $0xe7,%xmm1,%xmm2
- DB 102,15,126,209 ; movd %xmm2,%ecx
- DB 102,15,110,20,138 ; movd (%edx,%ecx,4),%xmm2
- DB 102,15,126,193 ; movd %xmm0,%ecx
- DB 102,15,110,4,138 ; movd (%edx,%ecx,4),%xmm0
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 102,15,112,201,229 ; pshufd $0xe5,%xmm1,%xmm1
- DB 102,15,110,28,138 ; movd (%edx,%ecx,4),%xmm3
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 102,15,110,12,138 ; movd (%edx,%ecx,4),%xmm1
- DB 232,0,0,0,0 ; call 59ba <_sk_gather_1010102_sse2+0xa6>
- DB 89 ; pop %ecx
- DB 102,15,98,194 ; punpckldq %xmm2,%xmm0
- DB 102,15,98,217 ; punpckldq %xmm1,%xmm3
- DB 102,15,108,216 ; punpcklqdq %xmm0,%xmm3
- DB 102,15,111,145,102,178,0,0 ; movdqa 0xb266(%ecx),%xmm2
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,219,194 ; pand %xmm2,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,161,118,178,0,0 ; movaps 0xb276(%ecx),%xmm4
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,114,209,10 ; psrld $0xa,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,114,213,20 ; psrld $0x14,%xmm5
- DB 102,15,219,234 ; pand %xmm2,%xmm5
- DB 15,91,213 ; cvtdq2ps %xmm5,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 102,15,114,211,30 ; psrld $0x1e,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,153,134,175,0,0 ; mulps 0xaf86(%ecx),%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_store_1010102_sse2
-_sk_store_1010102_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 232,0,0,0,0 ; call 5a39 <_sk_store_1010102_sse2+0xe>
- DB 88 ; pop %eax
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,224 ; maxps %xmm0,%xmm4
- DB 15,40,168,55,173,0,0 ; movaps 0xad37(%eax),%xmm5
- DB 15,93,229 ; minps %xmm5,%xmm4
- DB 15,40,176,7,178,0,0 ; movaps 0xb207(%eax),%xmm6
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 102,15,91,228 ; cvtps2dq %xmm4,%xmm4
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 15,95,249 ; maxps %xmm1,%xmm7
- DB 15,93,253 ; minps %xmm5,%xmm7
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 102,15,91,255 ; cvtps2dq %xmm7,%xmm7
- DB 102,15,114,247,10 ; pslld $0xa,%xmm7
- DB 102,15,235,252 ; por %xmm4,%xmm7
- DB 102,15,87,228 ; xorpd %xmm4,%xmm4
- DB 15,95,226 ; maxps %xmm2,%xmm4
- DB 15,93,229 ; minps %xmm5,%xmm4
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 102,15,91,244 ; cvtps2dq %xmm4,%xmm6
- DB 102,15,114,246,20 ; pslld $0x14,%xmm6
- DB 102,15,235,247 ; por %xmm7,%xmm6
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,227 ; maxps %xmm3,%xmm4
- DB 15,93,229 ; minps %xmm5,%xmm4
- DB 15,89,160,23,178,0,0 ; mulps 0xb217(%eax),%xmm4
- DB 102,15,91,228 ; cvtps2dq %xmm4,%xmm4
- DB 102,15,114,244,30 ; pslld $0x1e,%xmm4
- DB 102,15,235,230 ; por %xmm6,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,17 ; mov (%ecx),%edx
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 193,230,2 ; shl $0x2,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 117,24 ; jne 5add <_sk_store_1010102_sse2+0xb2>
- DB 243,15,127,36,150 ; movdqu %xmm4,(%esi,%edx,4)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 128,227,3 ; and $0x3,%bl
- DB 128,251,1 ; cmp $0x1,%bl
- DB 116,28 ; je 5b01 <_sk_store_1010102_sse2+0xd6>
- DB 128,251,2 ; cmp $0x2,%bl
- DB 116,16 ; je 5afa <_sk_store_1010102_sse2+0xcf>
- DB 128,251,3 ; cmp $0x3,%bl
- DB 117,219 ; jne 5aca <_sk_store_1010102_sse2+0x9f>
- DB 102,15,112,236,78 ; pshufd $0x4e,%xmm4,%xmm5
- DB 102,15,126,108,150,8 ; movd %xmm5,0x8(%esi,%edx,4)
- DB 102,15,214,36,150 ; movq %xmm4,(%esi,%edx,4)
- DB 235,201 ; jmp 5aca <_sk_store_1010102_sse2+0x9f>
- DB 102,15,126,36,150 ; movd %xmm4,(%esi,%edx,4)
- DB 235,194 ; jmp 5aca <_sk_store_1010102_sse2+0x9f>
-
-PUBLIC _sk_load_f16_sse2
-_sk_load_f16_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,108 ; sub $0x6c,%esp
- DB 232,0,0,0,0 ; call 5b16 <_sk_load_f16_sse2+0xe>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 193,230,3 ; shl $0x3,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 15,133,173,1,0,0 ; jne 5ce5 <_sk_load_f16_sse2+0x1dd>
- DB 102,15,16,4,254 ; movupd (%esi,%edi,8),%xmm0
- DB 243,15,111,76,254,16 ; movdqu 0x10(%esi,%edi,8),%xmm1
- DB 102,15,40,216 ; movapd %xmm0,%xmm3
- DB 102,15,97,217 ; punpcklwd %xmm1,%xmm3
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,97,208 ; punpcklwd %xmm0,%xmm2
- DB 102,15,105,216 ; punpckhwd %xmm0,%xmm3
- DB 102,15,126,85,208 ; movd %xmm2,-0x30(%ebp)
- DB 102,15,112,194,229 ; pshufd $0xe5,%xmm2,%xmm0
- DB 102,15,126,69,212 ; movd %xmm0,-0x2c(%ebp)
- DB 243,15,126,77,208 ; movq -0x30(%ebp),%xmm1
- DB 102,15,112,194,231 ; pshufd $0xe7,%xmm2,%xmm0
- DB 102,15,126,69,220 ; movd %xmm0,-0x24(%ebp)
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,15,126,69,216 ; movd %xmm0,-0x28(%ebp)
- DB 243,15,126,101,216 ; movq -0x28(%ebp),%xmm4
- DB 102,15,126,93,224 ; movd %xmm3,-0x20(%ebp)
- DB 102,15,112,195,229 ; pshufd $0xe5,%xmm3,%xmm0
- DB 102,15,126,69,228 ; movd %xmm0,-0x1c(%ebp)
- DB 242,15,16,69,224 ; movsd -0x20(%ebp),%xmm0
- DB 15,41,69,152 ; movaps %xmm0,-0x68(%ebp)
- DB 102,15,112,195,231 ; pshufd $0xe7,%xmm3,%xmm0
- DB 102,15,126,69,236 ; movd %xmm0,-0x14(%ebp)
- DB 102,15,112,195,78 ; pshufd $0x4e,%xmm3,%xmm0
- DB 102,15,126,69,232 ; movd %xmm0,-0x18(%ebp)
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,111,170,74,177,0,0 ; movdqa 0xb14a(%edx),%xmm5
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,219,245 ; pand %xmm5,%xmm6
- DB 102,15,219,138,90,177,0,0 ; pand 0xb15a(%edx),%xmm1
- DB 102,15,111,130,106,177,0,0 ; movdqa 0xb16a(%edx),%xmm0
- DB 102,15,127,69,184 ; movdqa %xmm0,-0x48(%ebp)
- DB 102,15,114,246,16 ; pslld $0x10,%xmm6
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,102,217 ; pcmpgtd %xmm1,%xmm3
- DB 102,15,127,93,136 ; movdqa %xmm3,-0x78(%ebp)
- DB 102,15,114,241,13 ; pslld $0xd,%xmm1
- DB 102,15,235,206 ; por %xmm6,%xmm1
- DB 102,15,97,226 ; punpcklwd %xmm2,%xmm4
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,219,213 ; pand %xmm5,%xmm2
- DB 102,15,111,154,90,177,0,0 ; movdqa 0xb15a(%edx),%xmm3
- DB 102,15,219,227 ; pand %xmm3,%xmm4
- DB 102,15,114,242,16 ; pslld $0x10,%xmm2
- DB 102,15,102,196 ; pcmpgtd %xmm4,%xmm0
- DB 102,15,127,69,168 ; movdqa %xmm0,-0x58(%ebp)
- DB 102,15,114,244,13 ; pslld $0xd,%xmm4
- DB 102,15,235,226 ; por %xmm2,%xmm4
- DB 102,15,111,69,152 ; movdqa -0x68(%ebp),%xmm0
- DB 102,15,97,199 ; punpcklwd %xmm7,%xmm0
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,219,253 ; pand %xmm5,%xmm7
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 102,15,114,247,16 ; pslld $0x10,%xmm7
- DB 102,15,111,146,106,177,0,0 ; movdqa 0xb16a(%edx),%xmm2
- DB 102,15,102,208 ; pcmpgtd %xmm0,%xmm2
- DB 102,15,114,240,13 ; pslld $0xd,%xmm0
- DB 102,15,235,199 ; por %xmm7,%xmm0
- DB 243,15,126,125,232 ; movq -0x18(%ebp),%xmm7
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,15,97,254 ; punpcklwd %xmm6,%xmm7
- DB 102,15,219,239 ; pand %xmm7,%xmm5
- DB 102,15,219,251 ; pand %xmm3,%xmm7
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,111,93,184 ; movdqa -0x48(%ebp),%xmm3
- DB 102,15,102,223 ; pcmpgtd %xmm7,%xmm3
- DB 102,15,127,93,184 ; movdqa %xmm3,-0x48(%ebp)
- DB 102,15,114,247,13 ; pslld $0xd,%xmm7
- DB 102,15,235,253 ; por %xmm5,%xmm7
- DB 102,15,111,154,122,177,0,0 ; movdqa 0xb17a(%edx),%xmm3
- DB 102,15,254,203 ; paddd %xmm3,%xmm1
- DB 102,15,254,227 ; paddd %xmm3,%xmm4
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 102,15,254,251 ; paddd %xmm3,%xmm7
- DB 102,15,111,93,136 ; movdqa -0x78(%ebp),%xmm3
- DB 102,15,223,217 ; pandn %xmm1,%xmm3
- DB 102,15,111,77,168 ; movdqa -0x58(%ebp),%xmm1
- DB 102,15,223,204 ; pandn %xmm4,%xmm1
- DB 102,15,223,208 ; pandn %xmm0,%xmm2
- DB 102,15,111,101,184 ; movdqa -0x48(%ebp),%xmm4
- DB 102,15,223,231 ; pandn %xmm7,%xmm4
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,124 ; add $0x7c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 242,15,16,4,254 ; movsd (%esi,%edi,8),%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 131,251,1 ; cmp $0x1,%ebx
- DB 15,132,76,254,255,255 ; je 5b43 <_sk_load_f16_sse2+0x3b>
- DB 102,15,22,68,254,8 ; movhpd 0x8(%esi,%edi,8),%xmm0
- DB 131,251,3 ; cmp $0x3,%ebx
- DB 15,130,61,254,255,255 ; jb 5b43 <_sk_load_f16_sse2+0x3b>
- DB 243,15,126,76,254,16 ; movq 0x10(%esi,%edi,8),%xmm1
- DB 233,50,254,255,255 ; jmp 5b43 <_sk_load_f16_sse2+0x3b>
-
-PUBLIC _sk_load_f16_dst_sse2
-_sk_load_f16_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,124 ; sub $0x7c,%esp
- DB 15,41,157,120,255,255,255 ; movaps %xmm3,-0x88(%ebp)
- DB 15,41,85,136 ; movaps %xmm2,-0x78(%ebp)
- DB 102,15,127,77,152 ; movdqa %xmm1,-0x68(%ebp)
- DB 15,41,69,168 ; movaps %xmm0,-0x58(%ebp)
- DB 232,0,0,0,0 ; call 5d33 <_sk_load_f16_dst_sse2+0x22>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 193,230,3 ; shl $0x3,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 133,219 ; test %ebx,%ebx
- DB 139,57 ; mov (%ecx),%edi
- DB 15,133,168,1,0,0 ; jne 5efd <_sk_load_f16_dst_sse2+0x1ec>
- DB 102,15,16,4,254 ; movupd (%esi,%edi,8),%xmm0
- DB 243,15,111,76,254,16 ; movdqu 0x10(%esi,%edi,8),%xmm1
- DB 102,15,40,208 ; movapd %xmm0,%xmm2
- DB 102,15,97,209 ; punpcklwd %xmm1,%xmm2
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,97,216 ; punpcklwd %xmm0,%xmm3
- DB 102,15,105,208 ; punpckhwd %xmm0,%xmm2
- DB 102,15,126,93,208 ; movd %xmm3,-0x30(%ebp)
- DB 102,15,112,195,229 ; pshufd $0xe5,%xmm3,%xmm0
- DB 102,15,126,69,212 ; movd %xmm0,-0x2c(%ebp)
- DB 243,15,126,77,208 ; movq -0x30(%ebp),%xmm1
- DB 102,15,112,195,231 ; pshufd $0xe7,%xmm3,%xmm0
- DB 102,15,126,69,220 ; movd %xmm0,-0x24(%ebp)
- DB 102,15,112,195,78 ; pshufd $0x4e,%xmm3,%xmm0
- DB 102,15,126,69,216 ; movd %xmm0,-0x28(%ebp)
- DB 243,15,126,69,216 ; movq -0x28(%ebp),%xmm0
- DB 102,15,126,85,224 ; movd %xmm2,-0x20(%ebp)
- DB 102,15,112,218,229 ; pshufd $0xe5,%xmm2,%xmm3
- DB 102,15,126,93,228 ; movd %xmm3,-0x1c(%ebp)
- DB 243,15,126,117,224 ; movq -0x20(%ebp),%xmm6
- DB 102,15,112,218,231 ; pshufd $0xe7,%xmm2,%xmm3
- DB 102,15,126,93,236 ; movd %xmm3,-0x14(%ebp)
- DB 102,15,112,210,78 ; pshufd $0x4e,%xmm2,%xmm2
- DB 102,15,126,85,232 ; movd %xmm2,-0x18(%ebp)
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,97,202 ; punpcklwd %xmm2,%xmm1
- DB 102,15,111,186,45,175,0,0 ; movdqa 0xaf2d(%edx),%xmm7
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,219,215 ; pand %xmm7,%xmm2
- DB 102,15,111,154,61,175,0,0 ; movdqa 0xaf3d(%edx),%xmm3
- DB 102,15,219,203 ; pand %xmm3,%xmm1
- DB 102,15,111,162,77,175,0,0 ; movdqa 0xaf4d(%edx),%xmm4
- DB 102,15,114,242,16 ; pslld $0x10,%xmm2
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,102,233 ; pcmpgtd %xmm1,%xmm5
- DB 102,15,114,241,13 ; pslld $0xd,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 102,15,111,146,93,175,0,0 ; movdqa 0xaf5d(%edx),%xmm2
- DB 102,15,127,85,184 ; movdqa %xmm2,-0x48(%ebp)
- DB 102,15,254,202 ; paddd %xmm2,%xmm1
- DB 102,15,223,233 ; pandn %xmm1,%xmm5
- DB 243,15,126,77,232 ; movq -0x18(%ebp),%xmm1
- DB 102,15,127,105,16 ; movdqa %xmm5,0x10(%ecx)
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,97,194 ; punpcklwd %xmm2,%xmm0
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,219,239 ; pand %xmm7,%xmm5
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 102,15,102,216 ; pcmpgtd %xmm0,%xmm3
- DB 102,15,114,240,13 ; pslld $0xd,%xmm0
- DB 102,15,235,197 ; por %xmm5,%xmm0
- DB 102,15,111,109,184 ; movdqa -0x48(%ebp),%xmm5
- DB 102,15,254,197 ; paddd %xmm5,%xmm0
- DB 102,15,223,216 ; pandn %xmm0,%xmm3
- DB 102,15,127,89,32 ; movdqa %xmm3,0x20(%ecx)
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,97,240 ; punpcklwd %xmm0,%xmm6
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,15,219,199 ; pand %xmm7,%xmm0
- DB 102,15,219,242 ; pand %xmm2,%xmm6
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 102,15,102,222 ; pcmpgtd %xmm6,%xmm3
- DB 102,15,114,246,13 ; pslld $0xd,%xmm6
- DB 102,15,235,240 ; por %xmm0,%xmm6
- DB 102,15,254,245 ; paddd %xmm5,%xmm6
- DB 102,15,223,222 ; pandn %xmm6,%xmm3
- DB 102,15,127,89,48 ; movdqa %xmm3,0x30(%ecx)
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,97,203 ; punpcklwd %xmm3,%xmm1
- DB 102,15,219,249 ; pand %xmm1,%xmm7
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 102,15,114,247,16 ; pslld $0x10,%xmm7
- DB 102,15,102,225 ; pcmpgtd %xmm1,%xmm4
- DB 102,15,114,241,13 ; pslld $0xd,%xmm1
- DB 102,15,235,207 ; por %xmm7,%xmm1
- DB 102,15,254,205 ; paddd %xmm5,%xmm1
- DB 102,15,223,225 ; pandn %xmm1,%xmm4
- DB 102,15,127,97,64 ; movdqa %xmm4,0x40(%ecx)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,69,168 ; movaps -0x58(%ebp),%xmm0
- DB 15,40,77,152 ; movaps -0x68(%ebp),%xmm1
- DB 15,40,85,136 ; movaps -0x78(%ebp),%xmm2
- DB 15,40,157,120,255,255,255 ; movaps -0x88(%ebp),%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 129,196,140,0,0,0 ; add $0x8c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 242,15,16,4,254 ; movsd (%esi,%edi,8),%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 131,251,1 ; cmp $0x1,%ebx
- DB 15,132,81,254,255,255 ; je 5d60 <_sk_load_f16_dst_sse2+0x4f>
- DB 102,15,22,68,254,8 ; movhpd 0x8(%esi,%edi,8),%xmm0
- DB 131,251,3 ; cmp $0x3,%ebx
- DB 15,130,66,254,255,255 ; jb 5d60 <_sk_load_f16_dst_sse2+0x4f>
- DB 243,15,126,76,254,16 ; movq 0x10(%esi,%edi,8),%xmm1
- DB 233,55,254,255,255 ; jmp 5d60 <_sk_load_f16_dst_sse2+0x4f>
-
-PUBLIC _sk_gather_f16_sse2
-_sk_gather_f16_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,88 ; sub $0x58,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,81,8 ; movss 0x8(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,254,211 ; paddd %xmm3,%xmm2
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,224 ; maxps %xmm0,%xmm4
- DB 15,93,226 ; minps %xmm2,%xmm4
- DB 243,15,16,65,12 ; movss 0xc(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,95,209 ; maxps %xmm1,%xmm2
- DB 15,93,208 ; minps %xmm0,%xmm2
- DB 139,17 ; mov (%ecx),%edx
- DB 243,15,91,194 ; cvttps2dq %xmm2,%xmm0
- DB 102,15,110,73,4 ; movd 0x4(%ecx),%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,112,208,245 ; pshufd $0xf5,%xmm0,%xmm2
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,112,202,232 ; pshufd $0xe8,%xmm2,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 243,15,91,204 ; cvttps2dq %xmm4,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,15,112,209,231 ; pshufd $0xe7,%xmm1,%xmm2
- DB 102,15,126,209 ; movd %xmm2,%ecx
- DB 243,15,126,20,202 ; movq (%edx,%ecx,8),%xmm2
- DB 102,15,126,193 ; movd %xmm0,%ecx
- DB 243,15,126,4,202 ; movq (%edx,%ecx,8),%xmm0
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 102,15,112,201,229 ; pshufd $0xe5,%xmm1,%xmm1
- DB 243,15,126,28,202 ; movq (%edx,%ecx,8),%xmm3
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 243,15,126,12,202 ; movq (%edx,%ecx,8),%xmm1
- DB 232,0,0,0,0 ; call 5fcf <_sk_gather_f16_sse2+0xa6>
- DB 89 ; pop %ecx
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,15,108,194 ; punpcklqdq %xmm2,%xmm0
- DB 102,15,108,217 ; punpcklqdq %xmm1,%xmm3
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,15,97,224 ; punpcklwd %xmm0,%xmm4
- DB 102,15,105,216 ; punpckhwd %xmm0,%xmm3
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,97,195 ; punpcklwd %xmm3,%xmm0
- DB 102,15,105,227 ; punpckhwd %xmm3,%xmm4
- DB 102,15,126,69,224 ; movd %xmm0,-0x20(%ebp)
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,15,126,77,228 ; movd %xmm1,-0x1c(%ebp)
- DB 243,15,126,77,224 ; movq -0x20(%ebp),%xmm1
- DB 102,15,112,208,231 ; pshufd $0xe7,%xmm0,%xmm2
- DB 102,15,126,85,236 ; movd %xmm2,-0x14(%ebp)
- DB 102,15,112,192,78 ; pshufd $0x4e,%xmm0,%xmm0
- DB 102,15,126,69,232 ; movd %xmm0,-0x18(%ebp)
- DB 243,15,126,109,232 ; movq -0x18(%ebp),%xmm5
- DB 102,15,126,101,240 ; movd %xmm4,-0x10(%ebp)
- DB 102,15,112,196,229 ; pshufd $0xe5,%xmm4,%xmm0
- DB 102,15,126,69,244 ; movd %xmm0,-0xc(%ebp)
- DB 242,15,16,69,240 ; movsd -0x10(%ebp),%xmm0
- DB 15,41,69,184 ; movaps %xmm0,-0x48(%ebp)
- DB 102,15,112,196,231 ; pshufd $0xe7,%xmm4,%xmm0
- DB 102,15,126,69,252 ; movd %xmm0,-0x4(%ebp)
- DB 102,15,112,196,78 ; pshufd $0x4e,%xmm4,%xmm0
- DB 102,15,126,69,248 ; movd %xmm0,-0x8(%ebp)
- DB 102,15,97,206 ; punpcklwd %xmm6,%xmm1
- DB 102,15,239,210 ; pxor %xmm2,%xmm2
- DB 102,15,111,177,145,172,0,0 ; movdqa 0xac91(%ecx),%xmm6
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,219,230 ; pand %xmm6,%xmm4
- DB 102,15,219,137,161,172,0,0 ; pand 0xaca1(%ecx),%xmm1
- DB 102,15,111,129,177,172,0,0 ; movdqa 0xacb1(%ecx),%xmm0
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,102,217 ; pcmpgtd %xmm1,%xmm3
- DB 102,15,127,93,168 ; movdqa %xmm3,-0x58(%ebp)
- DB 102,15,114,241,13 ; pslld $0xd,%xmm1
- DB 102,15,235,204 ; por %xmm4,%xmm1
- DB 102,15,97,234 ; punpcklwd %xmm2,%xmm5
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,111,213 ; movdqa %xmm5,%xmm2
- DB 102,15,219,214 ; pand %xmm6,%xmm2
- DB 102,15,111,153,161,172,0,0 ; movdqa 0xaca1(%ecx),%xmm3
- DB 102,15,219,235 ; pand %xmm3,%xmm5
- DB 102,15,114,242,16 ; pslld $0x10,%xmm2
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,102,229 ; pcmpgtd %xmm5,%xmm4
- DB 102,15,127,101,200 ; movdqa %xmm4,-0x38(%ebp)
- DB 102,15,114,245,13 ; pslld $0xd,%xmm5
- DB 102,15,235,234 ; por %xmm2,%xmm5
- DB 102,15,111,69,184 ; movdqa -0x48(%ebp),%xmm0
- DB 102,15,97,199 ; punpcklwd %xmm7,%xmm0
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,219,254 ; pand %xmm6,%xmm7
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 102,15,114,247,16 ; pslld $0x10,%xmm7
- DB 102,15,111,145,177,172,0,0 ; movdqa 0xacb1(%ecx),%xmm2
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,102,216 ; pcmpgtd %xmm0,%xmm3
- DB 102,15,114,240,13 ; pslld $0xd,%xmm0
- DB 102,15,235,199 ; por %xmm7,%xmm0
- DB 243,15,126,125,248 ; movq -0x8(%ebp),%xmm7
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,97,252 ; punpcklwd %xmm4,%xmm7
- DB 102,15,219,247 ; pand %xmm7,%xmm6
- DB 102,15,219,185,161,172,0,0 ; pand 0xaca1(%ecx),%xmm7
- DB 102,15,114,246,16 ; pslld $0x10,%xmm6
- DB 102,15,102,215 ; pcmpgtd %xmm7,%xmm2
- DB 102,15,114,247,13 ; pslld $0xd,%xmm7
- DB 102,15,235,254 ; por %xmm6,%xmm7
- DB 102,15,111,161,193,172,0,0 ; movdqa 0xacc1(%ecx),%xmm4
- DB 102,15,254,204 ; paddd %xmm4,%xmm1
- DB 102,15,254,236 ; paddd %xmm4,%xmm5
- DB 102,15,254,196 ; paddd %xmm4,%xmm0
- DB 102,15,254,252 ; paddd %xmm4,%xmm7
- DB 102,15,111,117,168 ; movdqa -0x58(%ebp),%xmm6
- DB 102,15,223,241 ; pandn %xmm1,%xmm6
- DB 102,15,111,77,200 ; movdqa -0x38(%ebp),%xmm1
- DB 102,15,223,205 ; pandn %xmm5,%xmm1
- DB 102,15,223,216 ; pandn %xmm0,%xmm3
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,223,239 ; pandn %xmm7,%xmm5
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,104 ; add $0x68,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_store_f16_sse2
-_sk_store_f16_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,96 ; sub $0x60,%esp
- DB 15,41,93,184 ; movaps %xmm3,-0x48(%ebp)
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 232,0,0,0,0 ; call 6193 <_sk_store_f16_sse2+0x19>
- DB 88 ; pop %eax
- DB 102,15,111,152,13,171,0,0 ; movdqa 0xab0d(%eax),%xmm3
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,219,227 ; pand %xmm3,%xmm4
- DB 102,15,111,136,61,171,0,0 ; movdqa 0xab3d(%eax),%xmm1
- DB 102,15,127,77,232 ; movdqa %xmm1,-0x18(%ebp)
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,114,246,3 ; pslld $0x3,%xmm6
- DB 102,15,219,241 ; pand %xmm1,%xmm6
- DB 102,15,254,244 ; paddd %xmm4,%xmm6
- DB 102,15,111,184,29,171,0,0 ; movdqa 0xab1d(%eax),%xmm7
- DB 102,15,127,69,168 ; movdqa %xmm0,-0x58(%ebp)
- DB 102,15,219,199 ; pand %xmm7,%xmm0
- DB 102,15,111,168,45,171,0,0 ; movdqa 0xab2d(%eax),%xmm5
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,102,200 ; pcmpgtd %xmm0,%xmm1
- DB 102,15,111,128,125,167,0,0 ; movdqa 0xa77d(%eax),%xmm0
- DB 102,15,127,69,216 ; movdqa %xmm0,-0x28(%ebp)
- DB 102,15,254,240 ; paddd %xmm0,%xmm6
- DB 102,15,114,230,16 ; psrad $0x10,%xmm6
- DB 102,15,223,206 ; pandn %xmm6,%xmm1
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,15,114,246,3 ; pslld $0x3,%xmm6
- DB 102,15,219,117,232 ; pand -0x18(%ebp),%xmm6
- DB 102,15,254,240 ; paddd %xmm0,%xmm6
- DB 102,15,127,85,152 ; movdqa %xmm2,-0x68(%ebp)
- DB 102,15,219,215 ; pand %xmm7,%xmm2
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,102,226 ; pcmpgtd %xmm2,%xmm4
- DB 102,15,254,117,216 ; paddd -0x28(%ebp),%xmm6
- DB 102,15,114,230,16 ; psrad $0x10,%xmm6
- DB 102,15,223,230 ; pandn %xmm6,%xmm4
- DB 102,15,107,200 ; packssdw %xmm0,%xmm1
- DB 102,15,107,224 ; packssdw %xmm0,%xmm4
- DB 102,15,97,204 ; punpcklwd %xmm4,%xmm1
- DB 102,15,111,85,200 ; movdqa -0x38(%ebp),%xmm2
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,114,244,3 ; pslld $0x3,%xmm4
- DB 102,15,219,101,232 ; pand -0x18(%ebp),%xmm4
- DB 102,15,254,224 ; paddd %xmm0,%xmm4
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,219,199 ; pand %xmm7,%xmm0
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,15,102,240 ; pcmpgtd %xmm0,%xmm6
- DB 102,15,111,85,216 ; movdqa -0x28(%ebp),%xmm2
- DB 102,15,254,226 ; paddd %xmm2,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,223,244 ; pandn %xmm4,%xmm6
- DB 102,15,111,101,184 ; movdqa -0x48(%ebp),%xmm4
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,114,240,3 ; pslld $0x3,%xmm0
- DB 102,15,219,69,232 ; pand -0x18(%ebp),%xmm0
- DB 102,15,219,220 ; pand %xmm4,%xmm3
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 102,15,254,194 ; paddd %xmm2,%xmm0
- DB 102,15,219,252 ; pand %xmm4,%xmm7
- DB 102,15,102,239 ; pcmpgtd %xmm7,%xmm5
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,223,232 ; pandn %xmm0,%xmm5
- DB 102,15,107,240 ; packssdw %xmm0,%xmm6
- DB 102,15,107,232 ; packssdw %xmm0,%xmm5
- DB 102,15,97,245 ; punpcklwd %xmm5,%xmm6
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,17 ; mov (%ecx),%edx
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 193,230,3 ; shl $0x3,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,121,8 ; mov 0x8(%ecx),%edi
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,98,198 ; punpckldq %xmm6,%xmm0
- DB 133,255 ; test %edi,%edi
- DB 117,48 ; jne 6314 <_sk_store_f16_sse2+0x19a>
- DB 15,17,4,214 ; movups %xmm0,(%esi,%edx,8)
- DB 102,15,106,206 ; punpckhdq %xmm6,%xmm1
- DB 243,15,127,76,214,16 ; movdqu %xmm1,0x10(%esi,%edx,8)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,69,168 ; movaps -0x58(%ebp),%xmm0
- DB 15,40,77,152 ; movaps -0x68(%ebp),%xmm1
- DB 15,40,85,200 ; movaps -0x38(%ebp),%xmm2
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,112 ; add $0x70,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 102,15,214,4,214 ; movq %xmm0,(%esi,%edx,8)
- DB 131,255,1 ; cmp $0x1,%edi
- DB 116,212 ; je 62f2 <_sk_store_f16_sse2+0x178>
- DB 102,15,23,68,214,8 ; movhpd %xmm0,0x8(%esi,%edx,8)
- DB 131,255,3 ; cmp $0x3,%edi
- DB 114,201 ; jb 62f2 <_sk_store_f16_sse2+0x178>
- DB 102,15,106,206 ; punpckhdq %xmm6,%xmm1
- DB 102,15,214,76,214,16 ; movq %xmm1,0x10(%esi,%edx,8)
- DB 235,189 ; jmp 62f2 <_sk_store_f16_sse2+0x178>
-
-PUBLIC _sk_load_u16_be_sse2
-_sk_load_u16_be_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,44 ; sub $0x2c,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,16 ; mov (%eax),%edx
- DB 139,49 ; mov (%ecx),%esi
- DB 139,122,4 ; mov 0x4(%edx),%edi
- DB 15,175,121,4 ; imul 0x4(%ecx),%edi
- DB 1,255 ; add %edi,%edi
- DB 3,58 ; add (%edx),%edi
- DB 139,89,8 ; mov 0x8(%ecx),%ebx
- DB 193,230,2 ; shl $0x2,%esi
- DB 133,219 ; test %ebx,%ebx
- DB 232,0,0,0,0 ; call 6360 <_sk_load_u16_be_sse2+0x2b>
- DB 90 ; pop %edx
- DB 15,133,11,1,0,0 ; jne 6472 <_sk_load_u16_be_sse2+0x13d>
- DB 102,15,16,4,119 ; movupd (%edi,%esi,2),%xmm0
- DB 243,15,111,76,119,16 ; movdqu 0x10(%edi,%esi,2),%xmm1
- DB 102,15,40,208 ; movapd %xmm0,%xmm2
- DB 102,15,97,209 ; punpcklwd %xmm1,%xmm2
- DB 102,15,105,193 ; punpckhwd %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 102,15,105,208 ; punpckhwd %xmm0,%xmm2
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,113,240,8 ; psllw $0x8,%xmm0
- DB 102,15,112,233,78 ; pshufd $0x4e,%xmm1,%xmm5
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,235,200 ; por %xmm0,%xmm1
- DB 102,15,126,77,216 ; movd %xmm1,-0x28(%ebp)
- DB 102,15,112,193,229 ; pshufd $0xe5,%xmm1,%xmm0
- DB 102,15,126,69,220 ; movd %xmm0,-0x24(%ebp)
- DB 243,15,126,69,216 ; movq -0x28(%ebp),%xmm0
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,97,195 ; punpcklwd %xmm3,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,162,144,166,0,0 ; movaps 0xa690(%edx),%xmm4
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,113,241,8 ; psllw $0x8,%xmm1
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,235,233 ; por %xmm1,%xmm5
- DB 102,15,126,109,208 ; movd %xmm5,-0x30(%ebp)
- DB 102,15,112,205,229 ; pshufd $0xe5,%xmm5,%xmm1
- DB 102,15,126,77,212 ; movd %xmm1,-0x2c(%ebp)
- DB 243,15,126,77,208 ; movq -0x30(%ebp),%xmm1
- DB 102,15,97,203 ; punpcklwd %xmm3,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,113,245,8 ; psllw $0x8,%xmm5
- DB 102,15,112,242,78 ; pshufd $0x4e,%xmm2,%xmm6
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,235,213 ; por %xmm5,%xmm2
- DB 102,15,126,85,232 ; movd %xmm2,-0x18(%ebp)
- DB 102,15,112,210,229 ; pshufd $0xe5,%xmm2,%xmm2
- DB 102,15,126,85,236 ; movd %xmm2,-0x14(%ebp)
- DB 243,15,126,85,232 ; movq -0x18(%ebp),%xmm2
- DB 102,15,97,211 ; punpcklwd %xmm3,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,15,113,245,8 ; psllw $0x8,%xmm5
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,235,245 ; por %xmm5,%xmm6
- DB 102,15,126,117,224 ; movd %xmm6,-0x20(%ebp)
- DB 102,15,112,238,229 ; pshufd $0xe5,%xmm6,%xmm5
- DB 102,15,126,109,228 ; movd %xmm5,-0x1c(%ebp)
- DB 243,15,126,109,224 ; movq -0x20(%ebp),%xmm5
- DB 102,15,97,235 ; punpcklwd %xmm3,%xmm5
- DB 15,91,221 ; cvtdq2ps %xmm5,%xmm3
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,60 ; add $0x3c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 242,15,16,4,119 ; movsd (%edi,%esi,2),%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 131,251,1 ; cmp $0x1,%ebx
- DB 15,132,238,254,255,255 ; je 6372 <_sk_load_u16_be_sse2+0x3d>
- DB 102,15,22,68,119,8 ; movhpd 0x8(%edi,%esi,2),%xmm0
- DB 131,251,3 ; cmp $0x3,%ebx
- DB 15,130,223,254,255,255 ; jb 6372 <_sk_load_u16_be_sse2+0x3d>
- DB 243,15,126,76,119,16 ; movq 0x10(%edi,%esi,2),%xmm1
- DB 233,212,254,255,255 ; jmp 6372 <_sk_load_u16_be_sse2+0x3d>
-
-PUBLIC _sk_load_rgb_u16_be_sse2
-_sk_load_rgb_u16_be_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,28 ; sub $0x1c,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,16 ; mov (%eax),%edx
- DB 139,121,8 ; mov 0x8(%ecx),%edi
- DB 139,114,4 ; mov 0x4(%edx),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 1,246 ; add %esi,%esi
- DB 3,50 ; add (%edx),%esi
- DB 107,25,3 ; imul $0x3,(%ecx),%ebx
- DB 133,255 ; test %edi,%edi
- DB 232,0,0,0,0 ; call 64c7 <_sk_load_rgb_u16_be_sse2+0x29>
- DB 90 ; pop %edx
- DB 15,133,240,0,0,0 ; jne 65be <_sk_load_rgb_u16_be_sse2+0x120>
- DB 243,15,111,20,94 ; movdqu (%esi,%ebx,2),%xmm2
- DB 243,15,111,92,94,8 ; movdqu 0x8(%esi,%ebx,2),%xmm3
- DB 102,15,115,219,4 ; psrldq $0x4,%xmm3
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,115,216,6 ; psrldq $0x6,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,115,217,6 ; psrldq $0x6,%xmm1
- DB 102,15,97,193 ; punpcklwd %xmm1,%xmm0
- DB 102,15,97,211 ; punpcklwd %xmm3,%xmm2
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,97,200 ; punpcklwd %xmm0,%xmm1
- DB 102,15,112,225,78 ; pshufd $0x4e,%xmm1,%xmm4
- DB 102,15,105,208 ; punpckhwd %xmm0,%xmm2
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,113,240,8 ; psllw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,235,200 ; por %xmm0,%xmm1
- DB 102,15,126,77,224 ; movd %xmm1,-0x20(%ebp)
- DB 102,15,112,193,229 ; pshufd $0xe5,%xmm1,%xmm0
- DB 102,15,126,69,228 ; movd %xmm0,-0x1c(%ebp)
- DB 243,15,126,69,224 ; movq -0x20(%ebp),%xmm0
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,97,195 ; punpcklwd %xmm3,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,170,41,165,0,0 ; movaps 0xa529(%edx),%xmm5
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,113,241,8 ; psllw $0x8,%xmm1
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,235,225 ; por %xmm1,%xmm4
- DB 102,15,126,101,216 ; movd %xmm4,-0x28(%ebp)
- DB 102,15,112,204,229 ; pshufd $0xe5,%xmm4,%xmm1
- DB 102,15,126,77,220 ; movd %xmm1,-0x24(%ebp)
- DB 243,15,126,77,216 ; movq -0x28(%ebp),%xmm1
- DB 102,15,97,203 ; punpcklwd %xmm3,%xmm1
- DB 15,91,201 ; cvtdq2ps %xmm1,%xmm1
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,113,244,8 ; psllw $0x8,%xmm4
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,235,212 ; por %xmm4,%xmm2
- DB 102,15,126,85,232 ; movd %xmm2,-0x18(%ebp)
- DB 102,15,112,210,229 ; pshufd $0xe5,%xmm2,%xmm2
- DB 102,15,126,85,236 ; movd %xmm2,-0x14(%ebp)
- DB 243,15,126,85,232 ; movq -0x18(%ebp),%xmm2
- DB 102,15,97,211 ; punpcklwd %xmm3,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 141,112,8 ; lea 0x8(%eax),%esi
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,154,169,162,0,0 ; movaps 0xa2a9(%edx),%xmm3
- DB 86 ; push %esi
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,44 ; add $0x2c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 102,15,110,20,94 ; movd (%esi,%ebx,2),%xmm2
- DB 102,15,196,84,94,4,2 ; pinsrw $0x2,0x4(%esi,%ebx,2),%xmm2
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 131,255,1 ; cmp $0x1,%edi
- DB 117,13 ; jne 65e0 <_sk_load_rgb_u16_be_sse2+0x142>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 233,16,255,255,255 ; jmp 64f0 <_sk_load_rgb_u16_be_sse2+0x52>
- DB 102,15,110,68,94,6 ; movd 0x6(%esi,%ebx,2),%xmm0
- DB 102,15,196,68,94,10,2 ; pinsrw $0x2,0xa(%esi,%ebx,2),%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 131,255,3 ; cmp $0x3,%edi
- DB 114,18 ; jb 6608 <_sk_load_rgb_u16_be_sse2+0x16a>
- DB 102,15,110,92,94,12 ; movd 0xc(%esi,%ebx,2),%xmm3
- DB 102,15,196,92,94,16,2 ; pinsrw $0x2,0x10(%esi,%ebx,2),%xmm3
- DB 233,232,254,255,255 ; jmp 64f0 <_sk_load_rgb_u16_be_sse2+0x52>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 233,223,254,255,255 ; jmp 64f0 <_sk_load_rgb_u16_be_sse2+0x52>
-
-PUBLIC _sk_store_u16_be_sse2
-_sk_store_u16_be_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,32 ; sub $0x20,%esp
- DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
- DB 232,0,0,0,0 ; call 6622 <_sk_store_u16_be_sse2+0x11>
- DB 88 ; pop %eax
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,224 ; maxps %xmm0,%xmm4
- DB 15,40,168,78,161,0,0 ; movaps 0xa14e(%eax),%xmm5
- DB 15,93,229 ; minps %xmm5,%xmm4
- DB 15,40,176,190,166,0,0 ; movaps 0xa6be(%eax),%xmm6
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 102,15,91,228 ; cvtps2dq %xmm4,%xmm4
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,224 ; packssdw %xmm0,%xmm4
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,113,247,8 ; psllw $0x8,%xmm7
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,235,231 ; por %xmm7,%xmm4
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 15,95,249 ; maxps %xmm1,%xmm7
- DB 15,93,253 ; minps %xmm5,%xmm7
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 102,15,91,255 ; cvtps2dq %xmm7,%xmm7
- DB 102,15,114,247,16 ; pslld $0x10,%xmm7
- DB 102,15,114,231,16 ; psrad $0x10,%xmm7
- DB 102,15,107,248 ; packssdw %xmm0,%xmm7
- DB 102,15,111,223 ; movdqa %xmm7,%xmm3
- DB 102,15,113,243,8 ; psllw $0x8,%xmm3
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,235,251 ; por %xmm3,%xmm7
- DB 102,15,97,231 ; punpcklwd %xmm7,%xmm4
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 15,41,85,216 ; movaps %xmm2,-0x28(%ebp)
- DB 15,95,218 ; maxps %xmm2,%xmm3
- DB 15,93,221 ; minps %xmm5,%xmm3
- DB 15,89,222 ; mulps %xmm6,%xmm3
- DB 102,15,91,251 ; cvtps2dq %xmm3,%xmm7
- DB 102,15,114,247,16 ; pslld $0x10,%xmm7
- DB 102,15,114,231,16 ; psrad $0x10,%xmm7
- DB 102,15,107,248 ; packssdw %xmm0,%xmm7
- DB 102,15,111,223 ; movdqa %xmm7,%xmm3
- DB 102,15,113,243,8 ; psllw $0x8,%xmm3
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,235,251 ; por %xmm3,%xmm7
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 15,95,93,232 ; maxps -0x18(%ebp),%xmm3
- DB 15,93,221 ; minps %xmm5,%xmm3
- DB 15,89,222 ; mulps %xmm6,%xmm3
- DB 102,15,91,219 ; cvtps2dq %xmm3,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 102,15,114,227,16 ; psrad $0x10,%xmm3
- DB 102,15,107,216 ; packssdw %xmm0,%xmm3
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,113,245,8 ; psllw $0x8,%xmm5
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,235,221 ; por %xmm5,%xmm3
- DB 102,15,97,251 ; punpcklwd %xmm3,%xmm7
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,56 ; mov (%eax),%edi
- DB 139,17 ; mov (%ecx),%edx
- DB 139,119,4 ; mov 0x4(%edi),%esi
- DB 15,175,113,4 ; imul 0x4(%ecx),%esi
- DB 1,246 ; add %esi,%esi
- DB 3,55 ; add (%edi),%esi
- DB 139,121,8 ; mov 0x8(%ecx),%edi
- DB 193,226,2 ; shl $0x2,%edx
- DB 133,255 ; test %edi,%edi
- DB 117,49 ; jne 6751 <_sk_store_u16_be_sse2+0x140>
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 102,15,98,223 ; punpckldq %xmm7,%xmm3
- DB 243,15,127,28,86 ; movdqu %xmm3,(%esi,%edx,2)
- DB 102,15,106,231 ; punpckhdq %xmm7,%xmm4
- DB 243,15,127,100,86,16 ; movdqu %xmm4,0x10(%esi,%edx,2)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,85,216 ; movaps -0x28(%ebp),%xmm2
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,48 ; add $0x30,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,98,239 ; punpckldq %xmm7,%xmm5
- DB 102,15,214,44,86 ; movq %xmm5,(%esi,%edx,2)
- DB 131,255,1 ; cmp $0x1,%edi
- DB 116,212 ; je 6737 <_sk_store_u16_be_sse2+0x126>
- DB 102,15,23,108,86,8 ; movhpd %xmm5,0x8(%esi,%edx,2)
- DB 131,255,3 ; cmp $0x3,%edi
- DB 114,201 ; jb 6737 <_sk_store_u16_be_sse2+0x126>
- DB 102,15,106,231 ; punpckhdq %xmm7,%xmm4
- DB 102,15,214,100,86,16 ; movq %xmm4,0x10(%esi,%edx,2)
- DB 235,189 ; jmp 6737 <_sk_store_u16_be_sse2+0x126>
-
-PUBLIC _sk_load_f32_sse2
-_sk_load_f32_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,48 ; mov (%eax),%esi
- DB 139,57 ; mov (%ecx),%edi
- DB 139,86,4 ; mov 0x4(%esi),%edx
- DB 15,175,81,4 ; imul 0x4(%ecx),%edx
- DB 193,226,2 ; shl $0x2,%edx
- DB 3,22 ; add (%esi),%edx
- DB 141,52,189,0,0,0,0 ; lea 0x0(,%edi,4),%esi
- DB 193,231,4 ; shl $0x4,%edi
- DB 15,16,36,23 ; movups (%edi,%edx,1),%xmm4
- DB 139,121,8 ; mov 0x8(%ecx),%edi
- DB 133,255 ; test %edi,%edi
- DB 117,71 ; jne 67f1 <_sk_load_f32_sse2+0x77>
- DB 15,16,84,178,16 ; movups 0x10(%edx,%esi,4),%xmm2
- DB 15,16,92,178,32 ; movups 0x20(%edx,%esi,4),%xmm3
- DB 15,16,68,178,48 ; movups 0x30(%edx,%esi,4),%xmm0
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,20,234 ; unpcklps %xmm2,%xmm5
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 15,21,226 ; unpckhps %xmm2,%xmm4
- DB 15,21,216 ; unpckhps %xmm0,%xmm3
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
- DB 15,18,205 ; movhlps %xmm5,%xmm1
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 15,18,220 ; movhlps %xmm4,%xmm3
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,16 ; add $0x10,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 131,255,1 ; cmp $0x1,%edi
- DB 117,8 ; jne 6801 <_sk_load_f32_sse2+0x87>
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 235,184 ; jmp 67b9 <_sk_load_f32_sse2+0x3f>
- DB 15,16,84,178,16 ; movups 0x10(%edx,%esi,4),%xmm2
- DB 131,255,3 ; cmp $0x3,%edi
- DB 114,7 ; jb 6812 <_sk_load_f32_sse2+0x98>
- DB 15,16,92,178,32 ; movups 0x20(%edx,%esi,4),%xmm3
- DB 235,167 ; jmp 67b9 <_sk_load_f32_sse2+0x3f>
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 235,162 ; jmp 67b9 <_sk_load_f32_sse2+0x3f>
-
-PUBLIC _sk_load_f32_dst_sse2
-_sk_load_f32_dst_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,32 ; sub $0x20,%esp
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 15,41,85,232 ; movaps %xmm2,-0x18(%ebp)
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,48 ; mov (%eax),%esi
- DB 139,57 ; mov (%ecx),%edi
- DB 139,86,4 ; mov 0x4(%esi),%edx
- DB 15,175,81,4 ; imul 0x4(%ecx),%edx
- DB 193,226,2 ; shl $0x2,%edx
- DB 3,22 ; add (%esi),%edx
- DB 141,52,189,0,0,0,0 ; lea 0x0(,%edi,4),%esi
- DB 193,231,4 ; shl $0x4,%edi
- DB 15,16,52,23 ; movups (%edi,%edx,1),%xmm6
- DB 139,121,8 ; mov 0x8(%ecx),%edi
- DB 133,255 ; test %edi,%edi
- DB 117,97 ; jne 68b3 <_sk_load_f32_dst_sse2+0x9c>
- DB 15,16,124,178,16 ; movups 0x10(%edx,%esi,4),%xmm7
- DB 15,16,92,178,32 ; movups 0x20(%edx,%esi,4),%xmm3
- DB 15,16,84,178,48 ; movups 0x30(%edx,%esi,4),%xmm2
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 15,20,231 ; unpcklps %xmm7,%xmm4
- DB 15,40,235 ; movaps %xmm3,%xmm5
- DB 15,20,234 ; unpcklps %xmm2,%xmm5
- DB 15,21,247 ; unpckhps %xmm7,%xmm6
- DB 15,21,218 ; unpckhps %xmm2,%xmm3
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 102,15,20,213 ; unpcklpd %xmm5,%xmm2
- DB 15,18,236 ; movhlps %xmm4,%xmm5
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 102,15,20,227 ; unpcklpd %xmm3,%xmm4
- DB 15,18,222 ; movhlps %xmm6,%xmm3
- DB 102,15,41,81,16 ; movapd %xmm2,0x10(%ecx)
- DB 15,41,105,32 ; movaps %xmm5,0x20(%ecx)
- DB 102,15,41,97,48 ; movapd %xmm4,0x30(%ecx)
- DB 15,41,89,64 ; movaps %xmm3,0x40(%ecx)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,85,232 ; movaps -0x18(%ebp),%xmm2
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,48 ; add $0x30,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 131,255,1 ; cmp $0x1,%edi
- DB 117,8 ; jne 68c3 <_sk_load_f32_dst_sse2+0xac>
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 235,158 ; jmp 6861 <_sk_load_f32_dst_sse2+0x4a>
- DB 15,16,124,178,16 ; movups 0x10(%edx,%esi,4),%xmm7
- DB 131,255,3 ; cmp $0x3,%edi
- DB 114,7 ; jb 68d4 <_sk_load_f32_dst_sse2+0xbd>
- DB 15,16,92,178,32 ; movups 0x20(%edx,%esi,4),%xmm3
- DB 235,141 ; jmp 6861 <_sk_load_f32_dst_sse2+0x4a>
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 235,136 ; jmp 6861 <_sk_load_f32_dst_sse2+0x4a>
-
-PUBLIC _sk_store_f32_sse2
-_sk_store_f32_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,48 ; mov (%eax),%esi
- DB 139,25 ; mov (%ecx),%ebx
- DB 139,86,4 ; mov 0x4(%esi),%edx
- DB 15,175,81,4 ; imul 0x4(%ecx),%edx
- DB 193,226,2 ; shl $0x2,%edx
- DB 3,22 ; add (%esi),%edx
- DB 141,52,157,0,0,0,0 ; lea 0x0(,%ebx,4),%esi
- DB 193,227,4 ; shl $0x4,%ebx
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 15,20,233 ; unpcklps %xmm1,%xmm5
- DB 15,40,226 ; movaps %xmm2,%xmm4
- DB 15,20,227 ; unpcklps %xmm3,%xmm4
- DB 15,40,245 ; movaps %xmm5,%xmm6
- DB 102,15,20,244 ; unpcklpd %xmm4,%xmm6
- DB 139,121,8 ; mov 0x8(%ecx),%edi
- DB 102,15,17,52,19 ; movupd %xmm6,(%ebx,%edx,1)
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,21,241 ; unpckhps %xmm1,%xmm6
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,21,251 ; unpckhps %xmm3,%xmm7
- DB 15,18,229 ; movhlps %xmm5,%xmm4
- DB 15,40,238 ; movaps %xmm6,%xmm5
- DB 102,15,20,239 ; unpcklpd %xmm7,%xmm5
- DB 133,255 ; test %edi,%edi
- DB 117,40 ; jne 695f <_sk_store_f32_sse2+0x86>
- DB 102,15,21,247 ; unpckhpd %xmm7,%xmm6
- DB 15,17,100,178,16 ; movups %xmm4,0x10(%edx,%esi,4)
- DB 102,15,17,108,178,32 ; movupd %xmm5,0x20(%edx,%esi,4)
- DB 102,15,17,116,178,48 ; movupd %xmm6,0x30(%edx,%esi,4)
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 131,255,1 ; cmp $0x1,%edi
- DB 116,232 ; je 694c <_sk_store_f32_sse2+0x73>
- DB 15,17,100,178,16 ; movups %xmm4,0x10(%edx,%esi,4)
- DB 131,255,3 ; cmp $0x3,%edi
- DB 114,222 ; jb 694c <_sk_store_f32_sse2+0x73>
- DB 102,15,17,108,178,32 ; movupd %xmm5,0x20(%edx,%esi,4)
- DB 235,214 ; jmp 694c <_sk_store_f32_sse2+0x73>
-
-PUBLIC _sk_repeat_x_sse2
-_sk_repeat_x_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 6981 <_sk_repeat_x_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,17 ; mov (%ecx),%edx
- DB 243,15,16,34 ; movss (%edx),%xmm4
- DB 243,15,16,106,4 ; movss 0x4(%edx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,232 ; mulps %xmm0,%xmm5
- DB 243,15,91,245 ; cvttps2dq %xmm5,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,194,238,1 ; cmpltps %xmm6,%xmm5
- DB 15,84,168,239,157,0,0 ; andps 0x9def(%eax),%xmm5
- DB 15,92,245 ; subps %xmm5,%xmm6
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 141,65,8 ; lea 0x8(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_repeat_y_sse2
-_sk_repeat_y_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 69d3 <_sk_repeat_y_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,17 ; mov (%ecx),%edx
- DB 243,15,16,34 ; movss (%edx),%xmm4
- DB 243,15,16,106,4 ; movss 0x4(%edx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,233 ; mulps %xmm1,%xmm5
- DB 243,15,91,245 ; cvttps2dq %xmm5,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,194,238,1 ; cmpltps %xmm6,%xmm5
- DB 15,84,168,157,157,0,0 ; andps 0x9d9d(%eax),%xmm5
- DB 15,92,245 ; subps %xmm5,%xmm6
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 15,92,204 ; subps %xmm4,%xmm1
- DB 141,65,8 ; lea 0x8(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_mirror_x_sse2
-_sk_mirror_x_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 6a25 <_sk_mirror_x_sse2+0xb>
- DB 89 ; pop %ecx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 243,15,16,34 ; movss (%edx),%xmm4
- DB 243,15,16,106,4 ; movss 0x4(%edx),%xmm5
- DB 15,40,244 ; movaps %xmm4,%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,92,198 ; subps %xmm6,%xmm0
- DB 243,15,89,169,75,165,0,0 ; mulss 0xa54b(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,232 ; mulps %xmm0,%xmm5
- DB 243,15,91,253 ; cvttps2dq %xmm5,%xmm7
- DB 15,91,255 ; cvtdq2ps %xmm7,%xmm7
- DB 15,194,239,1 ; cmpltps %xmm7,%xmm5
- DB 15,84,169,75,157,0,0 ; andps 0x9d4b(%ecx),%xmm5
- DB 15,92,253 ; subps %xmm5,%xmm7
- DB 243,15,88,228 ; addss %xmm4,%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,89,252 ; mulps %xmm4,%xmm7
- DB 15,92,199 ; subps %xmm7,%xmm0
- DB 15,92,198 ; subps %xmm6,%xmm0
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,84,196 ; andps %xmm4,%xmm0
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_mirror_y_sse2
-_sk_mirror_y_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 6a99 <_sk_mirror_y_sse2+0xb>
- DB 89 ; pop %ecx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 243,15,16,34 ; movss (%edx),%xmm4
- DB 243,15,16,106,4 ; movss 0x4(%edx),%xmm5
- DB 15,40,244 ; movaps %xmm4,%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 243,15,89,169,215,164,0,0 ; mulss 0xa4d7(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,233 ; mulps %xmm1,%xmm5
- DB 243,15,91,253 ; cvttps2dq %xmm5,%xmm7
- DB 15,91,255 ; cvtdq2ps %xmm7,%xmm7
- DB 15,194,239,1 ; cmpltps %xmm7,%xmm5
- DB 15,84,169,215,156,0,0 ; andps 0x9cd7(%ecx),%xmm5
- DB 15,92,253 ; subps %xmm5,%xmm7
- DB 243,15,88,228 ; addss %xmm4,%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,89,252 ; mulps %xmm4,%xmm7
- DB 15,92,207 ; subps %xmm7,%xmm1
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,92,225 ; subps %xmm1,%xmm4
- DB 15,84,204 ; andps %xmm4,%xmm1
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_clamp_x_1_sse2
-_sk_clamp_x_1_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 6b0d <_sk_clamp_x_1_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,224 ; maxps %xmm0,%xmm4
- DB 15,93,160,99,156,0,0 ; minps 0x9c63(%eax),%xmm4
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_repeat_x_1_sse2
-_sk_repeat_x_1_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 6b3d <_sk_repeat_x_1_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 243,15,91,224 ; cvttps2dq %xmm0,%xmm4
- DB 15,91,236 ; cvtdq2ps %xmm4,%xmm5
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,194,245,1 ; cmpltps %xmm5,%xmm6
- DB 15,40,184,51,156,0,0 ; movaps 0x9c33(%eax),%xmm7
- DB 15,84,247 ; andps %xmm7,%xmm6
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,92,238 ; subps %xmm6,%xmm5
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,95,224 ; maxps %xmm0,%xmm4
- DB 15,93,231 ; minps %xmm7,%xmm4
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_mirror_x_1_sse2
-_sk_mirror_x_1_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 6b87 <_sk_mirror_x_1_sse2+0xb>
- DB 88 ; pop %eax
- DB 15,40,160,89,156,0,0 ; movaps 0x9c59(%eax),%xmm4
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,40,168,217,155,0,0 ; movaps 0x9bd9(%eax),%xmm5
- DB 15,89,232 ; mulps %xmm0,%xmm5
- DB 243,15,91,245 ; cvttps2dq %xmm5,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,194,238,1 ; cmpltps %xmm6,%xmm5
- DB 15,40,184,233,155,0,0 ; movaps 0x9be9(%eax),%xmm7
- DB 15,84,239 ; andps %xmm7,%xmm5
- DB 15,92,245 ; subps %xmm5,%xmm6
- DB 15,88,246 ; addps %xmm6,%xmm6
- DB 15,92,198 ; subps %xmm6,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,84,224 ; andps %xmm0,%xmm4
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,95,196 ; maxps %xmm4,%xmm0
- DB 15,93,199 ; minps %xmm7,%xmm0
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_decal_x_sse2
-_sk_decal_x_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,17 ; mov (%ecx),%edx
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,194,224,2 ; cmpleps %xmm0,%xmm4
- DB 243,15,16,106,64 ; movss 0x40(%edx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,194,245,1 ; cmpltps %xmm5,%xmm6
- DB 15,84,244 ; andps %xmm4,%xmm6
- DB 15,17,50 ; movups %xmm6,(%edx)
- DB 141,81,8 ; lea 0x8(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_decal_y_sse2
-_sk_decal_y_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,17 ; mov (%ecx),%edx
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,194,225,2 ; cmpleps %xmm1,%xmm4
- DB 243,15,16,106,68 ; movss 0x44(%edx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,194,245,1 ; cmpltps %xmm5,%xmm6
- DB 15,84,244 ; andps %xmm4,%xmm6
- DB 15,17,50 ; movups %xmm6,(%edx)
- DB 141,81,8 ; lea 0x8(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_decal_x_and_y_sse2
-_sk_decal_x_and_y_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 243,15,16,105,64 ; movss 0x40(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,194,245,1 ; cmpltps %xmm5,%xmm6
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,194,232,2 ; cmpleps %xmm0,%xmm5
- DB 15,194,225,2 ; cmpleps %xmm1,%xmm4
- DB 15,84,229 ; andps %xmm5,%xmm4
- DB 243,15,16,105,68 ; movss 0x44(%ecx),%xmm5
- DB 15,84,230 ; andps %xmm6,%xmm4
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,194,245,1 ; cmpltps %xmm5,%xmm6
- DB 15,84,244 ; andps %xmm4,%xmm6
- DB 15,17,49 ; movups %xmm6,(%ecx)
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_check_decal_mask_sse2
-_sk_check_decal_mask_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 15,16,33 ; movups (%ecx),%xmm4
- DB 15,84,196 ; andps %xmm4,%xmm0
- DB 15,84,204 ; andps %xmm4,%xmm1
- DB 15,84,212 ; andps %xmm4,%xmm2
- DB 15,84,220 ; andps %xmm4,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_luminance_to_alpha_sse2
-_sk_luminance_to_alpha_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 232,0,0,0,0 ; call 6ceb <_sk_luminance_to_alpha_sse2+0xe>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,89,128,5,160,0,0 ; mulps 0xa005(%eax),%xmm0
- DB 15,89,136,21,160,0,0 ; mulps 0xa015(%eax),%xmm1
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,89,152,37,160,0,0 ; mulps 0xa025(%eax),%xmm3
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_matrix_translate_sse2
-_sk_matrix_translate_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,33 ; movss (%ecx),%xmm4
- DB 243,15,16,105,4 ; movss 0x4(%ecx),%xmm5
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_matrix_scale_translate_sse2
-_sk_matrix_scale_translate_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,33 ; movss (%ecx),%xmm4
- DB 243,15,16,105,4 ; movss 0x4(%ecx),%xmm5
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 243,15,16,113,8 ; movss 0x8(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 243,15,16,97,12 ; movss 0xc(%ecx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_matrix_2x3_sse2
-_sk_matrix_2x3_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,1 ; movss (%ecx),%xmm0
- DB 243,15,16,73,4 ; movss 0x4(%ecx),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,15,16,113,8 ; movss 0x8(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 243,15,16,121,16 ; movss 0x10(%ecx),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,15,16,113,12 ; movss 0xc(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 243,15,16,121,20 ; movss 0x14(%ecx),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_matrix_3x4_sse2
-_sk_matrix_3x4_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,1 ; movss (%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,15,16,105,24 ; movss 0x18(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 243,15,16,113,36 ; movss 0x24(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,89,234 ; mulps %xmm2,%xmm5
- DB 15,88,238 ; addps %xmm6,%xmm5
- DB 243,15,16,113,12 ; movss 0xc(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,89,241 ; mulps %xmm1,%xmm6
- DB 15,88,245 ; addps %xmm5,%xmm6
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 243,15,16,105,28 ; movss 0x1c(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 243,15,16,113,40 ; movss 0x28(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,89,234 ; mulps %xmm2,%xmm5
- DB 15,88,238 ; addps %xmm6,%xmm5
- DB 243,15,16,113,16 ; movss 0x10(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,89,241 ; mulps %xmm1,%xmm6
- DB 15,88,245 ; addps %xmm5,%xmm6
- DB 243,15,16,105,4 ; movss 0x4(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,88,238 ; addps %xmm6,%xmm5
- DB 243,15,16,113,32 ; movss 0x20(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,89,242 ; mulps %xmm2,%xmm6
- DB 243,15,16,81,44 ; movss 0x2c(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,88,242 ; addps %xmm2,%xmm6
- DB 243,15,16,121,20 ; movss 0x14(%ecx),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,89,249 ; mulps %xmm1,%xmm7
- DB 15,88,254 ; addps %xmm6,%xmm7
- DB 243,15,16,81,8 ; movss 0x8(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_matrix_4x5_sse2
-_sk_matrix_4x5_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,1 ; movss (%ecx),%xmm0
- DB 243,15,16,73,4 ; movss 0x4(%ecx),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,15,16,113,48 ; movss 0x30(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 243,15,16,121,64 ; movss 0x40(%ecx),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 243,15,16,121,32 ; movss 0x20(%ecx),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,89,250 ; mulps %xmm2,%xmm7
- DB 15,88,254 ; addps %xmm6,%xmm7
- DB 243,15,16,113,16 ; movss 0x10(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,15,16,113,52 ; movss 0x34(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 243,15,16,121,68 ; movss 0x44(%ecx),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 243,15,16,121,36 ; movss 0x24(%ecx),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,89,250 ; mulps %xmm2,%xmm7
- DB 15,88,254 ; addps %xmm6,%xmm7
- DB 243,15,16,113,20 ; movss 0x14(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 243,15,16,113,56 ; movss 0x38(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 243,15,16,121,72 ; movss 0x48(%ecx),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 243,15,16,121,40 ; movss 0x28(%ecx),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,89,250 ; mulps %xmm2,%xmm7
- DB 15,88,254 ; addps %xmm6,%xmm7
- DB 243,15,16,113,24 ; movss 0x18(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 243,15,16,121,8 ; movss 0x8(%ecx),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,89,252 ; mulps %xmm4,%xmm7
- DB 15,88,254 ; addps %xmm6,%xmm7
- DB 243,15,16,113,60 ; movss 0x3c(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 243,15,16,89,76 ; movss 0x4c(%ecx),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 15,88,243 ; addps %xmm3,%xmm6
- DB 243,15,16,89,44 ; movss 0x2c(%ecx),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 15,89,218 ; mulps %xmm2,%xmm3
- DB 15,88,222 ; addps %xmm6,%xmm3
- DB 243,15,16,81,28 ; movss 0x1c(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 243,15,16,89,12 ; movss 0xc(%ecx),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,215 ; movaps %xmm7,%xmm2
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_matrix_4x3_sse2
-_sk_matrix_4x3_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,1 ; movss (%ecx),%xmm0
- DB 243,15,16,73,4 ; movss 0x4(%ecx),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,15,16,81,16 ; movss 0x10(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,89,32 ; movss 0x20(%ecx),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,15,16,81,20 ; movss 0x14(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,89,36 ; movss 0x24(%ecx),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 243,15,16,81,8 ; movss 0x8(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,89,24 ; movss 0x18(%ecx),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 243,15,16,113,40 ; movss 0x28(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,89,221 ; mulps %xmm5,%xmm3
- DB 15,88,222 ; addps %xmm6,%xmm3
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 243,15,16,89,12 ; movss 0xc(%ecx),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 243,15,16,113,28 ; movss 0x1c(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 243,15,16,121,44 ; movss 0x2c(%ecx),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 15,88,222 ; addps %xmm6,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_matrix_perspective_sse2
-_sk_matrix_perspective_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,1 ; movss (%ecx),%xmm0
- DB 243,15,16,105,4 ; movss 0x4(%ecx),%xmm5
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 243,15,16,113,8 ; movss 0x8(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,89,233 ; mulps %xmm1,%xmm5
- DB 15,88,238 ; addps %xmm6,%xmm5
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 243,15,16,113,16 ; movss 0x10(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 243,15,16,105,20 ; movss 0x14(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,241 ; mulps %xmm1,%xmm6
- DB 15,88,245 ; addps %xmm5,%xmm6
- DB 243,15,16,105,12 ; movss 0xc(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,88,238 ; addps %xmm6,%xmm5
- DB 243,15,16,113,28 ; movss 0x1c(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,89,241 ; mulps %xmm1,%xmm6
- DB 243,15,16,73,32 ; movss 0x20(%ecx),%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 15,88,241 ; addps %xmm1,%xmm6
- DB 243,15,16,73,24 ; movss 0x18(%ecx),%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,83,201 ; rcpps %xmm1,%xmm1
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,89,233 ; mulps %xmm1,%xmm5
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_evenly_spaced_gradient_sse2
-_sk_evenly_spaced_gradient_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,60 ; sub $0x3c,%esp
- DB 15,41,69,184 ; movaps %xmm0,-0x48(%ebp)
- DB 232,0,0,0,0 ; call 7181 <_sk_evenly_spaced_gradient_sse2+0x12>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 139,49 ; mov (%ecx),%esi
- DB 139,65,4 ; mov 0x4(%ecx),%eax
- DB 78 ; dec %esi
- DB 102,15,110,206 ; movd %esi,%xmm1
- DB 102,15,112,201,0 ; pshufd $0x0,%xmm1,%xmm1
- DB 102,15,111,146,159,155,0,0 ; movdqa 0x9b9f(%edx),%xmm2
- DB 102,15,219,209 ; pand %xmm1,%xmm2
- DB 102,15,235,146,31,153,0,0 ; por 0x991f(%edx),%xmm2
- DB 102,15,114,209,16 ; psrld $0x10,%xmm1
- DB 102,15,235,138,175,155,0,0 ; por 0x9baf(%edx),%xmm1
- DB 15,88,138,191,155,0,0 ; addps 0x9bbf(%edx),%xmm1
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,15,112,209,229 ; pshufd $0xe5,%xmm1,%xmm2
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,15,126,218 ; movd %xmm3,%edx
- DB 102,15,112,217,231 ; pshufd $0xe7,%xmm1,%xmm3
- DB 102,15,126,223 ; movd %xmm3,%edi
- DB 243,15,16,28,184 ; movss (%eax,%edi,4),%xmm3
- DB 243,15,16,52,144 ; movss (%eax,%edx,4),%xmm6
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 243,15,16,36,176 ; movss (%eax,%esi,4),%xmm4
- DB 102,15,126,211 ; movd %xmm2,%ebx
- DB 243,15,16,12,152 ; movss (%eax,%ebx,4),%xmm1
- DB 15,20,243 ; unpcklps %xmm3,%xmm6
- DB 139,65,20 ; mov 0x14(%ecx),%eax
- DB 243,15,16,20,184 ; movss (%eax,%edi,4),%xmm2
- DB 243,15,16,28,144 ; movss (%eax,%edx,4),%xmm3
- DB 243,15,16,4,176 ; movss (%eax,%esi,4),%xmm0
- DB 243,15,16,60,152 ; movss (%eax,%ebx,4),%xmm7
- DB 15,20,225 ; unpcklps %xmm1,%xmm4
- DB 102,15,20,230 ; unpcklpd %xmm6,%xmm4
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 15,20,199 ; unpcklps %xmm7,%xmm0
- DB 139,65,8 ; mov 0x8(%ecx),%eax
- DB 243,15,16,20,184 ; movss (%eax,%edi,4),%xmm2
- DB 243,15,16,52,144 ; movss (%eax,%edx,4),%xmm6
- DB 243,15,16,12,176 ; movss (%eax,%esi,4),%xmm1
- DB 243,15,16,60,152 ; movss (%eax,%ebx,4),%xmm7
- DB 102,15,20,195 ; unpcklpd %xmm3,%xmm0
- DB 102,15,41,69,200 ; movapd %xmm0,-0x38(%ebp)
- DB 15,20,242 ; unpcklps %xmm2,%xmm6
- DB 15,20,207 ; unpcklps %xmm7,%xmm1
- DB 102,15,20,206 ; unpcklpd %xmm6,%xmm1
- DB 139,65,24 ; mov 0x18(%ecx),%eax
- DB 243,15,16,20,184 ; movss (%eax,%edi,4),%xmm2
- DB 243,15,16,28,144 ; movss (%eax,%edx,4),%xmm3
- DB 243,15,16,4,176 ; movss (%eax,%esi,4),%xmm0
- DB 243,15,16,60,152 ; movss (%eax,%ebx,4),%xmm7
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 15,20,199 ; unpcklps %xmm7,%xmm0
- DB 102,15,20,195 ; unpcklpd %xmm3,%xmm0
- DB 102,15,41,69,216 ; movapd %xmm0,-0x28(%ebp)
- DB 139,65,12 ; mov 0xc(%ecx),%eax
- DB 243,15,16,20,184 ; movss (%eax,%edi,4),%xmm2
- DB 243,15,16,28,144 ; movss (%eax,%edx,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 243,15,16,20,176 ; movss (%eax,%esi,4),%xmm2
- DB 243,15,16,60,152 ; movss (%eax,%ebx,4),%xmm7
- DB 15,20,215 ; unpcklps %xmm7,%xmm2
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 139,65,28 ; mov 0x1c(%ecx),%eax
- DB 243,15,16,60,184 ; movss (%eax,%edi,4),%xmm7
- DB 243,15,16,28,144 ; movss (%eax,%edx,4),%xmm3
- DB 15,20,223 ; unpcklps %xmm7,%xmm3
- DB 243,15,16,60,176 ; movss (%eax,%esi,4),%xmm7
- DB 243,15,16,44,152 ; movss (%eax,%ebx,4),%xmm5
- DB 15,20,253 ; unpcklps %xmm5,%xmm7
- DB 102,15,20,251 ; unpcklpd %xmm3,%xmm7
- DB 139,65,16 ; mov 0x10(%ecx),%eax
- DB 243,15,16,28,184 ; movss (%eax,%edi,4),%xmm3
- DB 243,15,16,44,144 ; movss (%eax,%edx,4),%xmm5
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 243,15,16,28,176 ; movss (%eax,%esi,4),%xmm3
- DB 243,15,16,4,152 ; movss (%eax,%ebx,4),%xmm0
- DB 15,20,216 ; unpcklps %xmm0,%xmm3
- DB 102,15,20,221 ; unpcklpd %xmm5,%xmm3
- DB 139,65,32 ; mov 0x20(%ecx),%eax
- DB 243,15,16,4,184 ; movss (%eax,%edi,4),%xmm0
- DB 243,15,16,44,144 ; movss (%eax,%edx,4),%xmm5
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 243,15,16,4,176 ; movss (%eax,%esi,4),%xmm0
- DB 243,15,16,52,152 ; movss (%eax,%ebx,4),%xmm6
- DB 15,20,198 ; unpcklps %xmm6,%xmm0
- DB 102,15,20,197 ; unpcklpd %xmm5,%xmm0
- DB 15,40,109,184 ; movaps -0x48(%ebp),%xmm5
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,101,200 ; addps -0x38(%ebp),%xmm4
- DB 15,89,205 ; mulps %xmm5,%xmm1
- DB 15,88,77,216 ; addps -0x28(%ebp),%xmm1
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 15,89,221 ; mulps %xmm5,%xmm3
- DB 15,88,216 ; addps %xmm0,%xmm3
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,65,8 ; lea 0x8(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,76 ; add $0x4c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_gradient_sse2
-_sk_gradient_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,60 ; sub $0x3c,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,10 ; mov (%edx),%ecx
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 131,249,2 ; cmp $0x2,%ecx
- DB 114,33 ; jb 7369 <_sk_gradient_sse2+0x3a>
- DB 139,114,36 ; mov 0x24(%edx),%esi
- DB 73 ; dec %ecx
- DB 131,198,4 ; add $0x4,%esi
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 243,15,16,22 ; movss (%esi),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,194,208,2 ; cmpleps %xmm0,%xmm2
- DB 102,15,250,202 ; psubd %xmm2,%xmm1
- DB 131,198,4 ; add $0x4,%esi
- DB 73 ; dec %ecx
- DB 117,234 ; jne 7353 <_sk_gradient_sse2+0x24>
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,112,209,229 ; pshufd $0xe5,%xmm1,%xmm2
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,15,126,223 ; movd %xmm3,%edi
- DB 102,15,112,201,231 ; pshufd $0xe7,%xmm1,%xmm1
- DB 102,15,126,203 ; movd %xmm1,%ebx
- DB 139,66,4 ; mov 0x4(%edx),%eax
- DB 243,15,16,12,152 ; movss (%eax,%ebx,4),%xmm1
- DB 243,15,16,28,184 ; movss (%eax,%edi,4),%xmm3
- DB 243,15,16,36,176 ; movss (%eax,%esi,4),%xmm4
- DB 102,15,126,209 ; movd %xmm2,%ecx
- DB 243,15,16,20,136 ; movss (%eax,%ecx,4),%xmm2
- DB 15,20,217 ; unpcklps %xmm1,%xmm3
- DB 139,66,20 ; mov 0x14(%edx),%eax
- DB 243,15,16,12,152 ; movss (%eax,%ebx,4),%xmm1
- DB 243,15,16,52,184 ; movss (%eax,%edi,4),%xmm6
- DB 243,15,16,44,176 ; movss (%eax,%esi,4),%xmm5
- DB 243,15,16,60,136 ; movss (%eax,%ecx,4),%xmm7
- DB 15,20,226 ; unpcklps %xmm2,%xmm4
- DB 102,15,20,227 ; unpcklpd %xmm3,%xmm4
- DB 102,15,41,101,184 ; movapd %xmm4,-0x48(%ebp)
- DB 15,20,241 ; unpcklps %xmm1,%xmm6
- DB 15,20,239 ; unpcklps %xmm7,%xmm5
- DB 139,66,8 ; mov 0x8(%edx),%eax
- DB 243,15,16,20,152 ; movss (%eax,%ebx,4),%xmm2
- DB 243,15,16,28,184 ; movss (%eax,%edi,4),%xmm3
- DB 243,15,16,12,176 ; movss (%eax,%esi,4),%xmm1
- DB 243,15,16,60,136 ; movss (%eax,%ecx,4),%xmm7
- DB 102,15,20,238 ; unpcklpd %xmm6,%xmm5
- DB 102,15,41,109,200 ; movapd %xmm5,-0x38(%ebp)
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 15,20,207 ; unpcklps %xmm7,%xmm1
- DB 102,15,20,203 ; unpcklpd %xmm3,%xmm1
- DB 139,66,24 ; mov 0x18(%edx),%eax
- DB 243,15,16,20,152 ; movss (%eax,%ebx,4),%xmm2
- DB 243,15,16,28,184 ; movss (%eax,%edi,4),%xmm3
- DB 243,15,16,36,176 ; movss (%eax,%esi,4),%xmm4
- DB 243,15,16,60,136 ; movss (%eax,%ecx,4),%xmm7
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 15,20,231 ; unpcklps %xmm7,%xmm4
- DB 102,15,20,227 ; unpcklpd %xmm3,%xmm4
- DB 102,15,41,101,216 ; movapd %xmm4,-0x28(%ebp)
- DB 139,66,12 ; mov 0xc(%edx),%eax
- DB 243,15,16,20,152 ; movss (%eax,%ebx,4),%xmm2
- DB 243,15,16,28,184 ; movss (%eax,%edi,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 243,15,16,20,176 ; movss (%eax,%esi,4),%xmm2
- DB 243,15,16,60,136 ; movss (%eax,%ecx,4),%xmm7
- DB 15,20,215 ; unpcklps %xmm7,%xmm2
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 139,66,28 ; mov 0x1c(%edx),%eax
- DB 243,15,16,60,152 ; movss (%eax,%ebx,4),%xmm7
- DB 243,15,16,28,184 ; movss (%eax,%edi,4),%xmm3
- DB 15,20,223 ; unpcklps %xmm7,%xmm3
- DB 243,15,16,60,176 ; movss (%eax,%esi,4),%xmm7
- DB 243,15,16,44,136 ; movss (%eax,%ecx,4),%xmm5
- DB 15,20,253 ; unpcklps %xmm5,%xmm7
- DB 102,15,20,251 ; unpcklpd %xmm3,%xmm7
- DB 139,66,16 ; mov 0x10(%edx),%eax
- DB 243,15,16,28,152 ; movss (%eax,%ebx,4),%xmm3
- DB 243,15,16,44,184 ; movss (%eax,%edi,4),%xmm5
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 243,15,16,28,176 ; movss (%eax,%esi,4),%xmm3
- DB 243,15,16,52,136 ; movss (%eax,%ecx,4),%xmm6
- DB 15,20,222 ; unpcklps %xmm6,%xmm3
- DB 102,15,20,221 ; unpcklpd %xmm5,%xmm3
- DB 139,66,32 ; mov 0x20(%edx),%eax
- DB 243,15,16,44,152 ; movss (%eax,%ebx,4),%xmm5
- DB 243,15,16,52,184 ; movss (%eax,%edi,4),%xmm6
- DB 15,20,245 ; unpcklps %xmm5,%xmm6
- DB 243,15,16,44,176 ; movss (%eax,%esi,4),%xmm5
- DB 243,15,16,36,136 ; movss (%eax,%ecx,4),%xmm4
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 102,15,20,238 ; unpcklpd %xmm6,%xmm5
- DB 15,40,101,184 ; movaps -0x48(%ebp),%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,88,101,200 ; addps -0x38(%ebp),%xmm4
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,88,77,216 ; addps -0x28(%ebp),%xmm1
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 137,193 ; mov %eax,%ecx
- DB 141,65,8 ; lea 0x8(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,76 ; add $0x4c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_evenly_spaced_2_stop_gradient_sse2
-_sk_evenly_spaced_2_stop_gradient_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,1 ; movss (%ecx),%xmm0
- DB 243,15,16,73,4 ; movss 0x4(%ecx),%xmm1
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,15,16,81,16 ; movss 0x10(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 243,15,16,81,20 ; movss 0x14(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 243,15,16,81,8 ; movss 0x8(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,89,24 ; movss 0x18(%ecx),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 243,15,16,89,12 ; movss 0xc(%ecx),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 243,15,16,105,28 ; movss 0x1c(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_xy_to_unit_angle_sse2
-_sk_xy_to_unit_angle_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,24 ; sub $0x18,%esp
- DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 232,0,0,0,0 ; call 7571 <_sk_xy_to_unit_angle_sse2+0x18>
- DB 88 ; pop %eax
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,92,233 ; subps %xmm1,%xmm5
- DB 15,84,233 ; andps %xmm1,%xmm5
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,92,226 ; subps %xmm2,%xmm4
- DB 15,84,226 ; andps %xmm2,%xmm4
- DB 15,40,245 ; movaps %xmm5,%xmm6
- DB 15,93,244 ; minps %xmm4,%xmm6
- DB 15,40,253 ; movaps %xmm5,%xmm7
- DB 15,95,252 ; maxps %xmm4,%xmm7
- DB 15,94,247 ; divps %xmm7,%xmm6
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 15,89,255 ; mulps %xmm7,%xmm7
- DB 15,40,128,223,151,0,0 ; movaps 0x97df(%eax),%xmm0
- DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 15,88,128,239,151,0,0 ; addps 0x97ef(%eax),%xmm0
- DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 15,88,128,255,151,0,0 ; addps 0x97ff(%eax),%xmm0
- DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 15,88,128,15,152,0,0 ; addps 0x980f(%eax),%xmm0
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,194,236,1 ; cmpltps %xmm4,%xmm5
- DB 15,40,176,31,152,0,0 ; movaps 0x981f(%eax),%xmm6
- DB 15,92,240 ; subps %xmm0,%xmm6
- DB 15,84,245 ; andps %xmm5,%xmm6
- DB 15,85,232 ; andnps %xmm0,%xmm5
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,86,238 ; orps %xmm6,%xmm5
- DB 15,194,204,1 ; cmpltps %xmm4,%xmm1
- DB 15,40,128,239,145,0,0 ; movaps 0x91ef(%eax),%xmm0
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,84,193 ; andps %xmm1,%xmm0
- DB 15,85,205 ; andnps %xmm5,%xmm1
- DB 15,86,200 ; orps %xmm0,%xmm1
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,194,196,1 ; cmpltps %xmm4,%xmm0
- DB 15,40,168,255,145,0,0 ; movaps 0x91ff(%eax),%xmm5
- DB 15,92,233 ; subps %xmm1,%xmm5
- DB 15,84,232 ; andps %xmm0,%xmm5
- DB 15,85,193 ; andnps %xmm1,%xmm0
- DB 15,86,197 ; orps %xmm5,%xmm0
- DB 15,194,224,7 ; cmpordps %xmm0,%xmm4
- DB 15,84,224 ; andps %xmm0,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,40 ; add $0x28,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_xy_to_radius_sse2
-_sk_xy_to_radius_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,89,228 ; mulps %xmm4,%xmm4
- DB 15,88,224 ; addps %xmm0,%xmm4
- DB 15,81,196 ; sqrtps %xmm4,%xmm0
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_negate_x_sse2
-_sk_negate_x_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 7668 <_sk_negate_x_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,87,128,56,150,0,0 ; xorps 0x9638(%eax),%xmm0
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_xy_to_2pt_conical_strip_sse2
-_sk_xy_to_2pt_conical_strip_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,97,64 ; movss 0x40(%ecx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,89,237 ; mulps %xmm5,%xmm5
- DB 15,92,229 ; subps %xmm5,%xmm4
- DB 15,81,228 ; sqrtps %xmm4,%xmm4
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_xy_to_2pt_conical_focal_on_circle_sse2
-_sk_xy_to_2pt_conical_focal_on_circle_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,89,228 ; mulps %xmm4,%xmm4
- DB 15,94,224 ; divps %xmm0,%xmm4
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 141,72,4 ; lea 0x4(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,16 ; call *(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_xy_to_2pt_conical_well_behaved_sse2
-_sk_xy_to_2pt_conical_well_behaved_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,97,64 ; movss 0x40(%ecx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,89,237 ; mulps %xmm5,%xmm5
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 15,81,197 ; sqrtps %xmm5,%xmm0
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_xy_to_2pt_conical_greater_sse2
-_sk_xy_to_2pt_conical_greater_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,97,64 ; movss 0x40(%ecx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,89,237 ; mulps %xmm5,%xmm5
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,81,192 ; sqrtps %xmm0,%xmm0
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_xy_to_2pt_conical_smaller_sse2
-_sk_xy_to_2pt_conical_smaller_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 7760 <_sk_xy_to_2pt_conical_smaller_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,17 ; mov (%ecx),%edx
- DB 243,15,16,98,64 ; movss 0x40(%edx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,89,237 ; mulps %xmm5,%xmm5
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,81,192 ; sqrtps %xmm0,%xmm0
- DB 15,87,128,64,149,0,0 ; xorps 0x9540(%eax),%xmm0
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 141,65,8 ; lea 0x8(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_alter_2pt_conical_compensate_focal_sse2
-_sk_alter_2pt_conical_compensate_focal_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,97,68 ; movss 0x44(%ecx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_alter_2pt_conical_unswap_sse2
-_sk_alter_2pt_conical_unswap_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 77d1 <_sk_alter_2pt_conical_unswap_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,40,160,159,143,0,0 ; movaps 0x8f9f(%eax),%xmm4
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_mask_2pt_conical_nan_sse2
-_sk_mask_2pt_conical_nan_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,17 ; mov (%ecx),%edx
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,194,224,7 ; cmpordps %xmm0,%xmm4
- DB 15,17,34 ; movups %xmm4,(%edx)
- DB 141,81,8 ; lea 0x8(%ecx),%edx
- DB 15,84,196 ; andps %xmm4,%xmm0
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_mask_2pt_conical_degenerates_sse2
-_sk_mask_2pt_conical_degenerates_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,17 ; mov (%ecx),%edx
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,194,232,1 ; cmpltps %xmm0,%xmm5
- DB 15,17,42 ; movups %xmm5,(%edx)
- DB 141,81,8 ; lea 0x8(%ecx),%edx
- DB 15,95,196 ; maxps %xmm4,%xmm0
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_apply_vector_mask_sse2
-_sk_apply_vector_mask_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 15,16,33 ; movups (%ecx),%xmm4
- DB 15,84,196 ; andps %xmm4,%xmm0
- DB 15,84,204 ; andps %xmm4,%xmm1
- DB 15,84,212 ; andps %xmm4,%xmm2
- DB 15,84,220 ; andps %xmm4,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_save_xy_sse2
-_sk_save_xy_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,24 ; sub $0x18,%esp
- DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 232,0,0,0,0 ; call 788a <_sk_save_xy_sse2+0x12>
- DB 88 ; pop %eax
- DB 15,40,160,214,142,0,0 ; movaps 0x8ed6(%eax),%xmm4
- DB 15,40,232 ; movaps %xmm0,%xmm5
- DB 15,88,236 ; addps %xmm4,%xmm5
- DB 243,15,91,245 ; cvttps2dq %xmm5,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,40,253 ; movaps %xmm5,%xmm7
- DB 15,194,254,1 ; cmpltps %xmm6,%xmm7
- DB 15,40,144,230,142,0,0 ; movaps 0x8ee6(%eax),%xmm2
- DB 15,84,250 ; andps %xmm2,%xmm7
- DB 15,92,247 ; subps %xmm7,%xmm6
- DB 15,92,238 ; subps %xmm6,%xmm5
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 243,15,91,244 ; cvttps2dq %xmm4,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,40,252 ; movaps %xmm4,%xmm7
- DB 15,194,254,1 ; cmpltps %xmm6,%xmm7
- DB 15,84,250 ; andps %xmm2,%xmm7
- DB 15,92,247 ; subps %xmm7,%xmm6
- DB 15,92,230 ; subps %xmm6,%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 15,17,1 ; movups %xmm0,(%ecx)
- DB 15,17,73,64 ; movups %xmm1,0x40(%ecx)
- DB 15,17,169,128,0,0,0 ; movups %xmm5,0x80(%ecx)
- DB 15,17,161,192,0,0,0 ; movups %xmm4,0xc0(%ecx)
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 141,80,8 ; lea 0x8(%eax),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 82 ; push %edx
- DB 81 ; push %ecx
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,40 ; add $0x28,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_accumulate_sse2
-_sk_accumulate_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,17 ; mov (%ecx),%edx
- DB 15,16,162,0,1,0,0 ; movups 0x100(%edx),%xmm4
- DB 15,16,170,64,1,0,0 ; movups 0x140(%edx),%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,88,96,16 ; addps 0x10(%eax),%xmm4
- DB 15,41,96,16 ; movaps %xmm4,0x10(%eax)
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,89,225 ; mulps %xmm1,%xmm4
- DB 15,88,96,32 ; addps 0x20(%eax),%xmm4
- DB 15,41,96,32 ; movaps %xmm4,0x20(%eax)
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,89,226 ; mulps %xmm2,%xmm4
- DB 15,88,96,48 ; addps 0x30(%eax),%xmm4
- DB 15,41,96,48 ; movaps %xmm4,0x30(%eax)
- DB 15,89,235 ; mulps %xmm3,%xmm5
- DB 15,88,104,64 ; addps 0x40(%eax),%xmm5
- DB 15,41,104,64 ; movaps %xmm5,0x40(%eax)
- DB 141,81,8 ; lea 0x8(%ecx),%edx
- DB 131,236,8 ; sub $0x8,%esp
- DB 82 ; push %edx
- DB 80 ; push %eax
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_bilinear_nx_sse2
-_sk_bilinear_nx_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 80 ; push %eax
- DB 232,0,0,0,0 ; call 7972 <_sk_bilinear_nx_sse2+0xa>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 15,16,6 ; movups (%esi),%xmm0
- DB 15,16,166,128,0,0,0 ; movups 0x80(%esi),%xmm4
- DB 15,88,128,46,148,0,0 ; addps 0x942e(%eax),%xmm0
- DB 15,40,168,254,141,0,0 ; movaps 0x8dfe(%eax),%xmm5
- DB 15,92,236 ; subps %xmm4,%xmm5
- DB 15,17,174,0,1,0,0 ; movups %xmm5,0x100(%esi)
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,20 ; add $0x14,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_bilinear_px_sse2
-_sk_bilinear_px_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 80 ; push %eax
- DB 232,0,0,0,0 ; call 79b8 <_sk_bilinear_px_sse2+0xa>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 15,16,6 ; movups (%esi),%xmm0
- DB 15,16,166,128,0,0,0 ; movups 0x80(%esi),%xmm4
- DB 15,88,128,168,141,0,0 ; addps 0x8da8(%eax),%xmm0
- DB 15,17,166,0,1,0,0 ; movups %xmm4,0x100(%esi)
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,20 ; add $0x14,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_bilinear_ny_sse2
-_sk_bilinear_ny_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 80 ; push %eax
- DB 232,0,0,0,0 ; call 79f4 <_sk_bilinear_ny_sse2+0xa>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 15,16,78,64 ; movups 0x40(%esi),%xmm1
- DB 15,16,166,192,0,0,0 ; movups 0xc0(%esi),%xmm4
- DB 15,88,136,172,147,0,0 ; addps 0x93ac(%eax),%xmm1
- DB 15,40,168,124,141,0,0 ; movaps 0x8d7c(%eax),%xmm5
- DB 15,92,236 ; subps %xmm4,%xmm5
- DB 15,17,174,64,1,0,0 ; movups %xmm5,0x140(%esi)
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,20 ; add $0x14,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_bilinear_py_sse2
-_sk_bilinear_py_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 80 ; push %eax
- DB 232,0,0,0,0 ; call 7a3b <_sk_bilinear_py_sse2+0xa>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 15,16,78,64 ; movups 0x40(%esi),%xmm1
- DB 15,16,166,192,0,0,0 ; movups 0xc0(%esi),%xmm4
- DB 15,88,136,37,141,0,0 ; addps 0x8d25(%eax),%xmm1
- DB 15,17,166,64,1,0,0 ; movups %xmm4,0x140(%esi)
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,20 ; add $0x14,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_bicubic_n3x_sse2
-_sk_bicubic_n3x_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 80 ; push %eax
- DB 232,0,0,0,0 ; call 7a78 <_sk_bicubic_n3x_sse2+0xa>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 15,16,6 ; movups (%esi),%xmm0
- DB 15,16,166,128,0,0,0 ; movups 0x80(%esi),%xmm4
- DB 15,88,128,56,147,0,0 ; addps 0x9338(%eax),%xmm0
- DB 15,40,168,248,140,0,0 ; movaps 0x8cf8(%eax),%xmm5
- DB 15,92,236 ; subps %xmm4,%xmm5
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,89,228 ; mulps %xmm4,%xmm4
- DB 15,89,168,72,147,0,0 ; mulps 0x9348(%eax),%xmm5
- DB 15,88,168,232,142,0,0 ; addps 0x8ee8(%eax),%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,17,174,0,1,0,0 ; movups %xmm5,0x100(%esi)
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,20 ; add $0x14,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_bicubic_n1x_sse2
-_sk_bicubic_n1x_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 80 ; push %eax
- DB 232,0,0,0,0 ; call 7ad5 <_sk_bicubic_n1x_sse2+0xa>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 15,16,6 ; movups (%esi),%xmm0
- DB 15,16,166,128,0,0,0 ; movups 0x80(%esi),%xmm4
- DB 15,88,128,203,146,0,0 ; addps 0x92cb(%eax),%xmm0
- DB 15,40,168,155,140,0,0 ; movaps 0x8c9b(%eax),%xmm5
- DB 15,92,236 ; subps %xmm4,%xmm5
- DB 15,40,160,251,146,0,0 ; movaps 0x92fb(%eax),%xmm4
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,160,11,147,0,0 ; addps 0x930b(%eax),%xmm4
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,160,139,140,0,0 ; addps 0x8c8b(%eax),%xmm4
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,160,27,147,0,0 ; addps 0x931b(%eax),%xmm4
- DB 15,17,166,0,1,0,0 ; movups %xmm4,0x100(%esi)
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,20 ; add $0x14,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_bicubic_p1x_sse2
-_sk_bicubic_p1x_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 80 ; push %eax
- DB 232,0,0,0,0 ; call 7b40 <_sk_bicubic_p1x_sse2+0xa>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 15,40,160,32,140,0,0 ; movaps 0x8c20(%eax),%xmm4
- DB 15,16,6 ; movups (%esi),%xmm0
- DB 15,16,174,128,0,0,0 ; movups 0x80(%esi),%xmm5
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,40,176,144,146,0,0 ; movaps 0x9290(%eax),%xmm6
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,176,160,146,0,0 ; addps 0x92a0(%eax),%xmm6
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,244 ; addps %xmm4,%xmm6
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,176,176,146,0,0 ; addps 0x92b0(%eax),%xmm6
- DB 15,17,182,0,1,0,0 ; movups %xmm6,0x100(%esi)
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,20 ; add $0x14,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_bicubic_p3x_sse2
-_sk_bicubic_p3x_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 80 ; push %eax
- DB 232,0,0,0,0 ; call 7ba0 <_sk_bicubic_p3x_sse2+0xa>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 15,16,6 ; movups (%esi),%xmm0
- DB 15,16,166,128,0,0,0 ; movups 0x80(%esi),%xmm4
- DB 15,88,128,64,146,0,0 ; addps 0x9240(%eax),%xmm0
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,89,237 ; mulps %xmm5,%xmm5
- DB 15,89,160,32,146,0,0 ; mulps 0x9220(%eax),%xmm4
- DB 15,88,160,192,141,0,0 ; addps 0x8dc0(%eax),%xmm4
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,17,166,0,1,0,0 ; movups %xmm4,0x100(%esi)
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,20 ; add $0x14,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_bicubic_n3y_sse2
-_sk_bicubic_n3y_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 80 ; push %eax
- DB 232,0,0,0,0 ; call 7bf3 <_sk_bicubic_n3y_sse2+0xa>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 15,16,78,64 ; movups 0x40(%esi),%xmm1
- DB 15,16,166,192,0,0,0 ; movups 0xc0(%esi),%xmm4
- DB 15,88,136,189,145,0,0 ; addps 0x91bd(%eax),%xmm1
- DB 15,40,168,125,139,0,0 ; movaps 0x8b7d(%eax),%xmm5
- DB 15,92,236 ; subps %xmm4,%xmm5
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,89,228 ; mulps %xmm4,%xmm4
- DB 15,89,168,205,145,0,0 ; mulps 0x91cd(%eax),%xmm5
- DB 15,88,168,109,141,0,0 ; addps 0x8d6d(%eax),%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,17,174,64,1,0,0 ; movups %xmm5,0x140(%esi)
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,20 ; add $0x14,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_bicubic_n1y_sse2
-_sk_bicubic_n1y_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 80 ; push %eax
- DB 232,0,0,0,0 ; call 7c51 <_sk_bicubic_n1y_sse2+0xa>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 15,16,78,64 ; movups 0x40(%esi),%xmm1
- DB 15,16,166,192,0,0,0 ; movups 0xc0(%esi),%xmm4
- DB 15,88,136,79,145,0,0 ; addps 0x914f(%eax),%xmm1
- DB 15,40,168,31,139,0,0 ; movaps 0x8b1f(%eax),%xmm5
- DB 15,92,236 ; subps %xmm4,%xmm5
- DB 15,40,160,127,145,0,0 ; movaps 0x917f(%eax),%xmm4
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,160,143,145,0,0 ; addps 0x918f(%eax),%xmm4
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,160,15,139,0,0 ; addps 0x8b0f(%eax),%xmm4
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,88,160,159,145,0,0 ; addps 0x919f(%eax),%xmm4
- DB 15,17,166,64,1,0,0 ; movups %xmm4,0x140(%esi)
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,20 ; add $0x14,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_bicubic_p1y_sse2
-_sk_bicubic_p1y_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 80 ; push %eax
- DB 232,0,0,0,0 ; call 7cbd <_sk_bicubic_p1y_sse2+0xa>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 15,40,160,163,138,0,0 ; movaps 0x8aa3(%eax),%xmm4
- DB 15,16,78,64 ; movups 0x40(%esi),%xmm1
- DB 15,16,174,192,0,0,0 ; movups 0xc0(%esi),%xmm5
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 15,40,176,19,145,0,0 ; movaps 0x9113(%eax),%xmm6
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,176,35,145,0,0 ; addps 0x9123(%eax),%xmm6
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,244 ; addps %xmm4,%xmm6
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,88,176,51,145,0,0 ; addps 0x9133(%eax),%xmm6
- DB 15,17,182,64,1,0,0 ; movups %xmm6,0x140(%esi)
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,20 ; add $0x14,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_bicubic_p3y_sse2
-_sk_bicubic_p3y_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 86 ; push %esi
- DB 80 ; push %eax
- DB 232,0,0,0,0 ; call 7d1e <_sk_bicubic_p3y_sse2+0xa>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 15,16,78,64 ; movups 0x40(%esi),%xmm1
- DB 15,16,166,192,0,0,0 ; movups 0xc0(%esi),%xmm4
- DB 15,88,136,194,144,0,0 ; addps 0x90c2(%eax),%xmm1
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,89,237 ; mulps %xmm5,%xmm5
- DB 15,89,160,162,144,0,0 ; mulps 0x90a2(%eax),%xmm4
- DB 15,88,160,66,140,0,0 ; addps 0x8c42(%eax),%xmm4
- DB 15,89,229 ; mulps %xmm5,%xmm4
- DB 15,17,166,64,1,0,0 ; movups %xmm4,0x140(%esi)
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 81 ; push %ecx
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,20 ; add $0x14,%esp
- DB 94 ; pop %esi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_callback_sse2
-_sk_callback_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,12 ; sub $0xc,%esp
- DB 139,117,8 ; mov 0x8(%ebp),%esi
- DB 139,125,12 ; mov 0xc(%ebp),%edi
- DB 139,31 ; mov (%edi),%ebx
- DB 139,70,8 ; mov 0x8(%esi),%eax
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,20,225 ; unpcklps %xmm1,%xmm4
- DB 15,40,234 ; movaps %xmm2,%xmm5
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 15,21,193 ; unpckhps %xmm1,%xmm0
- DB 15,21,211 ; unpckhps %xmm3,%xmm2
- DB 15,40,204 ; movaps %xmm4,%xmm1
- DB 102,15,20,205 ; unpcklpd %xmm5,%xmm1
- DB 15,18,236 ; movhlps %xmm4,%xmm5
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 102,15,20,218 ; unpcklpd %xmm2,%xmm3
- DB 102,15,17,75,4 ; movupd %xmm1,0x4(%ebx)
- DB 15,18,208 ; movhlps %xmm0,%xmm2
- DB 15,17,107,20 ; movups %xmm5,0x14(%ebx)
- DB 102,15,17,91,36 ; movupd %xmm3,0x24(%ebx)
- DB 15,17,83,52 ; movups %xmm2,0x34(%ebx)
- DB 133,192 ; test %eax,%eax
- DB 185,4,0,0,0 ; mov $0x4,%ecx
- DB 15,69,200 ; cmovne %eax,%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 81 ; push %ecx
- DB 83 ; push %ebx
- DB 255,19 ; call *(%ebx)
- DB 131,196,16 ; add $0x10,%esp
- DB 139,131,4,1,0,0 ; mov 0x104(%ebx),%eax
- DB 15,16,32 ; movups (%eax),%xmm4
- DB 15,16,64,16 ; movups 0x10(%eax),%xmm0
- DB 15,16,88,32 ; movups 0x20(%eax),%xmm3
- DB 15,16,80,48 ; movups 0x30(%eax),%xmm2
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,20,202 ; unpcklps %xmm2,%xmm1
- DB 15,21,224 ; unpckhps %xmm0,%xmm4
- DB 15,21,218 ; unpckhps %xmm2,%xmm3
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
- DB 15,18,205 ; movhlps %xmm5,%xmm1
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 15,18,220 ; movhlps %xmm4,%xmm3
- DB 141,71,8 ; lea 0x8(%edi),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 80 ; push %eax
- DB 86 ; push %esi
- DB 255,87,4 ; call *0x4(%edi)
- DB 131,196,28 ; add $0x1c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_clut_3D_sse2
-_sk_clut_3D_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,28,1,0,0 ; sub $0x11c,%esp
- DB 15,41,157,216,254,255,255 ; movaps %xmm3,-0x128(%ebp)
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 139,81,12 ; mov 0xc(%ecx),%edx
- DB 141,114,255 ; lea -0x1(%edx),%esi
- DB 102,15,110,198 ; movd %esi,%xmm0
- DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,41,165,248,254,255,255 ; movaps %xmm4,-0x108(%ebp)
- DB 102,15,110,194 ; movd %edx,%xmm0
- DB 102,15,112,240,0 ; pshufd $0x0,%xmm0,%xmm6
- DB 102,15,127,117,152 ; movdqa %xmm6,-0x68(%ebp)
- DB 139,81,8 ; mov 0x8(%ecx),%edx
- DB 141,114,255 ; lea -0x1(%edx),%esi
- DB 102,15,110,214 ; movd %esi,%xmm2
- DB 102,15,112,210,0 ; pshufd $0x0,%xmm2,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 15,41,149,88,255,255,255 ; movaps %xmm2,-0xa8(%ebp)
- DB 243,15,91,234 ; cvttps2dq %xmm2,%xmm5
- DB 102,15,127,173,40,255,255,255 ; movdqa %xmm5,-0xd8(%ebp)
- DB 102,15,112,205,245 ; pshufd $0xf5,%xmm5,%xmm1
- DB 102,15,244,206 ; pmuludq %xmm6,%xmm1
- DB 102,15,111,214 ; movdqa %xmm6,%xmm2
- DB 102,15,244,213 ; pmuludq %xmm5,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,98,209 ; punpckldq %xmm1,%xmm2
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,127,109,168 ; movdqa %xmm5,-0x58(%ebp)
- DB 102,15,110,202 ; movd %edx,%xmm1
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 139,81,4 ; mov 0x4(%ecx),%edx
- DB 74 ; dec %edx
- DB 102,15,110,194 ; movd %edx,%xmm0
- DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,41,69,216 ; movaps %xmm0,-0x28(%ebp)
- DB 102,15,112,209,0 ; pshufd $0x0,%xmm1,%xmm2
- DB 243,15,91,216 ; cvttps2dq %xmm0,%xmm3
- DB 102,15,127,93,184 ; movdqa %xmm3,-0x48(%ebp)
- DB 102,15,112,195,245 ; pshufd $0xf5,%xmm3,%xmm0
- DB 102,15,244,194 ; pmuludq %xmm2,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,244,203 ; pmuludq %xmm3,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,98,200 ; punpckldq %xmm0,%xmm1
- DB 102,15,127,77,136 ; movdqa %xmm1,-0x78(%ebp)
- DB 232,0,0,0,0 ; call 7f04 <_sk_clut_3D_sse2+0xee>
- DB 90 ; pop %edx
- DB 243,15,91,196 ; cvttps2dq %xmm4,%xmm0
- DB 102,15,127,133,8,255,255,255 ; movdqa %xmm0,-0xf8(%ebp)
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 102,15,254,216 ; paddd %xmm0,%xmm3
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,254,195 ; paddd %xmm3,%xmm0
- DB 102,15,111,162,12,143,0,0 ; movdqa 0x8f0c(%edx),%xmm4
- DB 102,15,127,165,120,255,255,255 ; movdqa %xmm4,-0x88(%ebp)
- DB 102,15,112,200,245 ; pshufd $0xf5,%xmm0,%xmm1
- DB 102,15,244,196 ; pmuludq %xmm4,%xmm0
- DB 102,15,244,204 ; pmuludq %xmm4,%xmm1
- DB 102,15,112,225,232 ; pshufd $0xe8,%xmm1,%xmm4
- DB 102,15,112,200,232 ; pshufd $0xe8,%xmm0,%xmm1
- DB 102,15,98,204 ; punpckldq %xmm4,%xmm1
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,112,193,229 ; pshufd $0xe5,%xmm1,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 102,15,112,193,231 ; pshufd $0xe7,%xmm1,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 139,9 ; mov (%ecx),%ecx
- DB 243,15,16,4,129 ; movss (%ecx,%eax,4),%xmm0
- DB 243,15,16,36,153 ; movss (%ecx,%ebx,4),%xmm4
- DB 15,20,224 ; unpcklps %xmm0,%xmm4
- DB 243,15,16,4,185 ; movss (%ecx,%edi,4),%xmm0
- DB 243,15,16,44,177 ; movss (%ecx,%esi,4),%xmm5
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 102,15,20,236 ; unpcklpd %xmm4,%xmm5
- DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,250,196 ; psubd %xmm4,%xmm0
- DB 102,15,112,224,229 ; pshufd $0xe5,%xmm0,%xmm4
- DB 102,15,126,224 ; movd %xmm4,%eax
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,15,126,230 ; movd %xmm4,%esi
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,153 ; movss (%ecx,%ebx,4),%xmm0
- DB 243,15,16,36,177 ; movss (%ecx,%esi,4),%xmm4
- DB 15,20,224 ; unpcklps %xmm0,%xmm4
- DB 243,15,16,60,185 ; movss (%ecx,%edi,4),%xmm7
- DB 243,15,16,4,129 ; movss (%ecx,%eax,4),%xmm0
- DB 15,20,248 ; unpcklps %xmm0,%xmm7
- DB 102,15,20,252 ; unpcklpd %xmm4,%xmm7
- DB 102,15,111,130,172,136,0,0 ; movdqa 0x88ac(%edx),%xmm0
- DB 102,15,127,133,104,255,255,255 ; movdqa %xmm0,-0x98(%ebp)
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,112,193,229 ; pshufd $0xe5,%xmm1,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,193,231 ; pshufd $0xe7,%xmm1,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,153 ; movss (%ecx,%ebx,4),%xmm0
- DB 243,15,16,12,177 ; movss (%ecx,%esi,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 243,15,16,52,185 ; movss (%ecx,%edi,4),%xmm6
- DB 243,15,16,4,129 ; movss (%ecx,%eax,4),%xmm0
- DB 15,20,240 ; unpcklps %xmm0,%xmm6
- DB 102,15,20,241 ; unpcklpd %xmm1,%xmm6
- DB 15,40,130,252,142,0,0 ; movaps 0x8efc(%edx),%xmm0
- DB 15,40,141,248,254,255,255 ; movaps -0x108(%ebp),%xmm1
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,41,77,200 ; movaps %xmm1,-0x38(%ebp)
- DB 15,40,141,88,255,255,255 ; movaps -0xa8(%ebp),%xmm1
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,41,141,72,255,255,255 ; movaps %xmm1,-0xb8(%ebp)
- DB 15,88,69,216 ; addps -0x28(%ebp),%xmm0
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,112,200,245 ; pshufd $0xf5,%xmm0,%xmm1
- DB 102,15,244,202 ; pmuludq %xmm2,%xmm1
- DB 102,15,244,208 ; pmuludq %xmm0,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,98,208 ; punpckldq %xmm0,%xmm2
- DB 102,15,127,149,24,255,255,255 ; movdqa %xmm2,-0xe8(%ebp)
- DB 102,15,254,218 ; paddd %xmm2,%xmm3
- DB 102,15,112,195,245 ; pshufd $0xf5,%xmm3,%xmm0
- DB 102,15,111,141,120,255,255,255 ; movdqa -0x88(%ebp),%xmm1
- DB 102,15,244,217 ; pmuludq %xmm1,%xmm3
- DB 102,15,244,193 ; pmuludq %xmm1,%xmm0
- DB 102,15,112,200,232 ; pshufd $0xe8,%xmm0,%xmm1
- DB 102,15,112,195,232 ; pshufd $0xe8,%xmm3,%xmm0
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,15,126,202 ; movd %xmm1,%edx
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,112,200,231 ; pshufd $0xe7,%xmm0,%xmm1
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 243,15,16,12,185 ; movss (%ecx,%edi,4),%xmm1
- DB 243,15,16,20,177 ; movss (%ecx,%esi,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 243,15,16,12,145 ; movss (%ecx,%edx,4),%xmm1
- DB 243,15,16,28,129 ; movss (%ecx,%eax,4),%xmm3
- DB 15,20,217 ; unpcklps %xmm1,%xmm3
- DB 102,15,20,218 ; unpcklpd %xmm2,%xmm3
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,118,210 ; pcmpeqd %xmm2,%xmm2
- DB 102,15,250,202 ; psubd %xmm2,%xmm1
- DB 102,15,112,209,229 ; pshufd $0xe5,%xmm1,%xmm2
- DB 102,15,126,208 ; movd %xmm2,%eax
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,15,126,210 ; movd %xmm2,%edx
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,112,201,231 ; pshufd $0xe7,%xmm1,%xmm1
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 243,15,16,20,185 ; movss (%ecx,%edi,4),%xmm2
- DB 243,15,16,12,145 ; movss (%ecx,%edx,4),%xmm1
- DB 15,20,202 ; unpcklps %xmm2,%xmm1
- DB 243,15,16,20,177 ; movss (%ecx,%esi,4),%xmm2
- DB 243,15,16,36,129 ; movss (%ecx,%eax,4),%xmm4
- DB 15,20,212 ; unpcklps %xmm4,%xmm2
- DB 102,15,20,209 ; unpcklpd %xmm1,%xmm2
- DB 102,15,254,133,104,255,255,255 ; paddd -0x98(%ebp),%xmm0
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,15,126,202 ; movd %xmm1,%edx
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 243,15,16,4,185 ; movss (%ecx,%edi,4),%xmm0
- DB 243,15,16,36,145 ; movss (%ecx,%edx,4),%xmm4
- DB 15,20,224 ; unpcklps %xmm0,%xmm4
- DB 243,15,16,12,177 ; movss (%ecx,%esi,4),%xmm1
- DB 243,15,16,4,129 ; movss (%ecx,%eax,4),%xmm0
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 102,15,20,204 ; unpcklpd %xmm4,%xmm1
- DB 15,91,69,184 ; cvtdq2ps -0x48(%ebp),%xmm0
- DB 15,40,101,216 ; movaps -0x28(%ebp),%xmm4
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,41,101,216 ; movaps %xmm4,-0x28(%ebp)
- DB 15,92,221 ; subps %xmm5,%xmm3
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 15,41,93,184 ; movaps %xmm3,-0x48(%ebp)
- DB 15,92,215 ; subps %xmm7,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 15,41,149,56,255,255,255 ; movaps %xmm2,-0xc8(%ebp)
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,41,141,232,254,255,255 ; movaps %xmm1,-0x118(%ebp)
- DB 243,15,91,133,72,255,255,255 ; cvttps2dq -0xb8(%ebp),%xmm0
- DB 102,15,112,224,245 ; pshufd $0xf5,%xmm0,%xmm4
- DB 102,15,111,77,152 ; movdqa -0x68(%ebp),%xmm1
- DB 102,15,244,225 ; pmuludq %xmm1,%xmm4
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,244,232 ; pmuludq %xmm0,%xmm5
- DB 102,15,112,253,232 ; pshufd $0xe8,%xmm5,%xmm7
- DB 102,15,112,196,232 ; pshufd $0xe8,%xmm4,%xmm0
- DB 102,15,98,248 ; punpckldq %xmm0,%xmm7
- DB 102,15,127,125,152 ; movdqa %xmm7,-0x68(%ebp)
- DB 102,15,254,189,8,255,255,255 ; paddd -0xf8(%ebp),%xmm7
- DB 102,15,111,199 ; movdqa %xmm7,%xmm0
- DB 102,15,254,69,136 ; paddd -0x78(%ebp),%xmm0
- DB 102,15,112,224,245 ; pshufd $0xf5,%xmm0,%xmm4
- DB 102,15,111,141,120,255,255,255 ; movdqa -0x88(%ebp),%xmm1
- DB 102,15,244,193 ; pmuludq %xmm1,%xmm0
- DB 102,15,244,225 ; pmuludq %xmm1,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,112,232,232 ; pshufd $0xe8,%xmm0,%xmm5
- DB 102,15,98,236 ; punpckldq %xmm4,%xmm5
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,197,229 ; pshufd $0xe5,%xmm5,%xmm0
- DB 102,15,126,194 ; movd %xmm0,%edx
- DB 102,15,112,197,78 ; pshufd $0x4e,%xmm5,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,112,197,231 ; pshufd $0xe7,%xmm5,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 243,15,16,4,185 ; movss (%ecx,%edi,4),%xmm0
- DB 243,15,16,36,177 ; movss (%ecx,%esi,4),%xmm4
- DB 15,20,224 ; unpcklps %xmm0,%xmm4
- DB 243,15,16,4,145 ; movss (%ecx,%edx,4),%xmm0
- DB 243,15,16,20,129 ; movss (%ecx,%eax,4),%xmm2
- DB 15,20,208 ; unpcklps %xmm0,%xmm2
- DB 102,15,20,212 ; unpcklpd %xmm4,%xmm2
- DB 102,15,41,149,72,255,255,255 ; movapd %xmm2,-0xb8(%ebp)
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,250,195 ; psubd %xmm3,%xmm0
- DB 102,15,118,210 ; pcmpeqd %xmm2,%xmm2
- DB 102,15,112,224,229 ; pshufd $0xe5,%xmm0,%xmm4
- DB 102,15,126,224 ; movd %xmm4,%eax
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,15,126,226 ; movd %xmm4,%edx
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 243,15,16,36,185 ; movss (%ecx,%edi,4),%xmm4
- DB 243,15,16,4,145 ; movss (%ecx,%edx,4),%xmm0
- DB 15,20,196 ; unpcklps %xmm4,%xmm0
- DB 243,15,16,36,177 ; movss (%ecx,%esi,4),%xmm4
- DB 243,15,16,52,129 ; movss (%ecx,%eax,4),%xmm6
- DB 15,20,230 ; unpcklps %xmm6,%xmm4
- DB 102,15,20,224 ; unpcklpd %xmm0,%xmm4
- DB 102,15,111,157,104,255,255,255 ; movdqa -0x98(%ebp),%xmm3
- DB 102,15,254,235 ; paddd %xmm3,%xmm5
- DB 102,15,112,197,229 ; pshufd $0xe5,%xmm5,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,197,78 ; pshufd $0x4e,%xmm5,%xmm0
- DB 102,15,126,194 ; movd %xmm0,%edx
- DB 102,15,126,238 ; movd %xmm5,%esi
- DB 102,15,112,197,231 ; pshufd $0xe7,%xmm5,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 243,15,16,4,185 ; movss (%ecx,%edi,4),%xmm0
- DB 243,15,16,52,145 ; movss (%ecx,%edx,4),%xmm6
- DB 15,20,240 ; unpcklps %xmm0,%xmm6
- DB 243,15,16,44,177 ; movss (%ecx,%esi,4),%xmm5
- DB 243,15,16,4,129 ; movss (%ecx,%eax,4),%xmm0
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 102,15,20,238 ; unpcklpd %xmm6,%xmm5
- DB 102,15,254,189,24,255,255,255 ; paddd -0xe8(%ebp),%xmm7
- DB 102,15,112,199,245 ; pshufd $0xf5,%xmm7,%xmm0
- DB 102,15,244,249 ; pmuludq %xmm1,%xmm7
- DB 102,15,244,193 ; pmuludq %xmm1,%xmm0
- DB 102,15,112,240,232 ; pshufd $0xe8,%xmm0,%xmm6
- DB 102,15,112,199,232 ; pshufd $0xe8,%xmm7,%xmm0
- DB 102,15,98,198 ; punpckldq %xmm6,%xmm0
- DB 102,15,126,248 ; movd %xmm7,%eax
- DB 102,15,112,240,229 ; pshufd $0xe5,%xmm0,%xmm6
- DB 102,15,126,242 ; movd %xmm6,%edx
- DB 102,15,112,240,78 ; pshufd $0x4e,%xmm0,%xmm6
- DB 102,15,126,246 ; movd %xmm6,%esi
- DB 102,15,112,240,231 ; pshufd $0xe7,%xmm0,%xmm6
- DB 102,15,126,247 ; movd %xmm6,%edi
- DB 243,15,16,52,185 ; movss (%ecx,%edi,4),%xmm6
- DB 243,15,16,60,177 ; movss (%ecx,%esi,4),%xmm7
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 243,15,16,52,145 ; movss (%ecx,%edx,4),%xmm6
- DB 243,15,16,12,129 ; movss (%ecx,%eax,4),%xmm1
- DB 15,20,206 ; unpcklps %xmm6,%xmm1
- DB 102,15,20,207 ; unpcklpd %xmm7,%xmm1
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,250,242 ; psubd %xmm2,%xmm6
- DB 102,15,112,254,229 ; pshufd $0xe5,%xmm6,%xmm7
- DB 102,15,126,248 ; movd %xmm7,%eax
- DB 102,15,112,254,78 ; pshufd $0x4e,%xmm6,%xmm7
- DB 102,15,126,250 ; movd %xmm7,%edx
- DB 102,15,126,246 ; movd %xmm6,%esi
- DB 102,15,112,246,231 ; pshufd $0xe7,%xmm6,%xmm6
- DB 102,15,126,247 ; movd %xmm6,%edi
- DB 243,15,16,52,185 ; movss (%ecx,%edi,4),%xmm6
- DB 243,15,16,60,145 ; movss (%ecx,%edx,4),%xmm7
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 243,15,16,20,177 ; movss (%ecx,%esi,4),%xmm2
- DB 243,15,16,52,129 ; movss (%ecx,%eax,4),%xmm6
- DB 15,20,214 ; unpcklps %xmm6,%xmm2
- DB 102,15,20,215 ; unpcklpd %xmm7,%xmm2
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,15,254,199 ; paddd %xmm7,%xmm0
- DB 102,15,112,240,229 ; pshufd $0xe5,%xmm0,%xmm6
- DB 102,15,126,240 ; movd %xmm6,%eax
- DB 102,15,112,240,78 ; pshufd $0x4e,%xmm0,%xmm6
- DB 102,15,126,242 ; movd %xmm6,%edx
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 243,15,16,4,185 ; movss (%ecx,%edi,4),%xmm0
- DB 243,15,16,52,145 ; movss (%ecx,%edx,4),%xmm6
- DB 15,20,240 ; unpcklps %xmm0,%xmm6
- DB 243,15,16,28,177 ; movss (%ecx,%esi,4),%xmm3
- DB 243,15,16,4,129 ; movss (%ecx,%eax,4),%xmm0
- DB 15,20,216 ; unpcklps %xmm0,%xmm3
- DB 102,15,20,222 ; unpcklpd %xmm6,%xmm3
- DB 15,40,181,72,255,255,255 ; movaps -0xb8(%ebp),%xmm6
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,92,212 ; subps %xmm4,%xmm2
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 15,92,221 ; subps %xmm5,%xmm3
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 15,91,133,40,255,255,255 ; cvtdq2ps -0xd8(%ebp),%xmm0
- DB 15,40,165,88,255,255,255 ; movaps -0xa8(%ebp),%xmm4
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,41,165,88,255,255,255 ; movaps %xmm4,-0xa8(%ebp)
- DB 15,40,69,184 ; movaps -0x48(%ebp),%xmm0
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,41,77,184 ; movaps %xmm1,-0x48(%ebp)
- DB 15,40,133,56,255,255,255 ; movaps -0xc8(%ebp),%xmm0
- DB 15,92,208 ; subps %xmm0,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 15,41,149,56,255,255,255 ; movaps %xmm2,-0xc8(%ebp)
- DB 15,40,133,232,254,255,255 ; movaps -0x118(%ebp),%xmm0
- DB 15,92,216 ; subps %xmm0,%xmm3
- DB 15,89,220 ; mulps %xmm4,%xmm3
- DB 15,88,216 ; addps %xmm0,%xmm3
- DB 15,41,157,40,255,255,255 ; movaps %xmm3,-0xd8(%ebp)
- DB 243,15,91,77,200 ; cvttps2dq -0x38(%ebp),%xmm1
- DB 102,15,127,77,200 ; movdqa %xmm1,-0x38(%ebp)
- DB 102,15,111,69,168 ; movdqa -0x58(%ebp),%xmm0
- DB 102,15,254,193 ; paddd %xmm1,%xmm0
- DB 102,15,111,77,136 ; movdqa -0x78(%ebp),%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,112,209,245 ; pshufd $0xf5,%xmm1,%xmm2
- DB 102,15,111,133,120,255,255,255 ; movdqa -0x88(%ebp),%xmm0
- DB 102,15,244,200 ; pmuludq %xmm0,%xmm1
- DB 102,15,244,208 ; pmuludq %xmm0,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,112,217,232 ; pshufd $0xe8,%xmm1,%xmm3
- DB 102,15,98,218 ; punpckldq %xmm2,%xmm3
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 102,15,112,203,229 ; pshufd $0xe5,%xmm3,%xmm1
- DB 102,15,126,202 ; movd %xmm1,%edx
- DB 102,15,112,203,78 ; pshufd $0x4e,%xmm3,%xmm1
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,112,203,231 ; pshufd $0xe7,%xmm3,%xmm1
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 243,15,16,12,185 ; movss (%ecx,%edi,4),%xmm1
- DB 243,15,16,20,177 ; movss (%ecx,%esi,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 243,15,16,36,145 ; movss (%ecx,%edx,4),%xmm4
- DB 243,15,16,4,129 ; movss (%ecx,%eax,4),%xmm0
- DB 15,20,196 ; unpcklps %xmm4,%xmm0
- DB 102,15,20,194 ; unpcklpd %xmm2,%xmm0
- DB 102,15,41,69,168 ; movapd %xmm0,-0x58(%ebp)
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,250,208 ; psubd %xmm0,%xmm2
- DB 102,15,112,226,229 ; pshufd $0xe5,%xmm2,%xmm4
- DB 102,15,126,224 ; movd %xmm4,%eax
- DB 102,15,112,226,78 ; pshufd $0x4e,%xmm2,%xmm4
- DB 102,15,126,226 ; movd %xmm4,%edx
- DB 102,15,126,214 ; movd %xmm2,%esi
- DB 102,15,112,210,231 ; pshufd $0xe7,%xmm2,%xmm2
- DB 102,15,126,215 ; movd %xmm2,%edi
- DB 243,15,16,20,185 ; movss (%ecx,%edi,4),%xmm2
- DB 243,15,16,36,145 ; movss (%ecx,%edx,4),%xmm4
- DB 15,20,226 ; unpcklps %xmm2,%xmm4
- DB 243,15,16,20,177 ; movss (%ecx,%esi,4),%xmm2
- DB 243,15,16,44,129 ; movss (%ecx,%eax,4),%xmm5
- DB 15,20,213 ; unpcklps %xmm5,%xmm2
- DB 102,15,20,212 ; unpcklpd %xmm4,%xmm2
- DB 102,15,254,223 ; paddd %xmm7,%xmm3
- DB 102,15,112,227,229 ; pshufd $0xe5,%xmm3,%xmm4
- DB 102,15,126,224 ; movd %xmm4,%eax
- DB 102,15,112,227,78 ; pshufd $0x4e,%xmm3,%xmm4
- DB 102,15,126,226 ; movd %xmm4,%edx
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,112,219,231 ; pshufd $0xe7,%xmm3,%xmm3
- DB 102,15,126,223 ; movd %xmm3,%edi
- DB 243,15,16,28,185 ; movss (%ecx,%edi,4),%xmm3
- DB 243,15,16,36,145 ; movss (%ecx,%edx,4),%xmm4
- DB 15,20,227 ; unpcklps %xmm3,%xmm4
- DB 243,15,16,44,177 ; movss (%ecx,%esi,4),%xmm5
- DB 243,15,16,28,129 ; movss (%ecx,%eax,4),%xmm3
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 102,15,20,236 ; unpcklpd %xmm4,%xmm5
- DB 102,15,111,230 ; movdqa %xmm6,%xmm4
- DB 102,15,254,165,24,255,255,255 ; paddd -0xe8(%ebp),%xmm4
- DB 102,15,112,220,245 ; pshufd $0xf5,%xmm4,%xmm3
- DB 102,15,111,141,120,255,255,255 ; movdqa -0x88(%ebp),%xmm1
- DB 102,15,244,225 ; pmuludq %xmm1,%xmm4
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,244,217 ; pmuludq %xmm1,%xmm3
- DB 102,15,112,227,232 ; pshufd $0xe8,%xmm3,%xmm4
- DB 102,15,112,222,232 ; pshufd $0xe8,%xmm6,%xmm3
- DB 102,15,98,220 ; punpckldq %xmm4,%xmm3
- DB 102,15,126,240 ; movd %xmm6,%eax
- DB 102,15,112,227,229 ; pshufd $0xe5,%xmm3,%xmm4
- DB 102,15,126,226 ; movd %xmm4,%edx
- DB 102,15,112,227,78 ; pshufd $0x4e,%xmm3,%xmm4
- DB 102,15,126,230 ; movd %xmm4,%esi
- DB 102,15,112,227,231 ; pshufd $0xe7,%xmm3,%xmm4
- DB 102,15,126,231 ; movd %xmm4,%edi
- DB 243,15,16,36,185 ; movss (%ecx,%edi,4),%xmm4
- DB 243,15,16,52,177 ; movss (%ecx,%esi,4),%xmm6
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 243,15,16,36,145 ; movss (%ecx,%edx,4),%xmm4
- DB 243,15,16,12,129 ; movss (%ecx,%eax,4),%xmm1
- DB 15,20,204 ; unpcklps %xmm4,%xmm1
- DB 102,15,20,206 ; unpcklpd %xmm6,%xmm1
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,15,250,224 ; psubd %xmm0,%xmm4
- DB 102,15,112,244,229 ; pshufd $0xe5,%xmm4,%xmm6
- DB 102,15,126,240 ; movd %xmm6,%eax
- DB 102,15,112,244,78 ; pshufd $0x4e,%xmm4,%xmm6
- DB 102,15,126,242 ; movd %xmm6,%edx
- DB 102,15,126,230 ; movd %xmm4,%esi
- DB 102,15,112,228,231 ; pshufd $0xe7,%xmm4,%xmm4
- DB 102,15,126,231 ; movd %xmm4,%edi
- DB 243,15,16,36,185 ; movss (%ecx,%edi,4),%xmm4
- DB 243,15,16,4,145 ; movss (%ecx,%edx,4),%xmm0
- DB 15,20,196 ; unpcklps %xmm4,%xmm0
- DB 243,15,16,60,177 ; movss (%ecx,%esi,4),%xmm7
- DB 243,15,16,36,129 ; movss (%ecx,%eax,4),%xmm4
- DB 15,20,252 ; unpcklps %xmm4,%xmm7
- DB 102,15,20,248 ; unpcklpd %xmm0,%xmm7
- DB 102,15,111,165,104,255,255,255 ; movdqa -0x98(%ebp),%xmm4
- DB 102,15,254,220 ; paddd %xmm4,%xmm3
- DB 102,15,112,195,229 ; pshufd $0xe5,%xmm3,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,195,78 ; pshufd $0x4e,%xmm3,%xmm0
- DB 102,15,126,194 ; movd %xmm0,%edx
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,112,195,231 ; pshufd $0xe7,%xmm3,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 243,15,16,4,185 ; movss (%ecx,%edi,4),%xmm0
- DB 243,15,16,28,145 ; movss (%ecx,%edx,4),%xmm3
- DB 15,20,216 ; unpcklps %xmm0,%xmm3
- DB 243,15,16,52,177 ; movss (%ecx,%esi,4),%xmm6
- DB 243,15,16,4,129 ; movss (%ecx,%eax,4),%xmm0
- DB 15,20,240 ; unpcklps %xmm0,%xmm6
- DB 102,15,20,243 ; unpcklpd %xmm3,%xmm6
- DB 15,40,93,168 ; movaps -0x58(%ebp),%xmm3
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 15,41,77,168 ; movaps %xmm1,-0x58(%ebp)
- DB 15,92,250 ; subps %xmm2,%xmm7
- DB 15,89,248 ; mulps %xmm0,%xmm7
- DB 15,88,250 ; addps %xmm2,%xmm7
- DB 15,92,245 ; subps %xmm5,%xmm6
- DB 15,89,240 ; mulps %xmm0,%xmm6
- DB 15,88,245 ; addps %xmm5,%xmm6
- DB 102,15,111,69,152 ; movdqa -0x68(%ebp),%xmm0
- DB 102,15,254,69,200 ; paddd -0x38(%ebp),%xmm0
- DB 102,15,127,69,152 ; movdqa %xmm0,-0x68(%ebp)
- DB 102,15,111,85,136 ; movdqa -0x78(%ebp),%xmm2
- DB 102,15,254,208 ; paddd %xmm0,%xmm2
- DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,157,120,255,255,255 ; movdqa -0x88(%ebp),%xmm3
- DB 102,15,244,211 ; pmuludq %xmm3,%xmm2
- DB 102,15,244,195 ; pmuludq %xmm3,%xmm0
- DB 102,15,112,200,232 ; pshufd $0xe8,%xmm0,%xmm1
- DB 102,15,112,194,232 ; pshufd $0xe8,%xmm2,%xmm0
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 102,15,126,208 ; movd %xmm2,%eax
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,15,126,202 ; movd %xmm1,%edx
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,112,200,231 ; pshufd $0xe7,%xmm0,%xmm1
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 243,15,16,12,185 ; movss (%ecx,%edi,4),%xmm1
- DB 243,15,16,20,177 ; movss (%ecx,%esi,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 243,15,16,12,145 ; movss (%ecx,%edx,4),%xmm1
- DB 243,15,16,44,129 ; movss (%ecx,%eax,4),%xmm5
- DB 15,20,233 ; unpcklps %xmm1,%xmm5
- DB 102,15,20,234 ; unpcklpd %xmm2,%xmm5
- DB 102,15,41,109,136 ; movapd %xmm5,-0x78(%ebp)
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,118,210 ; pcmpeqd %xmm2,%xmm2
- DB 102,15,250,202 ; psubd %xmm2,%xmm1
- DB 102,15,112,209,229 ; pshufd $0xe5,%xmm1,%xmm2
- DB 102,15,126,208 ; movd %xmm2,%eax
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,15,126,210 ; movd %xmm2,%edx
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,112,201,231 ; pshufd $0xe7,%xmm1,%xmm1
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 243,15,16,12,185 ; movss (%ecx,%edi,4),%xmm1
- DB 243,15,16,20,145 ; movss (%ecx,%edx,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 243,15,16,44,177 ; movss (%ecx,%esi,4),%xmm5
- DB 243,15,16,12,129 ; movss (%ecx,%eax,4),%xmm1
- DB 15,20,233 ; unpcklps %xmm1,%xmm5
- DB 102,15,20,234 ; unpcklpd %xmm2,%xmm5
- DB 102,15,41,109,200 ; movapd %xmm5,-0x38(%ebp)
- DB 102,15,254,196 ; paddd %xmm4,%xmm0
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,15,126,202 ; movd %xmm1,%edx
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 243,15,16,4,185 ; movss (%ecx,%edi,4),%xmm0
- DB 243,15,16,12,145 ; movss (%ecx,%edx,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 243,15,16,36,177 ; movss (%ecx,%esi,4),%xmm4
- DB 243,15,16,4,129 ; movss (%ecx,%eax,4),%xmm0
- DB 15,20,224 ; unpcklps %xmm0,%xmm4
- DB 102,15,20,225 ; unpcklpd %xmm1,%xmm4
- DB 102,15,111,77,152 ; movdqa -0x68(%ebp),%xmm1
- DB 102,15,254,141,24,255,255,255 ; paddd -0xe8(%ebp),%xmm1
- DB 102,15,112,193,245 ; pshufd $0xf5,%xmm1,%xmm0
- DB 102,15,244,203 ; pmuludq %xmm3,%xmm1
- DB 102,15,244,195 ; pmuludq %xmm3,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,112,209,232 ; pshufd $0xe8,%xmm1,%xmm2
- DB 102,15,98,208 ; punpckldq %xmm0,%xmm2
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 102,15,112,194,229 ; pshufd $0xe5,%xmm2,%xmm0
- DB 102,15,126,194 ; movd %xmm0,%edx
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,112,194,231 ; pshufd $0xe7,%xmm2,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 243,15,16,4,185 ; movss (%ecx,%edi,4),%xmm0
- DB 243,15,16,12,177 ; movss (%ecx,%esi,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 243,15,16,28,145 ; movss (%ecx,%edx,4),%xmm3
- DB 243,15,16,4,129 ; movss (%ecx,%eax,4),%xmm0
- DB 15,20,195 ; unpcklps %xmm3,%xmm0
- DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,250,203 ; psubd %xmm3,%xmm1
- DB 102,15,112,217,229 ; pshufd $0xe5,%xmm1,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,15,126,218 ; movd %xmm3,%edx
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,112,201,231 ; pshufd $0xe7,%xmm1,%xmm1
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 243,15,16,12,185 ; movss (%ecx,%edi,4),%xmm1
- DB 243,15,16,28,145 ; movss (%ecx,%edx,4),%xmm3
- DB 15,20,217 ; unpcklps %xmm1,%xmm3
- DB 243,15,16,12,177 ; movss (%ecx,%esi,4),%xmm1
- DB 243,15,16,44,129 ; movss (%ecx,%eax,4),%xmm5
- DB 15,20,205 ; unpcklps %xmm5,%xmm1
- DB 102,15,20,203 ; unpcklpd %xmm3,%xmm1
- DB 102,15,254,149,104,255,255,255 ; paddd -0x98(%ebp),%xmm2
- DB 102,15,112,218,229 ; pshufd $0xe5,%xmm2,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,15,126,218 ; movd %xmm3,%edx
- DB 102,15,126,214 ; movd %xmm2,%esi
- DB 102,15,112,210,231 ; pshufd $0xe7,%xmm2,%xmm2
- DB 102,15,126,215 ; movd %xmm2,%edi
- DB 243,15,16,20,185 ; movss (%ecx,%edi,4),%xmm2
- DB 243,15,16,28,145 ; movss (%ecx,%edx,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 243,15,16,20,177 ; movss (%ecx,%esi,4),%xmm2
- DB 243,15,16,44,129 ; movss (%ecx,%eax,4),%xmm5
- DB 15,20,213 ; unpcklps %xmm5,%xmm2
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 15,40,109,136 ; movaps -0x78(%ebp),%xmm5
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,40,109,200 ; movaps -0x38(%ebp),%xmm5
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 15,92,212 ; subps %xmm4,%xmm2
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 15,40,101,168 ; movaps -0x58(%ebp),%xmm4
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,40,157,88,255,255,255 ; movaps -0xa8(%ebp),%xmm3
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,92,207 ; subps %xmm7,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 15,92,214 ; subps %xmm6,%xmm2
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,88,214 ; addps %xmm6,%xmm2
- DB 15,91,157,8,255,255,255 ; cvtdq2ps -0xf8(%ebp),%xmm3
- DB 15,40,165,248,254,255,255 ; movaps -0x108(%ebp),%xmm4
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 15,40,93,184 ; movaps -0x48(%ebp),%xmm3
- DB 15,92,195 ; subps %xmm3,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,195 ; addps %xmm3,%xmm0
- DB 15,40,157,56,255,255,255 ; movaps -0xc8(%ebp),%xmm3
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 15,40,157,40,255,255,255 ; movaps -0xd8(%ebp),%xmm3
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 141,65,8 ; lea 0x8(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,157,216,254,255,255 ; movaps -0x128(%ebp),%xmm3
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 129,196,44,1,0,0 ; add $0x12c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_clut_4D_sse2
-_sk_clut_4D_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,76,1,0,0 ; sub $0x14c,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 139,74,16 ; mov 0x10(%edx),%ecx
- DB 141,113,255 ; lea -0x1(%ecx),%esi
- DB 102,15,110,230 ; movd %esi,%xmm4
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 102,15,110,217 ; movd %ecx,%xmm3
- DB 102,15,112,251,0 ; pshufd $0x0,%xmm3,%xmm7
- DB 102,15,127,189,24,255,255,255 ; movdqa %xmm7,-0xe8(%ebp)
- DB 139,74,12 ; mov 0xc(%edx),%ecx
- DB 141,113,255 ; lea -0x1(%ecx),%esi
- DB 102,15,110,230 ; movd %esi,%xmm4
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,89,226 ; mulps %xmm2,%xmm4
- DB 15,41,165,248,254,255,255 ; movaps %xmm4,-0x108(%ebp)
- DB 243,15,91,244 ; cvttps2dq %xmm4,%xmm6
- DB 102,15,127,181,216,254,255,255 ; movdqa %xmm6,-0x128(%ebp)
- DB 102,15,112,214,245 ; pshufd $0xf5,%xmm6,%xmm2
- DB 102,15,244,215 ; pmuludq %xmm7,%xmm2
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,244,230 ; pmuludq %xmm6,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,98,226 ; punpckldq %xmm2,%xmm4
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,127,181,8,255,255,255 ; movdqa %xmm6,-0xf8(%ebp)
- DB 102,15,110,209 ; movd %ecx,%xmm2
- DB 102,15,244,211 ; pmuludq %xmm3,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,244,216 ; pmuludq %xmm0,%xmm3
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,15,98,211 ; punpckldq %xmm3,%xmm2
- DB 139,74,8 ; mov 0x8(%edx),%ecx
- DB 141,113,255 ; lea -0x1(%ecx),%esi
- DB 102,15,110,222 ; movd %esi,%xmm3
- DB 102,15,112,219,0 ; pshufd $0x0,%xmm3,%xmm3
- DB 15,91,219 ; cvtdq2ps %xmm3,%xmm3
- DB 15,89,217 ; mulps %xmm1,%xmm3
- DB 15,41,157,56,255,255,255 ; movaps %xmm3,-0xc8(%ebp)
- DB 102,15,112,250,0 ; pshufd $0x0,%xmm2,%xmm7
- DB 102,15,127,189,88,255,255,255 ; movdqa %xmm7,-0xa8(%ebp)
- DB 243,15,91,227 ; cvttps2dq %xmm3,%xmm4
- DB 102,15,127,165,40,255,255,255 ; movdqa %xmm4,-0xd8(%ebp)
- DB 102,15,112,204,245 ; pshufd $0xf5,%xmm4,%xmm1
- DB 102,15,244,207 ; pmuludq %xmm7,%xmm1
- DB 102,15,111,223 ; movdqa %xmm7,%xmm3
- DB 102,15,244,220 ; pmuludq %xmm4,%xmm3
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,98,217 ; punpckldq %xmm1,%xmm3
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,15,127,165,72,255,255,255 ; movdqa %xmm4,-0xb8(%ebp)
- DB 102,15,110,201 ; movd %ecx,%xmm1
- DB 102,15,244,202 ; pmuludq %xmm2,%xmm1
- DB 139,74,4 ; mov 0x4(%edx),%ecx
- DB 73 ; dec %ecx
- DB 102,15,110,209 ; movd %ecx,%xmm2
- DB 102,15,112,210,0 ; pshufd $0x0,%xmm2,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,41,85,216 ; movaps %xmm2,-0x28(%ebp)
- DB 102,15,112,217,0 ; pshufd $0x0,%xmm1,%xmm3
- DB 102,15,127,93,168 ; movdqa %xmm3,-0x58(%ebp)
- DB 243,15,91,194 ; cvttps2dq %xmm2,%xmm0
- DB 102,15,127,133,104,255,255,255 ; movdqa %xmm0,-0x98(%ebp)
- DB 102,15,112,200,245 ; pshufd $0xf5,%xmm0,%xmm1
- DB 102,15,244,203 ; pmuludq %xmm3,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,244,208 ; pmuludq %xmm0,%xmm2
- DB 102,15,112,218,232 ; pshufd $0xe8,%xmm2,%xmm3
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,98,217 ; punpckldq %xmm1,%xmm3
- DB 102,15,127,93,152 ; movdqa %xmm3,-0x68(%ebp)
- DB 232,0,0,0,0 ; call 8a90 <_sk_clut_4D_sse2+0x165>
- DB 89 ; pop %ecx
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,41,133,168,254,255,255 ; movaps %xmm0,-0x158(%ebp)
- DB 243,15,91,200 ; cvttps2dq %xmm0,%xmm1
- DB 102,15,127,141,200,254,255,255 ; movdqa %xmm1,-0x138(%ebp)
- DB 102,15,254,241 ; paddd %xmm1,%xmm6
- DB 102,15,127,117,200 ; movdqa %xmm6,-0x38(%ebp)
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,254,214 ; paddd %xmm6,%xmm2
- DB 102,15,254,218 ; paddd %xmm2,%xmm3
- DB 102,15,111,161,128,131,0,0 ; movdqa 0x8380(%ecx),%xmm4
- DB 102,15,112,203,245 ; pshufd $0xf5,%xmm3,%xmm1
- DB 102,15,244,220 ; pmuludq %xmm4,%xmm3
- DB 102,15,244,204 ; pmuludq %xmm4,%xmm1
- DB 102,15,112,233,232 ; pshufd $0xe8,%xmm1,%xmm5
- DB 102,15,112,203,232 ; pshufd $0xe8,%xmm3,%xmm1
- DB 102,15,98,205 ; punpckldq %xmm5,%xmm1
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,112,217,229 ; pshufd $0xe5,%xmm1,%xmm3
- DB 102,15,126,223 ; movd %xmm3,%edi
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,15,126,219 ; movd %xmm3,%ebx
- DB 102,15,112,217,231 ; pshufd $0xe7,%xmm1,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 139,18 ; mov (%edx),%edx
- DB 243,15,16,28,130 ; movss (%edx,%eax,4),%xmm3
- DB 243,15,16,52,154 ; movss (%edx,%ebx,4),%xmm6
- DB 15,20,243 ; unpcklps %xmm3,%xmm6
- DB 243,15,16,28,186 ; movss (%edx,%edi,4),%xmm3
- DB 243,15,16,36,178 ; movss (%edx,%esi,4),%xmm4
- DB 15,20,227 ; unpcklps %xmm3,%xmm4
- DB 102,15,20,230 ; unpcklpd %xmm6,%xmm4
- DB 102,15,41,101,184 ; movapd %xmm4,-0x48(%ebp)
- DB 102,15,118,228 ; pcmpeqd %xmm4,%xmm4
- DB 102,15,111,217 ; movdqa %xmm1,%xmm3
- DB 102,15,250,220 ; psubd %xmm4,%xmm3
- DB 102,15,118,237 ; pcmpeqd %xmm5,%xmm5
- DB 102,15,112,243,229 ; pshufd $0xe5,%xmm3,%xmm6
- DB 102,15,126,240 ; movd %xmm6,%eax
- DB 102,15,112,243,78 ; pshufd $0x4e,%xmm3,%xmm6
- DB 102,15,126,246 ; movd %xmm6,%esi
- DB 102,15,126,223 ; movd %xmm3,%edi
- DB 102,15,112,219,231 ; pshufd $0xe7,%xmm3,%xmm3
- DB 102,15,126,219 ; movd %xmm3,%ebx
- DB 243,15,16,28,154 ; movss (%edx,%ebx,4),%xmm3
- DB 243,15,16,52,178 ; movss (%edx,%esi,4),%xmm6
- DB 15,20,243 ; unpcklps %xmm3,%xmm6
- DB 243,15,16,28,186 ; movss (%edx,%edi,4),%xmm3
- DB 243,15,16,60,130 ; movss (%edx,%eax,4),%xmm7
- DB 15,20,223 ; unpcklps %xmm7,%xmm3
- DB 102,15,20,222 ; unpcklpd %xmm6,%xmm3
- DB 102,15,41,157,232,254,255,255 ; movapd %xmm3,-0x118(%ebp)
- DB 102,15,254,137,32,125,0,0 ; paddd 0x7d20(%ecx),%xmm1
- DB 102,15,112,241,229 ; pshufd $0xe5,%xmm1,%xmm6
- DB 102,15,126,240 ; movd %xmm6,%eax
- DB 102,15,112,241,78 ; pshufd $0x4e,%xmm1,%xmm6
- DB 102,15,126,246 ; movd %xmm6,%esi
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,201,231 ; pshufd $0xe7,%xmm1,%xmm1
- DB 102,15,126,203 ; movd %xmm1,%ebx
- DB 243,15,16,12,154 ; movss (%edx,%ebx,4),%xmm1
- DB 243,15,16,52,178 ; movss (%edx,%esi,4),%xmm6
- DB 15,20,241 ; unpcklps %xmm1,%xmm6
- DB 243,15,16,28,186 ; movss (%edx,%edi,4),%xmm3
- DB 243,15,16,60,130 ; movss (%edx,%eax,4),%xmm7
- DB 15,20,223 ; unpcklps %xmm7,%xmm3
- DB 102,15,20,222 ; unpcklpd %xmm6,%xmm3
- DB 15,40,185,112,131,0,0 ; movaps 0x8370(%ecx),%xmm7
- DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,41,133,120,255,255,255 ; movaps %xmm0,-0x88(%ebp)
- DB 15,40,133,248,254,255,255 ; movaps -0x108(%ebp),%xmm0
- DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,41,69,136 ; movaps %xmm0,-0x78(%ebp)
- DB 15,40,133,56,255,255,255 ; movaps -0xc8(%ebp),%xmm0
- DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,41,133,184,254,255,255 ; movaps %xmm0,-0x148(%ebp)
- DB 15,88,125,216 ; addps -0x28(%ebp),%xmm7
- DB 243,15,91,255 ; cvttps2dq %xmm7,%xmm7
- DB 102,15,112,199,245 ; pshufd $0xf5,%xmm7,%xmm0
- DB 102,15,111,117,168 ; movdqa -0x58(%ebp),%xmm6
- DB 102,15,244,198 ; pmuludq %xmm6,%xmm0
- DB 102,15,244,247 ; pmuludq %xmm7,%xmm6
- DB 102,15,112,230,232 ; pshufd $0xe8,%xmm6,%xmm4
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,98,224 ; punpckldq %xmm0,%xmm4
- DB 102,15,127,101,168 ; movdqa %xmm4,-0x58(%ebp)
- DB 102,15,254,212 ; paddd %xmm4,%xmm2
- DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,161,128,131,0,0 ; movdqa 0x8380(%ecx),%xmm4
- DB 102,15,244,212 ; pmuludq %xmm4,%xmm2
- DB 102,15,244,196 ; pmuludq %xmm4,%xmm0
- DB 102,15,112,240,232 ; pshufd $0xe8,%xmm0,%xmm6
- DB 102,15,112,194,232 ; pshufd $0xe8,%xmm2,%xmm0
- DB 102,15,98,198 ; punpckldq %xmm6,%xmm0
- DB 102,15,126,208 ; movd %xmm2,%eax
- DB 102,15,112,208,229 ; pshufd $0xe5,%xmm0,%xmm2
- DB 102,15,126,214 ; movd %xmm2,%esi
- DB 102,15,112,208,78 ; pshufd $0x4e,%xmm0,%xmm2
- DB 102,15,126,215 ; movd %xmm2,%edi
- DB 102,15,112,208,231 ; pshufd $0xe7,%xmm0,%xmm2
- DB 102,15,126,211 ; movd %xmm2,%ebx
- DB 243,15,16,20,154 ; movss (%edx,%ebx,4),%xmm2
- DB 243,15,16,52,186 ; movss (%edx,%edi,4),%xmm6
- DB 15,20,242 ; unpcklps %xmm2,%xmm6
- DB 243,15,16,20,178 ; movss (%edx,%esi,4),%xmm2
- DB 243,15,16,12,130 ; movss (%edx,%eax,4),%xmm1
- DB 15,20,202 ; unpcklps %xmm2,%xmm1
- DB 102,15,20,206 ; unpcklpd %xmm6,%xmm1
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,250,213 ; psubd %xmm5,%xmm2
- DB 102,15,112,242,229 ; pshufd $0xe5,%xmm2,%xmm6
- DB 102,15,126,240 ; movd %xmm6,%eax
- DB 102,15,112,242,78 ; pshufd $0x4e,%xmm2,%xmm6
- DB 102,15,126,246 ; movd %xmm6,%esi
- DB 102,15,126,215 ; movd %xmm2,%edi
- DB 102,15,112,210,231 ; pshufd $0xe7,%xmm2,%xmm2
- DB 102,15,126,211 ; movd %xmm2,%ebx
- DB 243,15,16,20,154 ; movss (%edx,%ebx,4),%xmm2
- DB 243,15,16,52,178 ; movss (%edx,%esi,4),%xmm6
- DB 15,20,242 ; unpcklps %xmm2,%xmm6
- DB 243,15,16,20,186 ; movss (%edx,%edi,4),%xmm2
- DB 243,15,16,44,130 ; movss (%edx,%eax,4),%xmm5
- DB 15,20,213 ; unpcklps %xmm5,%xmm2
- DB 102,15,20,214 ; unpcklpd %xmm6,%xmm2
- DB 102,15,254,129,32,125,0,0 ; paddd 0x7d20(%ecx),%xmm0
- DB 102,15,112,232,229 ; pshufd $0xe5,%xmm0,%xmm5
- DB 102,15,126,232 ; movd %xmm5,%eax
- DB 102,15,112,232,78 ; pshufd $0x4e,%xmm0,%xmm5
- DB 102,15,126,238 ; movd %xmm5,%esi
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,44,178 ; movss (%edx,%esi,4),%xmm5
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 243,15,16,60,186 ; movss (%edx,%edi,4),%xmm7
- DB 243,15,16,52,130 ; movss (%edx,%eax,4),%xmm6
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 102,15,20,253 ; unpcklpd %xmm5,%xmm7
- DB 15,91,173,104,255,255,255 ; cvtdq2ps -0x98(%ebp),%xmm5
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,41,69,216 ; movaps %xmm0,-0x28(%ebp)
- DB 15,40,109,184 ; movaps -0x48(%ebp),%xmm5
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 15,41,141,104,255,255,255 ; movaps %xmm1,-0x98(%ebp)
- DB 15,40,141,232,254,255,255 ; movaps -0x118(%ebp),%xmm1
- DB 15,92,209 ; subps %xmm1,%xmm2
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,88,209 ; addps %xmm1,%xmm2
- DB 15,41,85,184 ; movaps %xmm2,-0x48(%ebp)
- DB 15,92,251 ; subps %xmm3,%xmm7
- DB 15,89,248 ; mulps %xmm0,%xmm7
- DB 15,88,251 ; addps %xmm3,%xmm7
- DB 243,15,91,141,184,254,255,255 ; cvttps2dq -0x148(%ebp),%xmm1
- DB 102,15,112,217,245 ; pshufd $0xf5,%xmm1,%xmm3
- DB 102,15,111,133,88,255,255,255 ; movdqa -0xa8(%ebp),%xmm0
- DB 102,15,244,216 ; pmuludq %xmm0,%xmm3
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,244,233 ; pmuludq %xmm1,%xmm5
- DB 102,15,112,197,232 ; pshufd $0xe8,%xmm5,%xmm0
- DB 102,15,112,203,232 ; pshufd $0xe8,%xmm3,%xmm1
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 102,15,127,133,88,255,255,255 ; movdqa %xmm0,-0xa8(%ebp)
- DB 102,15,111,85,200 ; movdqa -0x38(%ebp),%xmm2
- DB 102,15,254,208 ; paddd %xmm0,%xmm2
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,254,93,152 ; paddd -0x68(%ebp),%xmm3
- DB 102,15,112,203,245 ; pshufd $0xf5,%xmm3,%xmm1
- DB 102,15,244,220 ; pmuludq %xmm4,%xmm3
- DB 102,15,244,204 ; pmuludq %xmm4,%xmm1
- DB 102,15,112,233,232 ; pshufd $0xe8,%xmm1,%xmm5
- DB 102,15,112,203,232 ; pshufd $0xe8,%xmm3,%xmm1
- DB 102,15,98,205 ; punpckldq %xmm5,%xmm1
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,217,229 ; pshufd $0xe5,%xmm1,%xmm3
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,15,126,223 ; movd %xmm3,%edi
- DB 102,15,112,217,231 ; pshufd $0xe7,%xmm1,%xmm3
- DB 102,15,126,219 ; movd %xmm3,%ebx
- DB 243,15,16,28,154 ; movss (%edx,%ebx,4),%xmm3
- DB 243,15,16,44,186 ; movss (%edx,%edi,4),%xmm5
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 243,15,16,52,178 ; movss (%edx,%esi,4),%xmm6
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,198 ; unpcklps %xmm6,%xmm0
- DB 102,15,20,197 ; unpcklpd %xmm5,%xmm0
- DB 102,15,41,69,200 ; movapd %xmm0,-0x38(%ebp)
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,250,235 ; psubd %xmm3,%xmm5
- DB 102,15,112,245,229 ; pshufd $0xe5,%xmm5,%xmm6
- DB 102,15,126,240 ; movd %xmm6,%eax
- DB 102,15,112,245,78 ; pshufd $0x4e,%xmm5,%xmm6
- DB 102,15,126,246 ; movd %xmm6,%esi
- DB 102,15,126,239 ; movd %xmm5,%edi
- DB 102,15,112,237,231 ; pshufd $0xe7,%xmm5,%xmm5
- DB 102,15,126,235 ; movd %xmm5,%ebx
- DB 243,15,16,44,154 ; movss (%edx,%ebx,4),%xmm5
- DB 243,15,16,4,178 ; movss (%edx,%esi,4),%xmm0
- DB 15,20,197 ; unpcklps %xmm5,%xmm0
- DB 243,15,16,52,186 ; movss (%edx,%edi,4),%xmm6
- DB 243,15,16,44,130 ; movss (%edx,%eax,4),%xmm5
- DB 15,20,245 ; unpcklps %xmm5,%xmm6
- DB 102,15,20,240 ; unpcklpd %xmm0,%xmm6
- DB 102,15,254,137,32,125,0,0 ; paddd 0x7d20(%ecx),%xmm1
- DB 102,15,112,193,229 ; pshufd $0xe5,%xmm1,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,193,231 ; pshufd $0xe7,%xmm1,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,44,178 ; movss (%edx,%esi,4),%xmm5
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 243,15,16,36,186 ; movss (%edx,%edi,4),%xmm4
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,224 ; unpcklps %xmm0,%xmm4
- DB 102,15,20,229 ; unpcklpd %xmm5,%xmm4
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,254,77,168 ; paddd -0x58(%ebp),%xmm1
- DB 102,15,112,193,245 ; pshufd $0xf5,%xmm1,%xmm0
- DB 102,15,111,145,128,131,0,0 ; movdqa 0x8380(%ecx),%xmm2
- DB 102,15,244,202 ; pmuludq %xmm2,%xmm1
- DB 102,15,244,194 ; pmuludq %xmm2,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,112,233,232 ; pshufd $0xe8,%xmm1,%xmm5
- DB 102,15,98,232 ; punpckldq %xmm0,%xmm5
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 102,15,112,197,229 ; pshufd $0xe5,%xmm5,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,112,197,78 ; pshufd $0x4e,%xmm5,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,197,231 ; pshufd $0xe7,%xmm5,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,12,154 ; movss (%edx,%ebx,4),%xmm1
- DB 243,15,16,4,186 ; movss (%edx,%edi,4),%xmm0
- DB 15,20,193 ; unpcklps %xmm1,%xmm0
- DB 243,15,16,12,178 ; movss (%edx,%esi,4),%xmm1
- DB 243,15,16,20,130 ; movss (%edx,%eax,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 102,15,20,208 ; unpcklpd %xmm0,%xmm2
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,250,195 ; psubd %xmm3,%xmm0
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,12,178 ; movss (%edx,%esi,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 243,15,16,28,186 ; movss (%edx,%edi,4),%xmm3
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,216 ; unpcklps %xmm0,%xmm3
- DB 102,15,20,217 ; unpcklpd %xmm1,%xmm3
- DB 102,15,254,169,32,125,0,0 ; paddd 0x7d20(%ecx),%xmm5
- DB 102,15,112,197,229 ; pshufd $0xe5,%xmm5,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,197,78 ; pshufd $0x4e,%xmm5,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,126,239 ; movd %xmm5,%edi
- DB 102,15,112,197,231 ; pshufd $0xe7,%xmm5,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,12,178 ; movss (%edx,%esi,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 243,15,16,44,186 ; movss (%edx,%edi,4),%xmm5
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 102,15,20,233 ; unpcklpd %xmm1,%xmm5
- DB 15,40,77,200 ; movaps -0x38(%ebp),%xmm1
- DB 15,92,209 ; subps %xmm1,%xmm2
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,88,209 ; addps %xmm1,%xmm2
- DB 15,92,222 ; subps %xmm6,%xmm3
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,88,222 ; addps %xmm6,%xmm3
- DB 15,92,236 ; subps %xmm4,%xmm5
- DB 15,89,232 ; mulps %xmm0,%xmm5
- DB 15,88,236 ; addps %xmm4,%xmm5
- DB 15,91,133,40,255,255,255 ; cvtdq2ps -0xd8(%ebp),%xmm0
- DB 15,40,141,56,255,255,255 ; movaps -0xc8(%ebp),%xmm1
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,41,141,56,255,255,255 ; movaps %xmm1,-0xc8(%ebp)
- DB 15,40,133,104,255,255,255 ; movaps -0x98(%ebp),%xmm0
- DB 15,92,208 ; subps %xmm0,%xmm2
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 15,41,149,40,255,255,255 ; movaps %xmm2,-0xd8(%ebp)
- DB 15,40,69,184 ; movaps -0x48(%ebp),%xmm0
- DB 15,92,216 ; subps %xmm0,%xmm3
- DB 15,89,217 ; mulps %xmm1,%xmm3
- DB 15,88,216 ; addps %xmm0,%xmm3
- DB 15,41,157,104,255,255,255 ; movaps %xmm3,-0x98(%ebp)
- DB 15,92,239 ; subps %xmm7,%xmm5
- DB 15,89,233 ; mulps %xmm1,%xmm5
- DB 15,88,239 ; addps %xmm7,%xmm5
- DB 15,41,109,184 ; movaps %xmm5,-0x48(%ebp)
- DB 243,15,91,69,136 ; cvttps2dq -0x78(%ebp),%xmm0
- DB 102,15,112,200,245 ; pshufd $0xf5,%xmm0,%xmm1
- DB 102,15,111,149,24,255,255,255 ; movdqa -0xe8(%ebp),%xmm2
- DB 102,15,244,202 ; pmuludq %xmm2,%xmm1
- DB 102,15,244,208 ; pmuludq %xmm0,%xmm2
- DB 102,15,112,226,232 ; pshufd $0xe8,%xmm2,%xmm4
- DB 102,15,112,193,232 ; pshufd $0xe8,%xmm1,%xmm0
- DB 102,15,98,224 ; punpckldq %xmm0,%xmm4
- DB 102,15,127,165,24,255,255,255 ; movdqa %xmm4,-0xe8(%ebp)
- DB 102,15,254,165,200,254,255,255 ; paddd -0x138(%ebp),%xmm4
- DB 102,15,127,101,200 ; movdqa %xmm4,-0x38(%ebp)
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,254,141,72,255,255,255 ; paddd -0xb8(%ebp),%xmm1
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,254,85,152 ; paddd -0x68(%ebp),%xmm2
- DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,153,128,131,0,0 ; movdqa 0x8380(%ecx),%xmm3
- DB 102,15,244,211 ; pmuludq %xmm3,%xmm2
- DB 102,15,244,195 ; pmuludq %xmm3,%xmm0
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,15,112,216,232 ; pshufd $0xe8,%xmm0,%xmm3
- DB 102,15,112,194,232 ; pshufd $0xe8,%xmm2,%xmm0
- DB 102,15,98,195 ; punpckldq %xmm3,%xmm0
- DB 102,15,126,208 ; movd %xmm2,%eax
- DB 102,15,112,208,229 ; pshufd $0xe5,%xmm0,%xmm2
- DB 102,15,126,214 ; movd %xmm2,%esi
- DB 102,15,112,208,78 ; pshufd $0x4e,%xmm0,%xmm2
- DB 102,15,126,215 ; movd %xmm2,%edi
- DB 102,15,112,208,231 ; pshufd $0xe7,%xmm0,%xmm2
- DB 102,15,126,211 ; movd %xmm2,%ebx
- DB 243,15,16,20,154 ; movss (%edx,%ebx,4),%xmm2
- DB 243,15,16,28,186 ; movss (%edx,%edi,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 243,15,16,20,178 ; movss (%edx,%esi,4),%xmm2
- DB 243,15,16,36,130 ; movss (%edx,%eax,4),%xmm4
- DB 15,20,226 ; unpcklps %xmm2,%xmm4
- DB 102,15,20,227 ; unpcklpd %xmm3,%xmm4
- DB 102,15,41,101,136 ; movapd %xmm4,-0x78(%ebp)
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,118,246 ; pcmpeqd %xmm6,%xmm6
- DB 102,15,250,214 ; psubd %xmm6,%xmm2
- DB 102,15,112,218,229 ; pshufd $0xe5,%xmm2,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,126,215 ; movd %xmm2,%edi
- DB 102,15,112,210,231 ; pshufd $0xe7,%xmm2,%xmm2
- DB 102,15,126,211 ; movd %xmm2,%ebx
- DB 243,15,16,20,154 ; movss (%edx,%ebx,4),%xmm2
- DB 243,15,16,28,178 ; movss (%edx,%esi,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 243,15,16,36,186 ; movss (%edx,%edi,4),%xmm4
- DB 243,15,16,44,130 ; movss (%edx,%eax,4),%xmm5
- DB 15,20,229 ; unpcklps %xmm5,%xmm4
- DB 102,15,20,227 ; unpcklpd %xmm3,%xmm4
- DB 102,15,254,129,32,125,0,0 ; paddd 0x7d20(%ecx),%xmm0
- DB 102,15,112,216,229 ; pshufd $0xe5,%xmm0,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,216,78 ; pshufd $0x4e,%xmm0,%xmm3
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,28,178 ; movss (%edx,%esi,4),%xmm3
- DB 15,20,216 ; unpcklps %xmm0,%xmm3
- DB 243,15,16,20,186 ; movss (%edx,%edi,4),%xmm2
- DB 243,15,16,44,130 ; movss (%edx,%eax,4),%xmm5
- DB 15,20,213 ; unpcklps %xmm5,%xmm2
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 102,15,254,77,168 ; paddd -0x58(%ebp),%xmm1
- DB 102,15,112,217,245 ; pshufd $0xf5,%xmm1,%xmm3
- DB 102,15,244,207 ; pmuludq %xmm7,%xmm1
- DB 102,15,244,223 ; pmuludq %xmm7,%xmm3
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,15,112,249,232 ; pshufd $0xe8,%xmm1,%xmm7
- DB 102,15,98,251 ; punpckldq %xmm3,%xmm7
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 102,15,112,207,229 ; pshufd $0xe5,%xmm7,%xmm1
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,112,207,78 ; pshufd $0x4e,%xmm7,%xmm1
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,207,231 ; pshufd $0xe7,%xmm7,%xmm1
- DB 102,15,126,203 ; movd %xmm1,%ebx
- DB 243,15,16,12,154 ; movss (%edx,%ebx,4),%xmm1
- DB 243,15,16,28,186 ; movss (%edx,%edi,4),%xmm3
- DB 15,20,217 ; unpcklps %xmm1,%xmm3
- DB 243,15,16,12,178 ; movss (%edx,%esi,4),%xmm1
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,193 ; unpcklps %xmm1,%xmm0
- DB 102,15,20,195 ; unpcklpd %xmm3,%xmm0
- DB 102,15,111,207 ; movdqa %xmm7,%xmm1
- DB 102,15,250,206 ; psubd %xmm6,%xmm1
- DB 102,15,112,217,229 ; pshufd $0xe5,%xmm1,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,201,231 ; pshufd $0xe7,%xmm1,%xmm1
- DB 102,15,126,203 ; movd %xmm1,%ebx
- DB 243,15,16,12,154 ; movss (%edx,%ebx,4),%xmm1
- DB 243,15,16,28,178 ; movss (%edx,%esi,4),%xmm3
- DB 15,20,217 ; unpcklps %xmm1,%xmm3
- DB 243,15,16,44,186 ; movss (%edx,%edi,4),%xmm5
- DB 243,15,16,52,130 ; movss (%edx,%eax,4),%xmm6
- DB 15,20,238 ; unpcklps %xmm6,%xmm5
- DB 102,15,20,235 ; unpcklpd %xmm3,%xmm5
- DB 102,15,111,137,32,125,0,0 ; movdqa 0x7d20(%ecx),%xmm1
- DB 102,15,254,249 ; paddd %xmm1,%xmm7
- DB 102,15,112,223,229 ; pshufd $0xe5,%xmm7,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,223,78 ; pshufd $0x4e,%xmm7,%xmm3
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,126,255 ; movd %xmm7,%edi
- DB 102,15,112,223,231 ; pshufd $0xe7,%xmm7,%xmm3
- DB 102,15,126,219 ; movd %xmm3,%ebx
- DB 243,15,16,28,154 ; movss (%edx,%ebx,4),%xmm3
- DB 243,15,16,52,178 ; movss (%edx,%esi,4),%xmm6
- DB 15,20,243 ; unpcklps %xmm3,%xmm6
- DB 243,15,16,60,186 ; movss (%edx,%edi,4),%xmm7
- DB 243,15,16,28,130 ; movss (%edx,%eax,4),%xmm3
- DB 15,20,251 ; unpcklps %xmm3,%xmm7
- DB 102,15,20,254 ; unpcklpd %xmm6,%xmm7
- DB 15,40,117,136 ; movaps -0x78(%ebp),%xmm6
- DB 15,92,198 ; subps %xmm6,%xmm0
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,41,69,136 ; movaps %xmm0,-0x78(%ebp)
- DB 15,92,236 ; subps %xmm4,%xmm5
- DB 15,89,235 ; mulps %xmm3,%xmm5
- DB 15,88,236 ; addps %xmm4,%xmm5
- DB 15,92,250 ; subps %xmm2,%xmm7
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 15,88,250 ; addps %xmm2,%xmm7
- DB 102,15,111,85,200 ; movdqa -0x38(%ebp),%xmm2
- DB 102,15,254,149,88,255,255,255 ; paddd -0xa8(%ebp),%xmm2
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,254,69,152 ; paddd -0x68(%ebp),%xmm0
- DB 102,15,112,208,245 ; pshufd $0xf5,%xmm0,%xmm2
- DB 102,15,111,153,128,131,0,0 ; movdqa 0x8380(%ecx),%xmm3
- DB 102,15,244,195 ; pmuludq %xmm3,%xmm0
- DB 102,15,244,211 ; pmuludq %xmm3,%xmm2
- DB 102,15,112,218,232 ; pshufd $0xe8,%xmm2,%xmm3
- DB 102,15,112,208,232 ; pshufd $0xe8,%xmm0,%xmm2
- DB 102,15,98,211 ; punpckldq %xmm3,%xmm2
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,194,229 ; pshufd $0xe5,%xmm2,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,194,231 ; pshufd $0xe7,%xmm2,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,28,186 ; movss (%edx,%edi,4),%xmm3
- DB 15,20,216 ; unpcklps %xmm0,%xmm3
- DB 243,15,16,4,178 ; movss (%edx,%esi,4),%xmm0
- DB 243,15,16,52,130 ; movss (%edx,%eax,4),%xmm6
- DB 15,20,240 ; unpcklps %xmm0,%xmm6
- DB 102,15,20,243 ; unpcklpd %xmm3,%xmm6
- DB 102,15,41,117,200 ; movapd %xmm6,-0x38(%ebp)
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,250,195 ; psubd %xmm3,%xmm0
- DB 102,15,112,216,229 ; pshufd $0xe5,%xmm0,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,216,78 ; pshufd $0x4e,%xmm0,%xmm3
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,28,154 ; movss (%edx,%ebx,4),%xmm3
- DB 243,15,16,4,178 ; movss (%edx,%esi,4),%xmm0
- DB 15,20,195 ; unpcklps %xmm3,%xmm0
- DB 243,15,16,28,186 ; movss (%edx,%edi,4),%xmm3
- DB 243,15,16,52,130 ; movss (%edx,%eax,4),%xmm6
- DB 15,20,222 ; unpcklps %xmm6,%xmm3
- DB 102,15,20,216 ; unpcklpd %xmm0,%xmm3
- DB 102,15,41,157,232,254,255,255 ; movapd %xmm3,-0x118(%ebp)
- DB 102,15,254,209 ; paddd %xmm1,%xmm2
- DB 102,15,112,194,229 ; pshufd $0xe5,%xmm2,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,126,215 ; movd %xmm2,%edi
- DB 102,15,112,194,231 ; pshufd $0xe7,%xmm2,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,52,178 ; movss (%edx,%esi,4),%xmm6
- DB 15,20,240 ; unpcklps %xmm0,%xmm6
- DB 243,15,16,28,186 ; movss (%edx,%edi,4),%xmm3
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,216 ; unpcklps %xmm0,%xmm3
- DB 102,15,20,222 ; unpcklpd %xmm6,%xmm3
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,254,85,168 ; paddd -0x58(%ebp),%xmm2
- DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,137,128,131,0,0 ; movdqa 0x8380(%ecx),%xmm1
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,193 ; pmuludq %xmm1,%xmm0
- DB 102,15,112,240,232 ; pshufd $0xe8,%xmm0,%xmm6
- DB 102,15,112,194,232 ; pshufd $0xe8,%xmm2,%xmm0
- DB 102,15,98,198 ; punpckldq %xmm6,%xmm0
- DB 102,15,126,208 ; movd %xmm2,%eax
- DB 102,15,112,224,229 ; pshufd $0xe5,%xmm0,%xmm4
- DB 102,15,126,230 ; movd %xmm4,%esi
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,15,126,231 ; movd %xmm4,%edi
- DB 102,15,112,224,231 ; pshufd $0xe7,%xmm0,%xmm4
- DB 102,15,126,227 ; movd %xmm4,%ebx
- DB 243,15,16,36,154 ; movss (%edx,%ebx,4),%xmm4
- DB 243,15,16,52,186 ; movss (%edx,%edi,4),%xmm6
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 243,15,16,36,178 ; movss (%edx,%esi,4),%xmm4
- DB 243,15,16,12,130 ; movss (%edx,%eax,4),%xmm1
- DB 15,20,204 ; unpcklps %xmm4,%xmm1
- DB 102,15,20,206 ; unpcklpd %xmm6,%xmm1
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,118,210 ; pcmpeqd %xmm2,%xmm2
- DB 102,15,250,226 ; psubd %xmm2,%xmm4
- DB 102,15,112,244,229 ; pshufd $0xe5,%xmm4,%xmm6
- DB 102,15,126,240 ; movd %xmm6,%eax
- DB 102,15,112,244,78 ; pshufd $0x4e,%xmm4,%xmm6
- DB 102,15,126,246 ; movd %xmm6,%esi
- DB 102,15,126,231 ; movd %xmm4,%edi
- DB 102,15,112,228,231 ; pshufd $0xe7,%xmm4,%xmm4
- DB 102,15,126,227 ; movd %xmm4,%ebx
- DB 243,15,16,36,154 ; movss (%edx,%ebx,4),%xmm4
- DB 243,15,16,52,178 ; movss (%edx,%esi,4),%xmm6
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 243,15,16,20,186 ; movss (%edx,%edi,4),%xmm2
- DB 243,15,16,36,130 ; movss (%edx,%eax,4),%xmm4
- DB 15,20,212 ; unpcklps %xmm4,%xmm2
- DB 102,15,20,214 ; unpcklpd %xmm6,%xmm2
- DB 102,15,254,129,32,125,0,0 ; paddd 0x7d20(%ecx),%xmm0
- DB 102,15,112,224,229 ; pshufd $0xe5,%xmm0,%xmm4
- DB 102,15,126,224 ; movd %xmm4,%eax
- DB 102,15,112,224,78 ; pshufd $0x4e,%xmm0,%xmm4
- DB 102,15,126,230 ; movd %xmm4,%esi
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,36,178 ; movss (%edx,%esi,4),%xmm4
- DB 15,20,224 ; unpcklps %xmm0,%xmm4
- DB 243,15,16,52,186 ; movss (%edx,%edi,4),%xmm6
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,240 ; unpcklps %xmm0,%xmm6
- DB 102,15,20,244 ; unpcklpd %xmm4,%xmm6
- DB 15,40,101,200 ; movaps -0x38(%ebp),%xmm4
- DB 15,92,204 ; subps %xmm4,%xmm1
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 15,40,165,232,254,255,255 ; movaps -0x118(%ebp),%xmm4
- DB 15,92,212 ; subps %xmm4,%xmm2
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 15,92,243 ; subps %xmm3,%xmm6
- DB 15,89,240 ; mulps %xmm0,%xmm6
- DB 15,88,243 ; addps %xmm3,%xmm6
- DB 15,40,93,136 ; movaps -0x78(%ebp),%xmm3
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,40,133,56,255,255,255 ; movaps -0xc8(%ebp),%xmm0
- DB 15,89,200 ; mulps %xmm0,%xmm1
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 15,92,213 ; subps %xmm5,%xmm2
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 15,92,247 ; subps %xmm7,%xmm6
- DB 15,89,240 ; mulps %xmm0,%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 15,91,133,216,254,255,255 ; cvtdq2ps -0x128(%ebp),%xmm0
- DB 15,40,141,248,254,255,255 ; movaps -0x108(%ebp),%xmm1
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,41,141,248,254,255,255 ; movaps %xmm1,-0x108(%ebp)
- DB 15,40,133,40,255,255,255 ; movaps -0xd8(%ebp),%xmm0
- DB 15,92,216 ; subps %xmm0,%xmm3
- DB 15,89,217 ; mulps %xmm1,%xmm3
- DB 15,88,216 ; addps %xmm0,%xmm3
- DB 15,41,157,40,255,255,255 ; movaps %xmm3,-0xd8(%ebp)
- DB 15,40,133,104,255,255,255 ; movaps -0x98(%ebp),%xmm0
- DB 15,92,208 ; subps %xmm0,%xmm2
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 15,41,149,104,255,255,255 ; movaps %xmm2,-0x98(%ebp)
- DB 15,40,69,184 ; movaps -0x48(%ebp),%xmm0
- DB 15,92,240 ; subps %xmm0,%xmm6
- DB 15,89,241 ; mulps %xmm1,%xmm6
- DB 15,88,240 ; addps %xmm0,%xmm6
- DB 15,41,181,216,254,255,255 ; movaps %xmm6,-0x128(%ebp)
- DB 243,15,91,141,120,255,255,255 ; cvttps2dq -0x88(%ebp),%xmm1
- DB 102,15,127,77,136 ; movdqa %xmm1,-0x78(%ebp)
- DB 102,15,111,133,8,255,255,255 ; movdqa -0xf8(%ebp),%xmm0
- DB 102,15,254,193 ; paddd %xmm1,%xmm0
- DB 102,15,127,133,8,255,255,255 ; movdqa %xmm0,-0xf8(%ebp)
- DB 102,15,111,141,72,255,255,255 ; movdqa -0xb8(%ebp),%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,111,93,152 ; movdqa -0x68(%ebp),%xmm3
- DB 102,15,254,217 ; paddd %xmm1,%xmm3
- DB 102,15,112,211,245 ; pshufd $0xf5,%xmm3,%xmm2
- DB 102,15,111,129,128,131,0,0 ; movdqa 0x8380(%ecx),%xmm0
- DB 102,15,244,216 ; pmuludq %xmm0,%xmm3
- DB 102,15,244,208 ; pmuludq %xmm0,%xmm2
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,112,226,232 ; pshufd $0xe8,%xmm2,%xmm4
- DB 102,15,112,211,232 ; pshufd $0xe8,%xmm3,%xmm2
- DB 102,15,98,212 ; punpckldq %xmm4,%xmm2
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,218,229 ; pshufd $0xe5,%xmm2,%xmm3
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,15,126,223 ; movd %xmm3,%edi
- DB 102,15,112,218,231 ; pshufd $0xe7,%xmm2,%xmm3
- DB 102,15,126,219 ; movd %xmm3,%ebx
- DB 243,15,16,28,154 ; movss (%edx,%ebx,4),%xmm3
- DB 243,15,16,44,186 ; movss (%edx,%edi,4),%xmm5
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 243,15,16,28,178 ; movss (%edx,%esi,4),%xmm3
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,195 ; unpcklps %xmm3,%xmm0
- DB 102,15,20,197 ; unpcklpd %xmm5,%xmm0
- DB 102,15,41,133,120,255,255,255 ; movapd %xmm0,-0x88(%ebp)
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,250,216 ; psubd %xmm0,%xmm3
- DB 102,15,112,235,229 ; pshufd $0xe5,%xmm3,%xmm5
- DB 102,15,126,232 ; movd %xmm5,%eax
- DB 102,15,112,235,78 ; pshufd $0x4e,%xmm3,%xmm5
- DB 102,15,126,238 ; movd %xmm5,%esi
- DB 102,15,126,223 ; movd %xmm3,%edi
- DB 102,15,112,219,231 ; pshufd $0xe7,%xmm3,%xmm3
- DB 102,15,126,219 ; movd %xmm3,%ebx
- DB 243,15,16,28,154 ; movss (%edx,%ebx,4),%xmm3
- DB 243,15,16,52,178 ; movss (%edx,%esi,4),%xmm6
- DB 15,20,243 ; unpcklps %xmm3,%xmm6
- DB 243,15,16,44,186 ; movss (%edx,%edi,4),%xmm5
- DB 243,15,16,28,130 ; movss (%edx,%eax,4),%xmm3
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 102,15,20,238 ; unpcklpd %xmm6,%xmm5
- DB 102,15,254,145,32,125,0,0 ; paddd 0x7d20(%ecx),%xmm2
- DB 102,15,112,218,229 ; pshufd $0xe5,%xmm2,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,126,215 ; movd %xmm2,%edi
- DB 102,15,112,210,231 ; pshufd $0xe7,%xmm2,%xmm2
- DB 102,15,126,211 ; movd %xmm2,%ebx
- DB 243,15,16,20,154 ; movss (%edx,%ebx,4),%xmm2
- DB 243,15,16,28,178 ; movss (%edx,%esi,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 243,15,16,52,186 ; movss (%edx,%edi,4),%xmm6
- DB 243,15,16,20,130 ; movss (%edx,%eax,4),%xmm2
- DB 15,20,242 ; unpcklps %xmm2,%xmm6
- DB 102,15,20,243 ; unpcklpd %xmm3,%xmm6
- DB 102,15,254,77,168 ; paddd -0x58(%ebp),%xmm1
- DB 102,15,112,209,245 ; pshufd $0xf5,%xmm1,%xmm2
- DB 102,15,244,207 ; pmuludq %xmm7,%xmm1
- DB 102,15,244,215 ; pmuludq %xmm7,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,112,217,232 ; pshufd $0xe8,%xmm1,%xmm3
- DB 102,15,98,218 ; punpckldq %xmm2,%xmm3
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 102,15,112,203,229 ; pshufd $0xe5,%xmm3,%xmm1
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,112,203,78 ; pshufd $0x4e,%xmm3,%xmm1
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,203,231 ; pshufd $0xe7,%xmm3,%xmm1
- DB 102,15,126,203 ; movd %xmm1,%ebx
- DB 243,15,16,12,154 ; movss (%edx,%ebx,4),%xmm1
- DB 243,15,16,20,186 ; movss (%edx,%edi,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 243,15,16,60,178 ; movss (%edx,%esi,4),%xmm7
- DB 243,15,16,36,130 ; movss (%edx,%eax,4),%xmm4
- DB 15,20,231 ; unpcklps %xmm7,%xmm4
- DB 102,15,20,226 ; unpcklpd %xmm2,%xmm4
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,250,208 ; psubd %xmm0,%xmm2
- DB 102,15,112,250,229 ; pshufd $0xe5,%xmm2,%xmm7
- DB 102,15,126,248 ; movd %xmm7,%eax
- DB 102,15,112,250,78 ; pshufd $0x4e,%xmm2,%xmm7
- DB 102,15,126,254 ; movd %xmm7,%esi
- DB 102,15,126,215 ; movd %xmm2,%edi
- DB 102,15,112,210,231 ; pshufd $0xe7,%xmm2,%xmm2
- DB 102,15,126,211 ; movd %xmm2,%ebx
- DB 243,15,16,20,154 ; movss (%edx,%ebx,4),%xmm2
- DB 243,15,16,60,178 ; movss (%edx,%esi,4),%xmm7
- DB 15,20,250 ; unpcklps %xmm2,%xmm7
- DB 243,15,16,20,186 ; movss (%edx,%edi,4),%xmm2
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,208 ; unpcklps %xmm0,%xmm2
- DB 102,15,20,215 ; unpcklpd %xmm7,%xmm2
- DB 102,15,111,137,32,125,0,0 ; movdqa 0x7d20(%ecx),%xmm1
- DB 102,15,254,217 ; paddd %xmm1,%xmm3
- DB 102,15,112,195,229 ; pshufd $0xe5,%xmm3,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,195,78 ; pshufd $0x4e,%xmm3,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,126,223 ; movd %xmm3,%edi
- DB 102,15,112,195,231 ; pshufd $0xe7,%xmm3,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,60,178 ; movss (%edx,%esi,4),%xmm7
- DB 15,20,248 ; unpcklps %xmm0,%xmm7
- DB 243,15,16,28,186 ; movss (%edx,%edi,4),%xmm3
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,216 ; unpcklps %xmm0,%xmm3
- DB 102,15,20,223 ; unpcklpd %xmm7,%xmm3
- DB 15,40,189,120,255,255,255 ; movaps -0x88(%ebp),%xmm7
- DB 15,92,231 ; subps %xmm7,%xmm4
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,88,231 ; addps %xmm7,%xmm4
- DB 15,41,165,120,255,255,255 ; movaps %xmm4,-0x88(%ebp)
- DB 15,92,213 ; subps %xmm5,%xmm2
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 15,92,222 ; subps %xmm6,%xmm3
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,88,222 ; addps %xmm6,%xmm3
- DB 15,41,93,184 ; movaps %xmm3,-0x48(%ebp)
- DB 102,15,111,149,8,255,255,255 ; movdqa -0xf8(%ebp),%xmm2
- DB 102,15,254,149,88,255,255,255 ; paddd -0xa8(%ebp),%xmm2
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,254,69,152 ; paddd -0x68(%ebp),%xmm0
- DB 102,15,112,224,245 ; pshufd $0xf5,%xmm0,%xmm4
- DB 102,15,111,169,128,131,0,0 ; movdqa 0x8380(%ecx),%xmm5
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 102,15,244,195 ; pmuludq %xmm3,%xmm0
- DB 102,15,244,227 ; pmuludq %xmm3,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,112,240,232 ; pshufd $0xe8,%xmm0,%xmm6
- DB 102,15,98,244 ; punpckldq %xmm4,%xmm6
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,198,229 ; pshufd $0xe5,%xmm6,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,112,198,78 ; pshufd $0x4e,%xmm6,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,198,231 ; pshufd $0xe7,%xmm6,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,44,186 ; movss (%edx,%edi,4),%xmm5
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 243,15,16,4,178 ; movss (%edx,%esi,4),%xmm0
- DB 243,15,16,36,130 ; movss (%edx,%eax,4),%xmm4
- DB 15,20,224 ; unpcklps %xmm0,%xmm4
- DB 102,15,20,229 ; unpcklpd %xmm5,%xmm4
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,250,195 ; psubd %xmm3,%xmm0
- DB 102,15,112,232,229 ; pshufd $0xe5,%xmm0,%xmm5
- DB 102,15,126,232 ; movd %xmm5,%eax
- DB 102,15,112,232,78 ; pshufd $0x4e,%xmm0,%xmm5
- DB 102,15,126,238 ; movd %xmm5,%esi
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,60,178 ; movss (%edx,%esi,4),%xmm7
- DB 15,20,248 ; unpcklps %xmm0,%xmm7
- DB 243,15,16,44,186 ; movss (%edx,%edi,4),%xmm5
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,232 ; unpcklps %xmm0,%xmm5
- DB 102,15,20,239 ; unpcklpd %xmm7,%xmm5
- DB 102,15,254,241 ; paddd %xmm1,%xmm6
- DB 102,15,112,198,229 ; pshufd $0xe5,%xmm6,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,198,78 ; pshufd $0x4e,%xmm6,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,126,247 ; movd %xmm6,%edi
- DB 102,15,112,198,231 ; pshufd $0xe7,%xmm6,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,60,178 ; movss (%edx,%esi,4),%xmm7
- DB 15,20,248 ; unpcklps %xmm0,%xmm7
- DB 243,15,16,52,186 ; movss (%edx,%edi,4),%xmm6
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,240 ; unpcklps %xmm0,%xmm6
- DB 102,15,20,247 ; unpcklpd %xmm7,%xmm6
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,254,77,168 ; paddd -0x58(%ebp),%xmm1
- DB 102,15,112,193,245 ; pshufd $0xf5,%xmm1,%xmm0
- DB 102,15,111,145,128,131,0,0 ; movdqa 0x8380(%ecx),%xmm2
- DB 102,15,244,202 ; pmuludq %xmm2,%xmm1
- DB 102,15,244,194 ; pmuludq %xmm2,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,112,249,232 ; pshufd $0xe8,%xmm1,%xmm7
- DB 102,15,98,248 ; punpckldq %xmm0,%xmm7
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 102,15,112,199,229 ; pshufd $0xe5,%xmm7,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,112,199,78 ; pshufd $0x4e,%xmm7,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,199,231 ; pshufd $0xe7,%xmm7,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,12,154 ; movss (%edx,%ebx,4),%xmm1
- DB 243,15,16,4,186 ; movss (%edx,%edi,4),%xmm0
- DB 15,20,193 ; unpcklps %xmm1,%xmm0
- DB 243,15,16,12,178 ; movss (%edx,%esi,4),%xmm1
- DB 243,15,16,20,130 ; movss (%edx,%eax,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 102,15,20,208 ; unpcklpd %xmm0,%xmm2
- DB 102,15,111,199 ; movdqa %xmm7,%xmm0
- DB 102,15,250,195 ; psubd %xmm3,%xmm0
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,12,178 ; movss (%edx,%esi,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 243,15,16,28,186 ; movss (%edx,%edi,4),%xmm3
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,216 ; unpcklps %xmm0,%xmm3
- DB 102,15,20,217 ; unpcklpd %xmm1,%xmm3
- DB 102,15,254,185,32,125,0,0 ; paddd 0x7d20(%ecx),%xmm7
- DB 102,15,112,199,229 ; pshufd $0xe5,%xmm7,%xmm0
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,199,78 ; pshufd $0x4e,%xmm7,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,126,255 ; movd %xmm7,%edi
- DB 102,15,112,199,231 ; pshufd $0xe7,%xmm7,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,12,178 ; movss (%edx,%esi,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 243,15,16,60,186 ; movss (%edx,%edi,4),%xmm7
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,248 ; unpcklps %xmm0,%xmm7
- DB 102,15,20,249 ; unpcklpd %xmm1,%xmm7
- DB 15,92,212 ; subps %xmm4,%xmm2
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 15,92,221 ; subps %xmm5,%xmm3
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 15,92,254 ; subps %xmm6,%xmm7
- DB 15,89,248 ; mulps %xmm0,%xmm7
- DB 15,88,254 ; addps %xmm6,%xmm7
- DB 15,40,141,120,255,255,255 ; movaps -0x88(%ebp),%xmm1
- DB 15,92,209 ; subps %xmm1,%xmm2
- DB 15,40,133,56,255,255,255 ; movaps -0xc8(%ebp),%xmm0
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,88,209 ; addps %xmm1,%xmm2
- DB 15,41,149,8,255,255,255 ; movaps %xmm2,-0xf8(%ebp)
- DB 15,40,77,200 ; movaps -0x38(%ebp),%xmm1
- DB 15,92,217 ; subps %xmm1,%xmm3
- DB 15,89,216 ; mulps %xmm0,%xmm3
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 15,41,157,120,255,255,255 ; movaps %xmm3,-0x88(%ebp)
- DB 15,40,77,184 ; movaps -0x48(%ebp),%xmm1
- DB 15,92,249 ; subps %xmm1,%xmm7
- DB 15,89,248 ; mulps %xmm0,%xmm7
- DB 15,88,249 ; addps %xmm1,%xmm7
- DB 15,41,125,184 ; movaps %xmm7,-0x48(%ebp)
- DB 102,15,111,133,24,255,255,255 ; movdqa -0xe8(%ebp),%xmm0
- DB 102,15,254,69,136 ; paddd -0x78(%ebp),%xmm0
- DB 102,15,127,133,24,255,255,255 ; movdqa %xmm0,-0xe8(%ebp)
- DB 102,15,111,141,72,255,255,255 ; movdqa -0xb8(%ebp),%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,254,69,152 ; paddd -0x68(%ebp),%xmm0
- DB 102,15,112,200,245 ; pshufd $0xf5,%xmm0,%xmm1
- DB 102,15,111,145,128,131,0,0 ; movdqa 0x8380(%ecx),%xmm2
- DB 102,15,244,194 ; pmuludq %xmm2,%xmm0
- DB 102,15,244,202 ; pmuludq %xmm2,%xmm1
- DB 102,15,111,250 ; movdqa %xmm2,%xmm7
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 102,15,112,208,232 ; pshufd $0xe8,%xmm0,%xmm2
- DB 102,15,98,209 ; punpckldq %xmm1,%xmm2
- DB 102,15,126,192 ; movd %xmm0,%eax
- DB 102,15,112,194,229 ; pshufd $0xe5,%xmm2,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,194,231 ; pshufd $0xe7,%xmm2,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,12,186 ; movss (%edx,%edi,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 243,15,16,28,178 ; movss (%edx,%esi,4),%xmm3
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,195 ; unpcklps %xmm3,%xmm0
- DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
- DB 102,15,41,133,72,255,255,255 ; movapd %xmm0,-0xb8(%ebp)
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,118,246 ; pcmpeqd %xmm6,%xmm6
- DB 102,15,250,206 ; psubd %xmm6,%xmm1
- DB 102,15,112,217,229 ; pshufd $0xe5,%xmm1,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,201,231 ; pshufd $0xe7,%xmm1,%xmm1
- DB 102,15,126,203 ; movd %xmm1,%ebx
- DB 243,15,16,12,154 ; movss (%edx,%ebx,4),%xmm1
- DB 243,15,16,28,178 ; movss (%edx,%esi,4),%xmm3
- DB 15,20,217 ; unpcklps %xmm1,%xmm3
- DB 243,15,16,12,186 ; movss (%edx,%edi,4),%xmm1
- DB 243,15,16,36,130 ; movss (%edx,%eax,4),%xmm4
- DB 15,20,204 ; unpcklps %xmm4,%xmm1
- DB 102,15,20,203 ; unpcklpd %xmm3,%xmm1
- DB 102,15,254,145,32,125,0,0 ; paddd 0x7d20(%ecx),%xmm2
- DB 102,15,112,218,229 ; pshufd $0xe5,%xmm2,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,126,215 ; movd %xmm2,%edi
- DB 102,15,112,210,231 ; pshufd $0xe7,%xmm2,%xmm2
- DB 102,15,126,211 ; movd %xmm2,%ebx
- DB 243,15,16,20,154 ; movss (%edx,%ebx,4),%xmm2
- DB 243,15,16,28,178 ; movss (%edx,%esi,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 243,15,16,20,186 ; movss (%edx,%edi,4),%xmm2
- DB 243,15,16,36,130 ; movss (%edx,%eax,4),%xmm4
- DB 15,20,212 ; unpcklps %xmm4,%xmm2
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,254,101,168 ; paddd -0x58(%ebp),%xmm4
- DB 102,15,112,220,245 ; pshufd $0xf5,%xmm4,%xmm3
- DB 102,15,244,231 ; pmuludq %xmm7,%xmm4
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,244,223 ; pmuludq %xmm7,%xmm3
- DB 102,15,112,227,232 ; pshufd $0xe8,%xmm3,%xmm4
- DB 102,15,112,221,232 ; pshufd $0xe8,%xmm5,%xmm3
- DB 102,15,98,220 ; punpckldq %xmm4,%xmm3
- DB 102,15,126,232 ; movd %xmm5,%eax
- DB 102,15,112,227,229 ; pshufd $0xe5,%xmm3,%xmm4
- DB 102,15,126,230 ; movd %xmm4,%esi
- DB 102,15,112,227,78 ; pshufd $0x4e,%xmm3,%xmm4
- DB 102,15,126,231 ; movd %xmm4,%edi
- DB 102,15,112,227,231 ; pshufd $0xe7,%xmm3,%xmm4
- DB 102,15,126,227 ; movd %xmm4,%ebx
- DB 243,15,16,36,154 ; movss (%edx,%ebx,4),%xmm4
- DB 243,15,16,44,186 ; movss (%edx,%edi,4),%xmm5
- DB 15,20,236 ; unpcklps %xmm4,%xmm5
- DB 243,15,16,36,178 ; movss (%edx,%esi,4),%xmm4
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,196 ; unpcklps %xmm4,%xmm0
- DB 102,15,20,197 ; unpcklpd %xmm5,%xmm0
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,15,250,230 ; psubd %xmm6,%xmm4
- DB 102,15,112,236,229 ; pshufd $0xe5,%xmm4,%xmm5
- DB 102,15,126,232 ; movd %xmm5,%eax
- DB 102,15,112,236,78 ; pshufd $0x4e,%xmm4,%xmm5
- DB 102,15,126,238 ; movd %xmm5,%esi
- DB 102,15,126,231 ; movd %xmm4,%edi
- DB 102,15,112,228,231 ; pshufd $0xe7,%xmm4,%xmm4
- DB 102,15,126,227 ; movd %xmm4,%ebx
- DB 243,15,16,36,154 ; movss (%edx,%ebx,4),%xmm4
- DB 243,15,16,52,178 ; movss (%edx,%esi,4),%xmm6
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 243,15,16,60,186 ; movss (%edx,%edi,4),%xmm7
- DB 243,15,16,36,130 ; movss (%edx,%eax,4),%xmm4
- DB 15,20,252 ; unpcklps %xmm4,%xmm7
- DB 102,15,20,254 ; unpcklpd %xmm6,%xmm7
- DB 102,15,254,153,32,125,0,0 ; paddd 0x7d20(%ecx),%xmm3
- DB 102,15,112,227,229 ; pshufd $0xe5,%xmm3,%xmm4
- DB 102,15,126,224 ; movd %xmm4,%eax
- DB 102,15,112,227,78 ; pshufd $0x4e,%xmm3,%xmm4
- DB 102,15,126,230 ; movd %xmm4,%esi
- DB 102,15,126,223 ; movd %xmm3,%edi
- DB 102,15,112,219,231 ; pshufd $0xe7,%xmm3,%xmm3
- DB 102,15,126,219 ; movd %xmm3,%ebx
- DB 243,15,16,28,154 ; movss (%edx,%ebx,4),%xmm3
- DB 243,15,16,52,178 ; movss (%edx,%esi,4),%xmm6
- DB 15,20,243 ; unpcklps %xmm3,%xmm6
- DB 243,15,16,44,186 ; movss (%edx,%edi,4),%xmm5
- DB 243,15,16,28,130 ; movss (%edx,%eax,4),%xmm3
- DB 15,20,235 ; unpcklps %xmm3,%xmm5
- DB 102,15,20,238 ; unpcklpd %xmm6,%xmm5
- DB 15,40,165,72,255,255,255 ; movaps -0xb8(%ebp),%xmm4
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,41,133,72,255,255,255 ; movaps %xmm0,-0xb8(%ebp)
- DB 15,92,249 ; subps %xmm1,%xmm7
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 15,88,249 ; addps %xmm1,%xmm7
- DB 15,92,234 ; subps %xmm2,%xmm5
- DB 15,89,235 ; mulps %xmm3,%xmm5
- DB 15,88,234 ; addps %xmm2,%xmm5
- DB 102,15,111,133,24,255,255,255 ; movdqa -0xe8(%ebp),%xmm0
- DB 102,15,254,133,88,255,255,255 ; paddd -0xa8(%ebp),%xmm0
- DB 102,15,111,85,152 ; movdqa -0x68(%ebp),%xmm2
- DB 102,15,254,208 ; paddd %xmm0,%xmm2
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,112,194,245 ; pshufd $0xf5,%xmm2,%xmm0
- DB 102,15,111,137,128,131,0,0 ; movdqa 0x8380(%ecx),%xmm1
- DB 102,15,244,209 ; pmuludq %xmm1,%xmm2
- DB 102,15,244,193 ; pmuludq %xmm1,%xmm0
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,112,200,232 ; pshufd $0xe8,%xmm0,%xmm1
- DB 102,15,112,194,232 ; pshufd $0xe8,%xmm2,%xmm0
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 102,15,126,208 ; movd %xmm2,%eax
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,200,231 ; pshufd $0xe7,%xmm0,%xmm1
- DB 102,15,126,203 ; movd %xmm1,%ebx
- DB 243,15,16,12,154 ; movss (%edx,%ebx,4),%xmm1
- DB 243,15,16,20,186 ; movss (%edx,%edi,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 243,15,16,12,178 ; movss (%edx,%esi,4),%xmm1
- DB 243,15,16,36,130 ; movss (%edx,%eax,4),%xmm4
- DB 15,20,225 ; unpcklps %xmm1,%xmm4
- DB 102,15,20,226 ; unpcklpd %xmm2,%xmm4
- DB 102,15,41,101,152 ; movapd %xmm4,-0x68(%ebp)
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,118,210 ; pcmpeqd %xmm2,%xmm2
- DB 102,15,250,202 ; psubd %xmm2,%xmm1
- DB 102,15,112,209,229 ; pshufd $0xe5,%xmm1,%xmm2
- DB 102,15,126,208 ; movd %xmm2,%eax
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 102,15,126,214 ; movd %xmm2,%esi
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,201,231 ; pshufd $0xe7,%xmm1,%xmm1
- DB 102,15,126,203 ; movd %xmm1,%ebx
- DB 243,15,16,12,154 ; movss (%edx,%ebx,4),%xmm1
- DB 243,15,16,20,178 ; movss (%edx,%esi,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 243,15,16,36,186 ; movss (%edx,%edi,4),%xmm4
- DB 243,15,16,12,130 ; movss (%edx,%eax,4),%xmm1
- DB 15,20,225 ; unpcklps %xmm1,%xmm4
- DB 102,15,20,226 ; unpcklpd %xmm2,%xmm4
- DB 102,15,41,165,88,255,255,255 ; movapd %xmm4,-0xa8(%ebp)
- DB 102,15,254,129,32,125,0,0 ; paddd 0x7d20(%ecx),%xmm0
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,12,178 ; movss (%edx,%esi,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 243,15,16,36,186 ; movss (%edx,%edi,4),%xmm4
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,224 ; unpcklps %xmm0,%xmm4
- DB 102,15,20,225 ; unpcklpd %xmm1,%xmm4
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,254,77,168 ; paddd -0x58(%ebp),%xmm1
- DB 102,15,112,193,245 ; pshufd $0xf5,%xmm1,%xmm0
- DB 102,15,244,206 ; pmuludq %xmm6,%xmm1
- DB 102,15,244,198 ; pmuludq %xmm6,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,112,209,232 ; pshufd $0xe8,%xmm1,%xmm2
- DB 102,15,98,208 ; punpckldq %xmm0,%xmm2
- DB 102,15,126,200 ; movd %xmm1,%eax
- DB 102,15,112,194,229 ; pshufd $0xe5,%xmm2,%xmm0
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 102,15,112,194,78 ; pshufd $0x4e,%xmm2,%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,194,231 ; pshufd $0xe7,%xmm2,%xmm0
- DB 102,15,126,195 ; movd %xmm0,%ebx
- DB 243,15,16,4,154 ; movss (%edx,%ebx,4),%xmm0
- DB 243,15,16,12,186 ; movss (%edx,%edi,4),%xmm1
- DB 15,20,200 ; unpcklps %xmm0,%xmm1
- DB 243,15,16,28,178 ; movss (%edx,%esi,4),%xmm3
- DB 243,15,16,4,130 ; movss (%edx,%eax,4),%xmm0
- DB 15,20,195 ; unpcklps %xmm3,%xmm0
- DB 102,15,20,193 ; unpcklpd %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,118,219 ; pcmpeqd %xmm3,%xmm3
- DB 102,15,250,203 ; psubd %xmm3,%xmm1
- DB 102,15,112,217,229 ; pshufd $0xe5,%xmm1,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,201,231 ; pshufd $0xe7,%xmm1,%xmm1
- DB 102,15,126,203 ; movd %xmm1,%ebx
- DB 243,15,16,12,154 ; movss (%edx,%ebx,4),%xmm1
- DB 243,15,16,28,178 ; movss (%edx,%esi,4),%xmm3
- DB 15,20,217 ; unpcklps %xmm1,%xmm3
- DB 243,15,16,12,186 ; movss (%edx,%edi,4),%xmm1
- DB 243,15,16,52,130 ; movss (%edx,%eax,4),%xmm6
- DB 15,20,206 ; unpcklps %xmm6,%xmm1
- DB 102,15,20,203 ; unpcklpd %xmm3,%xmm1
- DB 102,15,254,145,32,125,0,0 ; paddd 0x7d20(%ecx),%xmm2
- DB 102,15,112,218,229 ; pshufd $0xe5,%xmm2,%xmm3
- DB 102,15,126,216 ; movd %xmm3,%eax
- DB 102,15,112,218,78 ; pshufd $0x4e,%xmm2,%xmm3
- DB 102,15,126,222 ; movd %xmm3,%esi
- DB 102,15,126,215 ; movd %xmm2,%edi
- DB 102,15,112,210,231 ; pshufd $0xe7,%xmm2,%xmm2
- DB 102,15,126,211 ; movd %xmm2,%ebx
- DB 243,15,16,20,154 ; movss (%edx,%ebx,4),%xmm2
- DB 243,15,16,28,178 ; movss (%edx,%esi,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 243,15,16,20,186 ; movss (%edx,%edi,4),%xmm2
- DB 243,15,16,52,130 ; movss (%edx,%eax,4),%xmm6
- DB 15,20,214 ; unpcklps %xmm6,%xmm2
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 15,40,117,152 ; movaps -0x68(%ebp),%xmm6
- DB 15,92,198 ; subps %xmm6,%xmm0
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,198 ; addps %xmm6,%xmm0
- DB 15,40,181,88,255,255,255 ; movaps -0xa8(%ebp),%xmm6
- DB 15,92,206 ; subps %xmm6,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,92,212 ; subps %xmm4,%xmm2
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 15,40,165,72,255,255,255 ; movaps -0xb8(%ebp),%xmm4
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,40,157,56,255,255,255 ; movaps -0xc8(%ebp),%xmm3
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,92,207 ; subps %xmm7,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 15,92,213 ; subps %xmm5,%xmm2
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 15,40,165,8,255,255,255 ; movaps -0xf8(%ebp),%xmm4
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,40,157,248,254,255,255 ; movaps -0x108(%ebp),%xmm3
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,196 ; addps %xmm4,%xmm0
- DB 15,40,165,120,255,255,255 ; movaps -0x88(%ebp),%xmm4
- DB 15,92,204 ; subps %xmm4,%xmm1
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 15,40,101,184 ; movaps -0x48(%ebp),%xmm4
- DB 15,92,212 ; subps %xmm4,%xmm2
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 15,91,157,200,254,255,255 ; cvtdq2ps -0x138(%ebp),%xmm3
- DB 15,40,165,168,254,255,255 ; movaps -0x158(%ebp),%xmm4
- DB 15,92,227 ; subps %xmm3,%xmm4
- DB 15,40,157,40,255,255,255 ; movaps -0xd8(%ebp),%xmm3
- DB 15,92,195 ; subps %xmm3,%xmm0
- DB 15,89,196 ; mulps %xmm4,%xmm0
- DB 15,88,195 ; addps %xmm3,%xmm0
- DB 15,40,157,104,255,255,255 ; movaps -0x98(%ebp),%xmm3
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 15,40,157,216,254,255,255 ; movaps -0x128(%ebp),%xmm3
- DB 15,92,211 ; subps %xmm3,%xmm2
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 141,66,8 ; lea 0x8(%edx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,153,224,124,0,0 ; movaps 0x7ce0(%ecx),%xmm3
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,82,4 ; call *0x4(%edx)
- DB 129,196,92,1,0,0 ; add $0x15c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_gauss_a_to_rgba_sse2
-_sk_gauss_a_to_rgba_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 131,236,8 ; sub $0x8,%esp
- DB 232,0,0,0,0 ; call 9ee5 <_sk_gauss_a_to_rgba_sse2+0xb>
- DB 88 ; pop %eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 15,40,128,59,111,0,0 ; movaps 0x6f3b(%eax),%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,128,75,111,0,0 ; addps 0x6f4b(%eax),%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,128,91,111,0,0 ; addps 0x6f5b(%eax),%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,128,107,111,0,0 ; addps 0x6f6b(%eax),%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,128,123,111,0,0 ; addps 0x6f7b(%eax),%xmm0
- DB 141,65,4 ; lea 0x4(%ecx),%eax
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 80 ; push %eax
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,17 ; call *(%ecx)
- DB 131,196,24 ; add $0x18,%esp
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_bilerp_clamp_8888_sse2
-_sk_bilerp_clamp_8888_sse2 LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,44,1,0,0 ; sub $0x12c,%esp
- DB 232,0,0,0,0 ; call 9f43 <_sk_bilerp_clamp_8888_sse2+0x11>
- DB 94 ; pop %esi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,56 ; mov (%eax),%edi
- DB 15,40,158,29,104,0,0 ; movaps 0x681d(%esi),%xmm3
- DB 15,41,133,8,255,255,255 ; movaps %xmm0,-0xf8(%ebp)
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,88,227 ; addps %xmm3,%xmm4
- DB 243,15,91,196 ; cvttps2dq %xmm4,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 15,194,208,1 ; cmpltps %xmm0,%xmm2
- DB 15,40,174,45,104,0,0 ; movaps 0x682d(%esi),%xmm5
- DB 15,84,213 ; andps %xmm5,%xmm2
- DB 15,92,194 ; subps %xmm2,%xmm0
- DB 15,92,224 ; subps %xmm0,%xmm4
- DB 15,41,141,120,255,255,255 ; movaps %xmm1,-0x88(%ebp)
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 243,15,91,195 ; cvttps2dq %xmm3,%xmm0
- DB 15,91,192 ; cvtdq2ps %xmm0,%xmm0
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,194,200,1 ; cmpltps %xmm0,%xmm1
- DB 15,84,205 ; andps %xmm5,%xmm1
- DB 15,92,193 ; subps %xmm1,%xmm0
- DB 15,92,216 ; subps %xmm0,%xmm3
- DB 243,15,16,79,8 ; movss 0x8(%edi),%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 102,15,118,192 ; pcmpeqd %xmm0,%xmm0
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,127,141,40,255,255,255 ; movdqa %xmm1,-0xd8(%ebp)
- DB 243,15,16,79,12 ; movss 0xc(%edi),%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 102,15,254,200 ; paddd %xmm0,%xmm1
- DB 102,15,127,77,152 ; movdqa %xmm1,-0x68(%ebp)
- DB 15,40,197 ; movaps %xmm5,%xmm0
- DB 15,41,165,24,255,255,255 ; movaps %xmm4,-0xe8(%ebp)
- DB 15,92,196 ; subps %xmm4,%xmm0
- DB 15,41,133,88,255,255,255 ; movaps %xmm0,-0xa8(%ebp)
- DB 15,41,93,136 ; movaps %xmm3,-0x78(%ebp)
- DB 15,92,235 ; subps %xmm3,%xmm5
- DB 15,41,109,184 ; movaps %xmm5,-0x48(%ebp)
- DB 139,23 ; mov (%edi),%edx
- DB 102,15,110,71,4 ; movd 0x4(%edi),%xmm0
- DB 102,15,112,192,0 ; pshufd $0x0,%xmm0,%xmm0
- DB 102,15,127,69,168 ; movdqa %xmm0,-0x58(%ebp)
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 243,15,16,134,49,112,0,0 ; movss 0x7031(%esi),%xmm0
- DB 15,40,150,237,104,0,0 ; movaps 0x68ed(%esi),%xmm2
- DB 15,41,149,56,255,255,255 ; movaps %xmm2,-0xc8(%ebp)
- DB 15,40,150,45,106,0,0 ; movaps 0x6a2d(%esi),%xmm2
- DB 15,41,149,72,255,255,255 ; movaps %xmm2,-0xb8(%ebp)
- DB 243,15,16,150,53,112,0,0 ; movss 0x7035(%esi),%xmm2
- DB 243,15,17,85,236 ; movss %xmm2,-0x14(%ebp)
- DB 243,15,16,150,45,112,0,0 ; movss 0x702d(%esi),%xmm2
- DB 243,15,17,85,240 ; movss %xmm2,-0x10(%ebp)
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,41,85,216 ; movaps %xmm2,-0x28(%ebp)
- DB 243,15,17,69,232 ; movss %xmm0,-0x18(%ebp)
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,88,149,120,255,255,255 ; addps -0x88(%ebp),%xmm2
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,95,194 ; maxps %xmm2,%xmm0
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,41,165,104,255,255,255 ; movaps %xmm4,-0x98(%ebp)
- DB 15,46,226 ; ucomiss %xmm2,%xmm4
- DB 15,40,85,136 ; movaps -0x78(%ebp),%xmm2
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 119,8 ; ja a081 <_sk_bilerp_clamp_8888_sse2+0x14f>
- DB 15,40,85,184 ; movaps -0x48(%ebp),%xmm2
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 15,93,69,152 ; minps -0x68(%ebp),%xmm0
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,111,101,168 ; movdqa -0x58(%ebp),%xmm4
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,244,208 ; pmuludq %xmm0,%xmm2
- DB 102,15,112,234,232 ; pshufd $0xe8,%xmm2,%xmm5
- DB 102,15,112,192,245 ; pshufd $0xf5,%xmm0,%xmm0
- DB 102,15,112,212,245 ; pshufd $0xf5,%xmm4,%xmm2
- DB 102,15,244,208 ; pmuludq %xmm0,%xmm2
- DB 102,15,112,194,232 ; pshufd $0xe8,%xmm2,%xmm0
- DB 102,15,98,232 ; punpckldq %xmm0,%xmm5
- DB 102,15,127,173,248,254,255,255 ; movdqa %xmm5,-0x108(%ebp)
- DB 243,15,16,69,232 ; movss -0x18(%ebp),%xmm0
- DB 15,41,157,232,254,255,255 ; movaps %xmm3,-0x118(%ebp)
- DB 15,41,181,216,254,255,255 ; movaps %xmm6,-0x128(%ebp)
- DB 102,15,127,141,200,254,255,255 ; movdqa %xmm1,-0x138(%ebp)
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 15,88,141,8,255,255,255 ; addps -0xf8(%ebp),%xmm1
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 15,95,225 ; maxps %xmm1,%xmm4
- DB 15,93,165,40,255,255,255 ; minps -0xd8(%ebp),%xmm4
- DB 243,15,91,204 ; cvttps2dq %xmm4,%xmm1
- DB 102,15,254,141,248,254,255,255 ; paddd -0x108(%ebp),%xmm1
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,112,225,229 ; pshufd $0xe5,%xmm1,%xmm4
- DB 102,15,126,231 ; movd %xmm4,%edi
- DB 102,15,112,225,78 ; pshufd $0x4e,%xmm1,%xmm4
- DB 102,15,126,227 ; movd %xmm4,%ebx
- DB 102,15,112,201,231 ; pshufd $0xe7,%xmm1,%xmm1
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 102,15,110,12,138 ; movd (%edx,%ecx,4),%xmm1
- DB 102,15,110,36,154 ; movd (%edx,%ebx,4),%xmm4
- DB 102,15,98,225 ; punpckldq %xmm1,%xmm4
- DB 102,15,110,44,178 ; movd (%edx,%esi,4),%xmm5
- DB 102,15,110,12,186 ; movd (%edx,%edi,4),%xmm1
- DB 102,15,98,233 ; punpckldq %xmm1,%xmm5
- DB 102,15,108,236 ; punpcklqdq %xmm4,%xmm5
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,111,189,56,255,255,255 ; movdqa -0xc8(%ebp),%xmm7
- DB 102,15,219,207 ; pand %xmm7,%xmm1
- DB 15,91,241 ; cvtdq2ps %xmm1,%xmm6
- DB 15,40,157,72,255,255,255 ; movaps -0xb8(%ebp),%xmm3
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,114,209,8 ; psrld $0x8,%xmm1
- DB 102,15,219,207 ; pand %xmm7,%xmm1
- DB 15,91,209 ; cvtdq2ps %xmm1,%xmm2
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,114,212,16 ; psrld $0x10,%xmm4
- DB 102,15,219,231 ; pand %xmm7,%xmm4
- DB 15,91,252 ; cvtdq2ps %xmm4,%xmm7
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 102,15,114,213,24 ; psrld $0x18,%xmm5
- DB 15,91,229 ; cvtdq2ps %xmm5,%xmm4
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,46,193 ; ucomiss %xmm1,%xmm0
- DB 15,40,173,24,255,255,255 ; movaps -0xe8(%ebp),%xmm5
- DB 119,7 ; ja a1a0 <_sk_bilerp_clamp_8888_sse2+0x26e>
- DB 15,40,173,88,255,255,255 ; movaps -0xa8(%ebp),%xmm5
- DB 15,89,109,200 ; mulps -0x38(%ebp),%xmm5
- DB 15,89,245 ; mulps %xmm5,%xmm6
- DB 15,40,77,216 ; movaps -0x28(%ebp),%xmm1
- DB 15,88,206 ; addps %xmm6,%xmm1
- DB 15,41,77,216 ; movaps %xmm1,-0x28(%ebp)
- DB 15,89,213 ; mulps %xmm5,%xmm2
- DB 15,40,141,200,254,255,255 ; movaps -0x138(%ebp),%xmm1
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 15,89,253 ; mulps %xmm5,%xmm7
- DB 15,40,181,216,254,255,255 ; movaps -0x128(%ebp),%xmm6
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,40,157,232,254,255,255 ; movaps -0x118(%ebp),%xmm3
- DB 15,88,221 ; addps %xmm5,%xmm3
- DB 243,15,88,69,236 ; addss -0x14(%ebp),%xmm0
- DB 243,15,16,85,240 ; movss -0x10(%ebp),%xmm2
- DB 15,46,208 ; ucomiss %xmm0,%xmm2
- DB 15,131,211,254,255,255 ; jae a0bf <_sk_bilerp_clamp_8888_sse2+0x18d>
- DB 15,40,165,104,255,255,255 ; movaps -0x98(%ebp),%xmm4
- DB 243,15,88,101,236 ; addss -0x14(%ebp),%xmm4
- DB 243,15,16,69,240 ; movss -0x10(%ebp),%xmm0
- DB 15,46,196 ; ucomiss %xmm4,%xmm0
- DB 15,131,72,254,255,255 ; jae a04e <_sk_bilerp_clamp_8888_sse2+0x11c>
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 131,236,8 ; sub $0x8,%esp
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 81 ; push %ecx
- DB 255,117,8 ; pushl 0x8(%ebp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 129,196,60,1,0,0 ; add $0x13c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 144 ; nop
- DB 144 ; nop
- DB 144 ; nop
-
-PUBLIC _sk_start_pipeline_sse2_lowp
-_sk_start_pipeline_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,228,240 ; and $0xfffffff0,%esp
- DB 131,236,96 ; sub $0x60,%esp
- DB 139,125,12 ; mov 0xc(%ebp),%edi
- DB 59,125,20 ; cmp 0x14(%ebp),%edi
- DB 15,131,198,0,0,0 ; jae a306 <_sk_start_pipeline_sse2_lowp+0xde>
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,117,24 ; mov 0x18(%ebp),%esi
- DB 139,30 ; mov (%esi),%ebx
- DB 131,198,4 ; add $0x4,%esi
- DB 141,64,8 ; lea 0x8(%eax),%eax
- DB 137,68,36,88 ; mov %eax,0x58(%esp)
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 137,124,36,84 ; mov %edi,0x54(%esp)
- DB 57,84,36,88 ; cmp %edx,0x58(%esp)
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 137,223 ; mov %ebx,%edi
- DB 137,243 ; mov %esi,%ebx
- DB 119,78 ; ja a2b7 <_sk_start_pipeline_sse2_lowp+0x8f>
- DB 139,117,8 ; mov 0x8(%ebp),%esi
- DB 15,41,68,36,64 ; movaps %xmm0,0x40(%esp)
- DB 15,41,68,36,48 ; movaps %xmm0,0x30(%esp)
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 139,68,36,84 ; mov 0x54(%esp),%eax
- DB 137,68,36,12 ; mov %eax,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,92,36,4 ; mov %ebx,0x4(%esp)
- DB 199,4,36,0,0,0,0 ; movl $0x0,(%esp)
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 255,215 ; call *%edi
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 141,70,8 ; lea 0x8(%esi),%eax
- DB 131,198,16 ; add $0x10,%esi
- DB 57,214 ; cmp %edx,%esi
- DB 137,198 ; mov %eax,%esi
- DB 118,181 ; jbe a26c <_sk_start_pipeline_sse2_lowp+0x44>
- DB 137,209 ; mov %edx,%ecx
- DB 41,193 ; sub %eax,%ecx
- DB 137,222 ; mov %ebx,%esi
- DB 137,251 ; mov %edi,%ebx
- DB 139,124,36,84 ; mov 0x54(%esp),%edi
- DB 116,55 ; je a2fc <_sk_start_pipeline_sse2_lowp+0xd4>
- DB 15,41,68,36,64 ; movaps %xmm0,0x40(%esp)
- DB 15,41,68,36,48 ; movaps %xmm0,0x30(%esp)
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,68,36,8 ; mov %eax,0x8(%esp)
- DB 137,116,36,4 ; mov %esi,0x4(%esp)
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 255,211 ; call *%ebx
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 71 ; inc %edi
- DB 59,125,20 ; cmp 0x14(%ebp),%edi
- DB 15,133,82,255,255,255 ; jne a258 <_sk_start_pipeline_sse2_lowp+0x30>
- DB 141,101,244 ; lea -0xc(%ebp),%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_just_return_sse2_lowp
-_sk_just_return_sse2_lowp LABEL PROC
- DB 195 ; ret
-
-PUBLIC _sk_seed_shader_sse2_lowp
-_sk_seed_shader_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call a31c <_sk_seed_shader_sse2_lowp+0xd>
- DB 89 ; pop %ecx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 15,40,93,24 ; movaps 0x18(%ebp),%xmm3
- DB 15,40,101,40 ; movaps 0x28(%ebp),%xmm4
- DB 15,40,109,56 ; movaps 0x38(%ebp),%xmm5
- DB 15,40,117,72 ; movaps 0x48(%ebp),%xmm6
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 139,62 ; mov (%esi),%edi
- DB 15,16,7 ; movups (%edi),%xmm0
- DB 15,16,79,16 ; movups 0x10(%edi),%xmm1
- DB 139,125,16 ; mov 0x10(%ebp),%edi
- DB 102,15,110,215 ; movd %edi,%xmm2
- DB 102,15,112,210,0 ; pshufd $0x0,%xmm2,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,88,202 ; addps %xmm2,%xmm1
- DB 102,15,110,210 ; movd %edx,%xmm2
- DB 102,15,112,210,0 ; pshufd $0x0,%xmm2,%xmm2
- DB 15,91,210 ; cvtdq2ps %xmm2,%xmm2
- DB 15,88,145,68,100,0,0 ; addps 0x6444(%ecx),%xmm2
- DB 141,78,8 ; lea 0x8(%esi),%ecx
- DB 15,41,116,36,64 ; movaps %xmm6,0x40(%esp)
- DB 15,41,108,36,48 ; movaps %xmm5,0x30(%esp)
- DB 15,41,100,36,32 ; movaps %xmm4,0x20(%esp)
- DB 15,41,92,36,16 ; movaps %xmm3,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,124,36,8 ; mov %edi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 255,86,4 ; call *0x4(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_matrix_translate_sse2_lowp
-_sk_matrix_translate_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 139,62 ; mov (%esi),%edi
- DB 243,15,16,63 ; movss (%edi),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 243,15,16,127,4 ; movss 0x4(%edi),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 141,126,8 ; lea 0x8(%esi),%edi
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,86,4 ; call *0x4(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_matrix_scale_translate_sse2_lowp
-_sk_matrix_scale_translate_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,57 ; mov (%ecx),%edi
- DB 243,15,16,63 ; movss (%edi),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,89,207 ; mulps %xmm7,%xmm1
- DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 243,15,16,127,8 ; movss 0x8(%edi),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,88,199 ; addps %xmm7,%xmm0
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 243,15,16,127,4 ; movss 0x4(%edi),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,89,223 ; mulps %xmm7,%xmm3
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 243,15,16,127,12 ; movss 0xc(%edi),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 15,88,223 ; addps %xmm7,%xmm3
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 141,121,8 ; lea 0x8(%ecx),%edi
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_matrix_2x3_sse2_lowp
-_sk_matrix_2x3_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,57 ; mov (%ecx),%edi
- DB 243,15,16,7 ; movss (%edi),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 243,15,16,119,8 ; movss 0x8(%edi),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 243,15,16,111,16 ; movss 0x10(%edi),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,89,214 ; mulps %xmm6,%xmm2
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 15,88,245 ; addps %xmm5,%xmm6
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 15,40,233 ; movaps %xmm1,%xmm5
- DB 15,89,232 ; mulps %xmm0,%xmm5
- DB 15,88,238 ; addps %xmm6,%xmm5
- DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 243,15,16,119,12 ; movss 0xc(%edi),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,89,222 ; mulps %xmm6,%xmm3
- DB 15,89,244 ; mulps %xmm4,%xmm6
- DB 243,15,16,87,20 ; movss 0x14(%edi),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,88,242 ; addps %xmm2,%xmm6
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 243,15,16,87,4 ; movss 0x4(%edi),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,88,241 ; addps %xmm1,%xmm6
- DB 15,40,77,40 ; movaps 0x28(%ebp),%xmm1
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,40,101,56 ; movaps 0x38(%ebp),%xmm4
- DB 15,88,218 ; addps %xmm2,%xmm3
- DB 15,40,85,72 ; movaps 0x48(%ebp),%xmm2
- DB 141,121,8 ; lea 0x8(%ecx),%edi
- DB 15,41,84,36,64 ; movaps %xmm2,0x40(%esp)
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%esp)
- DB 15,41,76,36,32 ; movaps %xmm1,0x20(%esp)
- DB 15,40,77,24 ; movaps 0x18(%ebp),%xmm1
- DB 15,41,76,36,16 ; movaps %xmm1,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,40,222 ; movaps %xmm6,%xmm3
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_matrix_perspective_sse2_lowp
-_sk_matrix_perspective_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,112 ; sub $0x70,%esp
- DB 15,40,235 ; movaps %xmm3,%xmm5
- DB 15,41,77,232 ; movaps %xmm1,-0x18(%ebp)
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,9 ; movss (%ecx),%xmm1
- DB 243,15,16,113,4 ; movss 0x4(%ecx),%xmm6
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 243,15,16,97,8 ; movss 0x8(%ecx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 15,40,253 ; movaps %xmm5,%xmm7
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 15,89,242 ; mulps %xmm2,%xmm6
- DB 15,41,85,216 ; movaps %xmm2,-0x28(%ebp)
- DB 15,88,244 ; addps %xmm4,%xmm6
- DB 15,88,252 ; addps %xmm4,%xmm7
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,89,225 ; mulps %xmm1,%xmm4
- DB 15,88,230 ; addps %xmm6,%xmm4
- DB 15,89,77,232 ; mulps -0x18(%ebp),%xmm1
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 243,15,16,113,16 ; movss 0x10(%ecx),%xmm6
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 243,15,16,65,20 ; movss 0x14(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,40,253 ; movaps %xmm5,%xmm7
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 15,89,242 ; mulps %xmm2,%xmm6
- DB 15,88,240 ; addps %xmm0,%xmm6
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 243,15,16,65,12 ; movss 0xc(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,89,208 ; mulps %xmm0,%xmm2
- DB 15,88,242 ; addps %xmm2,%xmm6
- DB 15,89,69,232 ; mulps -0x18(%ebp),%xmm0
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 243,15,16,65,28 ; movss 0x1c(%ecx),%xmm0
- DB 15,198,192,0 ; shufps $0x0,%xmm0,%xmm0
- DB 15,89,232 ; mulps %xmm0,%xmm5
- DB 15,89,69,216 ; mulps -0x28(%ebp),%xmm0
- DB 243,15,16,81,32 ; movss 0x20(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,88,234 ; addps %xmm2,%xmm5
- DB 243,15,16,81,24 ; movss 0x18(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,89,218 ; mulps %xmm2,%xmm3
- DB 15,88,216 ; addps %xmm0,%xmm3
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 15,89,85,232 ; mulps -0x18(%ebp),%xmm2
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 15,83,219 ; rcpps %xmm3,%xmm3
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,40,93,56 ; movaps 0x38(%ebp),%xmm3
- DB 15,83,210 ; rcpps %xmm2,%xmm2
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,89,250 ; mulps %xmm2,%xmm7
- DB 15,40,85,72 ; movaps 0x48(%ebp),%xmm2
- DB 141,120,8 ; lea 0x8(%eax),%edi
- DB 15,41,84,36,64 ; movaps %xmm2,0x40(%esp)
- DB 15,41,92,36,48 ; movaps %xmm3,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,40,214 ; movaps %xmm6,%xmm2
- DB 15,40,223 ; movaps %xmm7,%xmm3
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,112 ; add $0x70,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_uniform_color_sse2_lowp
-_sk_uniform_color_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 139,50 ; mov (%edx),%esi
- DB 15,183,126,18 ; movzwl 0x12(%esi),%edi
- DB 102,15,110,207 ; movd %edi,%xmm1
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 102,15,110,70,16 ; movd 0x10(%esi),%xmm0
- DB 242,15,112,192,0 ; pshuflw $0x0,%xmm0,%xmm0
- DB 102,15,112,192,80 ; pshufd $0x50,%xmm0,%xmm0
- DB 242,15,112,201,0 ; pshuflw $0x0,%xmm1,%xmm1
- DB 102,15,112,201,80 ; pshufd $0x50,%xmm1,%xmm1
- DB 102,15,110,86,20 ; movd 0x14(%esi),%xmm2
- DB 242,15,112,210,0 ; pshuflw $0x0,%xmm2,%xmm2
- DB 102,15,112,210,80 ; pshufd $0x50,%xmm2,%xmm2
- DB 15,183,118,22 ; movzwl 0x16(%esi),%esi
- DB 102,15,110,222 ; movd %esi,%xmm3
- DB 242,15,112,219,0 ; pshuflw $0x0,%xmm3,%xmm3
- DB 102,15,112,219,80 ; pshufd $0x50,%xmm3,%xmm3
- DB 141,114,8 ; lea 0x8(%edx),%esi
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,116,36,4 ; mov %esi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,82,4 ; call *0x4(%edx)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_black_color_sse2_lowp
-_sk_black_color_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 232,0,0,0,0 ; call a73b <_sk_black_color_sse2_lowp+0xe>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,40,77,40 ; movaps 0x28(%ebp),%xmm1
- DB 15,40,85,56 ; movaps 0x38(%ebp),%xmm2
- DB 15,40,93,72 ; movaps 0x48(%ebp),%xmm3
- DB 139,125,12 ; mov 0xc(%ebp),%edi
- DB 141,95,4 ; lea 0x4(%edi),%ebx
- DB 15,41,92,36,64 ; movaps %xmm3,0x40(%esp)
- DB 15,41,84,36,48 ; movaps %xmm2,0x30(%esp)
- DB 15,41,76,36,32 ; movaps %xmm1,0x20(%esp)
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,92,36,4 ; mov %ebx,0x4(%esp)
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 15,40,152,53,103,0,0 ; movaps 0x6735(%eax),%xmm3
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,23 ; call *(%edi)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_white_color_sse2_lowp
-_sk_white_color_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 232,0,0,0,0 ; call a7a6 <_sk_white_color_sse2_lowp+0xe>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,40,77,40 ; movaps 0x28(%ebp),%xmm1
- DB 15,40,85,56 ; movaps 0x38(%ebp),%xmm2
- DB 15,40,93,72 ; movaps 0x48(%ebp),%xmm3
- DB 139,125,12 ; mov 0xc(%ebp),%edi
- DB 141,95,4 ; lea 0x4(%edi),%ebx
- DB 15,41,92,36,64 ; movaps %xmm3,0x40(%esp)
- DB 15,41,84,36,48 ; movaps %xmm2,0x30(%esp)
- DB 15,41,76,36,32 ; movaps %xmm1,0x20(%esp)
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,92,36,4 ; mov %ebx,0x4(%esp)
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 15,40,128,202,102,0,0 ; movaps 0x66ca(%eax),%xmm0
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 255,23 ; call *(%edi)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_set_rgb_sse2_lowp
-_sk_set_rgb_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call a810 <_sk_set_rgb_sse2_lowp+0xd>
- DB 94 ; pop %esi
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,57 ; mov (%ecx),%edi
- DB 243,15,16,150,108,103,0,0 ; movss 0x676c(%esi),%xmm2
- DB 243,15,16,7 ; movss (%edi),%xmm0
- DB 243,15,89,194 ; mulss %xmm2,%xmm0
- DB 243,15,16,142,96,103,0,0 ; movss 0x6760(%esi),%xmm1
- DB 243,15,88,193 ; addss %xmm1,%xmm0
- DB 243,15,44,240 ; cvttss2si %xmm0,%esi
- DB 102,15,110,198 ; movd %esi,%xmm0
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 243,15,16,127,4 ; movss 0x4(%edi),%xmm7
- DB 243,15,89,250 ; mulss %xmm2,%xmm7
- DB 243,15,88,249 ; addss %xmm1,%xmm7
- DB 243,15,89,87,8 ; mulss 0x8(%edi),%xmm2
- DB 243,15,44,255 ; cvttss2si %xmm7,%edi
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 242,15,112,192,0 ; pshuflw $0x0,%xmm0,%xmm0
- DB 102,15,112,192,80 ; pshufd $0x50,%xmm0,%xmm0
- DB 243,15,88,209 ; addss %xmm1,%xmm2
- DB 102,15,110,207 ; movd %edi,%xmm1
- DB 242,15,112,201,0 ; pshuflw $0x0,%xmm1,%xmm1
- DB 102,15,112,201,80 ; pshufd $0x50,%xmm1,%xmm1
- DB 243,15,44,250 ; cvttss2si %xmm2,%edi
- DB 102,15,110,215 ; movd %edi,%xmm2
- DB 242,15,112,210,0 ; pshuflw $0x0,%xmm2,%xmm2
- DB 102,15,112,210,80 ; pshufd $0x50,%xmm2,%xmm2
- DB 141,121,8 ; lea 0x8(%ecx),%edi
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_clamp_a_sse2_lowp
-_sk_clamp_a_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call a8d4 <_sk_clamp_a_sse2_lowp+0xd>
- DB 94 ; pop %esi
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 102,15,111,166,172,101,0,0 ; movdqa 0x65ac(%esi),%xmm4
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,239,236 ; pxor %xmm4,%xmm5
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,15,239,244 ; pxor %xmm4,%xmm6
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,15,101,253 ; pcmpgtw %xmm5,%xmm7
- DB 102,15,219,199 ; pand %xmm7,%xmm0
- DB 102,15,223,251 ; pandn %xmm3,%xmm7
- DB 102,15,235,199 ; por %xmm7,%xmm0
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,239,236 ; pxor %xmm4,%xmm5
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,15,101,253 ; pcmpgtw %xmm5,%xmm7
- DB 15,40,109,24 ; movaps 0x18(%ebp),%xmm5
- DB 102,15,219,207 ; pand %xmm7,%xmm1
- DB 102,15,223,251 ; pandn %xmm3,%xmm7
- DB 102,15,235,207 ; por %xmm7,%xmm1
- DB 15,40,125,40 ; movaps 0x28(%ebp),%xmm7
- DB 102,15,239,226 ; pxor %xmm2,%xmm4
- DB 102,15,101,244 ; pcmpgtw %xmm4,%xmm6
- DB 15,40,101,56 ; movaps 0x38(%ebp),%xmm4
- DB 102,15,219,214 ; pand %xmm6,%xmm2
- DB 102,15,223,243 ; pandn %xmm3,%xmm6
- DB 102,15,235,214 ; por %xmm6,%xmm2
- DB 15,40,117,72 ; movaps 0x48(%ebp),%xmm6
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 15,41,116,36,64 ; movaps %xmm6,0x40(%esp)
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%esp)
- DB 15,41,124,36,32 ; movaps %xmm7,0x20(%esp)
- DB 15,41,108,36,16 ; movaps %xmm5,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_clamp_a_dst_sse2_lowp
-_sk_clamp_a_dst_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,128,0,0,0 ; sub $0x80,%esp
- DB 15,41,93,200 ; movaps %xmm3,-0x38(%ebp)
- DB 15,41,85,216 ; movaps %xmm2,-0x28(%ebp)
- DB 15,41,77,232 ; movaps %xmm1,-0x18(%ebp)
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 232,0,0,0,0 ; call a99b <_sk_clamp_a_dst_sse2_lowp+0x1f>
- DB 88 ; pop %eax
- DB 102,15,111,101,72 ; movdqa 0x48(%ebp),%xmm4
- DB 102,15,111,77,24 ; movdqa 0x18(%ebp),%xmm1
- DB 102,15,111,144,229,100,0,0 ; movdqa 0x64e5(%eax),%xmm2
- DB 102,15,111,249 ; movdqa %xmm1,%xmm7
- DB 102,15,239,250 ; pxor %xmm2,%xmm7
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,239,242 ; pxor %xmm2,%xmm6
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,15,101,239 ; pcmpgtw %xmm7,%xmm5
- DB 102,15,219,205 ; pand %xmm5,%xmm1
- DB 102,15,223,236 ; pandn %xmm4,%xmm5
- DB 102,15,235,233 ; por %xmm1,%xmm5
- DB 102,15,111,77,40 ; movdqa 0x28(%ebp),%xmm1
- DB 102,15,111,249 ; movdqa %xmm1,%xmm7
- DB 102,15,239,250 ; pxor %xmm2,%xmm7
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,15,101,199 ; pcmpgtw %xmm7,%xmm0
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 102,15,223,196 ; pandn %xmm4,%xmm0
- DB 102,15,235,193 ; por %xmm1,%xmm0
- DB 102,15,111,77,56 ; movdqa 0x38(%ebp),%xmm1
- DB 102,15,239,209 ; pxor %xmm1,%xmm2
- DB 102,15,101,242 ; pcmpgtw %xmm2,%xmm6
- DB 102,15,219,206 ; pand %xmm6,%xmm1
- DB 102,15,223,244 ; pandn %xmm4,%xmm6
- DB 102,15,235,241 ; por %xmm1,%xmm6
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,100,36,64 ; movdqa %xmm4,0x40(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 102,15,127,116,36,48 ; movdqa %xmm6,0x30(%esp)
- DB 102,15,127,68,36,32 ; movdqa %xmm0,0x20(%esp)
- DB 102,15,127,108,36,16 ; movdqa %xmm5,0x10(%esp)
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 15,40,77,232 ; movaps -0x18(%ebp),%xmm1
- DB 15,40,85,216 ; movaps -0x28(%ebp),%xmm2
- DB 15,40,93,200 ; movaps -0x38(%ebp),%xmm3
- DB 255,22 ; call *(%esi)
- DB 129,196,128,0,0,0 ; add $0x80,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_premul_sse2_lowp
-_sk_premul_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call aa6a <_sk_premul_sse2_lowp+0xd>
- DB 90 ; pop %edx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,15,111,186,6,100,0,0 ; movdqa 0x6406(%edx),%xmm7
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,15,253,207 ; paddw %xmm7,%xmm1
- DB 102,15,213,211 ; pmullw %xmm3,%xmm2
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 139,85,12 ; mov 0xc(%ebp),%edx
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 141,122,4 ; lea 0x4(%edx),%edi
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,18 ; call *(%edx)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_premul_dst_sse2_lowp
-_sk_premul_dst_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,96 ; sub $0x60,%esp
- DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 232,0,0,0,0 ; call aaff <_sk_premul_dst_sse2_lowp+0x1a>
- DB 88 ; pop %eax
- DB 102,15,111,101,72 ; movdqa 0x48(%ebp),%xmm4
- DB 102,15,111,109,24 ; movdqa 0x18(%ebp),%xmm5
- DB 102,15,213,236 ; pmullw %xmm4,%xmm5
- DB 102,15,111,176,113,99,0,0 ; movdqa 0x6371(%eax),%xmm6
- DB 102,15,253,238 ; paddw %xmm6,%xmm5
- DB 102,15,111,125,40 ; movdqa 0x28(%ebp),%xmm7
- DB 102,15,213,252 ; pmullw %xmm4,%xmm7
- DB 102,15,253,254 ; paddw %xmm6,%xmm7
- DB 102,15,111,69,56 ; movdqa 0x38(%ebp),%xmm0
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,15,253,198 ; paddw %xmm6,%xmm0
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,100,36,64 ; movdqa %xmm4,0x40(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 102,15,127,68,36,48 ; movdqa %xmm0,0x30(%esp)
- DB 102,15,127,124,36,32 ; movdqa %xmm7,0x20(%esp)
- DB 102,15,127,108,36,16 ; movdqa %xmm5,0x10(%esp)
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 255,22 ; call *(%esi)
- DB 131,196,96 ; add $0x60,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_force_opaque_sse2_lowp
-_sk_force_opaque_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 232,0,0,0,0 ; call ab9d <_sk_force_opaque_sse2_lowp+0xe>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 15,40,93,24 ; movaps 0x18(%ebp),%xmm3
- DB 15,40,101,40 ; movaps 0x28(%ebp),%xmm4
- DB 15,40,109,56 ; movaps 0x38(%ebp),%xmm5
- DB 15,40,117,72 ; movaps 0x48(%ebp),%xmm6
- DB 139,125,12 ; mov 0xc(%ebp),%edi
- DB 141,95,4 ; lea 0x4(%edi),%ebx
- DB 15,41,116,36,64 ; movaps %xmm6,0x40(%esp)
- DB 15,41,108,36,48 ; movaps %xmm5,0x30(%esp)
- DB 15,41,100,36,32 ; movaps %xmm4,0x20(%esp)
- DB 15,41,92,36,16 ; movaps %xmm3,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,92,36,4 ; mov %ebx,0x4(%esp)
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 15,40,152,211,98,0,0 ; movaps 0x62d3(%eax),%xmm3
- DB 255,23 ; call *(%edi)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_force_opaque_dst_sse2_lowp
-_sk_force_opaque_dst_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 232,0,0,0,0 ; call abff <_sk_force_opaque_dst_sse2_lowp+0xe>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 139,125,12 ; mov 0xc(%ebp),%edi
- DB 141,95,4 ; lea 0x4(%edi),%ebx
- DB 15,40,184,113,98,0,0 ; movaps 0x6271(%eax),%xmm7
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,92,36,4 ; mov %ebx,0x4(%esp)
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 255,23 ; call *(%edi)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_swap_rb_sse2_lowp
-_sk_swap_rb_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 15,40,194 ; movaps %xmm2,%xmm0
- DB 15,40,212 ; movaps %xmm4,%xmm2
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_move_src_dst_sse2_lowp
-_sk_move_src_dst_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 15,41,92,36,64 ; movaps %xmm3,0x40(%esp)
- DB 15,41,84,36,48 ; movaps %xmm2,0x30(%esp)
- DB 15,41,76,36,32 ; movaps %xmm1,0x20(%esp)
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_move_dst_src_sse2_lowp
-_sk_move_dst_src_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,40,77,40 ; movaps 0x28(%ebp),%xmm1
- DB 15,40,85,56 ; movaps 0x38(%ebp),%xmm2
- DB 15,40,93,72 ; movaps 0x48(%ebp),%xmm3
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 15,41,92,36,64 ; movaps %xmm3,0x40(%esp)
- DB 15,41,84,36,48 ; movaps %xmm2,0x30(%esp)
- DB 15,41,76,36,32 ; movaps %xmm1,0x20(%esp)
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_invert_sse2_lowp
-_sk_invert_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call ad4e <_sk_invert_sse2_lowp+0xd>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 102,15,111,160,34,97,0,0 ; movdqa 0x6122(%eax),%xmm4
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,249,232 ; psubw %xmm0,%xmm5
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,249,241 ; psubw %xmm1,%xmm6
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,249,250 ; psubw %xmm2,%xmm7
- DB 15,40,69,56 ; movaps 0x38(%ebp),%xmm0
- DB 102,15,249,227 ; psubw %xmm3,%xmm4
- DB 15,40,77,72 ; movaps 0x48(%ebp),%xmm1
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,120,4 ; lea 0x4(%eax),%edi
- DB 15,41,76,36,64 ; movaps %xmm1,0x40(%esp)
- DB 15,41,68,36,48 ; movaps %xmm0,0x30(%esp)
- DB 15,40,69,40 ; movaps 0x28(%ebp),%xmm0
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 102,15,111,215 ; movdqa %xmm7,%xmm2
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 255,16 ; call *(%eax)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_clear_sse2_lowp
-_sk_clear_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,40,77,40 ; movaps 0x28(%ebp),%xmm1
- DB 15,40,85,56 ; movaps 0x38(%ebp),%xmm2
- DB 15,40,93,72 ; movaps 0x48(%ebp),%xmm3
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 15,41,92,36,64 ; movaps %xmm3,0x40(%esp)
- DB 15,41,84,36,48 ; movaps %xmm2,0x30(%esp)
- DB 15,41,76,36,32 ; movaps %xmm1,0x20(%esp)
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_srcatop_sse2_lowp
-_sk_srcatop_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call ae46 <_sk_srcatop_sse2_lowp+0x19>
- DB 88 ; pop %eax
- DB 102,15,111,117,72 ; movdqa 0x48(%ebp),%xmm6
- DB 102,15,213,206 ; pmullw %xmm6,%xmm1
- DB 102,15,111,128,42,96,0,0 ; movdqa 0x602a(%eax),%xmm0
- DB 102,15,253,200 ; paddw %xmm0,%xmm1
- DB 102,15,213,214 ; pmullw %xmm6,%xmm2
- DB 102,15,253,208 ; paddw %xmm0,%xmm2
- DB 102,15,213,238 ; pmullw %xmm6,%xmm5
- DB 102,15,253,232 ; paddw %xmm0,%xmm5
- DB 102,15,111,230 ; movdqa %xmm6,%xmm4
- DB 102,15,213,224 ; pmullw %xmm0,%xmm4
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,249,195 ; psubw %xmm3,%xmm0
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,213,93,24 ; pmullw 0x18(%ebp),%xmm3
- DB 102,15,253,203 ; paddw %xmm3,%xmm1
- DB 102,15,111,93,40 ; movdqa 0x28(%ebp),%xmm3
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,213,251 ; pmullw %xmm3,%xmm7
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 102,15,111,125,56 ; movdqa 0x38(%ebp),%xmm7
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,253,232 ; paddw %xmm0,%xmm5
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,116,36,64 ; movdqa %xmm6,0x40(%esp)
- DB 102,15,127,124,36,48 ; movdqa %xmm7,0x30(%esp)
- DB 102,15,127,92,36,32 ; movdqa %xmm3,0x20(%esp)
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,111,213 ; movdqa %xmm5,%xmm2
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_dstatop_sse2_lowp
-_sk_dstatop_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call af1a <_sk_dstatop_sse2_lowp+0xd>
- DB 88 ; pop %eax
- DB 102,15,111,101,40 ; movdqa 0x28(%ebp),%xmm4
- DB 102,15,111,117,24 ; movdqa 0x18(%ebp),%xmm6
- DB 102,15,213,243 ; pmullw %xmm3,%xmm6
- DB 102,15,111,184,86,95,0,0 ; movdqa 0x5f56(%eax),%xmm7
- DB 102,15,253,247 ; paddw %xmm7,%xmm6
- DB 102,15,213,227 ; pmullw %xmm3,%xmm4
- DB 102,15,253,231 ; paddw %xmm7,%xmm4
- DB 102,15,111,109,56 ; movdqa 0x38(%ebp),%xmm5
- DB 102,15,213,235 ; pmullw %xmm3,%xmm5
- DB 102,15,253,239 ; paddw %xmm7,%xmm5
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,15,253,223 ; paddw %xmm7,%xmm3
- DB 102,15,249,125,72 ; psubw 0x48(%ebp),%xmm7
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,253,198 ; paddw %xmm6,%xmm0
- DB 102,15,213,207 ; pmullw %xmm7,%xmm1
- DB 102,15,253,204 ; paddw %xmm4,%xmm1
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,15,253,213 ; paddw %xmm5,%xmm2
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 15,40,101,72 ; movaps 0x48(%ebp),%xmm4
- DB 15,41,100,36,64 ; movaps %xmm4,0x40(%esp)
- DB 15,40,101,56 ; movaps 0x38(%ebp),%xmm4
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%esp)
- DB 15,40,101,40 ; movaps 0x28(%ebp),%xmm4
- DB 15,41,100,36,32 ; movaps %xmm4,0x20(%esp)
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_srcin_sse2_lowp
-_sk_srcin_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call afdb <_sk_srcin_sse2_lowp+0xd>
- DB 94 ; pop %esi
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 102,15,111,117,72 ; movdqa 0x48(%ebp),%xmm6
- DB 102,15,213,198 ; pmullw %xmm6,%xmm0
- DB 102,15,111,190,149,94,0,0 ; movdqa 0x5e95(%esi),%xmm7
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,15,213,206 ; pmullw %xmm6,%xmm1
- DB 102,15,253,207 ; paddw %xmm7,%xmm1
- DB 102,15,213,214 ; pmullw %xmm6,%xmm2
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 102,15,213,222 ; pmullw %xmm6,%xmm3
- DB 102,15,253,223 ; paddw %xmm7,%xmm3
- DB 15,40,125,56 ; movaps 0x38(%ebp),%xmm7
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,116,36,64 ; movdqa %xmm6,0x40(%esp)
- DB 15,41,124,36,48 ; movaps %xmm7,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_dstin_sse2_lowp
-_sk_dstin_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call b072 <_sk_dstin_sse2_lowp+0xd>
- DB 88 ; pop %eax
- DB 102,15,111,85,56 ; movdqa 0x38(%ebp),%xmm2
- DB 102,15,111,109,40 ; movdqa 0x28(%ebp),%xmm5
- DB 102,15,111,117,24 ; movdqa 0x18(%ebp),%xmm6
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,15,111,184,254,93,0,0 ; movdqa 0x5dfe(%eax),%xmm7
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,15,253,207 ; paddw %xmm7,%xmm1
- DB 102,15,213,211 ; pmullw %xmm3,%xmm2
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 102,15,111,101,72 ; movdqa 0x48(%ebp),%xmm4
- DB 102,15,213,220 ; pmullw %xmm4,%xmm3
- DB 102,15,253,223 ; paddw %xmm7,%xmm3
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,100,36,64 ; movdqa %xmm4,0x40(%esp)
- DB 15,40,101,56 ; movaps 0x38(%ebp),%xmm4
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%esp)
- DB 102,15,127,108,36,32 ; movdqa %xmm5,0x20(%esp)
- DB 102,15,127,116,36,16 ; movdqa %xmm6,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_srcout_sse2_lowp
-_sk_srcout_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call b11a <_sk_srcout_sse2_lowp+0xd>
- DB 94 ; pop %esi
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 102,15,111,109,72 ; movdqa 0x48(%ebp),%xmm5
- DB 102,15,111,182,86,93,0,0 ; movdqa 0x5d56(%esi),%xmm6
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,15,249,253 ; psubw %xmm5,%xmm7
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,213,207 ; pmullw %xmm7,%xmm1
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 15,40,125,40 ; movaps 0x28(%ebp),%xmm7
- DB 102,15,253,198 ; paddw %xmm6,%xmm0
- DB 102,15,253,206 ; paddw %xmm6,%xmm1
- DB 102,15,253,214 ; paddw %xmm6,%xmm2
- DB 102,15,253,222 ; paddw %xmm6,%xmm3
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,108,36,64 ; movdqa %xmm5,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,124,36,32 ; movaps %xmm7,0x20(%esp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_dstout_sse2_lowp
-_sk_dstout_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 232,0,0,0,0 ; call b1bd <_sk_dstout_sse2_lowp+0x11>
- DB 88 ; pop %eax
- DB 102,15,111,109,56 ; movdqa 0x38(%ebp),%xmm5
- DB 102,15,111,117,24 ; movdqa 0x18(%ebp),%xmm6
- DB 102,15,111,184,179,92,0,0 ; movdqa 0x5cb3(%eax),%xmm7
- DB 102,15,111,223 ; movdqa %xmm7,%xmm3
- DB 102,15,249,216 ; psubw %xmm0,%xmm3
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,213,198 ; pmullw %xmm6,%xmm0
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,213,77,40 ; pmullw 0x28(%ebp),%xmm1
- DB 102,15,253,207 ; paddw %xmm7,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,213,213 ; pmullw %xmm5,%xmm2
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 102,15,111,101,72 ; movdqa 0x48(%ebp),%xmm4
- DB 102,15,213,220 ; pmullw %xmm4,%xmm3
- DB 102,15,253,223 ; paddw %xmm7,%xmm3
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,100,36,64 ; movdqa %xmm4,0x40(%esp)
- DB 102,15,127,108,36,48 ; movdqa %xmm5,0x30(%esp)
- DB 15,40,101,40 ; movaps 0x28(%ebp),%xmm4
- DB 15,41,100,36,32 ; movaps %xmm4,0x20(%esp)
- DB 102,15,127,116,36,16 ; movdqa %xmm6,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_srcover_sse2_lowp
-_sk_srcover_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,96 ; sub $0x60,%esp
- DB 15,41,85,232 ; movaps %xmm2,-0x18(%ebp)
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 232,0,0,0,0 ; call b279 <_sk_srcover_sse2_lowp+0x19>
- DB 88 ; pop %eax
- DB 102,15,111,136,247,91,0,0 ; movdqa 0x5bf7(%eax),%xmm1
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,249,195 ; psubw %xmm3,%xmm0
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,213,125,24 ; pmullw 0x18(%ebp),%xmm7
- DB 102,15,253,249 ; paddw %xmm1,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,253,231 ; paddw %xmm7,%xmm4
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,213,109,40 ; pmullw 0x28(%ebp),%xmm5
- DB 102,15,253,233 ; paddw %xmm1,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,253,213 ; paddw %xmm5,%xmm2
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,111,125,56 ; movdqa 0x38(%ebp),%xmm7
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,213,247 ; pmullw %xmm7,%xmm6
- DB 102,15,253,241 ; paddw %xmm1,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,111,85,232 ; movdqa -0x18(%ebp),%xmm2
- DB 102,15,253,214 ; paddw %xmm6,%xmm2
- DB 102,15,111,117,72 ; movdqa 0x48(%ebp),%xmm6
- DB 102,15,213,198 ; pmullw %xmm6,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,116,36,64 ; movdqa %xmm6,0x40(%esp)
- DB 102,15,127,124,36,48 ; movdqa %xmm7,0x30(%esp)
- DB 15,40,69,40 ; movaps 0x28(%ebp),%xmm0
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 255,22 ; call *(%esi)
- DB 131,196,96 ; add $0x60,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_dstover_sse2_lowp
-_sk_dstover_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call b349 <_sk_dstover_sse2_lowp+0xd>
- DB 95 ; pop %edi
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 102,15,111,101,56 ; movdqa 0x38(%ebp),%xmm4
- DB 102,15,111,109,72 ; movdqa 0x48(%ebp),%xmm5
- DB 102,15,111,183,39,91,0,0 ; movdqa 0x5b27(%edi),%xmm6
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,15,249,253 ; psubw %xmm5,%xmm7
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,213,207 ; pmullw %xmm7,%xmm1
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,15,111,125,40 ; movdqa 0x28(%ebp),%xmm7
- DB 102,15,253,198 ; paddw %xmm6,%xmm0
- DB 102,15,253,206 ; paddw %xmm6,%xmm1
- DB 102,15,253,214 ; paddw %xmm6,%xmm2
- DB 102,15,253,222 ; paddw %xmm6,%xmm3
- DB 102,15,111,117,24 ; movdqa 0x18(%ebp),%xmm6
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,253,198 ; paddw %xmm6,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,253,207 ; paddw %xmm7,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,253,212 ; paddw %xmm4,%xmm2
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,253,221 ; paddw %xmm5,%xmm3
- DB 141,120,4 ; lea 0x4(%eax),%edi
- DB 102,15,127,108,36,64 ; movdqa %xmm5,0x40(%esp)
- DB 102,15,127,100,36,48 ; movdqa %xmm4,0x30(%esp)
- DB 102,15,127,124,36,32 ; movdqa %xmm7,0x20(%esp)
- DB 102,15,127,116,36,16 ; movdqa %xmm6,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 255,16 ; call *(%eax)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_modulate_sse2_lowp
-_sk_modulate_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call b3fe <_sk_modulate_sse2_lowp+0xd>
- DB 88 ; pop %eax
- DB 102,15,111,109,40 ; movdqa 0x28(%ebp),%xmm5
- DB 102,15,111,117,24 ; movdqa 0x18(%ebp),%xmm6
- DB 102,15,213,198 ; pmullw %xmm6,%xmm0
- DB 102,15,111,184,114,90,0,0 ; movdqa 0x5a72(%eax),%xmm7
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,253,207 ; paddw %xmm7,%xmm1
- DB 102,15,213,85,56 ; pmullw 0x38(%ebp),%xmm2
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 102,15,111,101,72 ; movdqa 0x48(%ebp),%xmm4
- DB 102,15,213,220 ; pmullw %xmm4,%xmm3
- DB 102,15,253,223 ; paddw %xmm7,%xmm3
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,100,36,64 ; movdqa %xmm4,0x40(%esp)
- DB 15,40,101,56 ; movaps 0x38(%ebp),%xmm4
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%esp)
- DB 102,15,127,108,36,32 ; movdqa %xmm5,0x20(%esp)
- DB 102,15,127,116,36,16 ; movdqa %xmm6,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_multiply_sse2_lowp
-_sk_multiply_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call b49a <_sk_multiply_sse2_lowp+0xd>
- DB 88 ; pop %eax
- DB 102,15,111,109,24 ; movdqa 0x18(%ebp),%xmm5
- DB 102,15,111,160,214,89,0,0 ; movdqa 0x59d6(%eax),%xmm4
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,15,253,244 ; paddw %xmm4,%xmm6
- DB 102,15,249,117,72 ; psubw 0x48(%ebp),%xmm6
- DB 102,15,213,198 ; pmullw %xmm6,%xmm0
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,249,243 ; psubw %xmm3,%xmm6
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,15,111,125,40 ; movdqa 0x28(%ebp),%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,15,111,109,72 ; movdqa 0x48(%ebp),%xmm5
- DB 102,15,249,253 ; psubw %xmm5,%xmm7
- DB 102,15,213,207 ; pmullw %xmm7,%xmm1
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,15,213,125,40 ; pmullw 0x28(%ebp),%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,15,253,207 ; paddw %xmm7,%xmm1
- DB 102,15,111,125,56 ; movdqa 0x38(%ebp),%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,15,249,253 ; psubw %xmm5,%xmm7
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,15,213,125,56 ; pmullw 0x38(%ebp),%xmm7
- DB 102,15,253,252 ; paddw %xmm4,%xmm7
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 102,15,213,220 ; pmullw %xmm4,%xmm3
- DB 102,15,253,220 ; paddw %xmm4,%xmm3
- DB 102,15,213,245 ; pmullw %xmm5,%xmm6
- DB 102,15,253,222 ; paddw %xmm6,%xmm3
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,108,36,64 ; movdqa %xmm5,0x40(%esp)
- DB 15,40,101,56 ; movaps 0x38(%ebp),%xmm4
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%esp)
- DB 15,40,101,40 ; movaps 0x28(%ebp),%xmm4
- DB 15,41,100,36,32 ; movaps %xmm4,0x20(%esp)
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_plus__sse2_lowp
-_sk_plus__sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,96 ; sub $0x60,%esp
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call b59b <_sk_plus__sse2_lowp+0x15>
- DB 88 ; pop %eax
- DB 102,15,253,77,24 ; paddw 0x18(%ebp),%xmm1
- DB 102,15,111,168,245,88,0,0 ; movdqa 0x58f5(%eax),%xmm5
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,217,197 ; psubusw %xmm5,%xmm0
- DB 102,15,127,109,232 ; movdqa %xmm5,-0x18(%ebp)
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,117,199 ; pcmpeqw %xmm7,%xmm0
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 102,15,111,176,213,88,0,0 ; movdqa 0x58d5(%eax),%xmm6
- DB 102,15,223,198 ; pandn %xmm6,%xmm0
- DB 102,15,235,193 ; por %xmm1,%xmm0
- DB 102,15,253,101,40 ; paddw 0x28(%ebp),%xmm4
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,217,205 ; psubusw %xmm5,%xmm1
- DB 102,15,117,207 ; pcmpeqw %xmm7,%xmm1
- DB 102,15,219,225 ; pand %xmm1,%xmm4
- DB 102,15,223,206 ; pandn %xmm6,%xmm1
- DB 102,15,235,204 ; por %xmm4,%xmm1
- DB 102,15,253,85,56 ; paddw 0x38(%ebp),%xmm2
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 102,15,217,229 ; psubusw %xmm5,%xmm4
- DB 102,15,117,231 ; pcmpeqw %xmm7,%xmm4
- DB 102,15,219,212 ; pand %xmm4,%xmm2
- DB 102,15,223,230 ; pandn %xmm6,%xmm4
- DB 102,15,235,226 ; por %xmm2,%xmm4
- DB 102,15,111,85,72 ; movdqa 0x48(%ebp),%xmm2
- DB 102,15,253,218 ; paddw %xmm2,%xmm3
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,217,109,232 ; psubusw -0x18(%ebp),%xmm5
- DB 102,15,117,239 ; pcmpeqw %xmm7,%xmm5
- DB 102,15,219,221 ; pand %xmm5,%xmm3
- DB 102,15,223,238 ; pandn %xmm6,%xmm5
- DB 102,15,235,235 ; por %xmm3,%xmm5
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,84,36,64 ; movdqa %xmm2,0x40(%esp)
- DB 15,40,85,56 ; movaps 0x38(%ebp),%xmm2
- DB 15,41,84,36,48 ; movaps %xmm2,0x30(%esp)
- DB 15,40,85,40 ; movaps 0x28(%ebp),%xmm2
- DB 15,41,84,36,32 ; movaps %xmm2,0x20(%esp)
- DB 15,40,85,24 ; movaps 0x18(%ebp),%xmm2
- DB 15,41,84,36,16 ; movaps %xmm2,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 255,22 ; call *(%esi)
- DB 131,196,96 ; add $0x60,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_screen_sse2_lowp
-_sk_screen_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call b693 <_sk_screen_sse2_lowp+0x15>
- DB 88 ; pop %eax
- DB 102,15,111,109,40 ; movdqa 0x28(%ebp),%xmm5
- DB 102,15,111,117,24 ; movdqa 0x18(%ebp),%xmm6
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,213,206 ; pmullw %xmm6,%xmm1
- DB 102,15,111,176,221,87,0,0 ; movdqa 0x57dd(%eax),%xmm6
- DB 102,15,253,206 ; paddw %xmm6,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,253,204 ; paddw %xmm4,%xmm1
- DB 102,15,213,229 ; pmullw %xmm5,%xmm4
- DB 102,15,253,230 ; paddw %xmm6,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,249,204 ; psubw %xmm4,%xmm1
- DB 102,15,111,125,56 ; movdqa 0x38(%ebp),%xmm7
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,253,226 ; paddw %xmm2,%xmm4
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,15,253,214 ; paddw %xmm6,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,249,226 ; psubw %xmm2,%xmm4
- DB 102,15,111,85,72 ; movdqa 0x48(%ebp),%xmm2
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,253,235 ; paddw %xmm3,%xmm5
- DB 102,15,213,218 ; pmullw %xmm2,%xmm3
- DB 102,15,253,222 ; paddw %xmm6,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,249,235 ; psubw %xmm3,%xmm5
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,84,36,64 ; movdqa %xmm2,0x40(%esp)
- DB 102,15,127,124,36,48 ; movdqa %xmm7,0x30(%esp)
- DB 15,40,85,40 ; movaps 0x28(%ebp),%xmm2
- DB 15,41,84,36,32 ; movaps %xmm2,0x20(%esp)
- DB 15,40,85,24 ; movaps 0x18(%ebp),%xmm2
- DB 15,41,84,36,16 ; movaps %xmm2,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_xor__sse2_lowp
-_sk_xor__sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,96 ; sub $0x60,%esp
- DB 102,15,127,93,232 ; movdqa %xmm3,-0x18(%ebp)
- DB 232,0,0,0,0 ; call b773 <_sk_xor__sse2_lowp+0x12>
- DB 88 ; pop %eax
- DB 102,15,111,176,253,86,0,0 ; movdqa 0x56fd(%eax),%xmm6
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,15,249,125,72 ; psubw 0x48(%ebp),%xmm7
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,15,249,235 ; psubw %xmm3,%xmm5
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 102,15,213,93,24 ; pmullw 0x18(%ebp),%xmm3
- DB 102,15,253,195 ; paddw %xmm3,%xmm0
- DB 102,15,213,207 ; pmullw %xmm7,%xmm1
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 102,15,213,93,40 ; pmullw 0x28(%ebp),%xmm3
- DB 102,15,253,203 ; paddw %xmm3,%xmm1
- DB 102,15,213,215 ; pmullw %xmm7,%xmm2
- DB 102,15,111,93,56 ; movdqa 0x38(%ebp),%xmm3
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,213,227 ; pmullw %xmm3,%xmm4
- DB 102,15,253,212 ; paddw %xmm4,%xmm2
- DB 102,15,213,125,232 ; pmullw -0x18(%ebp),%xmm7
- DB 102,15,111,101,72 ; movdqa 0x48(%ebp),%xmm4
- DB 102,15,213,236 ; pmullw %xmm4,%xmm5
- DB 102,15,253,239 ; paddw %xmm7,%xmm5
- DB 102,15,253,198 ; paddw %xmm6,%xmm0
- DB 102,15,253,206 ; paddw %xmm6,%xmm1
- DB 102,15,253,214 ; paddw %xmm6,%xmm2
- DB 102,15,253,238 ; paddw %xmm6,%xmm5
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,100,36,64 ; movdqa %xmm4,0x40(%esp)
- DB 102,15,127,92,36,48 ; movdqa %xmm3,0x30(%esp)
- DB 15,40,93,40 ; movaps 0x28(%ebp),%xmm3
- DB 15,41,92,36,32 ; movaps %xmm3,0x20(%esp)
- DB 15,40,93,24 ; movaps 0x18(%ebp),%xmm3
- DB 15,41,92,36,16 ; movaps %xmm3,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 255,22 ; call *(%esi)
- DB 131,196,96 ; add $0x60,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_darken_sse2_lowp
-_sk_darken_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,144,0,0,0 ; sub $0x90,%esp
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,15,127,125,216 ; movdqa %xmm7,-0x28(%ebp)
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call b868 <_sk_darken_sse2_lowp+0x25>
- DB 88 ; pop %eax
- DB 102,15,111,117,72 ; movdqa 0x48(%ebp),%xmm6
- DB 102,15,111,109,24 ; movdqa 0x18(%ebp),%xmm5
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,213,206 ; pmullw %xmm6,%xmm1
- DB 102,15,111,222 ; movdqa %xmm6,%xmm3
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,111,184,24,86,0,0 ; movdqa 0x5618(%eax),%xmm7
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,239,247 ; pxor %xmm7,%xmm6
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,239,239 ; pxor %xmm7,%xmm5
- DB 102,15,101,238 ; pcmpgtw %xmm6,%xmm5
- DB 102,15,219,197 ; pand %xmm5,%xmm0
- DB 102,15,223,233 ; pandn %xmm1,%xmm5
- DB 102,15,235,232 ; por %xmm0,%xmm5
- DB 102,15,111,128,8,86,0,0 ; movdqa 0x5608(%eax),%xmm0
- DB 102,15,127,69,232 ; movdqa %xmm0,-0x18(%ebp)
- DB 102,15,253,232 ; paddw %xmm0,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,249,213 ; psubw %xmm5,%xmm2
- DB 102,15,127,85,184 ; movdqa %xmm2,-0x48(%ebp)
- DB 102,15,111,77,40 ; movdqa 0x28(%ebp),%xmm1
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,253,244 ; paddw %xmm4,%xmm6
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,213,224 ; pmullw %xmm0,%xmm4
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,111,93,216 ; movdqa -0x28(%ebp),%xmm3
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,239,239 ; pxor %xmm7,%xmm5
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,239,199 ; pxor %xmm7,%xmm0
- DB 102,15,101,197 ; pcmpgtw %xmm5,%xmm0
- DB 102,15,219,200 ; pand %xmm0,%xmm1
- DB 102,15,223,196 ; pandn %xmm4,%xmm0
- DB 102,15,235,193 ; por %xmm1,%xmm0
- DB 102,15,253,69,232 ; paddw -0x18(%ebp),%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,249,240 ; psubw %xmm0,%xmm6
- DB 102,15,111,109,56 ; movdqa 0x38(%ebp),%xmm5
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,111,69,200 ; movdqa -0x38(%ebp),%xmm0
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,213,194 ; pmullw %xmm2,%xmm0
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,239,207 ; pxor %xmm7,%xmm1
- DB 102,15,239,248 ; pxor %xmm0,%xmm7
- DB 102,15,101,249 ; pcmpgtw %xmm1,%xmm7
- DB 102,15,219,199 ; pand %xmm7,%xmm0
- DB 102,15,223,250 ; pandn %xmm2,%xmm7
- DB 102,15,235,248 ; por %xmm0,%xmm7
- DB 102,15,111,77,232 ; movdqa -0x18(%ebp),%xmm1
- DB 102,15,253,249 ; paddw %xmm1,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,249,231 ; psubw %xmm7,%xmm4
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,249,195 ; psubw %xmm3,%xmm0
- DB 102,15,111,125,72 ; movdqa 0x48(%ebp),%xmm7
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,253,194 ; paddw %xmm2,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,124,36,64 ; movdqa %xmm7,0x40(%esp)
- DB 102,15,127,108,36,48 ; movdqa %xmm5,0x30(%esp)
- DB 15,40,69,40 ; movaps 0x28(%ebp),%xmm0
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 15,40,69,184 ; movaps -0x48(%ebp),%xmm0
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 255,22 ; call *(%esi)
- DB 129,196,144,0,0,0 ; add $0x90,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_lighten_sse2_lowp
-_sk_lighten_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,144,0,0,0 ; sub $0x90,%esp
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,15,127,117,216 ; movdqa %xmm6,-0x28(%ebp)
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call ba11 <_sk_lighten_sse2_lowp+0x25>
- DB 88 ; pop %eax
- DB 102,15,111,109,24 ; movdqa 0x18(%ebp),%xmm5
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,213,77,72 ; pmullw 0x48(%ebp),%xmm1
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,213,198 ; pmullw %xmm6,%xmm0
- DB 102,15,111,184,111,84,0,0 ; movdqa 0x546f(%eax),%xmm7
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,239,247 ; pxor %xmm7,%xmm6
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,239,239 ; pxor %xmm7,%xmm5
- DB 102,15,101,238 ; pcmpgtw %xmm6,%xmm5
- DB 102,15,219,205 ; pand %xmm5,%xmm1
- DB 102,15,223,232 ; pandn %xmm0,%xmm5
- DB 102,15,235,233 ; por %xmm1,%xmm5
- DB 102,15,111,128,95,84,0,0 ; movdqa 0x545f(%eax),%xmm0
- DB 102,15,253,232 ; paddw %xmm0,%xmm5
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,127,85,232 ; movdqa %xmm2,-0x18(%ebp)
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,249,221 ; psubw %xmm5,%xmm3
- DB 102,15,127,93,184 ; movdqa %xmm3,-0x48(%ebp)
- DB 102,15,111,77,40 ; movdqa 0x28(%ebp),%xmm1
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,253,244 ; paddw %xmm4,%xmm6
- DB 102,15,111,69,72 ; movdqa 0x48(%ebp),%xmm0
- DB 102,15,213,224 ; pmullw %xmm0,%xmm4
- DB 102,15,111,93,216 ; movdqa -0x28(%ebp),%xmm3
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,239,239 ; pxor %xmm7,%xmm5
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,239,199 ; pxor %xmm7,%xmm0
- DB 102,15,101,197 ; pcmpgtw %xmm5,%xmm0
- DB 102,15,219,224 ; pand %xmm0,%xmm4
- DB 102,15,223,193 ; pandn %xmm1,%xmm0
- DB 102,15,235,196 ; por %xmm4,%xmm0
- DB 102,15,253,194 ; paddw %xmm2,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,249,240 ; psubw %xmm0,%xmm6
- DB 102,15,111,109,56 ; movdqa 0x38(%ebp),%xmm5
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,111,85,200 ; movdqa -0x38(%ebp),%xmm2
- DB 102,15,253,226 ; paddw %xmm2,%xmm4
- DB 102,15,213,85,72 ; pmullw 0x48(%ebp),%xmm2
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,239,207 ; pxor %xmm7,%xmm1
- DB 102,15,239,248 ; pxor %xmm0,%xmm7
- DB 102,15,101,249 ; pcmpgtw %xmm1,%xmm7
- DB 102,15,219,215 ; pand %xmm7,%xmm2
- DB 102,15,223,248 ; pandn %xmm0,%xmm7
- DB 102,15,235,250 ; por %xmm2,%xmm7
- DB 102,15,111,77,232 ; movdqa -0x18(%ebp),%xmm1
- DB 102,15,253,249 ; paddw %xmm1,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,249,231 ; psubw %xmm7,%xmm4
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,111,249 ; movdqa %xmm1,%xmm7
- DB 102,15,249,195 ; psubw %xmm3,%xmm0
- DB 102,15,111,85,72 ; movdqa 0x48(%ebp),%xmm2
- DB 102,15,213,194 ; pmullw %xmm2,%xmm0
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,84,36,64 ; movdqa %xmm2,0x40(%esp)
- DB 102,15,127,108,36,48 ; movdqa %xmm5,0x30(%esp)
- DB 15,40,69,40 ; movaps 0x28(%ebp),%xmm0
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 15,40,69,184 ; movaps -0x48(%ebp),%xmm0
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 255,22 ; call *(%esi)
- DB 129,196,144,0,0,0 ; add $0x90,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_difference_sse2_lowp
-_sk_difference_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,160,0,0,0 ; sub $0xa0,%esp
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 102,15,127,125,200 ; movdqa %xmm7,-0x38(%ebp)
- DB 15,41,85,184 ; movaps %xmm2,-0x48(%ebp)
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call bbaf <_sk_difference_sse2_lowp+0x25>
- DB 88 ; pop %eax
- DB 102,15,111,117,72 ; movdqa 0x48(%ebp),%xmm6
- DB 102,15,111,109,24 ; movdqa 0x18(%ebp),%xmm5
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,213,206 ; pmullw %xmm6,%xmm1
- DB 102,15,111,222 ; movdqa %xmm6,%xmm3
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,111,184,209,82,0,0 ; movdqa 0x52d1(%eax),%xmm7
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,239,247 ; pxor %xmm7,%xmm6
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,239,239 ; pxor %xmm7,%xmm5
- DB 102,15,101,238 ; pcmpgtw %xmm6,%xmm5
- DB 102,15,219,205 ; pand %xmm5,%xmm1
- DB 102,15,223,232 ; pandn %xmm0,%xmm5
- DB 102,15,235,233 ; por %xmm1,%xmm5
- DB 102,15,111,128,193,82,0,0 ; movdqa 0x52c1(%eax),%xmm0
- DB 102,15,127,69,216 ; movdqa %xmm0,-0x28(%ebp)
- DB 102,15,253,232 ; paddw %xmm0,%xmm5
- DB 102,15,113,213,7 ; psrlw $0x7,%xmm5
- DB 102,15,111,128,241,82,0,0 ; movdqa 0x52f1(%eax),%xmm0
- DB 102,15,127,69,232 ; movdqa %xmm0,-0x18(%ebp)
- DB 102,15,219,232 ; pand %xmm0,%xmm5
- DB 102,15,249,213 ; psubw %xmm5,%xmm2
- DB 102,15,127,85,168 ; movdqa %xmm2,-0x58(%ebp)
- DB 102,15,111,77,40 ; movdqa 0x28(%ebp),%xmm1
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,253,244 ; paddw %xmm4,%xmm6
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,213,224 ; pmullw %xmm0,%xmm4
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,111,93,200 ; movdqa -0x38(%ebp),%xmm3
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,239,239 ; pxor %xmm7,%xmm5
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,239,199 ; pxor %xmm7,%xmm0
- DB 102,15,101,197 ; pcmpgtw %xmm5,%xmm0
- DB 102,15,219,224 ; pand %xmm0,%xmm4
- DB 102,15,223,193 ; pandn %xmm1,%xmm0
- DB 102,15,235,196 ; por %xmm4,%xmm0
- DB 102,15,253,69,216 ; paddw -0x28(%ebp),%xmm0
- DB 102,15,113,208,7 ; psrlw $0x7,%xmm0
- DB 102,15,219,69,232 ; pand -0x18(%ebp),%xmm0
- DB 102,15,249,240 ; psubw %xmm0,%xmm6
- DB 102,15,111,109,56 ; movdqa 0x38(%ebp),%xmm5
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,111,69,184 ; movdqa -0x48(%ebp),%xmm0
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,213,194 ; pmullw %xmm2,%xmm0
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,239,207 ; pxor %xmm7,%xmm1
- DB 102,15,239,248 ; pxor %xmm0,%xmm7
- DB 102,15,101,249 ; pcmpgtw %xmm1,%xmm7
- DB 102,15,219,215 ; pand %xmm7,%xmm2
- DB 102,15,223,248 ; pandn %xmm0,%xmm7
- DB 102,15,235,250 ; por %xmm2,%xmm7
- DB 102,15,111,77,216 ; movdqa -0x28(%ebp),%xmm1
- DB 102,15,253,249 ; paddw %xmm1,%xmm7
- DB 102,15,113,215,7 ; psrlw $0x7,%xmm7
- DB 102,15,219,125,232 ; pand -0x18(%ebp),%xmm7
- DB 102,15,249,231 ; psubw %xmm7,%xmm4
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,111,249 ; movdqa %xmm1,%xmm7
- DB 102,15,249,195 ; psubw %xmm3,%xmm0
- DB 102,15,111,85,72 ; movdqa 0x48(%ebp),%xmm2
- DB 102,15,213,194 ; pmullw %xmm2,%xmm0
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,84,36,64 ; movdqa %xmm2,0x40(%esp)
- DB 102,15,127,108,36,48 ; movdqa %xmm5,0x30(%esp)
- DB 15,40,69,40 ; movaps 0x28(%ebp),%xmm0
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 15,40,69,168 ; movaps -0x58(%ebp),%xmm0
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 255,22 ; call *(%esi)
- DB 129,196,160,0,0,0 ; add $0xa0,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_exclusion_sse2_lowp
-_sk_exclusion_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call bd63 <_sk_exclusion_sse2_lowp+0x15>
- DB 88 ; pop %eax
- DB 102,15,111,109,24 ; movdqa 0x18(%ebp),%xmm5
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,253,193 ; paddw %xmm1,%xmm0
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,111,184,13,81,0,0 ; movdqa 0x510d(%eax),%xmm7
- DB 102,15,253,207 ; paddw %xmm7,%xmm1
- DB 102,15,113,209,7 ; psrlw $0x7,%xmm1
- DB 102,15,111,176,61,81,0,0 ; movdqa 0x513d(%eax),%xmm6
- DB 102,15,219,206 ; pand %xmm6,%xmm1
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,15,111,109,40 ; movdqa 0x28(%ebp),%xmm5
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,253,204 ; paddw %xmm4,%xmm1
- DB 102,15,213,229 ; pmullw %xmm5,%xmm4
- DB 102,15,253,231 ; paddw %xmm7,%xmm4
- DB 102,15,113,212,7 ; psrlw $0x7,%xmm4
- DB 102,15,219,230 ; pand %xmm6,%xmm4
- DB 102,15,249,204 ; psubw %xmm4,%xmm1
- DB 102,15,111,109,56 ; movdqa 0x38(%ebp),%xmm5
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,253,226 ; paddw %xmm2,%xmm4
- DB 102,15,213,213 ; pmullw %xmm5,%xmm2
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 102,15,113,210,7 ; psrlw $0x7,%xmm2
- DB 102,15,219,214 ; pand %xmm6,%xmm2
- DB 102,15,249,226 ; psubw %xmm2,%xmm4
- DB 102,15,111,215 ; movdqa %xmm7,%xmm2
- DB 102,15,249,211 ; psubw %xmm3,%xmm2
- DB 102,15,111,117,72 ; movdqa 0x48(%ebp),%xmm6
- DB 102,15,213,214 ; pmullw %xmm6,%xmm2
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,253,218 ; paddw %xmm2,%xmm3
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,116,36,64 ; movdqa %xmm6,0x40(%esp)
- DB 102,15,127,108,36,48 ; movdqa %xmm5,0x30(%esp)
- DB 15,40,85,40 ; movaps 0x28(%ebp),%xmm2
- DB 15,41,84,36,32 ; movaps %xmm2,0x20(%esp)
- DB 15,40,85,24 ; movaps 0x18(%ebp),%xmm2
- DB 15,41,84,36,16 ; movaps %xmm2,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_hardlight_sse2_lowp
-_sk_hardlight_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,176,0,0,0 ; sub $0xb0,%esp
- DB 15,41,85,152 ; movaps %xmm2,-0x68(%ebp)
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 232,0,0,0,0 ; call be5d <_sk_hardlight_sse2_lowp+0x1c>
- DB 88 ; pop %eax
- DB 102,15,111,184,19,80,0,0 ; movdqa 0x5013(%eax),%xmm7
- DB 102,15,127,125,200 ; movdqa %xmm7,-0x38(%ebp)
- DB 102,15,111,215 ; movdqa %xmm7,%xmm2
- DB 102,15,249,85,72 ; psubw 0x48(%ebp),%xmm2
- DB 102,15,127,85,168 ; movdqa %xmm2,-0x58(%ebp)
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,249,250 ; psubw %xmm2,%xmm7
- DB 102,15,127,125,232 ; movdqa %xmm7,-0x18(%ebp)
- DB 102,15,111,117,24 ; movdqa 0x18(%ebp),%xmm6
- DB 102,15,213,254 ; pmullw %xmm6,%xmm7
- DB 102,15,253,248 ; paddw %xmm0,%xmm7
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,249,196 ; psubw %xmm4,%xmm0
- DB 102,15,111,93,72 ; movdqa 0x48(%ebp),%xmm3
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,249,206 ; psubw %xmm6,%xmm1
- DB 102,15,213,200 ; pmullw %xmm0,%xmm1
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,127,93,216 ; movdqa %xmm3,-0x28(%ebp)
- DB 102,15,213,243 ; pmullw %xmm3,%xmm6
- DB 102,15,253,201 ; paddw %xmm1,%xmm1
- DB 102,15,111,214 ; movdqa %xmm6,%xmm2
- DB 102,15,249,209 ; psubw %xmm1,%xmm2
- DB 102,15,253,228 ; paddw %xmm4,%xmm4
- DB 102,15,111,128,35,80,0,0 ; movdqa 0x5023(%eax),%xmm0
- DB 102,15,239,216 ; pxor %xmm0,%xmm3
- DB 102,15,127,93,184 ; movdqa %xmm3,-0x48(%ebp)
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,239,200 ; pxor %xmm0,%xmm1
- DB 102,15,101,203 ; pcmpgtw %xmm3,%xmm1
- DB 102,15,213,101,24 ; pmullw 0x18(%ebp),%xmm4
- DB 102,15,219,209 ; pand %xmm1,%xmm2
- DB 102,15,223,204 ; pandn %xmm4,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 102,15,253,125,200 ; paddw -0x38(%ebp),%xmm7
- DB 102,15,253,207 ; paddw %xmm7,%xmm1
- DB 102,15,111,85,168 ; movdqa -0x58(%ebp),%xmm2
- DB 102,15,213,213 ; pmullw %xmm5,%xmm2
- DB 102,15,111,93,40 ; movdqa 0x28(%ebp),%xmm3
- DB 102,15,111,125,232 ; movdqa -0x18(%ebp),%xmm7
- DB 102,15,213,251 ; pmullw %xmm3,%xmm7
- DB 102,15,253,250 ; paddw %xmm2,%xmm7
- DB 102,15,111,85,216 ; movdqa -0x28(%ebp),%xmm2
- DB 102,15,249,213 ; psubw %xmm5,%xmm2
- DB 102,15,111,101,72 ; movdqa 0x48(%ebp),%xmm4
- DB 102,15,249,227 ; psubw %xmm3,%xmm4
- DB 102,15,213,226 ; pmullw %xmm2,%xmm4
- DB 102,15,253,228 ; paddw %xmm4,%xmm4
- DB 102,15,111,214 ; movdqa %xmm6,%xmm2
- DB 102,15,249,212 ; psubw %xmm4,%xmm2
- DB 102,15,253,237 ; paddw %xmm5,%xmm5
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,239,224 ; pxor %xmm0,%xmm4
- DB 102,15,101,101,184 ; pcmpgtw -0x48(%ebp),%xmm4
- DB 102,15,213,235 ; pmullw %xmm3,%xmm5
- DB 102,15,219,212 ; pand %xmm4,%xmm2
- DB 102,15,223,229 ; pandn %xmm5,%xmm4
- DB 102,15,235,226 ; por %xmm2,%xmm4
- DB 102,15,253,125,200 ; paddw -0x38(%ebp),%xmm7
- DB 102,15,253,231 ; paddw %xmm7,%xmm4
- DB 102,15,111,93,152 ; movdqa -0x68(%ebp),%xmm3
- DB 102,15,111,85,168 ; movdqa -0x58(%ebp),%xmm2
- DB 102,15,213,211 ; pmullw %xmm3,%xmm2
- DB 102,15,111,109,232 ; movdqa -0x18(%ebp),%xmm5
- DB 102,15,213,109,56 ; pmullw 0x38(%ebp),%xmm5
- DB 102,15,253,234 ; paddw %xmm2,%xmm5
- DB 102,15,111,85,216 ; movdqa -0x28(%ebp),%xmm2
- DB 102,15,249,211 ; psubw %xmm3,%xmm2
- DB 102,15,253,219 ; paddw %xmm3,%xmm3
- DB 102,15,239,195 ; pxor %xmm3,%xmm0
- DB 102,15,101,69,184 ; pcmpgtw -0x48(%ebp),%xmm0
- DB 102,15,111,125,72 ; movdqa 0x48(%ebp),%xmm7
- DB 102,15,249,125,56 ; psubw 0x38(%ebp),%xmm7
- DB 102,15,213,250 ; pmullw %xmm2,%xmm7
- DB 102,15,253,255 ; paddw %xmm7,%xmm7
- DB 102,15,249,247 ; psubw %xmm7,%xmm6
- DB 102,15,111,125,56 ; movdqa 0x38(%ebp),%xmm7
- DB 102,15,213,223 ; pmullw %xmm7,%xmm3
- DB 102,15,219,240 ; pand %xmm0,%xmm6
- DB 102,15,223,195 ; pandn %xmm3,%xmm0
- DB 102,15,235,198 ; por %xmm6,%xmm0
- DB 102,15,111,93,200 ; movdqa -0x38(%ebp),%xmm3
- DB 102,15,253,235 ; paddw %xmm3,%xmm5
- DB 102,15,253,232 ; paddw %xmm0,%xmm5
- DB 102,15,111,69,72 ; movdqa 0x48(%ebp),%xmm0
- DB 102,15,111,85,232 ; movdqa -0x18(%ebp),%xmm2
- DB 102,15,213,208 ; pmullw %xmm0,%xmm2
- DB 102,15,253,211 ; paddw %xmm3,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,111,93,216 ; movdqa -0x28(%ebp),%xmm3
- DB 102,15,253,218 ; paddw %xmm2,%xmm3
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,68,36,64 ; movdqa %xmm0,0x40(%esp)
- DB 102,15,127,124,36,48 ; movdqa %xmm7,0x30(%esp)
- DB 15,40,69,40 ; movaps 0x28(%ebp),%xmm0
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,111,213 ; movdqa %xmm5,%xmm2
- DB 255,22 ; call *(%esi)
- DB 129,196,176,0,0,0 ; add $0xb0,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_overlay_sse2_lowp
-_sk_overlay_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,208,0,0,0 ; sub $0xd0,%esp
- DB 15,41,85,152 ; movaps %xmm2,-0x68(%ebp)
- DB 15,41,141,120,255,255,255 ; movaps %xmm1,-0x88(%ebp)
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call c07f <_sk_overlay_sse2_lowp+0x1f>
- DB 88 ; pop %eax
- DB 102,15,111,69,72 ; movdqa 0x48(%ebp),%xmm0
- DB 102,15,111,184,241,77,0,0 ; movdqa 0x4df1(%eax),%xmm7
- DB 102,15,127,125,232 ; movdqa %xmm7,-0x18(%ebp)
- DB 102,15,111,215 ; movdqa %xmm7,%xmm2
- DB 102,15,249,208 ; psubw %xmm0,%xmm2
- DB 102,15,127,85,168 ; movdqa %xmm2,-0x58(%ebp)
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,213,209 ; pmullw %xmm1,%xmm2
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,249,248 ; psubw %xmm0,%xmm7
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,213,101,24 ; pmullw 0x18(%ebp),%xmm4
- DB 102,15,253,226 ; paddw %xmm2,%xmm4
- DB 102,15,127,101,216 ; movdqa %xmm4,-0x28(%ebp)
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,127,69,200 ; movdqa %xmm0,-0x38(%ebp)
- DB 102,15,249,233 ; psubw %xmm1,%xmm5
- DB 102,15,111,230 ; movdqa %xmm6,%xmm4
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,111,93,24 ; movdqa 0x18(%ebp),%xmm3
- DB 102,15,249,211 ; psubw %xmm3,%xmm2
- DB 102,15,213,213 ; pmullw %xmm5,%xmm2
- DB 102,15,213,240 ; pmullw %xmm0,%xmm6
- DB 102,15,253,210 ; paddw %xmm2,%xmm2
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,15,249,234 ; psubw %xmm2,%xmm5
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,111,144,1,78,0,0 ; movdqa 0x4e01(%eax),%xmm2
- DB 102,15,127,85,184 ; movdqa %xmm2,-0x48(%ebp)
- DB 102,15,239,226 ; pxor %xmm2,%xmm4
- DB 102,15,239,194 ; pxor %xmm2,%xmm0
- DB 102,15,101,196 ; pcmpgtw %xmm4,%xmm0
- DB 102,15,127,101,136 ; movdqa %xmm4,-0x78(%ebp)
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,15,253,201 ; paddw %xmm1,%xmm1
- DB 102,15,219,232 ; pand %xmm0,%xmm5
- DB 102,15,223,193 ; pandn %xmm1,%xmm0
- DB 102,15,235,197 ; por %xmm5,%xmm0
- DB 102,15,111,85,232 ; movdqa -0x18(%ebp),%xmm2
- DB 102,15,111,77,216 ; movdqa -0x28(%ebp),%xmm1
- DB 102,15,253,202 ; paddw %xmm2,%xmm1
- DB 102,15,253,200 ; paddw %xmm0,%xmm1
- DB 102,15,127,77,216 ; movdqa %xmm1,-0x28(%ebp)
- DB 102,15,111,69,168 ; movdqa -0x58(%ebp),%xmm0
- DB 102,15,111,141,120,255,255,255 ; movdqa -0x88(%ebp),%xmm1
- DB 102,15,213,193 ; pmullw %xmm1,%xmm0
- DB 102,15,111,85,40 ; movdqa 0x28(%ebp),%xmm2
- DB 102,15,111,223 ; movdqa %xmm7,%xmm3
- DB 102,15,213,218 ; pmullw %xmm2,%xmm3
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 102,15,111,69,200 ; movdqa -0x38(%ebp),%xmm0
- DB 102,15,249,193 ; psubw %xmm1,%xmm0
- DB 102,15,111,109,72 ; movdqa 0x48(%ebp),%xmm5
- DB 102,15,249,234 ; psubw %xmm2,%xmm5
- DB 102,15,213,232 ; pmullw %xmm0,%xmm5
- DB 102,15,253,237 ; paddw %xmm5,%xmm5
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,15,249,197 ; psubw %xmm5,%xmm0
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,253,237 ; paddw %xmm5,%xmm5
- DB 102,15,239,109,184 ; pxor -0x48(%ebp),%xmm5
- DB 102,15,101,236 ; pcmpgtw %xmm4,%xmm5
- DB 102,15,213,202 ; pmullw %xmm2,%xmm1
- DB 102,15,253,201 ; paddw %xmm1,%xmm1
- DB 102,15,219,197 ; pand %xmm5,%xmm0
- DB 102,15,223,233 ; pandn %xmm1,%xmm5
- DB 102,15,235,232 ; por %xmm0,%xmm5
- DB 102,15,253,93,232 ; paddw -0x18(%ebp),%xmm3
- DB 102,15,253,221 ; paddw %xmm5,%xmm3
- DB 102,15,111,109,152 ; movdqa -0x68(%ebp),%xmm5
- DB 102,15,111,69,168 ; movdqa -0x58(%ebp),%xmm0
- DB 102,15,213,197 ; pmullw %xmm5,%xmm0
- DB 102,15,111,77,56 ; movdqa 0x38(%ebp),%xmm1
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,213,225 ; pmullw %xmm1,%xmm4
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,253,192 ; paddw %xmm0,%xmm0
- DB 102,15,239,69,184 ; pxor -0x48(%ebp),%xmm0
- DB 102,15,101,69,136 ; pcmpgtw -0x78(%ebp),%xmm0
- DB 102,15,111,85,200 ; movdqa -0x38(%ebp),%xmm2
- DB 102,15,249,213 ; psubw %xmm5,%xmm2
- DB 102,15,111,77,72 ; movdqa 0x48(%ebp),%xmm1
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,111,77,56 ; movdqa 0x38(%ebp),%xmm1
- DB 102,15,249,233 ; psubw %xmm1,%xmm5
- DB 102,15,213,234 ; pmullw %xmm2,%xmm5
- DB 102,15,253,237 ; paddw %xmm5,%xmm5
- DB 102,15,249,245 ; psubw %xmm5,%xmm6
- DB 102,15,111,85,152 ; movdqa -0x68(%ebp),%xmm2
- DB 102,15,213,209 ; pmullw %xmm1,%xmm2
- DB 102,15,253,210 ; paddw %xmm2,%xmm2
- DB 102,15,219,240 ; pand %xmm0,%xmm6
- DB 102,15,223,194 ; pandn %xmm2,%xmm0
- DB 102,15,235,198 ; por %xmm6,%xmm0
- DB 102,15,111,85,232 ; movdqa -0x18(%ebp),%xmm2
- DB 102,15,253,226 ; paddw %xmm2,%xmm4
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,111,69,72 ; movdqa 0x48(%ebp),%xmm0
- DB 102,15,213,248 ; pmullw %xmm0,%xmm7
- DB 102,15,253,250 ; paddw %xmm2,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,111,109,200 ; movdqa -0x38(%ebp),%xmm5
- DB 102,15,253,239 ; paddw %xmm7,%xmm5
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 102,15,111,77,216 ; movdqa -0x28(%ebp),%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 102,15,127,68,36,64 ; movdqa %xmm0,0x40(%esp)
- DB 15,40,69,56 ; movaps 0x38(%ebp),%xmm0
- DB 15,41,68,36,48 ; movaps %xmm0,0x30(%esp)
- DB 15,40,69,40 ; movaps 0x28(%ebp),%xmm0
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 255,22 ; call *(%esi)
- DB 129,196,208,0,0,0 ; add $0xd0,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_load_8888_sse2_lowp
-_sk_load_8888_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 193,227,2 ; shl $0x2,%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call c2ee <_sk_load_8888_sse2_lowp+0x30>
- DB 95 ; pop %edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,32 ; ja c314 <_sk_load_8888_sse2_lowp+0x56>
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,50,1,0,0 ; mov 0x132(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 255,225 ; jmp *%ecx
- DB 243,15,16,28,179 ; movss (%ebx,%esi,4),%xmm3
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 235,73 ; jmp c35d <_sk_load_8888_sse2_lowp+0x9f>
- DB 102,15,16,28,179 ; movupd (%ebx,%esi,4),%xmm3
- DB 15,16,116,179,16 ; movups 0x10(%ebx,%esi,4),%xmm6
- DB 235,61 ; jmp c35d <_sk_load_8888_sse2_lowp+0x9f>
- DB 102,15,110,68,179,8 ; movd 0x8(%ebx,%esi,4),%xmm0
- DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
- DB 102,15,18,28,179 ; movlpd (%ebx,%esi,4),%xmm3
- DB 235,43 ; jmp c35d <_sk_load_8888_sse2_lowp+0x9f>
- DB 102,15,110,68,179,24 ; movd 0x18(%ebx,%esi,4),%xmm0
- DB 102,15,112,240,69 ; pshufd $0x45,%xmm0,%xmm6
- DB 243,15,16,68,179,20 ; movss 0x14(%ebx,%esi,4),%xmm0
- DB 15,198,198,0 ; shufps $0x0,%xmm6,%xmm0
- DB 15,198,198,226 ; shufps $0xe2,%xmm6,%xmm0
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 243,15,16,68,179,16 ; movss 0x10(%ebx,%esi,4),%xmm0
- DB 243,15,16,240 ; movss %xmm0,%xmm6
- DB 102,15,16,28,179 ; movupd (%ebx,%esi,4),%xmm3
- DB 102,15,40,203 ; movapd %xmm3,%xmm1
- DB 102,15,114,241,16 ; pslld $0x10,%xmm1
- DB 102,15,114,225,16 ; psrad $0x10,%xmm1
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,107,200 ; packssdw %xmm0,%xmm1
- DB 102,15,111,175,130,75,0,0 ; movdqa 0x4b82(%edi),%xmm5
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,219,197 ; pand %xmm5,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 102,15,114,212,16 ; psrld $0x10,%xmm4
- DB 102,15,40,211 ; movapd %xmm3,%xmm2
- DB 102,15,114,210,16 ; psrld $0x10,%xmm2
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 102,15,114,227,16 ; psrad $0x10,%xmm3
- DB 102,15,114,214,24 ; psrld $0x18,%xmm6
- DB 102,15,114,246,16 ; pslld $0x10,%xmm6
- DB 102,15,114,230,16 ; psrad $0x10,%xmm6
- DB 102,15,107,222 ; packssdw %xmm6,%xmm3
- DB 102,15,114,242,16 ; pslld $0x10,%xmm2
- DB 102,15,114,226,16 ; psrad $0x10,%xmm2
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,212 ; packssdw %xmm4,%xmm2
- DB 102,15,219,213 ; pand %xmm5,%xmm2
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,40,101,56 ; movaps 0x38(%ebp),%xmm4
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%esp)
- DB 15,40,101,40 ; movaps 0x28(%ebp),%xmm4
- DB 15,41,100,36,32 ; movaps %xmm4,0x20(%esp)
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 28,0 ; sbb $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 61,0,0,0,50 ; cmp $0x32000000,%eax
- DB 0,0 ; add %al,(%eax)
- DB 0,106,0 ; add %ch,0x0(%edx)
- DB 0,0 ; add %al,(%eax)
- DB 96 ; pusha
- DB 0,0 ; add %al,(%eax)
- DB 0,79,0 ; add %cl,0x0(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 68 ; inc %esp
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_load_8888_dst_sse2_lowp
-_sk_load_8888_dst_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,140,0,0,0 ; sub $0x8c,%esp
- DB 102,15,127,93,184 ; movdqa %xmm3,-0x48(%ebp)
- DB 102,15,127,85,200 ; movdqa %xmm2,-0x38(%ebp)
- DB 15,41,77,216 ; movaps %xmm1,-0x28(%ebp)
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 193,227,2 ; shl $0x2,%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call c479 <_sk_load_8888_dst_sse2_lowp+0x3d>
- DB 95 ; pop %edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,32 ; ja c49f <_sk_load_8888_dst_sse2_lowp+0x63>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,59,1,0,0 ; mov 0x13b(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 255,225 ; jmp *%ecx
- DB 243,15,16,60,179 ; movss (%ebx,%esi,4),%xmm7
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 235,73 ; jmp c4e8 <_sk_load_8888_dst_sse2_lowp+0xac>
- DB 102,15,16,60,179 ; movupd (%ebx,%esi,4),%xmm7
- DB 15,16,92,179,16 ; movups 0x10(%ebx,%esi,4),%xmm3
- DB 235,61 ; jmp c4e8 <_sk_load_8888_dst_sse2_lowp+0xac>
- DB 102,15,110,84,179,8 ; movd 0x8(%ebx,%esi,4),%xmm2
- DB 102,15,112,250,69 ; pshufd $0x45,%xmm2,%xmm7
- DB 102,15,18,60,179 ; movlpd (%ebx,%esi,4),%xmm7
- DB 235,43 ; jmp c4e8 <_sk_load_8888_dst_sse2_lowp+0xac>
- DB 102,15,110,84,179,24 ; movd 0x18(%ebx,%esi,4),%xmm2
- DB 102,15,112,218,69 ; pshufd $0x45,%xmm2,%xmm3
- DB 243,15,16,84,179,20 ; movss 0x14(%ebx,%esi,4),%xmm2
- DB 15,198,211,0 ; shufps $0x0,%xmm3,%xmm2
- DB 15,198,211,226 ; shufps $0xe2,%xmm3,%xmm2
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 243,15,16,84,179,16 ; movss 0x10(%ebx,%esi,4),%xmm2
- DB 243,15,16,218 ; movss %xmm2,%xmm3
- DB 102,15,16,60,179 ; movupd (%ebx,%esi,4),%xmm7
- DB 102,15,40,247 ; movapd %xmm7,%xmm6
- DB 102,15,114,246,16 ; pslld $0x10,%xmm6
- DB 102,15,114,230,16 ; psrad $0x10,%xmm6
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 102,15,114,242,16 ; pslld $0x10,%xmm2
- DB 102,15,114,226,16 ; psrad $0x10,%xmm2
- DB 102,15,107,242 ; packssdw %xmm2,%xmm6
- DB 102,15,111,151,247,73,0,0 ; movdqa 0x49f7(%edi),%xmm2
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 102,15,114,212,16 ; psrld $0x10,%xmm4
- DB 102,15,40,239 ; movapd %xmm7,%xmm5
- DB 102,15,114,213,16 ; psrld $0x10,%xmm5
- DB 102,15,114,215,24 ; psrld $0x18,%xmm7
- DB 102,15,114,247,16 ; pslld $0x10,%xmm7
- DB 102,15,114,231,16 ; psrad $0x10,%xmm7
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 102,15,114,227,16 ; psrad $0x10,%xmm3
- DB 102,15,107,251 ; packssdw %xmm3,%xmm7
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,114,229,16 ; psrad $0x10,%xmm5
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,236 ; packssdw %xmm4,%xmm5
- DB 102,15,219,234 ; pand %xmm2,%xmm5
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 102,15,127,124,36,64 ; movdqa %xmm7,0x40(%esp)
- DB 102,15,127,116,36,32 ; movdqa %xmm6,0x20(%esp)
- DB 102,15,127,76,36,16 ; movdqa %xmm1,0x10(%esp)
- DB 102,15,127,108,36,48 ; movdqa %xmm5,0x30(%esp)
- DB 15,40,77,216 ; movaps -0x28(%ebp),%xmm1
- DB 15,40,85,200 ; movaps -0x38(%ebp),%xmm2
- DB 15,40,93,184 ; movaps -0x48(%ebp),%xmm3
- DB 255,80,4 ; call *0x4(%eax)
- DB 129,196,140,0,0,0 ; add $0x8c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 102,144 ; xchg %ax,%ax
- DB 28,0 ; sbb $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 61,0,0,0,50 ; cmp $0x32000000,%eax
- DB 0,0 ; add %al,(%eax)
- DB 0,106,0 ; add %ch,0x0(%edx)
- DB 0,0 ; add %al,(%eax)
- DB 96 ; pusha
- DB 0,0 ; add %al,(%eax)
- DB 0,79,0 ; add %cl,0x0(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 68 ; inc %esp
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_store_8888_sse2_lowp
-_sk_store_8888_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,108 ; sub $0x6c,%esp
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,113,244,8 ; psllw $0x8,%xmm4
- DB 102,15,235,224 ; por %xmm0,%xmm4
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,97,238 ; punpcklwd %xmm6,%xmm5
- DB 102,15,127,93,216 ; movdqa %xmm3,-0x28(%ebp)
- DB 102,15,113,243,8 ; psllw $0x8,%xmm3
- DB 102,15,235,218 ; por %xmm2,%xmm3
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,97,251 ; punpcklwd %xmm3,%xmm7
- DB 102,15,235,253 ; por %xmm5,%xmm7
- DB 102,15,105,230 ; punpckhwd %xmm6,%xmm4
- DB 102,15,105,243 ; punpckhwd %xmm3,%xmm6
- DB 15,40,93,72 ; movaps 0x48(%ebp),%xmm3
- DB 102,15,235,244 ; por %xmm4,%xmm6
- DB 102,15,111,101,56 ; movdqa 0x38(%ebp),%xmm4
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,93,8 ; mov 0x8(%ebp),%ebx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,121,4 ; mov 0x4(%ecx),%edi
- DB 15,175,250 ; imul %edx,%edi
- DB 193,231,2 ; shl $0x2,%edi
- DB 3,57 ; add (%ecx),%edi
- DB 128,227,7 ; and $0x7,%bl
- DB 254,203 ; dec %bl
- DB 128,251,6 ; cmp $0x6,%bl
- DB 232,0,0,0,0 ; call c644 <_sk_store_8888_sse2_lowp+0x74>
- DB 89 ; pop %ecx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 119,19 ; ja c661 <_sk_store_8888_sse2_lowp+0x91>
- DB 15,182,219 ; movzbl %bl,%ebx
- DB 3,140,153,184,0,0,0 ; add 0xb8(%ecx,%ebx,4),%ecx
- DB 255,225 ; jmp *%ecx
- DB 102,15,126,60,183 ; movd %xmm7,(%edi,%esi,4)
- DB 235,93 ; jmp c6be <_sk_store_8888_sse2_lowp+0xee>
- DB 243,15,127,60,183 ; movdqu %xmm7,(%edi,%esi,4)
- DB 243,15,127,116,183,16 ; movdqu %xmm6,0x10(%edi,%esi,4)
- DB 235,80 ; jmp c6be <_sk_store_8888_sse2_lowp+0xee>
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 102,15,112,223,78 ; pshufd $0x4e,%xmm7,%xmm3
- DB 102,15,126,92,183,8 ; movd %xmm3,0x8(%edi,%esi,4)
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 102,15,111,230 ; movdqa %xmm6,%xmm4
- DB 102,15,214,60,183 ; movq %xmm7,(%edi,%esi,4)
- DB 235,48 ; jmp c6be <_sk_store_8888_sse2_lowp+0xee>
- DB 102,15,112,222,78 ; pshufd $0x4e,%xmm6,%xmm3
- DB 102,15,126,92,183,24 ; movd %xmm3,0x18(%edi,%esi,4)
- DB 15,40,93,72 ; movaps 0x48(%ebp),%xmm3
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 102,15,112,222,229 ; pshufd $0xe5,%xmm6,%xmm3
- DB 102,15,126,92,183,20 ; movd %xmm3,0x14(%edi,%esi,4)
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 102,15,111,101,56 ; movdqa 0x38(%ebp),%xmm4
- DB 102,15,126,116,183,16 ; movd %xmm6,0x10(%edi,%esi,4)
- DB 243,15,127,60,183 ; movdqu %xmm7,(%edi,%esi,4)
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,41,92,36,64 ; movaps %xmm3,0x40(%esp)
- DB 102,15,127,100,36,48 ; movdqa %xmm4,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,40,93,24 ; movaps 0x18(%ebp),%xmm3
- DB 15,41,92,36,16 ; movaps %xmm3,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,108 ; add $0x6c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 144 ; nop
- DB 22 ; push %ss
- DB 0,0 ; add %al,(%eax)
- DB 0,67,0 ; add %al,0x0(%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 42,0 ; sub (%eax),%al
- DB 0,0 ; add %al,(%eax)
- DB 117,0 ; jne c70a <_sk_store_8888_sse2_lowp+0x13a>
- DB 0,0 ; add %al,(%eax)
- DB 111 ; outsl %ds:(%esi),(%dx)
- DB 0,0 ; add %al,(%eax)
- DB 0,89,0 ; add %bl,0x0(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 74 ; dec %edx
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_load_bgra_sse2_lowp
-_sk_load_bgra_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 193,227,2 ; shl $0x2,%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call c748 <_sk_load_bgra_sse2_lowp+0x30>
- DB 95 ; pop %edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,32 ; ja c76e <_sk_load_bgra_sse2_lowp+0x56>
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,52,1,0,0 ; mov 0x134(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 255,225 ; jmp *%ecx
- DB 243,15,16,28,179 ; movss (%ebx,%esi,4),%xmm3
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 235,73 ; jmp c7b7 <_sk_load_bgra_sse2_lowp+0x9f>
- DB 102,15,16,28,179 ; movupd (%ebx,%esi,4),%xmm3
- DB 15,16,116,179,16 ; movups 0x10(%ebx,%esi,4),%xmm6
- DB 235,61 ; jmp c7b7 <_sk_load_bgra_sse2_lowp+0x9f>
- DB 102,15,110,68,179,8 ; movd 0x8(%ebx,%esi,4),%xmm0
- DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
- DB 102,15,18,28,179 ; movlpd (%ebx,%esi,4),%xmm3
- DB 235,43 ; jmp c7b7 <_sk_load_bgra_sse2_lowp+0x9f>
- DB 102,15,110,68,179,24 ; movd 0x18(%ebx,%esi,4),%xmm0
- DB 102,15,112,240,69 ; pshufd $0x45,%xmm0,%xmm6
- DB 243,15,16,68,179,20 ; movss 0x14(%ebx,%esi,4),%xmm0
- DB 15,198,198,0 ; shufps $0x0,%xmm6,%xmm0
- DB 15,198,198,226 ; shufps $0xe2,%xmm6,%xmm0
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 243,15,16,68,179,16 ; movss 0x10(%ebx,%esi,4),%xmm0
- DB 243,15,16,240 ; movss %xmm0,%xmm6
- DB 102,15,16,28,179 ; movupd (%ebx,%esi,4),%xmm3
- DB 102,15,40,203 ; movapd %xmm3,%xmm1
- DB 102,15,114,241,16 ; pslld $0x10,%xmm1
- DB 102,15,114,225,16 ; psrad $0x10,%xmm1
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,107,200 ; packssdw %xmm0,%xmm1
- DB 102,15,111,175,40,71,0,0 ; movdqa 0x4728(%edi),%xmm5
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,219,213 ; pand %xmm5,%xmm2
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 102,15,114,212,16 ; psrld $0x10,%xmm4
- DB 102,15,40,195 ; movapd %xmm3,%xmm0
- DB 102,15,114,208,16 ; psrld $0x10,%xmm0
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 102,15,114,227,16 ; psrad $0x10,%xmm3
- DB 102,15,114,214,24 ; psrld $0x18,%xmm6
- DB 102,15,114,246,16 ; pslld $0x10,%xmm6
- DB 102,15,114,230,16 ; psrad $0x10,%xmm6
- DB 102,15,107,222 ; packssdw %xmm6,%xmm3
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,196 ; packssdw %xmm4,%xmm0
- DB 102,15,219,197 ; pand %xmm5,%xmm0
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,40,101,56 ; movaps 0x38(%ebp),%xmm4
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%esp)
- DB 15,40,101,40 ; movaps 0x28(%ebp),%xmm4
- DB 15,41,100,36,32 ; movaps %xmm4,0x20(%esp)
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 102,144 ; xchg %ax,%ax
- DB 28,0 ; sbb $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 61,0,0,0,50 ; cmp $0x32000000,%eax
- DB 0,0 ; add %al,(%eax)
- DB 0,106,0 ; add %ch,0x0(%edx)
- DB 0,0 ; add %al,(%eax)
- DB 96 ; pusha
- DB 0,0 ; add %al,(%eax)
- DB 0,79,0 ; add %cl,0x0(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 68 ; inc %esp
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_load_bgra_dst_sse2_lowp
-_sk_load_bgra_dst_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,140,0,0,0 ; sub $0x8c,%esp
- DB 102,15,127,93,184 ; movdqa %xmm3,-0x48(%ebp)
- DB 102,15,127,85,200 ; movdqa %xmm2,-0x38(%ebp)
- DB 15,41,77,216 ; movaps %xmm1,-0x28(%ebp)
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 193,227,2 ; shl $0x2,%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call c8d5 <_sk_load_bgra_dst_sse2_lowp+0x3d>
- DB 95 ; pop %edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,32 ; ja c8fb <_sk_load_bgra_dst_sse2_lowp+0x63>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,59,1,0,0 ; mov 0x13b(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 255,225 ; jmp *%ecx
- DB 243,15,16,60,179 ; movss (%ebx,%esi,4),%xmm7
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 235,73 ; jmp c944 <_sk_load_bgra_dst_sse2_lowp+0xac>
- DB 102,15,16,60,179 ; movupd (%ebx,%esi,4),%xmm7
- DB 15,16,92,179,16 ; movups 0x10(%ebx,%esi,4),%xmm3
- DB 235,61 ; jmp c944 <_sk_load_bgra_dst_sse2_lowp+0xac>
- DB 102,15,110,84,179,8 ; movd 0x8(%ebx,%esi,4),%xmm2
- DB 102,15,112,250,69 ; pshufd $0x45,%xmm2,%xmm7
- DB 102,15,18,60,179 ; movlpd (%ebx,%esi,4),%xmm7
- DB 235,43 ; jmp c944 <_sk_load_bgra_dst_sse2_lowp+0xac>
- DB 102,15,110,84,179,24 ; movd 0x18(%ebx,%esi,4),%xmm2
- DB 102,15,112,218,69 ; pshufd $0x45,%xmm2,%xmm3
- DB 243,15,16,84,179,20 ; movss 0x14(%ebx,%esi,4),%xmm2
- DB 15,198,211,0 ; shufps $0x0,%xmm3,%xmm2
- DB 15,198,211,226 ; shufps $0xe2,%xmm3,%xmm2
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 243,15,16,84,179,16 ; movss 0x10(%ebx,%esi,4),%xmm2
- DB 243,15,16,218 ; movss %xmm2,%xmm3
- DB 102,15,16,60,179 ; movupd (%ebx,%esi,4),%xmm7
- DB 102,15,40,247 ; movapd %xmm7,%xmm6
- DB 102,15,114,246,16 ; pslld $0x10,%xmm6
- DB 102,15,114,230,16 ; psrad $0x10,%xmm6
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 102,15,114,242,16 ; pslld $0x10,%xmm2
- DB 102,15,114,226,16 ; psrad $0x10,%xmm2
- DB 102,15,107,242 ; packssdw %xmm2,%xmm6
- DB 102,15,111,151,155,69,0,0 ; movdqa 0x459b(%edi),%xmm2
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 102,15,219,202 ; pand %xmm2,%xmm1
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 102,15,114,212,16 ; psrld $0x10,%xmm4
- DB 102,15,40,239 ; movapd %xmm7,%xmm5
- DB 102,15,114,213,16 ; psrld $0x10,%xmm5
- DB 102,15,114,215,24 ; psrld $0x18,%xmm7
- DB 102,15,114,247,16 ; pslld $0x10,%xmm7
- DB 102,15,114,231,16 ; psrad $0x10,%xmm7
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 102,15,114,227,16 ; psrad $0x10,%xmm3
- DB 102,15,107,251 ; packssdw %xmm3,%xmm7
- DB 102,15,114,245,16 ; pslld $0x10,%xmm5
- DB 102,15,114,229,16 ; psrad $0x10,%xmm5
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,236 ; packssdw %xmm4,%xmm5
- DB 102,15,219,234 ; pand %xmm2,%xmm5
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 102,15,127,124,36,64 ; movdqa %xmm7,0x40(%esp)
- DB 102,15,127,76,36,48 ; movdqa %xmm1,0x30(%esp)
- DB 102,15,127,116,36,32 ; movdqa %xmm6,0x20(%esp)
- DB 102,15,127,108,36,16 ; movdqa %xmm5,0x10(%esp)
- DB 15,40,77,216 ; movaps -0x28(%ebp),%xmm1
- DB 15,40,85,200 ; movaps -0x38(%ebp),%xmm2
- DB 15,40,93,184 ; movaps -0x48(%ebp),%xmm3
- DB 255,80,4 ; call *0x4(%eax)
- DB 129,196,140,0,0,0 ; add $0x8c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 102,144 ; xchg %ax,%ax
- DB 28,0 ; sbb $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 61,0,0,0,50 ; cmp $0x32000000,%eax
- DB 0,0 ; add %al,(%eax)
- DB 0,106,0 ; add %ch,0x0(%edx)
- DB 0,0 ; add %al,(%eax)
- DB 96 ; pusha
- DB 0,0 ; add %al,(%eax)
- DB 0,79,0 ; add %cl,0x0(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 68 ; inc %esp
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_store_bgra_sse2_lowp
-_sk_store_bgra_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,108 ; sub $0x6c,%esp
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,113,244,8 ; psllw $0x8,%xmm4
- DB 102,15,235,226 ; por %xmm2,%xmm4
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,97,238 ; punpcklwd %xmm6,%xmm5
- DB 102,15,127,93,216 ; movdqa %xmm3,-0x28(%ebp)
- DB 102,15,113,243,8 ; psllw $0x8,%xmm3
- DB 102,15,235,216 ; por %xmm0,%xmm3
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,97,251 ; punpcklwd %xmm3,%xmm7
- DB 102,15,235,253 ; por %xmm5,%xmm7
- DB 102,15,105,230 ; punpckhwd %xmm6,%xmm4
- DB 102,15,105,243 ; punpckhwd %xmm3,%xmm6
- DB 15,40,93,72 ; movaps 0x48(%ebp),%xmm3
- DB 102,15,235,244 ; por %xmm4,%xmm6
- DB 102,15,111,101,56 ; movdqa 0x38(%ebp),%xmm4
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,93,8 ; mov 0x8(%ebp),%ebx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,121,4 ; mov 0x4(%ecx),%edi
- DB 15,175,250 ; imul %edx,%edi
- DB 193,231,2 ; shl $0x2,%edi
- DB 3,57 ; add (%ecx),%edi
- DB 128,227,7 ; and $0x7,%bl
- DB 254,203 ; dec %bl
- DB 128,251,6 ; cmp $0x6,%bl
- DB 232,0,0,0,0 ; call caa0 <_sk_store_bgra_sse2_lowp+0x74>
- DB 89 ; pop %ecx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 119,19 ; ja cabd <_sk_store_bgra_sse2_lowp+0x91>
- DB 15,182,219 ; movzbl %bl,%ebx
- DB 3,140,153,184,0,0,0 ; add 0xb8(%ecx,%ebx,4),%ecx
- DB 255,225 ; jmp *%ecx
- DB 102,15,126,60,183 ; movd %xmm7,(%edi,%esi,4)
- DB 235,93 ; jmp cb1a <_sk_store_bgra_sse2_lowp+0xee>
- DB 243,15,127,60,183 ; movdqu %xmm7,(%edi,%esi,4)
- DB 243,15,127,116,183,16 ; movdqu %xmm6,0x10(%edi,%esi,4)
- DB 235,80 ; jmp cb1a <_sk_store_bgra_sse2_lowp+0xee>
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 102,15,112,223,78 ; pshufd $0x4e,%xmm7,%xmm3
- DB 102,15,126,92,183,8 ; movd %xmm3,0x8(%edi,%esi,4)
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 102,15,111,230 ; movdqa %xmm6,%xmm4
- DB 102,15,214,60,183 ; movq %xmm7,(%edi,%esi,4)
- DB 235,48 ; jmp cb1a <_sk_store_bgra_sse2_lowp+0xee>
- DB 102,15,112,222,78 ; pshufd $0x4e,%xmm6,%xmm3
- DB 102,15,126,92,183,24 ; movd %xmm3,0x18(%edi,%esi,4)
- DB 15,40,93,72 ; movaps 0x48(%ebp),%xmm3
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 102,15,112,222,229 ; pshufd $0xe5,%xmm6,%xmm3
- DB 102,15,126,92,183,20 ; movd %xmm3,0x14(%edi,%esi,4)
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 102,15,111,101,56 ; movdqa 0x38(%ebp),%xmm4
- DB 102,15,126,116,183,16 ; movd %xmm6,0x10(%edi,%esi,4)
- DB 243,15,127,60,183 ; movdqu %xmm7,(%edi,%esi,4)
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,41,92,36,64 ; movaps %xmm3,0x40(%esp)
- DB 102,15,127,100,36,48 ; movdqa %xmm4,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,40,93,24 ; movaps 0x18(%ebp),%xmm3
- DB 15,41,92,36,16 ; movaps %xmm3,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,108 ; add $0x6c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 144 ; nop
- DB 22 ; push %ss
- DB 0,0 ; add %al,(%eax)
- DB 0,67,0 ; add %al,0x0(%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 42,0 ; sub (%eax),%al
- DB 0,0 ; add %al,(%eax)
- DB 117,0 ; jne cb66 <_sk_store_bgra_sse2_lowp+0x13a>
- DB 0,0 ; add %al,(%eax)
- DB 111 ; outsl %ds:(%esi),(%dx)
- DB 0,0 ; add %al,(%eax)
- DB 0,89,0 ; add %bl,0x0(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 74 ; dec %edx
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_gather_8888_sse2_lowp
-_sk_gather_8888_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,96 ; sub $0x60,%esp
- DB 232,0,0,0,0 ; call cb81 <_sk_gather_8888_sse2_lowp+0xd>
- DB 90 ; pop %edx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,57 ; mov (%ecx),%edi
- DB 243,15,16,103,8 ; movss 0x8(%edi),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 102,15,118,237 ; pcmpeqd %xmm5,%xmm5
- DB 102,15,254,229 ; paddd %xmm5,%xmm4
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,95,198 ; maxps %xmm6,%xmm0
- DB 15,95,206 ; maxps %xmm6,%xmm1
- DB 15,93,204 ; minps %xmm4,%xmm1
- DB 15,93,196 ; minps %xmm4,%xmm0
- DB 243,15,16,103,12 ; movss 0xc(%edi),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 102,15,254,229 ; paddd %xmm5,%xmm4
- DB 15,95,222 ; maxps %xmm6,%xmm3
- DB 15,95,214 ; maxps %xmm6,%xmm2
- DB 15,93,212 ; minps %xmm4,%xmm2
- DB 15,93,220 ; minps %xmm4,%xmm3
- DB 139,55 ; mov (%edi),%esi
- DB 243,15,91,219 ; cvttps2dq %xmm3,%xmm3
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 102,15,110,103,4 ; movd 0x4(%edi),%xmm4
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 102,15,112,234,245 ; pshufd $0xf5,%xmm2,%xmm5
- DB 102,15,244,236 ; pmuludq %xmm4,%xmm5
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,112,251,245 ; pshufd $0xf5,%xmm3,%xmm7
- DB 102,15,244,252 ; pmuludq %xmm4,%xmm7
- DB 102,15,244,226 ; pmuludq %xmm2,%xmm4
- DB 102,15,112,212,232 ; pshufd $0xe8,%xmm4,%xmm2
- DB 102,15,112,229,232 ; pshufd $0xe8,%xmm5,%xmm4
- DB 102,15,98,212 ; punpckldq %xmm4,%xmm2
- DB 102,15,244,243 ; pmuludq %xmm3,%xmm6
- DB 102,15,112,222,232 ; pshufd $0xe8,%xmm6,%xmm3
- DB 102,15,112,231,232 ; pshufd $0xe8,%xmm7,%xmm4
- DB 102,15,98,220 ; punpckldq %xmm4,%xmm3
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,194 ; paddd %xmm2,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,15,254,203 ; paddd %xmm3,%xmm1
- DB 102,15,112,208,78 ; pshufd $0x4e,%xmm0,%xmm2
- DB 102,15,112,216,231 ; pshufd $0xe7,%xmm0,%xmm3
- DB 102,15,126,223 ; movd %xmm3,%edi
- DB 243,15,16,28,190 ; movss (%esi,%edi,4),%xmm3
- DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
- DB 102,15,126,215 ; movd %xmm2,%edi
- DB 102,15,110,36,190 ; movd (%esi,%edi,4),%xmm4
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,192,229 ; pshufd $0xe5,%xmm0,%xmm0
- DB 102,15,110,28,190 ; movd (%esi,%edi,4),%xmm3
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,15,112,233,231 ; pshufd $0xe7,%xmm1,%xmm5
- DB 102,15,110,52,190 ; movd (%esi,%edi,4),%xmm6
- DB 102,15,126,239 ; movd %xmm5,%edi
- DB 102,15,110,60,190 ; movd (%esi,%edi,4),%xmm7
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,110,20,190 ; movd (%esi,%edi,4),%xmm2
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,201,229 ; pshufd $0xe5,%xmm1,%xmm1
- DB 102,15,110,4,190 ; movd (%esi,%edi,4),%xmm0
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,110,12,190 ; movd (%esi,%edi,4),%xmm1
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 102,15,98,101,232 ; punpckldq -0x18(%ebp),%xmm4
- DB 102,15,98,222 ; punpckldq %xmm6,%xmm3
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 102,15,108,220 ; punpcklqdq %xmm4,%xmm3
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 102,15,98,215 ; punpckldq %xmm7,%xmm2
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 102,15,108,194 ; punpcklqdq %xmm2,%xmm0
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,114,242,16 ; pslld $0x10,%xmm2
- DB 102,15,114,226,16 ; psrad $0x10,%xmm2
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,114,241,16 ; pslld $0x10,%xmm1
- DB 102,15,114,225,16 ; psrad $0x10,%xmm1
- DB 102,15,107,202 ; packssdw %xmm2,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,111,224 ; movdqa %xmm0,%xmm4
- DB 102,15,114,208,24 ; psrld $0x18,%xmm0
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 102,15,114,227,16 ; psrad $0x10,%xmm3
- DB 102,15,107,216 ; packssdw %xmm0,%xmm3
- DB 102,15,111,186,239,66,0,0 ; movdqa 0x42ef(%edx),%xmm7
- DB 102,15,114,210,16 ; psrld $0x10,%xmm2
- DB 102,15,114,212,16 ; psrld $0x10,%xmm4
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,114,242,16 ; pslld $0x10,%xmm2
- DB 102,15,114,226,16 ; psrad $0x10,%xmm2
- DB 102,15,107,212 ; packssdw %xmm4,%xmm2
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,219,199 ; pand %xmm7,%xmm0
- DB 102,15,219,215 ; pand %xmm7,%xmm2
- DB 15,40,101,72 ; movaps 0x48(%ebp),%xmm4
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 141,81,8 ; lea 0x8(%ecx),%edx
- DB 15,41,100,36,64 ; movaps %xmm4,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,84,36,4 ; mov %edx,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,96 ; add $0x60,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_gather_bgra_sse2_lowp
-_sk_gather_bgra_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call cd7c <_sk_gather_bgra_sse2_lowp+0xd>
- DB 90 ; pop %edx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,57 ; mov (%ecx),%edi
- DB 243,15,16,103,8 ; movss 0x8(%edi),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 102,15,118,237 ; pcmpeqd %xmm5,%xmm5
- DB 102,15,254,229 ; paddd %xmm5,%xmm4
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,95,198 ; maxps %xmm6,%xmm0
- DB 15,95,206 ; maxps %xmm6,%xmm1
- DB 15,93,204 ; minps %xmm4,%xmm1
- DB 15,93,196 ; minps %xmm4,%xmm0
- DB 243,15,16,103,12 ; movss 0xc(%edi),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 102,15,254,229 ; paddd %xmm5,%xmm4
- DB 15,95,222 ; maxps %xmm6,%xmm3
- DB 15,95,214 ; maxps %xmm6,%xmm2
- DB 15,93,212 ; minps %xmm4,%xmm2
- DB 15,93,220 ; minps %xmm4,%xmm3
- DB 139,55 ; mov (%edi),%esi
- DB 243,15,91,219 ; cvttps2dq %xmm3,%xmm3
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 102,15,110,103,4 ; movd 0x4(%edi),%xmm4
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 102,15,112,234,245 ; pshufd $0xf5,%xmm2,%xmm5
- DB 102,15,244,236 ; pmuludq %xmm4,%xmm5
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,112,251,245 ; pshufd $0xf5,%xmm3,%xmm7
- DB 102,15,244,252 ; pmuludq %xmm4,%xmm7
- DB 102,15,244,226 ; pmuludq %xmm2,%xmm4
- DB 102,15,112,212,232 ; pshufd $0xe8,%xmm4,%xmm2
- DB 102,15,112,229,232 ; pshufd $0xe8,%xmm5,%xmm4
- DB 102,15,98,212 ; punpckldq %xmm4,%xmm2
- DB 102,15,244,243 ; pmuludq %xmm3,%xmm6
- DB 102,15,112,222,232 ; pshufd $0xe8,%xmm6,%xmm3
- DB 102,15,112,231,232 ; pshufd $0xe8,%xmm7,%xmm4
- DB 102,15,98,220 ; punpckldq %xmm4,%xmm3
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,194 ; paddd %xmm2,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,15,254,203 ; paddd %xmm3,%xmm1
- DB 102,15,112,208,78 ; pshufd $0x4e,%xmm0,%xmm2
- DB 102,15,112,216,231 ; pshufd $0xe7,%xmm0,%xmm3
- DB 102,15,126,223 ; movd %xmm3,%edi
- DB 102,15,110,36,190 ; movd (%esi,%edi,4),%xmm4
- DB 102,15,126,215 ; movd %xmm2,%edi
- DB 102,15,110,52,190 ; movd (%esi,%edi,4),%xmm6
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,192,229 ; pshufd $0xe5,%xmm0,%xmm0
- DB 102,15,110,28,190 ; movd (%esi,%edi,4),%xmm3
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,193,78 ; pshufd $0x4e,%xmm1,%xmm0
- DB 102,15,112,209,231 ; pshufd $0xe7,%xmm1,%xmm2
- DB 102,15,110,44,190 ; movd (%esi,%edi,4),%xmm5
- DB 102,15,126,215 ; movd %xmm2,%edi
- DB 102,15,110,60,190 ; movd (%esi,%edi,4),%xmm7
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,110,4,190 ; movd (%esi,%edi,4),%xmm0
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,201,229 ; pshufd $0xe5,%xmm1,%xmm1
- DB 102,15,110,20,190 ; movd (%esi,%edi,4),%xmm2
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,110,12,190 ; movd (%esi,%edi,4),%xmm1
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 102,15,98,244 ; punpckldq %xmm4,%xmm6
- DB 102,15,98,221 ; punpckldq %xmm5,%xmm3
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 102,15,108,222 ; punpcklqdq %xmm6,%xmm3
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 102,15,98,199 ; punpckldq %xmm7,%xmm0
- DB 102,15,98,209 ; punpckldq %xmm1,%xmm2
- DB 102,15,108,208 ; punpcklqdq %xmm0,%xmm2
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,114,241,16 ; pslld $0x10,%xmm1
- DB 102,15,114,225,16 ; psrad $0x10,%xmm1
- DB 102,15,107,200 ; packssdw %xmm0,%xmm1
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,111,250 ; movdqa %xmm2,%xmm7
- DB 102,15,114,210,24 ; psrld $0x18,%xmm2
- DB 102,15,114,242,16 ; pslld $0x10,%xmm2
- DB 102,15,114,226,16 ; psrad $0x10,%xmm2
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 102,15,114,227,16 ; psrad $0x10,%xmm3
- DB 102,15,107,218 ; packssdw %xmm2,%xmm3
- DB 102,15,111,162,244,64,0,0 ; movdqa 0x40f4(%edx),%xmm4
- DB 102,15,114,208,16 ; psrld $0x10,%xmm0
- DB 102,15,114,215,16 ; psrld $0x10,%xmm7
- DB 102,15,114,247,16 ; pslld $0x10,%xmm7
- DB 102,15,114,231,16 ; psrad $0x10,%xmm7
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,107,199 ; packssdw %xmm7,%xmm0
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,219,212 ; pand %xmm4,%xmm2
- DB 102,15,219,196 ; pand %xmm4,%xmm0
- DB 15,40,101,72 ; movaps 0x48(%ebp),%xmm4
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 141,81,8 ; lea 0x8(%ecx),%edx
- DB 15,41,100,36,64 ; movaps %xmm4,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,84,36,4 ; mov %edx,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_load_565_sse2_lowp
-_sk_load_565_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 15,40,117,72 ; movaps 0x48(%ebp),%xmm6
- DB 15,40,109,56 ; movaps 0x38(%ebp),%xmm5
- DB 15,40,101,40 ; movaps 0x28(%ebp),%xmm4
- DB 15,40,93,24 ; movaps 0x18(%ebp),%xmm3
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 1,219 ; add %ebx,%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call cfa0 <_sk_load_565_sse2_lowp+0x3b>
- DB 94 ; pop %esi
- DB 139,125,16 ; mov 0x10(%ebp),%edi
- DB 119,28 ; ja cfc2 <_sk_load_565_sse2_lowp+0x5d>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,142,244,0,0,0 ; mov 0xf4(%esi,%ecx,4),%ecx
- DB 1,241 ; add %esi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,183,12,123 ; movzwl (%ebx,%edi,2),%ecx
- DB 102,15,110,193 ; movd %ecx,%xmm0
- DB 235,59 ; jmp cffd <_sk_load_565_sse2_lowp+0x98>
- DB 243,15,111,4,123 ; movdqu (%ebx,%edi,2),%xmm0
- DB 235,52 ; jmp cffd <_sk_load_565_sse2_lowp+0x98>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,68,123,4,2 ; pinsrw $0x2,0x4(%ebx,%edi,2),%xmm0
- DB 243,15,16,12,123 ; movss (%ebx,%edi,2),%xmm1
- DB 243,15,16,193 ; movss %xmm1,%xmm0
- DB 235,30 ; jmp cffd <_sk_load_565_sse2_lowp+0x98>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,68,123,12,6 ; pinsrw $0x6,0xc(%ebx,%edi,2),%xmm0
- DB 102,15,196,68,123,10,5 ; pinsrw $0x5,0xa(%ebx,%edi,2),%xmm0
- DB 102,15,196,68,123,8,4 ; pinsrw $0x4,0x8(%ebx,%edi,2),%xmm0
- DB 102,15,18,4,123 ; movlpd (%ebx,%edi,2),%xmm0
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,219,190,16,63,0,0 ; pand 0x3f10(%esi),%xmm7
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,113,209,5 ; psrlw $0x5,%xmm1
- DB 102,15,219,142,32,63,0,0 ; pand 0x3f20(%esi),%xmm1
- DB 102,15,111,150,48,63,0,0 ; movdqa 0x3f30(%esi),%xmm2
- DB 102,15,219,208 ; pand %xmm0,%xmm2
- DB 102,15,113,208,13 ; psrlw $0xd,%xmm0
- DB 102,15,235,199 ; por %xmm7,%xmm0
- DB 102,15,111,249 ; movdqa %xmm1,%xmm7
- DB 102,15,113,247,2 ; psllw $0x2,%xmm7
- DB 102,15,113,209,4 ; psrlw $0x4,%xmm1
- DB 102,15,235,207 ; por %xmm7,%xmm1
- DB 102,15,111,250 ; movdqa %xmm2,%xmm7
- DB 102,15,113,247,3 ; psllw $0x3,%xmm7
- DB 102,15,113,210,2 ; psrlw $0x2,%xmm2
- DB 102,15,235,215 ; por %xmm7,%xmm2
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,41,116,36,64 ; movaps %xmm6,0x40(%esp)
- DB 15,41,108,36,48 ; movaps %xmm5,0x30(%esp)
- DB 15,41,100,36,32 ; movaps %xmm4,0x20(%esp)
- DB 15,41,92,36,16 ; movaps %xmm3,0x10(%esp)
- DB 139,93,20 ; mov 0x14(%ebp),%ebx
- DB 137,92,36,12 ; mov %ebx,0xc(%esp)
- DB 137,124,36,8 ; mov %edi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 15,40,158,208,62,0,0 ; movaps 0x3ed0(%esi),%xmm3
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 144 ; nop
- DB 24,0 ; sbb %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 52,0 ; xor $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 41,0 ; sub %eax,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 88 ; pop %eax
- DB 0,0 ; add %al,(%eax)
- DB 0,81,0 ; add %dl,0x0(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 74 ; dec %edx
- DB 0,0 ; add %al,(%eax)
- DB 0,63 ; add %bh,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_load_565_dst_sse2_lowp
-_sk_load_565_dst_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 1,219 ; add %ebx,%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call d0db <_sk_load_565_dst_sse2_lowp+0x2b>
- DB 95 ; pop %edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja d0fd <_sk_load_565_dst_sse2_lowp+0x4d>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,249,0,0,0 ; mov 0xf9(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,183,12,115 ; movzwl (%ebx,%esi,2),%ecx
- DB 102,15,110,225 ; movd %ecx,%xmm4
- DB 235,59 ; jmp d138 <_sk_load_565_dst_sse2_lowp+0x88>
- DB 243,15,111,36,115 ; movdqu (%ebx,%esi,2),%xmm4
- DB 235,52 ; jmp d138 <_sk_load_565_dst_sse2_lowp+0x88>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,100,115,4,2 ; pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
- DB 243,15,16,44,115 ; movss (%ebx,%esi,2),%xmm5
- DB 243,15,16,229 ; movss %xmm5,%xmm4
- DB 235,30 ; jmp d138 <_sk_load_565_dst_sse2_lowp+0x88>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,100,115,12,6 ; pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
- DB 102,15,196,100,115,10,5 ; pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
- DB 102,15,196,100,115,8,4 ; pinsrw $0x4,0x8(%ebx,%esi,2),%xmm4
- DB 102,15,18,36,115 ; movlpd (%ebx,%esi,2),%xmm4
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,219,183,213,61,0,0 ; pand 0x3dd5(%edi),%xmm6
- DB 102,15,111,236 ; movdqa %xmm4,%xmm5
- DB 102,15,113,213,5 ; psrlw $0x5,%xmm5
- DB 102,15,219,175,229,61,0,0 ; pand 0x3de5(%edi),%xmm5
- DB 102,15,111,191,245,61,0,0 ; movdqa 0x3df5(%edi),%xmm7
- DB 102,15,219,252 ; pand %xmm4,%xmm7
- DB 102,15,113,212,13 ; psrlw $0xd,%xmm4
- DB 102,15,235,230 ; por %xmm6,%xmm4
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,15,113,246,2 ; psllw $0x2,%xmm6
- DB 102,15,113,213,4 ; psrlw $0x4,%xmm5
- DB 102,15,235,238 ; por %xmm6,%xmm5
- DB 102,15,111,247 ; movdqa %xmm7,%xmm6
- DB 102,15,113,246,3 ; psllw $0x3,%xmm6
- DB 102,15,113,215,2 ; psrlw $0x2,%xmm7
- DB 102,15,235,254 ; por %xmm6,%xmm7
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,40,183,149,61,0,0 ; movaps 0x3d95(%edi),%xmm6
- DB 15,41,116,36,64 ; movaps %xmm6,0x40(%esp)
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 102,15,127,124,36,48 ; movdqa %xmm7,0x30(%esp)
- DB 102,15,127,100,36,16 ; movdqa %xmm4,0x10(%esp)
- DB 102,15,127,108,36,32 ; movdqa %xmm5,0x20(%esp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 15,31,0 ; nopl (%eax)
- DB 24,0 ; sbb %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 52,0 ; xor $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 41,0 ; sub %eax,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 88 ; pop %eax
- DB 0,0 ; add %al,(%eax)
- DB 0,81,0 ; add %dl,0x0(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 74 ; dec %edx
- DB 0,0 ; add %al,(%eax)
- DB 0,63 ; add %bh,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_store_565_sse2_lowp
-_sk_store_565_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 102,15,111,226 ; movdqa %xmm2,%xmm4
- DB 232,0,0,0,0 ; call d202 <_sk_store_565_sse2_lowp+0x12>
- DB 95 ; pop %edi
- DB 15,40,109,72 ; movaps 0x48(%ebp),%xmm5
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 102,15,113,242,8 ; psllw $0x8,%xmm2
- DB 102,15,219,151,222,60,0,0 ; pand 0x3cde(%edi),%xmm2
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,113,246,3 ; psllw $0x3,%xmm6
- DB 102,15,219,183,238,60,0,0 ; pand 0x3cee(%edi),%xmm6
- DB 102,15,235,242 ; por %xmm2,%xmm6
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,113,210,3 ; psrlw $0x3,%xmm2
- DB 102,15,235,214 ; por %xmm6,%xmm2
- DB 15,40,117,40 ; movaps 0x28(%ebp),%xmm6
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 1,219 ; add %ebx,%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 15,40,125,24 ; movaps 0x18(%ebp),%xmm7
- DB 119,22 ; ja d27a <_sk_store_565_sse2_lowp+0x8a>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 3,188,143,242,0,0,0 ; add 0xf2(%edi,%ecx,4),%edi
- DB 255,231 ; jmp *%edi
- DB 102,15,126,209 ; movd %xmm2,%ecx
- DB 102,137,12,115 ; mov %cx,(%ebx,%esi,2)
- DB 235,59 ; jmp d2b5 <_sk_store_565_sse2_lowp+0xc5>
- DB 243,15,127,20,115 ; movdqu %xmm2,(%ebx,%esi,2)
- DB 235,52 ; jmp d2b5 <_sk_store_565_sse2_lowp+0xc5>
- DB 102,15,197,202,2 ; pextrw $0x2,%xmm2,%ecx
- DB 102,137,76,115,4 ; mov %cx,0x4(%ebx,%esi,2)
- DB 102,15,126,20,115 ; movd %xmm2,(%ebx,%esi,2)
- DB 235,35 ; jmp d2b5 <_sk_store_565_sse2_lowp+0xc5>
- DB 102,15,197,202,6 ; pextrw $0x6,%xmm2,%ecx
- DB 102,137,76,115,12 ; mov %cx,0xc(%ebx,%esi,2)
- DB 102,15,197,202,5 ; pextrw $0x5,%xmm2,%ecx
- DB 102,137,76,115,10 ; mov %cx,0xa(%ebx,%esi,2)
- DB 102,15,197,202,4 ; pextrw $0x4,%xmm2,%ecx
- DB 102,137,76,115,8 ; mov %cx,0x8(%ebx,%esi,2)
- DB 102,15,214,20,115 ; movq %xmm2,(%ebx,%esi,2)
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,41,108,36,64 ; movaps %xmm5,0x40(%esp)
- DB 15,40,85,56 ; movaps 0x38(%ebp),%xmm2
- DB 15,41,84,36,48 ; movaps %xmm2,0x30(%esp)
- DB 15,41,116,36,32 ; movaps %xmm6,0x20(%esp)
- DB 15,41,124,36,16 ; movaps %xmm7,0x10(%esp)
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 15,31,0 ; nopl (%eax)
- DB 110 ; outsb %ds:(%esi),(%dx)
- DB 0,0 ; add %al,(%eax)
- DB 0,137,0,0,0,127 ; add %cl,0x7f000000(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 0,174,0,0,0,164 ; add %ch,-0x5c000000(%esi)
- DB 0,0 ; add %al,(%eax)
- DB 0,154,0,0,0,144 ; add %bl,-0x70000000(%edx)
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_gather_565_sse2_lowp
-_sk_gather_565_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,108 ; sub $0x6c,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 243,15,16,98,8 ; movss 0x8(%edx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 102,15,118,237 ; pcmpeqd %xmm5,%xmm5
- DB 102,15,254,229 ; paddd %xmm5,%xmm4
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,95,198 ; maxps %xmm6,%xmm0
- DB 15,95,206 ; maxps %xmm6,%xmm1
- DB 15,93,204 ; minps %xmm4,%xmm1
- DB 15,93,196 ; minps %xmm4,%xmm0
- DB 243,15,16,98,12 ; movss 0xc(%edx),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 102,15,254,229 ; paddd %xmm5,%xmm4
- DB 15,95,222 ; maxps %xmm6,%xmm3
- DB 15,95,214 ; maxps %xmm6,%xmm2
- DB 15,93,212 ; minps %xmm4,%xmm2
- DB 15,93,220 ; minps %xmm4,%xmm3
- DB 243,15,91,219 ; cvttps2dq %xmm3,%xmm3
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 102,15,110,98,4 ; movd 0x4(%edx),%xmm4
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 102,15,112,234,245 ; pshufd $0xf5,%xmm2,%xmm5
- DB 102,15,244,236 ; pmuludq %xmm4,%xmm5
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,244,242 ; pmuludq %xmm2,%xmm6
- DB 102,15,112,211,245 ; pshufd $0xf5,%xmm3,%xmm2
- DB 102,15,244,212 ; pmuludq %xmm4,%xmm2
- DB 232,0,0,0,0 ; call d388 <_sk_gather_565_sse2_lowp+0x78>
- DB 89 ; pop %ecx
- DB 139,50 ; mov (%edx),%esi
- DB 102,15,112,246,232 ; pshufd $0xe8,%xmm6,%xmm6
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,98,245 ; punpckldq %xmm5,%xmm6
- DB 102,15,244,227 ; pmuludq %xmm3,%xmm4
- DB 102,15,112,220,232 ; pshufd $0xe8,%xmm4,%xmm3
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,98,218 ; punpckldq %xmm2,%xmm3
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,198 ; paddd %xmm6,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,15,254,203 ; paddd %xmm3,%xmm1
- DB 102,15,126,194 ; movd %xmm0,%edx
- DB 102,15,112,208,229 ; pshufd $0xe5,%xmm0,%xmm2
- DB 102,15,127,85,216 ; movdqa %xmm2,-0x28(%ebp)
- DB 102,15,112,216,78 ; pshufd $0x4e,%xmm0,%xmm3
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,112,225,78 ; pshufd $0x4e,%xmm1,%xmm4
- DB 102,15,112,233,231 ; pshufd $0xe7,%xmm1,%xmm5
- DB 102,15,126,239 ; movd %xmm5,%edi
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 102,15,110,239 ; movd %edi,%xmm5
- DB 102,15,126,231 ; movd %xmm4,%edi
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 102,15,110,231 ; movd %edi,%xmm4
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,201,229 ; pshufd $0xe5,%xmm1,%xmm1
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 102,15,110,247 ; movd %edi,%xmm6
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 102,15,110,215 ; movd %edi,%xmm2
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 102,15,110,255 ; movd %edi,%xmm7
- DB 102,15,126,223 ; movd %xmm3,%edi
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 102,15,110,207 ; movd %edi,%xmm1
- DB 102,15,111,69,216 ; movdqa -0x28(%ebp),%xmm0
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 15,183,20,86 ; movzwl (%esi,%edx,2),%edx
- DB 102,15,110,194 ; movd %edx,%xmm0
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 102,15,97,229 ; punpcklwd %xmm5,%xmm4
- DB 102,15,110,239 ; movd %edi,%xmm5
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 102,15,97,242 ; punpcklwd %xmm2,%xmm6
- DB 15,40,93,24 ; movaps 0x18(%ebp),%xmm3
- DB 102,15,98,244 ; punpckldq %xmm4,%xmm6
- DB 15,40,101,40 ; movaps 0x28(%ebp),%xmm4
- DB 102,15,97,207 ; punpcklwd %xmm7,%xmm1
- DB 15,40,125,56 ; movaps 0x38(%ebp),%xmm7
- DB 102,15,97,197 ; punpcklwd %xmm5,%xmm0
- DB 102,15,98,193 ; punpckldq %xmm1,%xmm0
- DB 102,15,108,198 ; punpcklqdq %xmm6,%xmm0
- DB 102,15,111,232 ; movdqa %xmm0,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,219,169,40,59,0,0 ; pand 0x3b28(%ecx),%xmm5
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,113,209,5 ; psrlw $0x5,%xmm1
- DB 102,15,219,137,56,59,0,0 ; pand 0x3b38(%ecx),%xmm1
- DB 102,15,111,145,72,59,0,0 ; movdqa 0x3b48(%ecx),%xmm2
- DB 102,15,219,208 ; pand %xmm0,%xmm2
- DB 102,15,113,208,13 ; psrlw $0xd,%xmm0
- DB 102,15,235,197 ; por %xmm5,%xmm0
- DB 102,15,111,233 ; movdqa %xmm1,%xmm5
- DB 102,15,113,245,2 ; psllw $0x2,%xmm5
- DB 102,15,113,209,4 ; psrlw $0x4,%xmm1
- DB 102,15,235,205 ; por %xmm5,%xmm1
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,113,245,3 ; psllw $0x3,%xmm5
- DB 102,15,113,210,2 ; psrlw $0x2,%xmm2
- DB 102,15,235,213 ; por %xmm5,%xmm2
- DB 15,40,109,72 ; movaps 0x48(%ebp),%xmm5
- DB 141,88,8 ; lea 0x8(%eax),%ebx
- DB 15,41,108,36,64 ; movaps %xmm5,0x40(%esp)
- DB 15,41,124,36,48 ; movaps %xmm7,0x30(%esp)
- DB 15,41,100,36,32 ; movaps %xmm4,0x20(%esp)
- DB 15,41,92,36,16 ; movaps %xmm3,0x10(%esp)
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,92,36,4 ; mov %ebx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 15,40,153,232,58,0,0 ; movaps 0x3ae8(%ecx),%xmm3
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,108 ; add $0x6c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_load_4444_sse2_lowp
-_sk_load_4444_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 1,219 ; add %ebx,%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call d542 <_sk_load_4444_sse2_lowp+0x37>
- DB 95 ; pop %edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja d564 <_sk_load_4444_sse2_lowp+0x59>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,250,0,0,0 ; mov 0xfa(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,183,12,115 ; movzwl (%ebx,%esi,2),%ecx
- DB 102,15,110,225 ; movd %ecx,%xmm4
- DB 235,59 ; jmp d59f <_sk_load_4444_sse2_lowp+0x94>
- DB 243,15,111,36,115 ; movdqu (%ebx,%esi,2),%xmm4
- DB 235,52 ; jmp d59f <_sk_load_4444_sse2_lowp+0x94>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,100,115,4,2 ; pinsrw $0x2,0x4(%ebx,%esi,2),%xmm4
- DB 243,15,16,4,115 ; movss (%ebx,%esi,2),%xmm0
- DB 243,15,16,224 ; movss %xmm0,%xmm4
- DB 235,30 ; jmp d59f <_sk_load_4444_sse2_lowp+0x94>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,100,115,12,6 ; pinsrw $0x6,0xc(%ebx,%esi,2),%xmm4
- DB 102,15,196,100,115,10,5 ; pinsrw $0x5,0xa(%ebx,%esi,2),%xmm4
- DB 102,15,196,100,115,8,4 ; pinsrw $0x4,0x8(%ebx,%esi,2),%xmm4
- DB 102,15,18,36,115 ; movlpd (%ebx,%esi,2),%xmm4
- DB 102,15,111,204 ; movdqa %xmm4,%xmm1
- DB 102,15,113,209,12 ; psrlw $0xc,%xmm1
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,111,135,190,57,0,0 ; movdqa 0x39be(%edi),%xmm0
- DB 102,15,219,208 ; pand %xmm0,%xmm2
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 102,15,113,211,4 ; psrlw $0x4,%xmm3
- DB 102,15,219,216 ; pand %xmm0,%xmm3
- DB 102,15,219,224 ; pand %xmm0,%xmm4
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,113,240,4 ; psllw $0x4,%xmm0
- DB 102,15,235,193 ; por %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,113,241,4 ; psllw $0x4,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,113,242,4 ; psllw $0x4,%xmm2
- DB 102,15,235,211 ; por %xmm3,%xmm2
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 102,15,113,243,4 ; psllw $0x4,%xmm3
- DB 102,15,235,220 ; por %xmm4,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 102,144 ; xchg %ax,%ax
- DB 24,0 ; sbb %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 52,0 ; xor $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 41,0 ; sub %eax,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 88 ; pop %eax
- DB 0,0 ; add %al,(%eax)
- DB 0,81,0 ; add %dl,0x0(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 74 ; dec %edx
- DB 0,0 ; add %al,(%eax)
- DB 0,63 ; add %bh,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_load_4444_dst_sse2_lowp
-_sk_load_4444_dst_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,108 ; sub $0x6c,%esp
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 1,219 ; add %ebx,%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call d687 <_sk_load_4444_dst_sse2_lowp+0x2f>
- DB 95 ; pop %edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja d6a9 <_sk_load_4444_dst_sse2_lowp+0x51>
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,253,0,0,0 ; mov 0xfd(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,183,12,115 ; movzwl (%ebx,%esi,2),%ecx
- DB 102,15,110,249 ; movd %ecx,%xmm7
- DB 235,59 ; jmp d6e4 <_sk_load_4444_dst_sse2_lowp+0x8c>
- DB 243,15,111,60,115 ; movdqu (%ebx,%esi,2),%xmm7
- DB 235,52 ; jmp d6e4 <_sk_load_4444_dst_sse2_lowp+0x8c>
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,196,124,115,4,2 ; pinsrw $0x2,0x4(%ebx,%esi,2),%xmm7
- DB 243,15,16,44,115 ; movss (%ebx,%esi,2),%xmm5
- DB 243,15,16,253 ; movss %xmm5,%xmm7
- DB 235,30 ; jmp d6e4 <_sk_load_4444_dst_sse2_lowp+0x8c>
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,196,124,115,12,6 ; pinsrw $0x6,0xc(%ebx,%esi,2),%xmm7
- DB 102,15,196,124,115,10,5 ; pinsrw $0x5,0xa(%ebx,%esi,2),%xmm7
- DB 102,15,196,124,115,8,4 ; pinsrw $0x4,0x8(%ebx,%esi,2),%xmm7
- DB 102,15,18,60,115 ; movlpd (%ebx,%esi,2),%xmm7
- DB 102,15,111,239 ; movdqa %xmm7,%xmm5
- DB 102,15,113,213,12 ; psrlw $0xc,%xmm5
- DB 102,15,111,247 ; movdqa %xmm7,%xmm6
- DB 102,15,113,214,8 ; psrlw $0x8,%xmm6
- DB 102,15,111,159,121,56,0,0 ; movdqa 0x3879(%edi),%xmm3
- DB 102,15,219,243 ; pand %xmm3,%xmm6
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,113,212,4 ; psrlw $0x4,%xmm4
- DB 102,15,219,227 ; pand %xmm3,%xmm4
- DB 102,15,219,251 ; pand %xmm3,%xmm7
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 102,15,113,243,4 ; psllw $0x4,%xmm3
- DB 102,15,235,221 ; por %xmm5,%xmm3
- DB 102,15,111,238 ; movdqa %xmm6,%xmm5
- DB 102,15,113,245,4 ; psllw $0x4,%xmm5
- DB 102,15,235,238 ; por %xmm6,%xmm5
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,113,246,4 ; psllw $0x4,%xmm6
- DB 102,15,235,244 ; por %xmm4,%xmm6
- DB 102,15,111,231 ; movdqa %xmm7,%xmm4
- DB 102,15,113,244,4 ; psllw $0x4,%xmm4
- DB 102,15,235,231 ; por %xmm7,%xmm4
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 102,15,127,100,36,64 ; movdqa %xmm4,0x40(%esp)
- DB 102,15,127,92,36,16 ; movdqa %xmm3,0x10(%esp)
- DB 102,15,127,116,36,48 ; movdqa %xmm6,0x30(%esp)
- DB 102,15,127,108,36,32 ; movdqa %xmm5,0x20(%esp)
- DB 15,40,93,216 ; movaps -0x28(%ebp),%xmm3
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,108 ; add $0x6c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 144 ; nop
- DB 24,0 ; sbb %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 52,0 ; xor $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 41,0 ; sub %eax,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 88 ; pop %eax
- DB 0,0 ; add %al,(%eax)
- DB 0,81,0 ; add %dl,0x0(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 74 ; dec %edx
- DB 0,0 ; add %al,(%eax)
- DB 0,63 ; add %bh,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_store_4444_sse2_lowp
-_sk_store_4444_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 232,0,0,0,0 ; call d7b2 <_sk_store_4444_sse2_lowp+0x12>
- DB 94 ; pop %esi
- DB 102,15,111,216 ; movdqa %xmm0,%xmm3
- DB 102,15,113,243,8 ; psllw $0x8,%xmm3
- DB 102,15,219,158,94,55,0,0 ; pand 0x375e(%esi),%xmm3
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,113,246,4 ; psllw $0x4,%xmm6
- DB 102,15,219,182,110,55,0,0 ; pand 0x376e(%esi),%xmm6
- DB 102,15,235,243 ; por %xmm3,%xmm6
- DB 102,15,111,174,126,55,0,0 ; movdqa 0x377e(%esi),%xmm5
- DB 102,15,219,234 ; pand %xmm2,%xmm5
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 102,15,113,211,4 ; psrlw $0x4,%xmm3
- DB 102,15,235,221 ; por %xmm5,%xmm3
- DB 15,40,109,56 ; movaps 0x38(%ebp),%xmm5
- DB 102,15,235,222 ; por %xmm6,%xmm3
- DB 15,40,117,40 ; movaps 0x28(%ebp),%xmm6
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 1,219 ; add %ebx,%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 139,125,16 ; mov 0x10(%ebp),%edi
- DB 15,40,125,24 ; movaps 0x18(%ebp),%xmm7
- DB 119,22 ; ja d83a <_sk_store_4444_sse2_lowp+0x9a>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 3,180,142,2,1,0,0 ; add 0x102(%esi,%ecx,4),%esi
- DB 255,230 ; jmp *%esi
- DB 102,15,126,217 ; movd %xmm3,%ecx
- DB 102,137,12,123 ; mov %cx,(%ebx,%edi,2)
- DB 235,59 ; jmp d875 <_sk_store_4444_sse2_lowp+0xd5>
- DB 243,15,127,28,123 ; movdqu %xmm3,(%ebx,%edi,2)
- DB 235,52 ; jmp d875 <_sk_store_4444_sse2_lowp+0xd5>
- DB 102,15,197,203,2 ; pextrw $0x2,%xmm3,%ecx
- DB 102,137,76,123,4 ; mov %cx,0x4(%ebx,%edi,2)
- DB 102,15,126,28,123 ; movd %xmm3,(%ebx,%edi,2)
- DB 235,35 ; jmp d875 <_sk_store_4444_sse2_lowp+0xd5>
- DB 102,15,197,203,6 ; pextrw $0x6,%xmm3,%ecx
- DB 102,137,76,123,12 ; mov %cx,0xc(%ebx,%edi,2)
- DB 102,15,197,203,5 ; pextrw $0x5,%xmm3,%ecx
- DB 102,137,76,123,10 ; mov %cx,0xa(%ebx,%edi,2)
- DB 102,15,197,203,4 ; pextrw $0x4,%xmm3,%ecx
- DB 102,137,76,123,8 ; mov %cx,0x8(%ebx,%edi,2)
- DB 102,15,214,28,123 ; movq %xmm3,(%ebx,%edi,2)
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,40,93,72 ; movaps 0x48(%ebp),%xmm3
- DB 15,41,92,36,64 ; movaps %xmm3,0x40(%esp)
- DB 15,41,108,36,48 ; movaps %xmm5,0x30(%esp)
- DB 15,41,116,36,32 ; movaps %xmm6,0x20(%esp)
- DB 15,41,124,36,16 ; movaps %xmm7,0x10(%esp)
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,124,36,8 ; mov %edi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 15,31,0 ; nopl (%eax)
- DB 126,0 ; jle d8b6 <_sk_store_4444_sse2_lowp+0x116>
- DB 0,0 ; add %al,(%eax)
- DB 153 ; cltd
- DB 0,0 ; add %al,(%eax)
- DB 0,143,0,0,0,190 ; add %cl,-0x42000000(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,180,0,0,0,170,0 ; add %dh,0xaa0000(%eax,%eax,1)
- DB 0,0 ; add %al,(%eax)
- DB 160 ; .byte 0xa0
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_gather_4444_sse2_lowp
-_sk_gather_4444_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call d8dd <_sk_gather_4444_sse2_lowp+0xd>
- DB 90 ; pop %edx
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,57 ; mov (%ecx),%edi
- DB 243,15,16,103,8 ; movss 0x8(%edi),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 102,15,118,237 ; pcmpeqd %xmm5,%xmm5
- DB 102,15,254,229 ; paddd %xmm5,%xmm4
- DB 15,87,246 ; xorps %xmm6,%xmm6
- DB 15,95,198 ; maxps %xmm6,%xmm0
- DB 15,95,206 ; maxps %xmm6,%xmm1
- DB 15,93,204 ; minps %xmm4,%xmm1
- DB 15,93,196 ; minps %xmm4,%xmm0
- DB 243,15,16,103,12 ; movss 0xc(%edi),%xmm4
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 102,15,254,229 ; paddd %xmm5,%xmm4
- DB 15,95,222 ; maxps %xmm6,%xmm3
- DB 15,95,214 ; maxps %xmm6,%xmm2
- DB 15,93,212 ; minps %xmm4,%xmm2
- DB 15,93,220 ; minps %xmm4,%xmm3
- DB 139,55 ; mov (%edi),%esi
- DB 243,15,91,219 ; cvttps2dq %xmm3,%xmm3
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 102,15,110,103,4 ; movd 0x4(%edi),%xmm4
- DB 102,15,112,228,0 ; pshufd $0x0,%xmm4,%xmm4
- DB 102,15,112,234,245 ; pshufd $0xf5,%xmm2,%xmm5
- DB 102,15,244,236 ; pmuludq %xmm4,%xmm5
- DB 102,15,111,244 ; movdqa %xmm4,%xmm6
- DB 102,15,112,251,245 ; pshufd $0xf5,%xmm3,%xmm7
- DB 102,15,244,252 ; pmuludq %xmm4,%xmm7
- DB 102,15,244,226 ; pmuludq %xmm2,%xmm4
- DB 102,15,112,212,232 ; pshufd $0xe8,%xmm4,%xmm2
- DB 102,15,112,229,232 ; pshufd $0xe8,%xmm5,%xmm4
- DB 102,15,98,212 ; punpckldq %xmm4,%xmm2
- DB 102,15,244,243 ; pmuludq %xmm3,%xmm6
- DB 102,15,112,222,232 ; pshufd $0xe8,%xmm6,%xmm3
- DB 102,15,112,231,232 ; pshufd $0xe8,%xmm7,%xmm4
- DB 102,15,98,220 ; punpckldq %xmm4,%xmm3
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,194 ; paddd %xmm2,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,15,254,203 ; paddd %xmm3,%xmm1
- DB 102,15,112,248,78 ; pshufd $0x4e,%xmm0,%xmm7
- DB 102,15,112,216,231 ; pshufd $0xe7,%xmm0,%xmm3
- DB 102,15,112,225,78 ; pshufd $0x4e,%xmm1,%xmm4
- DB 102,15,112,233,231 ; pshufd $0xe7,%xmm1,%xmm5
- DB 102,15,126,239 ; movd %xmm5,%edi
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 102,15,110,239 ; movd %edi,%xmm5
- DB 102,15,126,231 ; movd %xmm4,%edi
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 102,15,110,247 ; movd %edi,%xmm6
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 102,15,112,201,229 ; pshufd $0xe5,%xmm1,%xmm1
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 102,15,110,215 ; movd %edi,%xmm2
- DB 102,15,126,207 ; movd %xmm1,%edi
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 102,15,110,231 ; movd %edi,%xmm4
- DB 102,15,126,223 ; movd %xmm3,%edi
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 102,15,110,223 ; movd %edi,%xmm3
- DB 102,15,126,255 ; movd %xmm7,%edi
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 102,15,110,207 ; movd %edi,%xmm1
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,192,229 ; pshufd $0xe5,%xmm0,%xmm0
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 102,15,110,255 ; movd %edi,%xmm7
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 15,183,60,126 ; movzwl (%esi,%edi,2),%edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 102,15,110,199 ; movd %edi,%xmm0
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 102,15,97,245 ; punpcklwd %xmm5,%xmm6
- DB 102,15,97,212 ; punpcklwd %xmm4,%xmm2
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 102,15,98,214 ; punpckldq %xmm6,%xmm2
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 102,15,97,203 ; punpcklwd %xmm3,%xmm1
- DB 102,15,97,248 ; punpcklwd %xmm0,%xmm7
- DB 102,15,98,249 ; punpckldq %xmm1,%xmm7
- DB 102,15,108,250 ; punpcklqdq %xmm2,%xmm7
- DB 102,15,111,207 ; movdqa %xmm7,%xmm1
- DB 102,15,113,209,12 ; psrlw $0xc,%xmm1
- DB 102,15,111,215 ; movdqa %xmm7,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,111,130,35,54,0,0 ; movdqa 0x3623(%edx),%xmm0
- DB 102,15,219,208 ; pand %xmm0,%xmm2
- DB 102,15,111,223 ; movdqa %xmm7,%xmm3
- DB 102,15,113,211,4 ; psrlw $0x4,%xmm3
- DB 102,15,219,216 ; pand %xmm0,%xmm3
- DB 102,15,219,248 ; pand %xmm0,%xmm7
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,113,240,4 ; psllw $0x4,%xmm0
- DB 102,15,235,193 ; por %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,113,241,4 ; psllw $0x4,%xmm1
- DB 102,15,235,202 ; por %xmm2,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,113,242,4 ; psllw $0x4,%xmm2
- DB 102,15,235,211 ; por %xmm3,%xmm2
- DB 102,15,111,223 ; movdqa %xmm7,%xmm3
- DB 102,15,113,243,4 ; psllw $0x4,%xmm3
- DB 102,15,235,223 ; por %xmm7,%xmm3
- DB 15,40,101,72 ; movaps 0x48(%ebp),%xmm4
- DB 141,81,8 ; lea 0x8(%ecx),%edx
- DB 15,41,100,36,64 ; movaps %xmm4,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,84,36,4 ; mov %edx,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_load_a8_sse2_lowp
-_sk_load_a8_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 15,40,101,72 ; movaps 0x48(%ebp),%xmm4
- DB 15,40,85,56 ; movaps 0x38(%ebp),%xmm2
- DB 15,40,77,40 ; movaps 0x28(%ebp),%xmm1
- DB 102,15,111,69,24 ; movdqa 0x18(%ebp),%xmm0
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call dafa <_sk_load_a8_sse2_lowp+0x3a>
- DB 95 ; pop %edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja db1c <_sk_load_a8_sse2_lowp+0x5c>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,198,0,0,0 ; mov 0xc6(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
- DB 102,15,110,217 ; movd %ecx,%xmm3
- DB 235,90 ; jmp db76 <_sk_load_a8_sse2_lowp+0xb6>
- DB 243,15,126,28,51 ; movq (%ebx,%esi,1),%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 235,79 ; jmp db76 <_sk_load_a8_sse2_lowp+0xb6>
- DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,196,217,2 ; pinsrw $0x2,%ecx,%xmm3
- DB 15,183,12,51 ; movzwl (%ebx,%esi,1),%ecx
- DB 102,15,110,233 ; movd %ecx,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 243,15,16,221 ; movss %xmm5,%xmm3
- DB 235,47 ; jmp db76 <_sk_load_a8_sse2_lowp+0xb6>
- DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,196,217,6 ; pinsrw $0x6,%ecx,%xmm3
- DB 15,182,76,51,5 ; movzbl 0x5(%ebx,%esi,1),%ecx
- DB 102,15,196,217,5 ; pinsrw $0x5,%ecx,%xmm3
- DB 15,182,76,51,4 ; movzbl 0x4(%ebx,%esi,1),%ecx
- DB 102,15,196,217,4 ; pinsrw $0x4,%ecx,%xmm3
- DB 102,15,110,44,51 ; movd (%ebx,%esi,1),%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 242,15,16,221 ; movsd %xmm5,%xmm3
- DB 102,15,219,159,118,51,0,0 ; pand 0x3376(%edi),%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,41,100,36,64 ; movaps %xmm4,0x40(%esp)
- DB 15,41,84,36,48 ; movaps %xmm2,0x30(%esp)
- DB 15,41,76,36,32 ; movaps %xmm1,0x20(%esp)
- DB 102,15,127,68,36,16 ; movdqa %xmm0,0x10(%esp)
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 15,31,0 ; nopl (%eax)
- DB 24,0 ; sbb %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 59,0 ; cmp (%eax),%eax
- DB 0,0 ; add %al,(%eax)
- DB 45,0,0,0,111 ; sub $0x6f000000,%eax
- DB 0,0 ; add %al,(%eax)
- DB 0,101,0 ; add %ah,0x0(%ebp)
- DB 0,0 ; add %al,(%eax)
- DB 91 ; pop %ebx
- DB 0,0 ; add %al,(%eax)
- DB 0,77,0 ; add %cl,0x0(%ebp)
- DB 0,0 ; add %al,(%eax)
-
-PUBLIC _sk_load_a8_dst_sse2_lowp
-_sk_load_a8_dst_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call dc05 <_sk_load_a8_dst_sse2_lowp+0x29>
- DB 95 ; pop %edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja dc27 <_sk_load_a8_dst_sse2_lowp+0x4b>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,195,0,0,0 ; mov 0xc3(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
- DB 102,15,110,225 ; movd %ecx,%xmm4
- DB 235,90 ; jmp dc81 <_sk_load_a8_dst_sse2_lowp+0xa5>
- DB 243,15,126,36,51 ; movq (%ebx,%esi,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 235,79 ; jmp dc81 <_sk_load_a8_dst_sse2_lowp+0xa5>
- DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,225,2 ; pinsrw $0x2,%ecx,%xmm4
- DB 15,183,12,51 ; movzwl (%ebx,%esi,1),%ecx
- DB 102,15,110,233 ; movd %ecx,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 243,15,16,229 ; movss %xmm5,%xmm4
- DB 235,47 ; jmp dc81 <_sk_load_a8_dst_sse2_lowp+0xa5>
- DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,225,6 ; pinsrw $0x6,%ecx,%xmm4
- DB 15,182,76,51,5 ; movzbl 0x5(%ebx,%esi,1),%ecx
- DB 102,15,196,225,5 ; pinsrw $0x5,%ecx,%xmm4
- DB 15,182,76,51,4 ; movzbl 0x4(%ebx,%esi,1),%ecx
- DB 102,15,196,225,4 ; pinsrw $0x4,%ecx,%xmm4
- DB 102,15,110,44,51 ; movd (%ebx,%esi,1),%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 102,15,219,167,107,50,0,0 ; pand 0x326b(%edi),%xmm4
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 102,15,127,100,36,64 ; movdqa %xmm4,0x40(%esp)
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,127,100,36,48 ; movdqa %xmm4,0x30(%esp)
- DB 102,15,127,100,36,32 ; movdqa %xmm4,0x20(%esp)
- DB 102,15,127,100,36,16 ; movdqa %xmm4,0x10(%esp)
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 15,31,0 ; nopl (%eax)
- DB 24,0 ; sbb %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 59,0 ; cmp (%eax),%eax
- DB 0,0 ; add %al,(%eax)
- DB 45,0,0,0,111 ; sub $0x6f000000,%eax
- DB 0,0 ; add %al,(%eax)
- DB 0,101,0 ; add %ah,0x0(%ebp)
- DB 0,0 ; add %al,(%eax)
- DB 91 ; pop %ebx
- DB 0,0 ; add %al,(%eax)
- DB 0,77,0 ; add %cl,0x0(%ebp)
- DB 0,0 ; add %al,(%eax)
-
-PUBLIC _sk_store_a8_sse2_lowp
-_sk_store_a8_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,121,4 ; mov 0x4(%ecx),%edi
- DB 15,175,125,20 ; imul 0x14(%ebp),%edi
- DB 3,57 ; add (%ecx),%edi
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call dd1d <_sk_store_a8_sse2_lowp+0x39>
- DB 91 ; pop %ebx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,26 ; ja dd3d <_sk_store_a8_sse2_lowp+0x59>
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,139,223,0,0,0 ; mov 0xdf(%ebx,%ecx,4),%ecx
- DB 1,217 ; add %ebx,%ecx
- DB 255,225 ; jmp *%ecx
- DB 102,15,126,217 ; movd %xmm3,%ecx
- DB 136,12,55 ; mov %cl,(%edi,%esi,1)
- DB 233,136,0,0,0 ; jmp ddc5 <_sk_store_a8_sse2_lowp+0xe1>
- DB 102,15,111,163,83,49,0,0 ; movdqa 0x3153(%ebx),%xmm4
- DB 102,15,219,227 ; pand %xmm3,%xmm4
- DB 102,15,103,228 ; packuswb %xmm4,%xmm4
- DB 102,15,214,36,55 ; movq %xmm4,(%edi,%esi,1)
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 235,109 ; jmp ddc5 <_sk_store_a8_sse2_lowp+0xe1>
- DB 102,15,197,203,2 ; pextrw $0x2,%xmm3,%ecx
- DB 136,76,55,2 ; mov %cl,0x2(%edi,%esi,1)
- DB 102,15,111,163,83,49,0,0 ; movdqa 0x3153(%ebx),%xmm4
- DB 102,15,219,227 ; pand %xmm3,%xmm4
- DB 102,15,103,228 ; packuswb %xmm4,%xmm4
- DB 102,15,126,225 ; movd %xmm4,%ecx
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 102,137,12,55 ; mov %cx,(%edi,%esi,1)
- DB 235,70 ; jmp ddc5 <_sk_store_a8_sse2_lowp+0xe1>
- DB 102,15,197,203,6 ; pextrw $0x6,%xmm3,%ecx
- DB 136,76,55,6 ; mov %cl,0x6(%edi,%esi,1)
- DB 102,15,197,203,5 ; pextrw $0x5,%xmm3,%ecx
- DB 136,76,55,5 ; mov %cl,0x5(%edi,%esi,1)
- DB 102,15,197,203,4 ; pextrw $0x4,%xmm3,%ecx
- DB 136,76,55,4 ; mov %cl,0x4(%edi,%esi,1)
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 15,40,245 ; movaps %xmm5,%xmm6
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 102,15,111,163,83,49,0,0 ; movdqa 0x3153(%ebx),%xmm4
- DB 102,15,219,227 ; pand %xmm3,%xmm4
- DB 102,15,103,228 ; packuswb %xmm4,%xmm4
- DB 102,15,126,36,55 ; movd %xmm4,(%edi,%esi,1)
- DB 15,40,229 ; movaps %xmm5,%xmm4
- DB 15,40,238 ; movaps %xmm6,%xmm5
- DB 15,40,247 ; movaps %xmm7,%xmm6
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 15,31,0 ; nopl (%eax)
- DB 20,0 ; adc $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 68 ; inc %esp
- DB 0,0 ; add %al,(%eax)
- DB 0,59 ; add %bh,(%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 0,125,0 ; add %bh,0x0(%ebp)
- DB 0,0 ; add %al,(%eax)
- DB 116,0 ; je de0e <_sk_store_a8_sse2_lowp+0x12a>
- DB 0,0 ; add %al,(%eax)
- DB 107,0,0 ; imul $0x0,(%eax),%eax
- DB 0,98,0 ; add %ah,0x0(%edx)
- DB 0,0 ; add %al,(%eax)
-
-PUBLIC _sk_gather_a8_sse2_lowp
-_sk_gather_a8_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,105,8 ; movss 0x8(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 102,15,118,246 ; pcmpeqd %xmm6,%xmm6
- DB 102,15,254,238 ; paddd %xmm6,%xmm5
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,196 ; maxps %xmm4,%xmm0
- DB 15,95,204 ; maxps %xmm4,%xmm1
- DB 15,93,205 ; minps %xmm5,%xmm1
- DB 15,93,197 ; minps %xmm5,%xmm0
- DB 243,15,16,105,12 ; movss 0xc(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 102,15,254,238 ; paddd %xmm6,%xmm5
- DB 15,95,220 ; maxps %xmm4,%xmm3
- DB 15,95,212 ; maxps %xmm4,%xmm2
- DB 15,93,213 ; minps %xmm5,%xmm2
- DB 15,93,221 ; minps %xmm5,%xmm3
- DB 243,15,91,234 ; cvttps2dq %xmm2,%xmm5
- DB 102,15,110,81,4 ; movd 0x4(%ecx),%xmm2
- DB 102,15,112,210,0 ; pshufd $0x0,%xmm2,%xmm2
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,15,244,245 ; pmuludq %xmm5,%xmm6
- DB 102,15,112,237,245 ; pshufd $0xf5,%xmm5,%xmm5
- DB 102,15,244,234 ; pmuludq %xmm2,%xmm5
- DB 102,15,112,246,232 ; pshufd $0xe8,%xmm6,%xmm6
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,98,245 ; punpckldq %xmm5,%xmm6
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,198 ; paddd %xmm6,%xmm0
- DB 102,15,112,232,78 ; pshufd $0x4e,%xmm0,%xmm5
- DB 102,15,126,234 ; movd %xmm5,%edx
- DB 102,15,112,232,231 ; pshufd $0xe7,%xmm0,%xmm5
- DB 102,15,126,238 ; movd %xmm5,%esi
- DB 139,9 ; mov (%ecx),%ecx
- DB 243,15,91,219 ; cvttps2dq %xmm3,%xmm3
- DB 102,15,126,199 ; movd %xmm0,%edi
- DB 102,15,112,192,229 ; pshufd $0xe5,%xmm0,%xmm0
- DB 15,182,20,17 ; movzbl (%ecx,%edx,1),%edx
- DB 15,182,52,49 ; movzbl (%ecx,%esi,1),%esi
- DB 193,230,8 ; shl $0x8,%esi
- DB 9,214 ; or %edx,%esi
- DB 102,15,126,194 ; movd %xmm0,%edx
- DB 102,15,112,195,245 ; pshufd $0xf5,%xmm3,%xmm0
- DB 102,15,244,194 ; pmuludq %xmm2,%xmm0
- DB 15,182,60,57 ; movzbl (%ecx,%edi,1),%edi
- DB 15,182,20,17 ; movzbl (%ecx,%edx,1),%edx
- DB 193,226,8 ; shl $0x8,%edx
- DB 9,250 ; or %edi,%edx
- DB 139,125,8 ; mov 0x8(%ebp),%edi
- DB 102,15,244,211 ; pmuludq %xmm3,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,98,208 ; punpckldq %xmm0,%xmm2
- DB 243,15,91,193 ; cvttps2dq %xmm1,%xmm0
- DB 102,15,254,194 ; paddd %xmm2,%xmm0
- DB 102,15,110,218 ; movd %edx,%xmm3
- DB 102,15,126,194 ; movd %xmm0,%edx
- DB 102,15,112,200,229 ; pshufd $0xe5,%xmm0,%xmm1
- DB 102,15,196,222,1 ; pinsrw $0x1,%esi,%xmm3
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 102,15,112,200,78 ; pshufd $0x4e,%xmm0,%xmm1
- DB 15,182,20,17 ; movzbl (%ecx,%edx,1),%edx
- DB 15,182,52,49 ; movzbl (%ecx,%esi,1),%esi
- DB 193,230,8 ; shl $0x8,%esi
- DB 9,214 ; or %edx,%esi
- DB 102,15,126,202 ; movd %xmm1,%edx
- DB 102,15,112,192,231 ; pshufd $0xe7,%xmm0,%xmm0
- DB 102,15,196,222,2 ; pinsrw $0x2,%esi,%xmm3
- DB 102,15,126,198 ; movd %xmm0,%esi
- DB 15,182,20,17 ; movzbl (%ecx,%edx,1),%edx
- DB 15,182,12,49 ; movzbl (%ecx,%esi,1),%ecx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 193,225,8 ; shl $0x8,%ecx
- DB 9,209 ; or %edx,%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,40,77,40 ; movaps 0x28(%ebp),%xmm1
- DB 15,40,85,56 ; movaps 0x38(%ebp),%xmm2
- DB 102,15,196,217,3 ; pinsrw $0x3,%ecx,%xmm3
- DB 102,15,96,220 ; punpcklbw %xmm4,%xmm3
- DB 15,40,101,72 ; movaps 0x48(%ebp),%xmm4
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,41,100,36,64 ; movaps %xmm4,0x40(%esp)
- DB 15,41,84,36,48 ; movaps %xmm2,0x30(%esp)
- DB 15,41,76,36,32 ; movaps %xmm1,0x20(%esp)
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,60,36 ; mov %edi,(%esp)
- DB 15,87,192 ; xorps %xmm0,%xmm0
- DB 15,87,201 ; xorps %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_load_g8_sse2_lowp
-_sk_load_g8_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 15,40,101,72 ; movaps 0x48(%ebp),%xmm4
- DB 15,40,93,56 ; movaps 0x38(%ebp),%xmm3
- DB 15,40,85,40 ; movaps 0x28(%ebp),%xmm2
- DB 15,40,77,24 ; movaps 0x18(%ebp),%xmm1
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call dfd0 <_sk_load_g8_sse2_lowp+0x39>
- DB 94 ; pop %esi
- DB 139,125,16 ; mov 0x10(%ebp),%edi
- DB 119,28 ; ja dff2 <_sk_load_g8_sse2_lowp+0x5b>
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,142,200,0,0,0 ; mov 0xc8(%esi,%ecx,4),%ecx
- DB 1,241 ; add %esi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,182,12,59 ; movzbl (%ebx,%edi,1),%ecx
- DB 102,15,110,193 ; movd %ecx,%xmm0
- DB 235,90 ; jmp e04c <_sk_load_g8_sse2_lowp+0xb5>
- DB 243,15,126,4,59 ; movq (%ebx,%edi,1),%xmm0
- DB 102,15,96,192 ; punpcklbw %xmm0,%xmm0
- DB 235,79 ; jmp e04c <_sk_load_g8_sse2_lowp+0xb5>
- DB 15,182,76,59,2 ; movzbl 0x2(%ebx,%edi,1),%ecx
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,193,2 ; pinsrw $0x2,%ecx,%xmm0
- DB 15,183,12,59 ; movzwl (%ebx,%edi,1),%ecx
- DB 102,15,110,233 ; movd %ecx,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 243,15,16,197 ; movss %xmm5,%xmm0
- DB 235,47 ; jmp e04c <_sk_load_g8_sse2_lowp+0xb5>
- DB 15,182,76,59,6 ; movzbl 0x6(%ebx,%edi,1),%ecx
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,196,193,6 ; pinsrw $0x6,%ecx,%xmm0
- DB 15,182,76,59,5 ; movzbl 0x5(%ebx,%edi,1),%ecx
- DB 102,15,196,193,5 ; pinsrw $0x5,%ecx,%xmm0
- DB 15,182,76,59,4 ; movzbl 0x4(%ebx,%edi,1),%ecx
- DB 102,15,196,193,4 ; pinsrw $0x4,%ecx,%xmm0
- DB 102,15,110,44,59 ; movd (%ebx,%edi,1),%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 242,15,16,197 ; movsd %xmm5,%xmm0
- DB 102,15,219,134,160,46,0,0 ; pand 0x2ea0(%esi),%xmm0
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,41,100,36,64 ; movaps %xmm4,0x40(%esp)
- DB 15,41,92,36,48 ; movaps %xmm3,0x30(%esp)
- DB 15,41,84,36,32 ; movaps %xmm2,0x20(%esp)
- DB 15,41,76,36,16 ; movaps %xmm1,0x10(%esp)
- DB 139,93,20 ; mov 0x14(%ebp),%ebx
- DB 137,92,36,12 ; mov %ebx,0xc(%esp)
- DB 137,124,36,8 ; mov %edi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 15,40,158,160,46,0,0 ; movaps 0x2ea0(%esi),%xmm3
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 144 ; nop
- DB 24,0 ; sbb %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 59,0 ; cmp (%eax),%eax
- DB 0,0 ; add %al,(%eax)
- DB 45,0,0,0,111 ; sub $0x6f000000,%eax
- DB 0,0 ; add %al,(%eax)
- DB 0,101,0 ; add %ah,0x0(%ebp)
- DB 0,0 ; add %al,(%eax)
- DB 91 ; pop %ebx
- DB 0,0 ; add %al,(%eax)
- DB 0,77,0 ; add %cl,0x0(%ebp)
- DB 0,0 ; add %al,(%eax)
-
-PUBLIC _sk_load_g8_dst_sse2_lowp
-_sk_load_g8_dst_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call e0dd <_sk_load_g8_dst_sse2_lowp+0x29>
- DB 95 ; pop %edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja e0ff <_sk_load_g8_dst_sse2_lowp+0x4b>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,195,0,0,0 ; mov 0xc3(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
- DB 102,15,110,225 ; movd %ecx,%xmm4
- DB 235,90 ; jmp e159 <_sk_load_g8_dst_sse2_lowp+0xa5>
- DB 243,15,126,36,51 ; movq (%ebx,%esi,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 235,79 ; jmp e159 <_sk_load_g8_dst_sse2_lowp+0xa5>
- DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,225,2 ; pinsrw $0x2,%ecx,%xmm4
- DB 15,183,12,51 ; movzwl (%ebx,%esi,1),%ecx
- DB 102,15,110,233 ; movd %ecx,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 243,15,16,229 ; movss %xmm5,%xmm4
- DB 235,47 ; jmp e159 <_sk_load_g8_dst_sse2_lowp+0xa5>
- DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,225,6 ; pinsrw $0x6,%ecx,%xmm4
- DB 15,182,76,51,5 ; movzbl 0x5(%ebx,%esi,1),%ecx
- DB 102,15,196,225,5 ; pinsrw $0x5,%ecx,%xmm4
- DB 15,182,76,51,4 ; movzbl 0x4(%ebx,%esi,1),%ecx
- DB 102,15,196,225,4 ; pinsrw $0x4,%ecx,%xmm4
- DB 102,15,110,44,51 ; movd (%ebx,%esi,1),%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 102,15,219,167,147,45,0,0 ; pand 0x2d93(%edi),%xmm4
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,40,175,147,45,0,0 ; movaps 0x2d93(%edi),%xmm5
- DB 15,41,108,36,64 ; movaps %xmm5,0x40(%esp)
- DB 102,15,127,100,36,48 ; movdqa %xmm4,0x30(%esp)
- DB 102,15,127,100,36,32 ; movdqa %xmm4,0x20(%esp)
- DB 102,15,127,100,36,16 ; movdqa %xmm4,0x10(%esp)
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 144 ; nop
- DB 24,0 ; sbb %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 59,0 ; cmp (%eax),%eax
- DB 0,0 ; add %al,(%eax)
- DB 45,0,0,0,111 ; sub $0x6f000000,%eax
- DB 0,0 ; add %al,(%eax)
- DB 0,101,0 ; add %ah,0x0(%ebp)
- DB 0,0 ; add %al,(%eax)
- DB 91 ; pop %ebx
- DB 0,0 ; add %al,(%eax)
- DB 0,77,0 ; add %cl,0x0(%ebp)
- DB 0,0 ; add %al,(%eax)
-
-PUBLIC _sk_luminance_to_alpha_sse2_lowp
-_sk_luminance_to_alpha_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 232,0,0,0,0 ; call e1cd <_sk_luminance_to_alpha_sse2_lowp+0x11>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 15,40,85,24 ; movaps 0x18(%ebp),%xmm2
- DB 15,40,101,40 ; movaps 0x28(%ebp),%xmm4
- DB 15,40,109,56 ; movaps 0x38(%ebp),%xmm5
- DB 15,40,117,72 ; movaps 0x48(%ebp),%xmm6
- DB 139,125,12 ; mov 0xc(%ebp),%edi
- DB 102,15,213,128,115,45,0,0 ; pmullw 0x2d73(%eax),%xmm0
- DB 102,15,213,136,131,45,0,0 ; pmullw 0x2d83(%eax),%xmm1
- DB 102,15,253,200 ; paddw %xmm0,%xmm1
- DB 102,15,213,152,147,45,0,0 ; pmullw 0x2d93(%eax),%xmm3
- DB 102,15,253,217 ; paddw %xmm1,%xmm3
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 141,71,4 ; lea 0x4(%edi),%eax
- DB 15,41,116,36,64 ; movaps %xmm6,0x40(%esp)
- DB 15,41,108,36,48 ; movaps %xmm5,0x30(%esp)
- DB 15,41,100,36,32 ; movaps %xmm4,0x20(%esp)
- DB 15,41,84,36,16 ; movaps %xmm2,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,68,36,4 ; mov %eax,0x4(%esp)
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,239,201 ; pxor %xmm1,%xmm1
- DB 15,87,210 ; xorps %xmm2,%xmm2
- DB 255,23 ; call *(%edi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_gather_g8_sse2_lowp
-_sk_gather_g8_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,105,8 ; movss 0x8(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 102,15,118,246 ; pcmpeqd %xmm6,%xmm6
- DB 102,15,254,238 ; paddd %xmm6,%xmm5
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,196 ; maxps %xmm4,%xmm0
- DB 15,95,204 ; maxps %xmm4,%xmm1
- DB 15,93,205 ; minps %xmm5,%xmm1
- DB 15,93,197 ; minps %xmm5,%xmm0
- DB 243,15,16,105,12 ; movss 0xc(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 102,15,254,238 ; paddd %xmm6,%xmm5
- DB 15,95,220 ; maxps %xmm4,%xmm3
- DB 15,95,212 ; maxps %xmm4,%xmm2
- DB 15,93,213 ; minps %xmm5,%xmm2
- DB 15,93,221 ; minps %xmm5,%xmm3
- DB 243,15,91,234 ; cvttps2dq %xmm2,%xmm5
- DB 102,15,110,81,4 ; movd 0x4(%ecx),%xmm2
- DB 102,15,112,210,0 ; pshufd $0x0,%xmm2,%xmm2
- DB 102,15,111,242 ; movdqa %xmm2,%xmm6
- DB 102,15,244,245 ; pmuludq %xmm5,%xmm6
- DB 102,15,112,237,245 ; pshufd $0xf5,%xmm5,%xmm5
- DB 102,15,244,234 ; pmuludq %xmm2,%xmm5
- DB 102,15,112,246,232 ; pshufd $0xe8,%xmm6,%xmm6
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,98,245 ; punpckldq %xmm5,%xmm6
- DB 243,15,91,192 ; cvttps2dq %xmm0,%xmm0
- DB 102,15,254,198 ; paddd %xmm6,%xmm0
- DB 102,15,112,232,78 ; pshufd $0x4e,%xmm0,%xmm5
- DB 102,15,126,234 ; movd %xmm5,%edx
- DB 102,15,112,232,231 ; pshufd $0xe7,%xmm0,%xmm5
- DB 102,15,126,238 ; movd %xmm5,%esi
- DB 139,57 ; mov (%ecx),%edi
- DB 243,15,91,219 ; cvttps2dq %xmm3,%xmm3
- DB 102,15,126,193 ; movd %xmm0,%ecx
- DB 102,15,112,192,229 ; pshufd $0xe5,%xmm0,%xmm0
- DB 15,182,20,23 ; movzbl (%edi,%edx,1),%edx
- DB 15,182,52,55 ; movzbl (%edi,%esi,1),%esi
- DB 193,230,8 ; shl $0x8,%esi
- DB 9,214 ; or %edx,%esi
- DB 102,15,126,194 ; movd %xmm0,%edx
- DB 102,15,112,195,245 ; pshufd $0xf5,%xmm3,%xmm0
- DB 102,15,244,194 ; pmuludq %xmm2,%xmm0
- DB 15,182,12,15 ; movzbl (%edi,%ecx,1),%ecx
- DB 15,182,20,23 ; movzbl (%edi,%edx,1),%edx
- DB 193,226,8 ; shl $0x8,%edx
- DB 9,202 ; or %ecx,%edx
- DB 232,0,0,0,0 ; call e312 <_sk_gather_g8_sse2_lowp+0xc9>
- DB 89 ; pop %ecx
- DB 102,15,244,211 ; pmuludq %xmm3,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,98,208 ; punpckldq %xmm0,%xmm2
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 102,15,254,202 ; paddd %xmm2,%xmm1
- DB 102,15,110,194 ; movd %edx,%xmm0
- DB 102,15,126,202 ; movd %xmm1,%edx
- DB 102,15,112,209,229 ; pshufd $0xe5,%xmm1,%xmm2
- DB 102,15,196,198,1 ; pinsrw $0x1,%esi,%xmm0
- DB 102,15,126,214 ; movd %xmm2,%esi
- DB 102,15,112,209,78 ; pshufd $0x4e,%xmm1,%xmm2
- DB 15,182,20,23 ; movzbl (%edi,%edx,1),%edx
- DB 15,182,52,55 ; movzbl (%edi,%esi,1),%esi
- DB 193,230,8 ; shl $0x8,%esi
- DB 9,214 ; or %edx,%esi
- DB 102,15,126,210 ; movd %xmm2,%edx
- DB 102,15,112,201,231 ; pshufd $0xe7,%xmm1,%xmm1
- DB 102,15,196,198,2 ; pinsrw $0x2,%esi,%xmm0
- DB 102,15,126,206 ; movd %xmm1,%esi
- DB 15,182,20,23 ; movzbl (%edi,%edx,1),%edx
- DB 15,182,52,55 ; movzbl (%edi,%esi,1),%esi
- DB 139,125,8 ; mov 0x8(%ebp),%edi
- DB 193,230,8 ; shl $0x8,%esi
- DB 9,214 ; or %edx,%esi
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 102,15,196,198,3 ; pinsrw $0x3,%esi,%xmm0
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 15,40,77,24 ; movaps 0x18(%ebp),%xmm1
- DB 15,40,85,40 ; movaps 0x28(%ebp),%xmm2
- DB 15,40,93,56 ; movaps 0x38(%ebp),%xmm3
- DB 102,15,96,196 ; punpcklbw %xmm4,%xmm0
- DB 15,40,101,72 ; movaps 0x48(%ebp),%xmm4
- DB 141,88,8 ; lea 0x8(%eax),%ebx
- DB 15,41,100,36,64 ; movaps %xmm4,0x40(%esp)
- DB 15,41,92,36,48 ; movaps %xmm3,0x30(%esp)
- DB 15,41,84,36,32 ; movaps %xmm2,0x20(%esp)
- DB 15,41,76,36,16 ; movaps %xmm1,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,92,36,4 ; mov %ebx,0x4(%esp)
- DB 137,60,36 ; mov %edi,(%esp)
- DB 15,40,153,94,43,0,0 ; movaps 0x2b5e(%ecx),%xmm3
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,111,208 ; movdqa %xmm0,%xmm2
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_scale_1_float_sse2_lowp
-_sk_scale_1_float_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call e3e3 <_sk_scale_1_float_sse2_lowp+0xd>
- DB 94 ; pop %esi
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,57 ; mov (%ecx),%edi
- DB 243,15,16,39 ; movss (%edi),%xmm4
- DB 243,15,89,166,153,43,0,0 ; mulss 0x2b99(%esi),%xmm4
- DB 243,15,88,166,141,43,0,0 ; addss 0x2b8d(%esi),%xmm4
- DB 243,15,44,252 ; cvttss2si %xmm4,%edi
- DB 102,15,110,239 ; movd %edi,%xmm5
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,40,117,40 ; movaps 0x28(%ebp),%xmm6
- DB 15,40,125,56 ; movaps 0x38(%ebp),%xmm7
- DB 242,15,112,237,0 ; pshuflw $0x0,%xmm5,%xmm5
- DB 102,15,112,237,80 ; pshufd $0x50,%xmm5,%xmm5
- DB 102,15,213,197 ; pmullw %xmm5,%xmm0
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,213,213 ; pmullw %xmm5,%xmm2
- DB 102,15,213,221 ; pmullw %xmm5,%xmm3
- DB 102,15,111,174,141,42,0,0 ; movdqa 0x2a8d(%esi),%xmm5
- DB 102,15,253,197 ; paddw %xmm5,%xmm0
- DB 102,15,253,205 ; paddw %xmm5,%xmm1
- DB 102,15,253,213 ; paddw %xmm5,%xmm2
- DB 102,15,253,221 ; paddw %xmm5,%xmm3
- DB 15,40,109,72 ; movaps 0x48(%ebp),%xmm5
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 141,113,8 ; lea 0x8(%ecx),%esi
- DB 15,41,108,36,64 ; movaps %xmm5,0x40(%esp)
- DB 15,41,124,36,48 ; movaps %xmm7,0x30(%esp)
- DB 15,41,116,36,32 ; movaps %xmm6,0x20(%esp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,116,36,4 ; mov %esi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_lerp_1_float_sse2_lowp
-_sk_lerp_1_float_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,15,111,218 ; movdqa %xmm2,%xmm3
- DB 102,15,111,209 ; movdqa %xmm1,%xmm2
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 232,0,0,0,0 ; call e4b1 <_sk_lerp_1_float_sse2_lowp+0x1d>
- DB 89 ; pop %ecx
- DB 102,15,111,109,24 ; movdqa 0x18(%ebp),%xmm5
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,16 ; mov (%eax),%edx
- DB 243,15,16,50 ; movss (%edx),%xmm6
- DB 243,15,89,177,203,42,0,0 ; mulss 0x2acb(%ecx),%xmm6
- DB 243,15,88,177,191,42,0,0 ; addss 0x2abf(%ecx),%xmm6
- DB 243,15,44,214 ; cvttss2si %xmm6,%edx
- DB 102,15,110,242 ; movd %edx,%xmm6
- DB 242,15,112,246,0 ; pshuflw $0x0,%xmm6,%xmm6
- DB 102,15,112,246,80 ; pshufd $0x50,%xmm6,%xmm6
- DB 102,15,111,129,191,41,0,0 ; movdqa 0x29bf(%ecx),%xmm0
- DB 102,15,213,206 ; pmullw %xmm6,%xmm1
- DB 102,15,253,200 ; paddw %xmm0,%xmm1
- DB 102,15,213,214 ; pmullw %xmm6,%xmm2
- DB 102,15,253,208 ; paddw %xmm0,%xmm2
- DB 102,15,213,222 ; pmullw %xmm6,%xmm3
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 102,15,213,230 ; pmullw %xmm6,%xmm4
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,249,198 ; psubw %xmm6,%xmm0
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,213,245 ; pmullw %xmm5,%xmm6
- DB 102,15,253,206 ; paddw %xmm6,%xmm1
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,213,117,40 ; pmullw 0x28(%ebp),%xmm6
- DB 102,15,253,214 ; paddw %xmm6,%xmm2
- DB 102,15,111,117,56 ; movdqa 0x38(%ebp),%xmm6
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 102,15,213,254 ; pmullw %xmm6,%xmm7
- DB 102,15,253,223 ; paddw %xmm7,%xmm3
- DB 102,15,111,125,72 ; movdqa 0x48(%ebp),%xmm7
- DB 102,15,213,199 ; pmullw %xmm7,%xmm0
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 141,120,8 ; lea 0x8(%eax),%edi
- DB 102,15,127,124,36,64 ; movdqa %xmm7,0x40(%esp)
- DB 102,15,127,116,36,48 ; movdqa %xmm6,0x30(%esp)
- DB 15,40,69,40 ; movaps 0x28(%ebp),%xmm0
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
- DB 102,15,127,108,36,16 ; movdqa %xmm5,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_scale_u8_sse2_lowp
-_sk_scale_u8_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,92 ; sub $0x5c,%esp
- DB 15,40,125,56 ; movaps 0x38(%ebp),%xmm7
- DB 15,40,117,40 ; movaps 0x28(%ebp),%xmm6
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call e5da <_sk_scale_u8_sse2_lowp+0x31>
- DB 95 ; pop %edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja e5fc <_sk_scale_u8_sse2_lowp+0x53>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,2,1,0,0 ; mov 0x102(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
- DB 102,15,110,225 ; movd %ecx,%xmm4
- DB 235,90 ; jmp e656 <_sk_scale_u8_sse2_lowp+0xad>
- DB 243,15,126,36,51 ; movq (%ebx,%esi,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 235,79 ; jmp e656 <_sk_scale_u8_sse2_lowp+0xad>
- DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,225,2 ; pinsrw $0x2,%ecx,%xmm4
- DB 15,183,12,51 ; movzwl (%ebx,%esi,1),%ecx
- DB 102,15,110,233 ; movd %ecx,%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 243,15,16,229 ; movss %xmm5,%xmm4
- DB 235,47 ; jmp e656 <_sk_scale_u8_sse2_lowp+0xad>
- DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 102,15,196,225,6 ; pinsrw $0x6,%ecx,%xmm4
- DB 15,182,76,51,5 ; movzbl 0x5(%ebx,%esi,1),%ecx
- DB 102,15,196,225,5 ; pinsrw $0x5,%ecx,%xmm4
- DB 15,182,76,51,4 ; movzbl 0x4(%ebx,%esi,1),%ecx
- DB 102,15,196,225,4 ; pinsrw $0x4,%ecx,%xmm4
- DB 102,15,110,44,51 ; movd (%ebx,%esi,1),%xmm5
- DB 102,15,96,232 ; punpcklbw %xmm0,%xmm5
- DB 242,15,16,229 ; movsd %xmm5,%xmm4
- DB 102,15,219,167,150,40,0,0 ; pand 0x2896(%edi),%xmm4
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,15,111,175,150,40,0,0 ; movdqa 0x2896(%edi),%xmm5
- DB 102,15,253,197 ; paddw %xmm5,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,213,204 ; pmullw %xmm4,%xmm1
- DB 102,15,253,205 ; paddw %xmm5,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,213,212 ; pmullw %xmm4,%xmm2
- DB 102,15,253,213 ; paddw %xmm5,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,213,227 ; pmullw %xmm3,%xmm4
- DB 102,15,253,229 ; paddw %xmm5,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,40,93,72 ; movaps 0x48(%ebp),%xmm3
- DB 15,41,92,36,64 ; movaps %xmm3,0x40(%esp)
- DB 15,41,124,36,48 ; movaps %xmm7,0x30(%esp)
- DB 15,41,116,36,32 ; movaps %xmm6,0x20(%esp)
- DB 15,40,93,24 ; movaps 0x18(%ebp),%xmm3
- DB 15,41,92,36,16 ; movaps %xmm3,0x10(%esp)
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 102,15,111,220 ; movdqa %xmm4,%xmm3
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,92 ; add $0x5c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 102,144 ; xchg %ax,%ax
- DB 24,0 ; sbb %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 59,0 ; cmp (%eax),%eax
- DB 0,0 ; add %al,(%eax)
- DB 45,0,0,0,111 ; sub $0x6f000000,%eax
- DB 0,0 ; add %al,(%eax)
- DB 0,101,0 ; add %ah,0x0(%ebp)
- DB 0,0 ; add %al,(%eax)
- DB 91 ; pop %ebx
- DB 0,0 ; add %al,(%eax)
- DB 0,77,0 ; add %cl,0x0(%ebp)
- DB 0,0 ; add %al,(%eax)
-
-PUBLIC _sk_lerp_u8_sse2_lowp
-_sk_lerp_u8_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,108 ; sub $0x6c,%esp
- DB 102,15,127,93,216 ; movdqa %xmm3,-0x28(%ebp)
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call e726 <_sk_lerp_u8_sse2_lowp+0x2e>
- DB 95 ; pop %edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja e748 <_sk_lerp_u8_sse2_lowp+0x50>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,74,1,0,0 ; mov 0x14a(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,182,12,51 ; movzbl (%ebx,%esi,1),%ecx
- DB 102,15,110,217 ; movd %ecx,%xmm3
- DB 235,90 ; jmp e7a2 <_sk_lerp_u8_sse2_lowp+0xaa>
- DB 243,15,126,28,51 ; movq (%ebx,%esi,1),%xmm3
- DB 102,15,96,216 ; punpcklbw %xmm0,%xmm3
- DB 235,79 ; jmp e7a2 <_sk_lerp_u8_sse2_lowp+0xaa>
- DB 15,182,76,51,2 ; movzbl 0x2(%ebx,%esi,1),%ecx
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,196,217,2 ; pinsrw $0x2,%ecx,%xmm3
- DB 15,183,12,51 ; movzwl (%ebx,%esi,1),%ecx
- DB 102,15,110,225 ; movd %ecx,%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 243,15,16,220 ; movss %xmm4,%xmm3
- DB 235,47 ; jmp e7a2 <_sk_lerp_u8_sse2_lowp+0xaa>
- DB 15,182,76,51,6 ; movzbl 0x6(%ebx,%esi,1),%ecx
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,196,217,6 ; pinsrw $0x6,%ecx,%xmm3
- DB 15,182,76,51,5 ; movzbl 0x5(%ebx,%esi,1),%ecx
- DB 102,15,196,217,5 ; pinsrw $0x5,%ecx,%xmm3
- DB 15,182,76,51,4 ; movzbl 0x4(%ebx,%esi,1),%ecx
- DB 102,15,196,217,4 ; pinsrw $0x4,%ecx,%xmm3
- DB 102,15,110,36,51 ; movd (%ebx,%esi,1),%xmm4
- DB 102,15,96,224 ; punpcklbw %xmm0,%xmm4
- DB 242,15,16,220 ; movsd %xmm4,%xmm3
- DB 102,15,219,159,74,39,0,0 ; pand 0x274a(%edi),%xmm3
- DB 102,15,111,183,74,39,0,0 ; movdqa 0x274a(%edi),%xmm6
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 102,15,239,230 ; pxor %xmm6,%xmm4
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,111,109,24 ; movdqa 0x18(%ebp),%xmm5
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,15,213,195 ; pmullw %xmm3,%xmm0
- DB 102,15,253,198 ; paddw %xmm6,%xmm0
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,111,109,40 ; movdqa 0x28(%ebp),%xmm5
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,15,213,203 ; pmullw %xmm3,%xmm1
- DB 102,15,253,206 ; paddw %xmm6,%xmm1
- DB 102,15,253,207 ; paddw %xmm7,%xmm1
- DB 102,15,111,252 ; movdqa %xmm4,%xmm7
- DB 102,15,111,109,56 ; movdqa 0x38(%ebp),%xmm5
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,15,213,211 ; pmullw %xmm3,%xmm2
- DB 102,15,253,214 ; paddw %xmm6,%xmm2
- DB 102,15,253,215 ; paddw %xmm7,%xmm2
- DB 102,15,213,93,216 ; pmullw -0x28(%ebp),%xmm3
- DB 102,15,253,222 ; paddw %xmm6,%xmm3
- DB 102,15,111,117,72 ; movdqa 0x48(%ebp),%xmm6
- DB 102,15,213,230 ; pmullw %xmm6,%xmm4
- DB 102,15,253,220 ; paddw %xmm4,%xmm3
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 102,15,127,116,36,64 ; movdqa %xmm6,0x40(%esp)
- DB 102,15,127,108,36,48 ; movdqa %xmm5,0x30(%esp)
- DB 15,40,101,40 ; movaps 0x28(%ebp),%xmm4
- DB 15,41,100,36,32 ; movaps %xmm4,0x20(%esp)
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,108 ; add $0x6c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 15,31,0 ; nopl (%eax)
- DB 24,0 ; sbb %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 59,0 ; cmp (%eax),%eax
- DB 0,0 ; add %al,(%eax)
- DB 45,0,0,0,111 ; sub $0x6f000000,%eax
- DB 0,0 ; add %al,(%eax)
- DB 0,101,0 ; add %ah,0x0(%ebp)
- DB 0,0 ; add %al,(%eax)
- DB 91 ; pop %ebx
- DB 0,0 ; add %al,(%eax)
- DB 0,77,0 ; add %cl,0x0(%ebp)
- DB 0,0 ; add %al,(%eax)
-
-PUBLIC _sk_scale_565_sse2_lowp
-_sk_scale_565_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,188,0,0,0 ; sub $0xbc,%esp
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 15,41,85,136 ; movaps %xmm2,-0x78(%ebp)
- DB 15,41,77,152 ; movaps %xmm1,-0x68(%ebp)
- DB 15,41,69,168 ; movaps %xmm0,-0x58(%ebp)
- DB 102,15,111,125,72 ; movdqa 0x48(%ebp),%xmm7
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 1,219 ; add %ebx,%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call e8cf <_sk_scale_565_sse2_lowp+0x43>
- DB 95 ; pop %edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja e8f1 <_sk_scale_565_sse2_lowp+0x65>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,249,1,0,0 ; mov 0x1f9(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,183,12,115 ; movzwl (%ebx,%esi,2),%ecx
- DB 102,15,110,217 ; movd %ecx,%xmm3
- DB 235,59 ; jmp e92c <_sk_scale_565_sse2_lowp+0xa0>
- DB 243,15,111,28,115 ; movdqu (%ebx,%esi,2),%xmm3
- DB 235,52 ; jmp e92c <_sk_scale_565_sse2_lowp+0xa0>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,196,92,115,4,2 ; pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
- DB 243,15,16,12,115 ; movss (%ebx,%esi,2),%xmm1
- DB 243,15,16,217 ; movss %xmm1,%xmm3
- DB 235,30 ; jmp e92c <_sk_scale_565_sse2_lowp+0xa0>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,196,92,115,12,6 ; pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
- DB 102,15,196,92,115,10,5 ; pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
- DB 102,15,196,92,115,8,4 ; pinsrw $0x4,0x8(%ebx,%esi,2),%xmm3
- DB 102,15,18,28,115 ; movlpd (%ebx,%esi,2),%xmm3
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,219,143,225,37,0,0 ; pand 0x25e1(%edi),%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,113,210,5 ; psrlw $0x5,%xmm2
- DB 102,15,219,151,241,37,0,0 ; pand 0x25f1(%edi),%xmm2
- DB 102,15,111,135,1,38,0,0 ; movdqa 0x2601(%edi),%xmm0
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 102,15,113,211,13 ; psrlw $0xd,%xmm3
- DB 102,15,235,217 ; por %xmm1,%xmm3
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,113,241,2 ; psllw $0x2,%xmm1
- DB 102,15,113,210,4 ; psrlw $0x4,%xmm2
- DB 102,15,235,209 ; por %xmm1,%xmm2
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,113,241,3 ; psllw $0x3,%xmm1
- DB 102,15,113,208,2 ; psrlw $0x2,%xmm0
- DB 102,15,235,193 ; por %xmm1,%xmm0
- DB 102,15,127,69,200 ; movdqa %xmm0,-0x38(%ebp)
- DB 102,15,111,167,177,37,0,0 ; movdqa 0x25b1(%edi),%xmm4
- DB 15,41,117,184 ; movaps %xmm6,-0x48(%ebp)
- DB 102,15,239,244 ; pxor %xmm4,%xmm6
- DB 102,15,239,252 ; pxor %xmm4,%xmm7
- DB 102,15,101,254 ; pcmpgtw %xmm6,%xmm7
- DB 102,15,111,240 ; movdqa %xmm0,%xmm6
- DB 102,15,239,244 ; pxor %xmm4,%xmm6
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,239,204 ; pxor %xmm4,%xmm1
- DB 102,15,101,241 ; pcmpgtw %xmm1,%xmm6
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 102,15,223,200 ; pandn %xmm0,%xmm1
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,219,238 ; pand %xmm6,%xmm5
- DB 102,15,235,233 ; por %xmm1,%xmm5
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,239,204 ; pxor %xmm4,%xmm1
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,235,196 ; por %xmm4,%xmm0
- DB 102,15,127,69,216 ; movdqa %xmm0,-0x28(%ebp)
- DB 102,15,101,200 ; pcmpgtw %xmm0,%xmm1
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,219,193 ; pand %xmm1,%xmm0
- DB 102,15,223,205 ; pandn %xmm5,%xmm1
- DB 102,15,235,200 ; por %xmm0,%xmm1
- DB 102,15,111,109,200 ; movdqa -0x38(%ebp),%xmm5
- DB 102,15,111,197 ; movdqa %xmm5,%xmm0
- DB 102,15,219,198 ; pand %xmm6,%xmm0
- DB 102,15,223,242 ; pandn %xmm2,%xmm6
- DB 102,15,235,240 ; por %xmm0,%xmm6
- DB 102,15,239,230 ; pxor %xmm6,%xmm4
- DB 102,15,101,101,216 ; pcmpgtw -0x28(%ebp),%xmm4
- DB 102,15,219,244 ; pand %xmm4,%xmm6
- DB 102,15,223,227 ; pandn %xmm3,%xmm4
- DB 102,15,235,230 ; por %xmm6,%xmm4
- DB 102,15,219,207 ; pand %xmm7,%xmm1
- DB 102,15,223,252 ; pandn %xmm4,%xmm7
- DB 102,15,235,249 ; por %xmm1,%xmm7
- DB 102,15,213,93,168 ; pmullw -0x58(%ebp),%xmm3
- DB 102,15,213,85,152 ; pmullw -0x68(%ebp),%xmm2
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,213,101,136 ; pmullw -0x78(%ebp),%xmm4
- DB 102,15,213,125,184 ; pmullw -0x48(%ebp),%xmm7
- DB 102,15,111,135,161,37,0,0 ; movdqa 0x25a1(%edi),%xmm0
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 102,15,253,208 ; paddw %xmm0,%xmm2
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,253,248 ; paddw %xmm0,%xmm7
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,40,69,72 ; movaps 0x48(%ebp),%xmm0
- DB 15,41,68,36,64 ; movaps %xmm0,0x40(%esp)
- DB 15,40,69,56 ; movaps 0x38(%ebp),%xmm0
- DB 15,41,68,36,48 ; movaps %xmm0,0x30(%esp)
- DB 15,40,69,40 ; movaps 0x28(%ebp),%xmm0
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,111,223 ; movdqa %xmm7,%xmm3
- DB 255,80,4 ; call *0x4(%eax)
- DB 129,196,188,0,0,0 ; add $0xbc,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 102,144 ; xchg %ax,%ax
- DB 24,0 ; sbb %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 52,0 ; xor $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 41,0 ; sub %eax,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 88 ; pop %eax
- DB 0,0 ; add %al,(%eax)
- DB 0,81,0 ; add %dl,0x0(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 74 ; dec %edx
- DB 0,0 ; add %al,(%eax)
- DB 0,63 ; add %bh,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_lerp_565_sse2_lowp
-_sk_lerp_565_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,188,0,0,0 ; sub $0xbc,%esp
- DB 102,15,111,243 ; movdqa %xmm3,%xmm6
- DB 15,41,85,136 ; movaps %xmm2,-0x78(%ebp)
- DB 15,41,77,152 ; movaps %xmm1,-0x68(%ebp)
- DB 15,41,69,168 ; movaps %xmm0,-0x58(%ebp)
- DB 102,15,111,125,72 ; movdqa 0x48(%ebp),%xmm7
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,89,4 ; mov 0x4(%ecx),%ebx
- DB 15,175,93,20 ; imul 0x14(%ebp),%ebx
- DB 1,219 ; add %ebx,%ebx
- DB 3,25 ; add (%ecx),%ebx
- DB 137,209 ; mov %edx,%ecx
- DB 128,225,7 ; and $0x7,%cl
- DB 254,201 ; dec %cl
- DB 128,249,6 ; cmp $0x6,%cl
- DB 232,0,0,0,0 ; call eb27 <_sk_lerp_565_sse2_lowp+0x43>
- DB 95 ; pop %edi
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 119,28 ; ja eb49 <_sk_lerp_565_sse2_lowp+0x65>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 15,182,201 ; movzbl %cl,%ecx
- DB 139,140,143,73,2,0,0 ; mov 0x249(%edi,%ecx,4),%ecx
- DB 1,249 ; add %edi,%ecx
- DB 255,225 ; jmp *%ecx
- DB 15,183,12,115 ; movzwl (%ebx,%esi,2),%ecx
- DB 102,15,110,217 ; movd %ecx,%xmm3
- DB 235,59 ; jmp eb84 <_sk_lerp_565_sse2_lowp+0xa0>
- DB 243,15,111,28,115 ; movdqu (%ebx,%esi,2),%xmm3
- DB 235,52 ; jmp eb84 <_sk_lerp_565_sse2_lowp+0xa0>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,196,92,115,4,2 ; pinsrw $0x2,0x4(%ebx,%esi,2),%xmm3
- DB 243,15,16,12,115 ; movss (%ebx,%esi,2),%xmm1
- DB 243,15,16,217 ; movss %xmm1,%xmm3
- DB 235,30 ; jmp eb84 <_sk_lerp_565_sse2_lowp+0xa0>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,196,92,115,12,6 ; pinsrw $0x6,0xc(%ebx,%esi,2),%xmm3
- DB 102,15,196,92,115,10,5 ; pinsrw $0x5,0xa(%ebx,%esi,2),%xmm3
- DB 102,15,196,92,115,8,4 ; pinsrw $0x4,0x8(%ebx,%esi,2),%xmm3
- DB 102,15,18,28,115 ; movlpd (%ebx,%esi,2),%xmm3
- DB 102,15,111,203 ; movdqa %xmm3,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,219,143,137,35,0,0 ; pand 0x2389(%edi),%xmm1
- DB 102,15,111,211 ; movdqa %xmm3,%xmm2
- DB 102,15,113,210,5 ; psrlw $0x5,%xmm2
- DB 102,15,219,151,153,35,0,0 ; pand 0x2399(%edi),%xmm2
- DB 102,15,111,175,169,35,0,0 ; movdqa 0x23a9(%edi),%xmm5
- DB 102,15,219,235 ; pand %xmm3,%xmm5
- DB 102,15,113,211,13 ; psrlw $0xd,%xmm3
- DB 102,15,235,217 ; por %xmm1,%xmm3
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,113,241,2 ; psllw $0x2,%xmm1
- DB 102,15,113,210,4 ; psrlw $0x4,%xmm2
- DB 102,15,235,209 ; por %xmm1,%xmm2
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,113,241,3 ; psllw $0x3,%xmm1
- DB 102,15,113,213,2 ; psrlw $0x2,%xmm5
- DB 102,15,235,233 ; por %xmm1,%xmm5
- DB 102,15,127,109,216 ; movdqa %xmm5,-0x28(%ebp)
- DB 102,15,111,167,89,35,0,0 ; movdqa 0x2359(%edi),%xmm4
- DB 102,15,111,198 ; movdqa %xmm6,%xmm0
- DB 102,15,111,200 ; movdqa %xmm0,%xmm1
- DB 102,15,239,204 ; pxor %xmm4,%xmm1
- DB 102,15,239,252 ; pxor %xmm4,%xmm7
- DB 102,15,101,249 ; pcmpgtw %xmm1,%xmm7
- DB 102,15,111,245 ; movdqa %xmm5,%xmm6
- DB 102,15,239,244 ; pxor %xmm4,%xmm6
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,239,204 ; pxor %xmm4,%xmm1
- DB 102,15,101,241 ; pcmpgtw %xmm1,%xmm6
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 102,15,223,205 ; pandn %xmm5,%xmm1
- DB 102,15,127,69,184 ; movdqa %xmm0,-0x48(%ebp)
- DB 102,15,111,234 ; movdqa %xmm2,%xmm5
- DB 102,15,219,238 ; pand %xmm6,%xmm5
- DB 102,15,235,233 ; por %xmm1,%xmm5
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 102,15,239,204 ; pxor %xmm4,%xmm1
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,235,196 ; por %xmm4,%xmm0
- DB 102,15,127,69,200 ; movdqa %xmm0,-0x38(%ebp)
- DB 102,15,101,200 ; pcmpgtw %xmm0,%xmm1
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,219,193 ; pand %xmm1,%xmm0
- DB 102,15,223,205 ; pandn %xmm5,%xmm1
- DB 102,15,235,200 ; por %xmm0,%xmm1
- DB 102,15,111,69,216 ; movdqa -0x28(%ebp),%xmm0
- DB 102,15,219,198 ; pand %xmm6,%xmm0
- DB 102,15,223,242 ; pandn %xmm2,%xmm6
- DB 102,15,235,240 ; por %xmm0,%xmm6
- DB 102,15,239,230 ; pxor %xmm6,%xmm4
- DB 102,15,101,101,200 ; pcmpgtw -0x38(%ebp),%xmm4
- DB 102,15,219,244 ; pand %xmm4,%xmm6
- DB 102,15,223,227 ; pandn %xmm3,%xmm4
- DB 102,15,235,230 ; por %xmm6,%xmm4
- DB 102,15,219,207 ; pand %xmm7,%xmm1
- DB 102,15,223,252 ; pandn %xmm4,%xmm7
- DB 102,15,235,249 ; por %xmm1,%xmm7
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,213,93,168 ; pmullw -0x58(%ebp),%xmm3
- DB 102,15,111,143,73,35,0,0 ; movdqa 0x2349(%edi),%xmm1
- DB 102,15,239,193 ; pxor %xmm1,%xmm0
- DB 102,15,111,101,24 ; movdqa 0x18(%ebp),%xmm4
- DB 102,15,213,196 ; pmullw %xmm4,%xmm0
- DB 102,15,253,217 ; paddw %xmm1,%xmm3
- DB 102,15,253,216 ; paddw %xmm0,%xmm3
- DB 102,15,111,194 ; movdqa %xmm2,%xmm0
- DB 102,15,213,85,152 ; pmullw -0x68(%ebp),%xmm2
- DB 102,15,239,193 ; pxor %xmm1,%xmm0
- DB 102,15,111,109,40 ; movdqa 0x28(%ebp),%xmm5
- DB 102,15,213,197 ; pmullw %xmm5,%xmm0
- DB 102,15,253,209 ; paddw %xmm1,%xmm2
- DB 102,15,253,208 ; paddw %xmm0,%xmm2
- DB 102,15,111,101,216 ; movdqa -0x28(%ebp),%xmm4
- DB 102,15,111,196 ; movdqa %xmm4,%xmm0
- DB 102,15,213,101,136 ; pmullw -0x78(%ebp),%xmm4
- DB 102,15,239,193 ; pxor %xmm1,%xmm0
- DB 102,15,111,117,56 ; movdqa 0x38(%ebp),%xmm6
- DB 102,15,213,198 ; pmullw %xmm6,%xmm0
- DB 102,15,253,225 ; paddw %xmm1,%xmm4
- DB 102,15,253,224 ; paddw %xmm0,%xmm4
- DB 102,15,111,199 ; movdqa %xmm7,%xmm0
- DB 102,15,213,125,184 ; pmullw -0x48(%ebp),%xmm7
- DB 102,15,239,193 ; pxor %xmm1,%xmm0
- DB 102,15,253,249 ; paddw %xmm1,%xmm7
- DB 102,15,111,77,72 ; movdqa 0x48(%ebp),%xmm1
- DB 102,15,213,193 ; pmullw %xmm1,%xmm0
- DB 102,15,253,248 ; paddw %xmm0,%xmm7
- DB 102,15,113,211,8 ; psrlw $0x8,%xmm3
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 102,15,127,76,36,64 ; movdqa %xmm1,0x40(%esp)
- DB 102,15,127,116,36,48 ; movdqa %xmm6,0x30(%esp)
- DB 102,15,127,108,36,32 ; movdqa %xmm5,0x20(%esp)
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 102,15,111,195 ; movdqa %xmm3,%xmm0
- DB 102,15,111,202 ; movdqa %xmm2,%xmm1
- DB 102,15,111,212 ; movdqa %xmm4,%xmm2
- DB 102,15,111,223 ; movdqa %xmm7,%xmm3
- DB 255,80,4 ; call *0x4(%eax)
- DB 129,196,188,0,0,0 ; add $0xbc,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 144 ; nop
- DB 24,0 ; sbb %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 52,0 ; xor $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 41,0 ; sub %eax,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 88 ; pop %eax
- DB 0,0 ; add %al,(%eax)
- DB 0,81,0 ; add %dl,0x0(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 74 ; dec %edx
- DB 0,0 ; add %al,(%eax)
- DB 0,63 ; add %bh,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_clamp_x_1_sse2_lowp
-_sk_clamp_x_1_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call ed99 <_sk_clamp_x_1_sse2_lowp+0xd>
- DB 88 ; pop %eax
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 15,87,255 ; xorps %xmm7,%xmm7
- DB 15,95,207 ; maxps %xmm7,%xmm1
- DB 15,95,199 ; maxps %xmm7,%xmm0
- DB 15,40,184,215,25,0,0 ; movaps 0x19d7(%eax),%xmm7
- DB 15,93,199 ; minps %xmm7,%xmm0
- DB 15,93,207 ; minps %xmm7,%xmm1
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,120,4 ; lea 0x4(%eax),%edi
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 255,16 ; call *(%eax)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_repeat_x_1_sse2_lowp
-_sk_repeat_x_1_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 232,0,0,0,0 ; call ee08 <_sk_repeat_x_1_sse2_lowp+0xd>
- DB 94 ; pop %esi
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 243,15,91,225 ; cvttps2dq %xmm1,%xmm4
- DB 243,15,91,232 ; cvttps2dq %xmm0,%xmm5
- DB 15,91,237 ; cvtdq2ps %xmm5,%xmm5
- DB 15,91,228 ; cvtdq2ps %xmm4,%xmm4
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,194,244,1 ; cmpltps %xmm4,%xmm6
- DB 15,40,190,104,25,0,0 ; movaps 0x1968(%esi),%xmm7
- DB 15,84,247 ; andps %xmm7,%xmm6
- DB 15,92,230 ; subps %xmm6,%xmm4
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,194,245,1 ; cmpltps %xmm5,%xmm6
- DB 15,84,247 ; andps %xmm7,%xmm6
- DB 15,92,238 ; subps %xmm6,%xmm5
- DB 15,40,117,24 ; movaps 0x18(%ebp),%xmm6
- DB 15,92,197 ; subps %xmm5,%xmm0
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 15,92,204 ; subps %xmm4,%xmm1
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,204 ; maxps %xmm4,%xmm1
- DB 15,95,196 ; maxps %xmm4,%xmm0
- DB 15,40,101,56 ; movaps 0x38(%ebp),%xmm4
- DB 15,93,199 ; minps %xmm7,%xmm0
- DB 15,93,207 ; minps %xmm7,%xmm1
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,41,116,36,16 ; movaps %xmm6,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_mirror_x_1_sse2_lowp
-_sk_mirror_x_1_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,96 ; sub $0x60,%esp
- DB 15,41,93,232 ; movaps %xmm3,-0x18(%ebp)
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 232,0,0,0,0 ; call eeb2 <_sk_mirror_x_1_sse2_lowp+0x1a>
- DB 88 ; pop %eax
- DB 15,40,160,46,25,0,0 ; movaps 0x192e(%eax),%xmm4
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 15,40,176,174,24,0,0 ; movaps 0x18ae(%eax),%xmm6
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,89,254 ; mulps %xmm6,%xmm7
- DB 15,89,241 ; mulps %xmm1,%xmm6
- DB 243,15,91,238 ; cvttps2dq %xmm6,%xmm5
- DB 15,91,197 ; cvtdq2ps %xmm5,%xmm0
- DB 15,194,240,1 ; cmpltps %xmm0,%xmm6
- DB 15,40,168,190,24,0,0 ; movaps 0x18be(%eax),%xmm5
- DB 15,84,245 ; andps %xmm5,%xmm6
- DB 15,92,198 ; subps %xmm6,%xmm0
- DB 243,15,91,247 ; cvttps2dq %xmm7,%xmm6
- DB 15,91,246 ; cvtdq2ps %xmm6,%xmm6
- DB 15,194,254,1 ; cmpltps %xmm6,%xmm7
- DB 15,84,253 ; andps %xmm5,%xmm7
- DB 15,92,247 ; subps %xmm7,%xmm6
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 15,88,192 ; addps %xmm0,%xmm0
- DB 15,92,200 ; subps %xmm0,%xmm1
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,88,246 ; addps %xmm6,%xmm6
- DB 15,92,214 ; subps %xmm6,%xmm2
- DB 15,40,117,40 ; movaps 0x28(%ebp),%xmm6
- DB 15,88,212 ; addps %xmm4,%xmm2
- DB 15,88,204 ; addps %xmm4,%xmm1
- DB 15,40,160,254,29,0,0 ; movaps 0x1dfe(%eax),%xmm4
- DB 15,84,204 ; andps %xmm4,%xmm1
- DB 15,84,212 ; andps %xmm4,%xmm2
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,95,212 ; maxps %xmm4,%xmm2
- DB 15,95,204 ; maxps %xmm4,%xmm1
- DB 15,40,101,56 ; movaps 0x38(%ebp),%xmm4
- DB 15,93,205 ; minps %xmm5,%xmm1
- DB 15,93,213 ; minps %xmm5,%xmm2
- DB 15,40,109,72 ; movaps 0x48(%ebp),%xmm5
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,120,4 ; lea 0x4(%eax),%edi
- DB 15,41,108,36,64 ; movaps %xmm5,0x40(%esp)
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%esp)
- DB 15,41,116,36,32 ; movaps %xmm6,0x20(%esp)
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 15,40,193 ; movaps %xmm1,%xmm0
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 15,40,211 ; movaps %xmm3,%xmm2
- DB 15,40,93,232 ; movaps -0x18(%ebp),%xmm3
- DB 255,16 ; call *(%eax)
- DB 131,196,96 ; add $0x60,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_decal_x_sse2_lowp
-_sk_decal_x_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,57 ; mov (%ecx),%edi
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,194,233,2 ; cmpleps %xmm1,%xmm5
- DB 242,15,112,237,232 ; pshuflw $0xe8,%xmm5,%xmm5
- DB 243,15,112,237,232 ; pshufhw $0xe8,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 15,194,224,2 ; cmpleps %xmm0,%xmm4
- DB 242,15,112,228,232 ; pshuflw $0xe8,%xmm4,%xmm4
- DB 243,15,112,228,232 ; pshufhw $0xe8,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,108,229 ; punpcklqdq %xmm5,%xmm4
- DB 243,15,16,111,64 ; movss 0x40(%edi),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,194,245,1 ; cmpltps %xmm5,%xmm6
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,194,253,1 ; cmpltps %xmm5,%xmm7
- DB 15,40,109,24 ; movaps 0x18(%ebp),%xmm5
- DB 242,15,112,246,232 ; pshuflw $0xe8,%xmm6,%xmm6
- DB 243,15,112,246,232 ; pshufhw $0xe8,%xmm6,%xmm6
- DB 102,15,112,246,232 ; pshufd $0xe8,%xmm6,%xmm6
- DB 242,15,112,255,232 ; pshuflw $0xe8,%xmm7,%xmm7
- DB 243,15,112,255,232 ; pshufhw $0xe8,%xmm7,%xmm7
- DB 102,15,112,255,232 ; pshufd $0xe8,%xmm7,%xmm7
- DB 102,15,108,254 ; punpcklqdq %xmm6,%xmm7
- DB 15,40,117,40 ; movaps 0x28(%ebp),%xmm6
- DB 102,15,113,244,15 ; psllw $0xf,%xmm4
- DB 102,15,113,228,15 ; psraw $0xf,%xmm4
- DB 102,15,113,247,15 ; psllw $0xf,%xmm7
- DB 102,15,113,231,15 ; psraw $0xf,%xmm7
- DB 102,15,219,252 ; pand %xmm4,%xmm7
- DB 15,40,101,56 ; movaps 0x38(%ebp),%xmm4
- DB 243,15,127,63 ; movdqu %xmm7,(%edi)
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 141,121,8 ; lea 0x8(%ecx),%edi
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%esp)
- DB 15,41,116,36,32 ; movaps %xmm6,0x20(%esp)
- DB 15,41,108,36,16 ; movaps %xmm5,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_decal_y_sse2_lowp
-_sk_decal_y_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,57 ; mov (%ecx),%edi
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 15,194,235,2 ; cmpleps %xmm3,%xmm5
- DB 242,15,112,237,232 ; pshuflw $0xe8,%xmm5,%xmm5
- DB 243,15,112,237,232 ; pshufhw $0xe8,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 15,194,226,2 ; cmpleps %xmm2,%xmm4
- DB 242,15,112,228,232 ; pshuflw $0xe8,%xmm4,%xmm4
- DB 243,15,112,228,232 ; pshufhw $0xe8,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,108,229 ; punpcklqdq %xmm5,%xmm4
- DB 243,15,16,111,68 ; movss 0x44(%edi),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,40,243 ; movaps %xmm3,%xmm6
- DB 15,194,245,1 ; cmpltps %xmm5,%xmm6
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,194,253,1 ; cmpltps %xmm5,%xmm7
- DB 15,40,109,24 ; movaps 0x18(%ebp),%xmm5
- DB 242,15,112,246,232 ; pshuflw $0xe8,%xmm6,%xmm6
- DB 243,15,112,246,232 ; pshufhw $0xe8,%xmm6,%xmm6
- DB 102,15,112,246,232 ; pshufd $0xe8,%xmm6,%xmm6
- DB 242,15,112,255,232 ; pshuflw $0xe8,%xmm7,%xmm7
- DB 243,15,112,255,232 ; pshufhw $0xe8,%xmm7,%xmm7
- DB 102,15,112,255,232 ; pshufd $0xe8,%xmm7,%xmm7
- DB 102,15,108,254 ; punpcklqdq %xmm6,%xmm7
- DB 15,40,117,40 ; movaps 0x28(%ebp),%xmm6
- DB 102,15,113,244,15 ; psllw $0xf,%xmm4
- DB 102,15,113,228,15 ; psraw $0xf,%xmm4
- DB 102,15,113,247,15 ; psllw $0xf,%xmm7
- DB 102,15,113,231,15 ; psraw $0xf,%xmm7
- DB 102,15,219,252 ; pand %xmm4,%xmm7
- DB 15,40,101,56 ; movaps 0x38(%ebp),%xmm4
- DB 243,15,127,63 ; movdqu %xmm7,(%edi)
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 141,121,8 ; lea 0x8(%ecx),%edi
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,100,36,48 ; movaps %xmm4,0x30(%esp)
- DB 15,41,116,36,32 ; movaps %xmm6,0x20(%esp)
- DB 15,41,108,36,16 ; movaps %xmm5,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_decal_x_and_y_sse2_lowp
-_sk_decal_x_and_y_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 139,77,12 ; mov 0xc(%ebp),%ecx
- DB 139,57 ; mov (%ecx),%edi
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,194,225,2 ; cmpleps %xmm1,%xmm4
- DB 242,15,112,228,232 ; pshuflw $0xe8,%xmm4,%xmm4
- DB 243,15,112,228,232 ; pshufhw $0xe8,%xmm4,%xmm4
- DB 102,15,112,236,232 ; pshufd $0xe8,%xmm4,%xmm5
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 15,194,224,2 ; cmpleps %xmm0,%xmm4
- DB 242,15,112,228,232 ; pshuflw $0xe8,%xmm4,%xmm4
- DB 243,15,112,228,232 ; pshufhw $0xe8,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,108,229 ; punpcklqdq %xmm5,%xmm4
- DB 243,15,16,111,64 ; movss 0x40(%edi),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 15,194,245,1 ; cmpltps %xmm5,%xmm6
- DB 15,40,248 ; movaps %xmm0,%xmm7
- DB 15,194,253,1 ; cmpltps %xmm5,%xmm7
- DB 15,87,237 ; xorps %xmm5,%xmm5
- DB 102,15,113,244,15 ; psllw $0xf,%xmm4
- DB 102,15,113,228,15 ; psraw $0xf,%xmm4
- DB 242,15,112,246,232 ; pshuflw $0xe8,%xmm6,%xmm6
- DB 243,15,112,246,232 ; pshufhw $0xe8,%xmm6,%xmm6
- DB 102,15,112,246,232 ; pshufd $0xe8,%xmm6,%xmm6
- DB 242,15,112,255,232 ; pshuflw $0xe8,%xmm7,%xmm7
- DB 243,15,112,255,232 ; pshufhw $0xe8,%xmm7,%xmm7
- DB 102,15,112,255,232 ; pshufd $0xe8,%xmm7,%xmm7
- DB 102,15,108,254 ; punpcklqdq %xmm6,%xmm7
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 15,194,243,2 ; cmpleps %xmm3,%xmm6
- DB 242,15,112,246,232 ; pshuflw $0xe8,%xmm6,%xmm6
- DB 243,15,112,246,232 ; pshufhw $0xe8,%xmm6,%xmm6
- DB 102,15,112,246,232 ; pshufd $0xe8,%xmm6,%xmm6
- DB 15,194,234,2 ; cmpleps %xmm2,%xmm5
- DB 242,15,112,237,232 ; pshuflw $0xe8,%xmm5,%xmm5
- DB 243,15,112,237,232 ; pshufhw $0xe8,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 102,15,108,238 ; punpcklqdq %xmm6,%xmm5
- DB 243,15,16,119,68 ; movss 0x44(%edi),%xmm6
- DB 102,15,113,247,15 ; psllw $0xf,%xmm7
- DB 102,15,113,231,15 ; psraw $0xf,%xmm7
- DB 102,15,113,245,15 ; psllw $0xf,%xmm5
- DB 102,15,113,229,15 ; psraw $0xf,%xmm5
- DB 102,15,219,236 ; pand %xmm4,%xmm5
- DB 102,15,219,239 ; pand %xmm7,%xmm5
- DB 15,198,246,0 ; shufps $0x0,%xmm6,%xmm6
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,194,230,1 ; cmpltps %xmm6,%xmm4
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,194,254,1 ; cmpltps %xmm6,%xmm7
- DB 15,40,117,24 ; movaps 0x18(%ebp),%xmm6
- DB 242,15,112,228,232 ; pshuflw $0xe8,%xmm4,%xmm4
- DB 243,15,112,228,232 ; pshufhw $0xe8,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 242,15,112,255,232 ; pshuflw $0xe8,%xmm7,%xmm7
- DB 243,15,112,255,232 ; pshufhw $0xe8,%xmm7,%xmm7
- DB 102,15,112,255,232 ; pshufd $0xe8,%xmm7,%xmm7
- DB 102,15,108,252 ; punpcklqdq %xmm4,%xmm7
- DB 15,40,101,40 ; movaps 0x28(%ebp),%xmm4
- DB 102,15,113,247,15 ; psllw $0xf,%xmm7
- DB 102,15,113,231,15 ; psraw $0xf,%xmm7
- DB 102,15,219,253 ; pand %xmm5,%xmm7
- DB 15,40,109,56 ; movaps 0x38(%ebp),%xmm5
- DB 243,15,127,63 ; movdqu %xmm7,(%edi)
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 141,121,8 ; lea 0x8(%ecx),%edi
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,108,36,48 ; movaps %xmm5,0x30(%esp)
- DB 15,41,100,36,32 ; movaps %xmm4,0x20(%esp)
- DB 15,41,116,36,16 ; movaps %xmm6,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,81,4 ; call *0x4(%ecx)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_check_decal_mask_sse2_lowp
-_sk_check_decal_mask_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,40,109,40 ; movaps 0x28(%ebp),%xmm5
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 139,62 ; mov (%esi),%edi
- DB 15,16,63 ; movups (%edi),%xmm7
- DB 15,84,199 ; andps %xmm7,%xmm0
- DB 15,84,207 ; andps %xmm7,%xmm1
- DB 15,84,215 ; andps %xmm7,%xmm2
- DB 15,84,223 ; andps %xmm7,%xmm3
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 141,126,8 ; lea 0x8(%esi),%edi
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,41,108,36,32 ; movaps %xmm5,0x20(%esp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 255,86,4 ; call *0x4(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_gradient_sse2_lowp
-_sk_gradient_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,108,1,0,0 ; sub $0x16c,%esp
- DB 232,0,0,0,0 ; call f30d <_sk_gradient_sse2_lowp+0x11>
- DB 88 ; pop %eax
- DB 137,69,164 ; mov %eax,-0x5c(%ebp)
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,0 ; mov (%eax),%eax
- DB 137,198 ; mov %eax,%esi
- DB 139,0 ; mov (%eax),%eax
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 131,248,2 ; cmp $0x2,%eax
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 114,48 ; jb f357 <_sk_gradient_sse2_lowp+0x5b>
- DB 139,78,36 ; mov 0x24(%esi),%ecx
- DB 72 ; dec %eax
- DB 131,193,4 ; add $0x4,%ecx
- DB 102,15,239,255 ; pxor %xmm7,%xmm7
- DB 102,15,239,237 ; pxor %xmm5,%xmm5
- DB 243,15,16,17 ; movss (%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,194,216,2 ; cmpleps %xmm0,%xmm3
- DB 102,15,250,251 ; psubd %xmm3,%xmm7
- DB 15,194,209,2 ; cmpleps %xmm1,%xmm2
- DB 102,15,250,234 ; psubd %xmm2,%xmm5
- DB 131,193,4 ; add $0x4,%ecx
- DB 72 ; dec %eax
- DB 117,223 ; jne f336 <_sk_gradient_sse2_lowp+0x3a>
- DB 102,15,112,215,229 ; pshufd $0xe5,%xmm7,%xmm2
- DB 102,15,112,223,78 ; pshufd $0x4e,%xmm7,%xmm3
- DB 15,41,141,104,255,255,255 ; movaps %xmm1,-0x98(%ebp)
- DB 15,41,133,248,254,255,255 ; movaps %xmm0,-0x108(%ebp)
- DB 102,15,112,229,78 ; pshufd $0x4e,%xmm5,%xmm4
- DB 102,15,126,225 ; movd %xmm4,%ecx
- DB 137,77,136 ; mov %ecx,-0x78(%ebp)
- DB 102,15,112,229,231 ; pshufd $0xe7,%xmm5,%xmm4
- DB 102,15,126,226 ; movd %xmm4,%edx
- DB 139,70,4 ; mov 0x4(%esi),%eax
- DB 243,15,16,36,144 ; movss (%eax,%edx,4),%xmm4
- DB 137,85,232 ; mov %edx,-0x18(%ebp)
- DB 243,15,16,52,136 ; movss (%eax,%ecx,4),%xmm6
- DB 15,20,244 ; unpcklps %xmm4,%xmm6
- DB 102,15,112,229,229 ; pshufd $0xe5,%xmm5,%xmm4
- DB 102,15,126,233 ; movd %xmm5,%ecx
- DB 137,77,168 ; mov %ecx,-0x58(%ebp)
- DB 243,15,16,4,136 ; movss (%eax,%ecx,4),%xmm0
- DB 102,15,126,225 ; movd %xmm4,%ecx
- DB 137,77,184 ; mov %ecx,-0x48(%ebp)
- DB 243,15,16,12,136 ; movss (%eax,%ecx,4),%xmm1
- DB 15,20,193 ; unpcklps %xmm1,%xmm0
- DB 102,15,112,207,231 ; pshufd $0xe7,%xmm7,%xmm1
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 137,77,240 ; mov %ecx,-0x10(%ebp)
- DB 243,15,16,12,136 ; movss (%eax,%ecx,4),%xmm1
- DB 102,15,126,217 ; movd %xmm3,%ecx
- DB 243,15,16,28,136 ; movss (%eax,%ecx,4),%xmm3
- DB 137,207 ; mov %ecx,%edi
- DB 137,125,200 ; mov %edi,-0x38(%ebp)
- DB 102,15,126,249 ; movd %xmm7,%ecx
- DB 137,77,236 ; mov %ecx,-0x14(%ebp)
- DB 243,15,16,36,136 ; movss (%eax,%ecx,4),%xmm4
- DB 137,117,228 ; mov %esi,-0x1c(%ebp)
- DB 102,15,126,209 ; movd %xmm2,%ecx
- DB 243,15,16,20,136 ; movss (%eax,%ecx,4),%xmm2
- DB 137,203 ; mov %ecx,%ebx
- DB 137,93,224 ; mov %ebx,-0x20(%ebp)
- DB 102,15,20,198 ; unpcklpd %xmm6,%xmm0
- DB 102,15,41,133,120,255,255,255 ; movapd %xmm0,-0x88(%ebp)
- DB 15,20,217 ; unpcklps %xmm1,%xmm3
- DB 15,20,226 ; unpcklps %xmm2,%xmm4
- DB 102,15,20,227 ; unpcklpd %xmm3,%xmm4
- DB 139,70,8 ; mov 0x8(%esi),%eax
- DB 243,15,16,12,144 ; movss (%eax,%edx,4),%xmm1
- DB 139,117,136 ; mov -0x78(%ebp),%esi
- DB 243,15,16,28,176 ; movss (%eax,%esi,4),%xmm3
- DB 15,20,217 ; unpcklps %xmm1,%xmm3
- DB 139,77,168 ; mov -0x58(%ebp),%ecx
- DB 243,15,16,4,136 ; movss (%eax,%ecx,4),%xmm0
- DB 139,85,184 ; mov -0x48(%ebp),%edx
- DB 243,15,16,12,144 ; movss (%eax,%edx,4),%xmm1
- DB 15,20,193 ; unpcklps %xmm1,%xmm0
- DB 102,15,20,195 ; unpcklpd %xmm3,%xmm0
- DB 102,15,41,133,8,255,255,255 ; movapd %xmm0,-0xf8(%ebp)
- DB 139,85,240 ; mov -0x10(%ebp),%edx
- DB 243,15,16,12,144 ; movss (%eax,%edx,4),%xmm1
- DB 243,15,16,28,184 ; movss (%eax,%edi,4),%xmm3
- DB 15,20,217 ; unpcklps %xmm1,%xmm3
- DB 139,125,236 ; mov -0x14(%ebp),%edi
- DB 243,15,16,44,184 ; movss (%eax,%edi,4),%xmm5
- DB 243,15,16,12,152 ; movss (%eax,%ebx,4),%xmm1
- DB 15,20,233 ; unpcklps %xmm1,%xmm5
- DB 102,15,20,235 ; unpcklpd %xmm3,%xmm5
- DB 139,93,228 ; mov -0x1c(%ebp),%ebx
- DB 139,67,12 ; mov 0xc(%ebx),%eax
- DB 139,125,232 ; mov -0x18(%ebp),%edi
- DB 243,15,16,12,184 ; movss (%eax,%edi,4),%xmm1
- DB 243,15,16,52,176 ; movss (%eax,%esi,4),%xmm6
- DB 15,20,241 ; unpcklps %xmm1,%xmm6
- DB 243,15,16,28,136 ; movss (%eax,%ecx,4),%xmm3
- DB 139,77,184 ; mov -0x48(%ebp),%ecx
- DB 243,15,16,12,136 ; movss (%eax,%ecx,4),%xmm1
- DB 15,20,217 ; unpcklps %xmm1,%xmm3
- DB 102,15,20,222 ; unpcklpd %xmm6,%xmm3
- DB 102,15,41,157,232,254,255,255 ; movapd %xmm3,-0x118(%ebp)
- DB 243,15,16,12,144 ; movss (%eax,%edx,4),%xmm1
- DB 139,85,200 ; mov -0x38(%ebp),%edx
- DB 243,15,16,52,144 ; movss (%eax,%edx,4),%xmm6
- DB 15,20,241 ; unpcklps %xmm1,%xmm6
- DB 139,117,236 ; mov -0x14(%ebp),%esi
- DB 243,15,16,4,176 ; movss (%eax,%esi,4),%xmm0
- DB 139,125,224 ; mov -0x20(%ebp),%edi
- DB 243,15,16,60,184 ; movss (%eax,%edi,4),%xmm7
- DB 15,20,199 ; unpcklps %xmm7,%xmm0
- DB 102,15,20,198 ; unpcklpd %xmm6,%xmm0
- DB 102,15,41,133,72,255,255,255 ; movapd %xmm0,-0xb8(%ebp)
- DB 139,67,16 ; mov 0x10(%ebx),%eax
- DB 139,93,232 ; mov -0x18(%ebp),%ebx
- DB 243,15,16,52,152 ; movss (%eax,%ebx,4),%xmm6
- DB 139,125,136 ; mov -0x78(%ebp),%edi
- DB 243,15,16,60,184 ; movss (%eax,%edi,4),%xmm7
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 139,125,168 ; mov -0x58(%ebp),%edi
- DB 243,15,16,28,184 ; movss (%eax,%edi,4),%xmm3
- DB 243,15,16,52,136 ; movss (%eax,%ecx,4),%xmm6
- DB 15,20,222 ; unpcklps %xmm6,%xmm3
- DB 102,15,20,223 ; unpcklpd %xmm7,%xmm3
- DB 102,15,41,157,216,254,255,255 ; movapd %xmm3,-0x128(%ebp)
- DB 139,77,240 ; mov -0x10(%ebp),%ecx
- DB 243,15,16,52,136 ; movss (%eax,%ecx,4),%xmm6
- DB 243,15,16,60,144 ; movss (%eax,%edx,4),%xmm7
- DB 15,20,254 ; unpcklps %xmm6,%xmm7
- DB 243,15,16,52,176 ; movss (%eax,%esi,4),%xmm6
- DB 139,125,224 ; mov -0x20(%ebp),%edi
- DB 243,15,16,28,184 ; movss (%eax,%edi,4),%xmm3
- DB 15,20,243 ; unpcklps %xmm3,%xmm6
- DB 102,15,20,247 ; unpcklpd %xmm7,%xmm6
- DB 139,85,228 ; mov -0x1c(%ebp),%edx
- DB 139,66,20 ; mov 0x14(%edx),%eax
- DB 243,15,16,28,136 ; movss (%eax,%ecx,4),%xmm3
- DB 139,77,200 ; mov -0x38(%ebp),%ecx
- DB 243,15,16,60,136 ; movss (%eax,%ecx,4),%xmm7
- DB 15,20,251 ; unpcklps %xmm3,%xmm7
- DB 243,15,16,12,176 ; movss (%eax,%esi,4),%xmm1
- DB 137,249 ; mov %edi,%ecx
- DB 243,15,16,28,136 ; movss (%eax,%ecx,4),%xmm3
- DB 137,206 ; mov %ecx,%esi
- DB 15,20,203 ; unpcklps %xmm3,%xmm1
- DB 102,15,20,207 ; unpcklpd %xmm7,%xmm1
- DB 243,15,16,28,152 ; movss (%eax,%ebx,4),%xmm3
- DB 139,77,136 ; mov -0x78(%ebp),%ecx
- DB 243,15,16,60,136 ; movss (%eax,%ecx,4),%xmm7
- DB 15,20,251 ; unpcklps %xmm3,%xmm7
- DB 139,125,168 ; mov -0x58(%ebp),%edi
- DB 243,15,16,20,184 ; movss (%eax,%edi,4),%xmm2
- DB 139,125,184 ; mov -0x48(%ebp),%edi
- DB 243,15,16,28,184 ; movss (%eax,%edi,4),%xmm3
- DB 15,20,211 ; unpcklps %xmm3,%xmm2
- DB 102,15,20,215 ; unpcklpd %xmm7,%xmm2
- DB 139,66,24 ; mov 0x18(%edx),%eax
- DB 139,85,240 ; mov -0x10(%ebp),%edx
- DB 243,15,16,28,144 ; movss (%eax,%edx,4),%xmm3
- DB 139,93,200 ; mov -0x38(%ebp),%ebx
- DB 243,15,16,60,152 ; movss (%eax,%ebx,4),%xmm7
- DB 15,20,251 ; unpcklps %xmm3,%xmm7
- DB 139,93,236 ; mov -0x14(%ebp),%ebx
- DB 243,15,16,4,152 ; movss (%eax,%ebx,4),%xmm0
- DB 243,15,16,28,176 ; movss (%eax,%esi,4),%xmm3
- DB 15,20,195 ; unpcklps %xmm3,%xmm0
- DB 102,15,20,199 ; unpcklpd %xmm7,%xmm0
- DB 102,15,41,133,40,255,255,255 ; movapd %xmm0,-0xd8(%ebp)
- DB 139,117,232 ; mov -0x18(%ebp),%esi
- DB 243,15,16,28,176 ; movss (%eax,%esi,4),%xmm3
- DB 243,15,16,60,136 ; movss (%eax,%ecx,4),%xmm7
- DB 15,20,251 ; unpcklps %xmm3,%xmm7
- DB 139,77,168 ; mov -0x58(%ebp),%ecx
- DB 243,15,16,4,136 ; movss (%eax,%ecx,4),%xmm0
- DB 243,15,16,28,184 ; movss (%eax,%edi,4),%xmm3
- DB 15,20,195 ; unpcklps %xmm3,%xmm0
- DB 102,15,20,199 ; unpcklpd %xmm7,%xmm0
- DB 102,15,41,133,88,255,255,255 ; movapd %xmm0,-0xa8(%ebp)
- DB 139,69,228 ; mov -0x1c(%ebp),%eax
- DB 139,64,28 ; mov 0x1c(%eax),%eax
- DB 243,15,16,28,144 ; movss (%eax,%edx,4),%xmm3
- DB 139,77,200 ; mov -0x38(%ebp),%ecx
- DB 243,15,16,60,136 ; movss (%eax,%ecx,4),%xmm7
- DB 15,20,251 ; unpcklps %xmm3,%xmm7
- DB 243,15,16,4,152 ; movss (%eax,%ebx,4),%xmm0
- DB 139,77,224 ; mov -0x20(%ebp),%ecx
- DB 243,15,16,28,136 ; movss (%eax,%ecx,4),%xmm3
- DB 15,20,195 ; unpcklps %xmm3,%xmm0
- DB 102,15,20,199 ; unpcklpd %xmm7,%xmm0
- DB 102,15,41,133,24,255,255,255 ; movapd %xmm0,-0xe8(%ebp)
- DB 139,117,232 ; mov -0x18(%ebp),%esi
- DB 243,15,16,28,176 ; movss (%eax,%esi,4),%xmm3
- DB 139,125,136 ; mov -0x78(%ebp),%edi
- DB 243,15,16,60,184 ; movss (%eax,%edi,4),%xmm7
- DB 15,20,251 ; unpcklps %xmm3,%xmm7
- DB 139,93,168 ; mov -0x58(%ebp),%ebx
- DB 243,15,16,4,152 ; movss (%eax,%ebx,4),%xmm0
- DB 139,85,184 ; mov -0x48(%ebp),%edx
- DB 243,15,16,28,144 ; movss (%eax,%edx,4),%xmm3
- DB 15,20,195 ; unpcklps %xmm3,%xmm0
- DB 102,15,20,199 ; unpcklpd %xmm7,%xmm0
- DB 102,15,41,133,56,255,255,255 ; movapd %xmm0,-0xc8(%ebp)
- DB 139,69,228 ; mov -0x1c(%ebp),%eax
- DB 139,64,32 ; mov 0x20(%eax),%eax
- DB 139,85,240 ; mov -0x10(%ebp),%edx
- DB 243,15,16,28,144 ; movss (%eax,%edx,4),%xmm3
- DB 139,85,200 ; mov -0x38(%ebp),%edx
- DB 243,15,16,60,144 ; movss (%eax,%edx,4),%xmm7
- DB 15,20,251 ; unpcklps %xmm3,%xmm7
- DB 139,85,236 ; mov -0x14(%ebp),%edx
- DB 243,15,16,4,144 ; movss (%eax,%edx,4),%xmm0
- DB 243,15,16,28,136 ; movss (%eax,%ecx,4),%xmm3
- DB 15,20,195 ; unpcklps %xmm3,%xmm0
- DB 102,15,20,199 ; unpcklpd %xmm7,%xmm0
- DB 102,15,41,69,200 ; movapd %xmm0,-0x38(%ebp)
- DB 243,15,16,28,176 ; movss (%eax,%esi,4),%xmm3
- DB 243,15,16,60,184 ; movss (%eax,%edi,4),%xmm7
- DB 15,20,251 ; unpcklps %xmm3,%xmm7
- DB 243,15,16,4,152 ; movss (%eax,%ebx,4),%xmm0
- DB 139,77,184 ; mov -0x48(%ebp),%ecx
- DB 243,15,16,28,136 ; movss (%eax,%ecx,4),%xmm3
- DB 15,20,195 ; unpcklps %xmm3,%xmm0
- DB 102,15,20,199 ; unpcklpd %xmm7,%xmm0
- DB 102,15,41,69,184 ; movapd %xmm0,-0x48(%ebp)
- DB 15,40,189,248,254,255,255 ; movaps -0x108(%ebp),%xmm7
- DB 15,89,231 ; mulps %xmm7,%xmm4
- DB 15,88,225 ; addps %xmm1,%xmm4
- DB 15,40,157,104,255,255,255 ; movaps -0x98(%ebp),%xmm3
- DB 15,40,133,120,255,255,255 ; movaps -0x88(%ebp),%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 139,69,164 ; mov -0x5c(%ebp),%eax
- DB 15,40,136,51,21,0,0 ; movaps 0x1533(%eax),%xmm1
- DB 15,89,225 ; mulps %xmm1,%xmm4
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,40,144,83,20,0,0 ; movaps 0x1453(%eax),%xmm2
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,41,133,120,255,255,255 ; movaps %xmm0,-0x88(%ebp)
- DB 15,88,226 ; addps %xmm2,%xmm4
- DB 243,15,91,196 ; cvttps2dq %xmm4,%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,224,232 ; pshufd $0xe8,%xmm0,%xmm4
- DB 243,15,91,133,120,255,255,255 ; cvttps2dq -0x88(%ebp),%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,108,224 ; punpcklqdq %xmm0,%xmm4
- DB 102,15,127,101,168 ; movdqa %xmm4,-0x58(%ebp)
- DB 15,89,239 ; mulps %xmm7,%xmm5
- DB 15,88,173,40,255,255,255 ; addps -0xd8(%ebp),%xmm5
- DB 15,40,133,8,255,255,255 ; movaps -0xf8(%ebp),%xmm0
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,133,88,255,255,255 ; addps -0xa8(%ebp),%xmm0
- DB 15,89,233 ; mulps %xmm1,%xmm5
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,40,217 ; movaps %xmm1,%xmm3
- DB 15,88,194 ; addps %xmm2,%xmm0
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,88,234 ; addps %xmm2,%xmm5
- DB 15,40,202 ; movaps %xmm2,%xmm1
- DB 243,15,91,197 ; cvttps2dq %xmm5,%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,208,232 ; pshufd $0xe8,%xmm0,%xmm2
- DB 243,15,91,196 ; cvttps2dq %xmm4,%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,108,208 ; punpcklqdq %xmm0,%xmm2
- DB 102,15,127,85,136 ; movdqa %xmm2,-0x78(%ebp)
- DB 15,40,149,72,255,255,255 ; movaps -0xb8(%ebp),%xmm2
- DB 15,89,215 ; mulps %xmm7,%xmm2
- DB 15,88,149,24,255,255,255 ; addps -0xe8(%ebp),%xmm2
- DB 15,40,133,232,254,255,255 ; movaps -0x118(%ebp),%xmm0
- DB 15,40,173,104,255,255,255 ; movaps -0x98(%ebp),%xmm5
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,88,133,56,255,255,255 ; addps -0xc8(%ebp),%xmm0
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,193 ; addps %xmm1,%xmm0
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,88,209 ; addps %xmm1,%xmm2
- DB 243,15,91,194 ; cvttps2dq %xmm2,%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,208,232 ; pshufd $0xe8,%xmm0,%xmm2
- DB 243,15,91,196 ; cvttps2dq %xmm4,%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,108,208 ; punpcklqdq %xmm0,%xmm2
- DB 15,89,247 ; mulps %xmm7,%xmm6
- DB 15,88,117,200 ; addps -0x38(%ebp),%xmm6
- DB 15,40,133,216,254,255,255 ; movaps -0x128(%ebp),%xmm0
- DB 15,89,197 ; mulps %xmm5,%xmm0
- DB 15,88,69,184 ; addps -0x48(%ebp),%xmm0
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,193 ; addps %xmm1,%xmm0
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 15,88,241 ; addps %xmm1,%xmm6
- DB 243,15,91,198 ; cvttps2dq %xmm6,%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,216,232 ; pshufd $0xe8,%xmm0,%xmm3
- DB 243,15,91,196 ; cvttps2dq %xmm4,%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 102,15,108,216 ; punpcklqdq %xmm0,%xmm3
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 137,193 ; mov %eax,%ecx
- DB 141,65,8 ; lea 0x8(%ecx),%eax
- DB 15,40,69,72 ; movaps 0x48(%ebp),%xmm0
- DB 15,41,68,36,64 ; movaps %xmm0,0x40(%esp)
- DB 15,40,69,56 ; movaps 0x38(%ebp),%xmm0
- DB 15,41,68,36,48 ; movaps %xmm0,0x30(%esp)
- DB 15,40,69,40 ; movaps 0x28(%ebp),%xmm0
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,68,36,4 ; mov %eax,0x4(%esp)
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 137,4,36 ; mov %eax,(%esp)
- DB 15,40,69,168 ; movaps -0x58(%ebp),%xmm0
- DB 15,40,77,136 ; movaps -0x78(%ebp),%xmm1
- DB 255,81,4 ; call *0x4(%ecx)
- DB 129,196,108,1,0,0 ; add $0x16c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_evenly_spaced_gradient_sse2_lowp
-_sk_evenly_spaced_gradient_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,92,1,0,0 ; sub $0x15c,%esp
- DB 15,41,141,232,254,255,255 ; movaps %xmm1,-0x118(%ebp)
- DB 15,41,69,136 ; movaps %xmm0,-0x78(%ebp)
- DB 232,0,0,0,0 ; call f87f <_sk_evenly_spaced_gradient_sse2_lowp+0x1c>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,48 ; mov (%eax),%esi
- DB 139,14 ; mov (%esi),%ecx
- DB 139,70,4 ; mov 0x4(%esi),%eax
- DB 137,243 ; mov %esi,%ebx
- DB 73 ; dec %ecx
- DB 102,15,110,209 ; movd %ecx,%xmm2
- DB 102,15,112,210,0 ; pshufd $0x0,%xmm2,%xmm2
- DB 137,85,164 ; mov %edx,-0x5c(%ebp)
- DB 102,15,111,154,161,20,0,0 ; movdqa 0x14a1(%edx),%xmm3
- DB 102,15,219,218 ; pand %xmm2,%xmm3
- DB 102,15,235,154,33,18,0,0 ; por 0x1221(%edx),%xmm3
- DB 102,15,114,210,16 ; psrld $0x10,%xmm2
- DB 102,15,235,146,177,20,0,0 ; por 0x14b1(%edx),%xmm2
- DB 15,88,146,193,20,0,0 ; addps 0x14c1(%edx),%xmm2
- DB 15,88,211 ; addps %xmm3,%xmm2
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 15,89,218 ; mulps %xmm2,%xmm3
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 243,15,91,194 ; cvttps2dq %xmm2,%xmm0
- DB 243,15,91,203 ; cvttps2dq %xmm3,%xmm1
- DB 102,15,112,209,229 ; pshufd $0xe5,%xmm1,%xmm2
- DB 102,15,112,217,78 ; pshufd $0x4e,%xmm1,%xmm3
- DB 102,15,112,225,231 ; pshufd $0xe7,%xmm1,%xmm4
- DB 102,15,126,230 ; movd %xmm4,%esi
- DB 102,15,112,232,229 ; pshufd $0xe5,%xmm0,%xmm5
- DB 243,15,16,36,176 ; movss (%eax,%esi,4),%xmm4
- DB 137,117,224 ; mov %esi,-0x20(%ebp)
- DB 102,15,126,217 ; movd %xmm3,%ecx
- DB 137,77,200 ; mov %ecx,-0x38(%ebp)
- DB 243,15,16,28,136 ; movss (%eax,%ecx,4),%xmm3
- DB 15,20,220 ; unpcklps %xmm4,%xmm3
- DB 102,15,112,240,78 ; pshufd $0x4e,%xmm0,%xmm6
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 243,15,16,60,136 ; movss (%eax,%ecx,4),%xmm7
- DB 137,202 ; mov %ecx,%edx
- DB 137,85,184 ; mov %edx,-0x48(%ebp)
- DB 102,15,126,209 ; movd %xmm2,%ecx
- DB 137,77,228 ; mov %ecx,-0x1c(%ebp)
- DB 243,15,16,12,136 ; movss (%eax,%ecx,4),%xmm1
- DB 15,20,249 ; unpcklps %xmm1,%xmm7
- DB 102,15,112,200,231 ; pshufd $0xe7,%xmm0,%xmm1
- DB 102,15,126,201 ; movd %xmm1,%ecx
- DB 137,77,240 ; mov %ecx,-0x10(%ebp)
- DB 243,15,16,12,136 ; movss (%eax,%ecx,4),%xmm1
- DB 102,15,126,241 ; movd %xmm6,%ecx
- DB 137,77,168 ; mov %ecx,-0x58(%ebp)
- DB 243,15,16,20,136 ; movss (%eax,%ecx,4),%xmm2
- DB 102,15,126,193 ; movd %xmm0,%ecx
- DB 243,15,16,36,136 ; movss (%eax,%ecx,4),%xmm4
- DB 137,207 ; mov %ecx,%edi
- DB 137,125,232 ; mov %edi,-0x18(%ebp)
- DB 102,15,126,233 ; movd %xmm5,%ecx
- DB 137,77,236 ; mov %ecx,-0x14(%ebp)
- DB 243,15,16,44,136 ; movss (%eax,%ecx,4),%xmm5
- DB 102,15,20,251 ; unpcklpd %xmm3,%xmm7
- DB 102,15,41,189,24,255,255,255 ; movapd %xmm7,-0xe8(%ebp)
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 15,20,229 ; unpcklps %xmm5,%xmm4
- DB 102,15,20,226 ; unpcklpd %xmm2,%xmm4
- DB 137,217 ; mov %ebx,%ecx
- DB 137,77,220 ; mov %ecx,-0x24(%ebp)
- DB 139,65,8 ; mov 0x8(%ecx),%eax
- DB 243,15,16,12,176 ; movss (%eax,%esi,4),%xmm1
- DB 139,117,200 ; mov -0x38(%ebp),%esi
- DB 243,15,16,20,176 ; movss (%eax,%esi,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 243,15,16,4,144 ; movss (%eax,%edx,4),%xmm0
- DB 139,93,228 ; mov -0x1c(%ebp),%ebx
- DB 243,15,16,12,152 ; movss (%eax,%ebx,4),%xmm1
- DB 15,20,193 ; unpcklps %xmm1,%xmm0
- DB 102,15,20,194 ; unpcklpd %xmm2,%xmm0
- DB 102,15,41,133,72,255,255,255 ; movapd %xmm0,-0xb8(%ebp)
- DB 139,85,240 ; mov -0x10(%ebp),%edx
- DB 243,15,16,12,144 ; movss (%eax,%edx,4),%xmm1
- DB 139,117,168 ; mov -0x58(%ebp),%esi
- DB 243,15,16,20,176 ; movss (%eax,%esi,4),%xmm2
- DB 15,20,209 ; unpcklps %xmm1,%xmm2
- DB 243,15,16,12,184 ; movss (%eax,%edi,4),%xmm1
- DB 139,125,236 ; mov -0x14(%ebp),%edi
- DB 243,15,16,28,184 ; movss (%eax,%edi,4),%xmm3
- DB 15,20,203 ; unpcklps %xmm3,%xmm1
- DB 102,15,20,202 ; unpcklpd %xmm2,%xmm1
- DB 139,65,12 ; mov 0xc(%ecx),%eax
- DB 139,85,224 ; mov -0x20(%ebp),%edx
- DB 243,15,16,20,144 ; movss (%eax,%edx,4),%xmm2
- DB 139,77,200 ; mov -0x38(%ebp),%ecx
- DB 243,15,16,28,136 ; movss (%eax,%ecx,4),%xmm3
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 139,77,184 ; mov -0x48(%ebp),%ecx
- DB 243,15,16,20,136 ; movss (%eax,%ecx,4),%xmm2
- DB 243,15,16,52,152 ; movss (%eax,%ebx,4),%xmm6
- DB 15,20,214 ; unpcklps %xmm6,%xmm2
- DB 102,15,20,211 ; unpcklpd %xmm3,%xmm2
- DB 102,15,41,149,8,255,255,255 ; movapd %xmm2,-0xf8(%ebp)
- DB 139,93,240 ; mov -0x10(%ebp),%ebx
- DB 243,15,16,28,152 ; movss (%eax,%ebx,4),%xmm3
- DB 243,15,16,52,176 ; movss (%eax,%esi,4),%xmm6
- DB 15,20,243 ; unpcklps %xmm3,%xmm6
- DB 139,117,232 ; mov -0x18(%ebp),%esi
- DB 243,15,16,60,176 ; movss (%eax,%esi,4),%xmm7
- DB 243,15,16,28,184 ; movss (%eax,%edi,4),%xmm3
- DB 15,20,251 ; unpcklps %xmm3,%xmm7
- DB 102,15,20,254 ; unpcklpd %xmm6,%xmm7
- DB 139,117,220 ; mov -0x24(%ebp),%esi
- DB 139,70,16 ; mov 0x10(%esi),%eax
- DB 243,15,16,28,144 ; movss (%eax,%edx,4),%xmm3
- DB 139,85,200 ; mov -0x38(%ebp),%edx
- DB 243,15,16,52,144 ; movss (%eax,%edx,4),%xmm6
- DB 15,20,243 ; unpcklps %xmm3,%xmm6
- DB 139,85,184 ; mov -0x48(%ebp),%edx
- DB 243,15,16,20,144 ; movss (%eax,%edx,4),%xmm2
- DB 139,85,228 ; mov -0x1c(%ebp),%edx
- DB 243,15,16,28,144 ; movss (%eax,%edx,4),%xmm3
- DB 15,20,211 ; unpcklps %xmm3,%xmm2
- DB 102,15,20,214 ; unpcklpd %xmm6,%xmm2
- DB 102,15,41,149,248,254,255,255 ; movapd %xmm2,-0x108(%ebp)
- DB 243,15,16,28,152 ; movss (%eax,%ebx,4),%xmm3
- DB 139,125,168 ; mov -0x58(%ebp),%edi
- DB 243,15,16,52,184 ; movss (%eax,%edi,4),%xmm6
- DB 15,20,243 ; unpcklps %xmm3,%xmm6
- DB 139,85,232 ; mov -0x18(%ebp),%edx
- DB 243,15,16,4,144 ; movss (%eax,%edx,4),%xmm0
- DB 139,77,236 ; mov -0x14(%ebp),%ecx
- DB 243,15,16,20,136 ; movss (%eax,%ecx,4),%xmm2
- DB 15,20,194 ; unpcklps %xmm2,%xmm0
- DB 102,15,20,198 ; unpcklpd %xmm6,%xmm0
- DB 102,15,41,133,104,255,255,255 ; movapd %xmm0,-0x98(%ebp)
- DB 139,70,20 ; mov 0x14(%esi),%eax
- DB 243,15,16,20,152 ; movss (%eax,%ebx,4),%xmm2
- DB 243,15,16,52,184 ; movss (%eax,%edi,4),%xmm6
- DB 15,20,242 ; unpcklps %xmm2,%xmm6
- DB 243,15,16,28,144 ; movss (%eax,%edx,4),%xmm3
- DB 243,15,16,20,136 ; movss (%eax,%ecx,4),%xmm2
- DB 15,20,218 ; unpcklps %xmm2,%xmm3
- DB 102,15,20,222 ; unpcklpd %xmm6,%xmm3
- DB 139,93,224 ; mov -0x20(%ebp),%ebx
- DB 243,15,16,20,152 ; movss (%eax,%ebx,4),%xmm2
- DB 139,125,200 ; mov -0x38(%ebp),%edi
- DB 243,15,16,52,184 ; movss (%eax,%edi,4),%xmm6
- DB 15,20,242 ; unpcklps %xmm2,%xmm6
- DB 139,77,184 ; mov -0x48(%ebp),%ecx
- DB 243,15,16,44,136 ; movss (%eax,%ecx,4),%xmm5
- DB 139,77,228 ; mov -0x1c(%ebp),%ecx
- DB 243,15,16,20,136 ; movss (%eax,%ecx,4),%xmm2
- DB 15,20,234 ; unpcklps %xmm2,%xmm5
- DB 102,15,20,238 ; unpcklpd %xmm6,%xmm5
- DB 139,69,220 ; mov -0x24(%ebp),%eax
- DB 139,64,24 ; mov 0x18(%eax),%eax
- DB 139,117,240 ; mov -0x10(%ebp),%esi
- DB 243,15,16,20,176 ; movss (%eax,%esi,4),%xmm2
- DB 139,117,168 ; mov -0x58(%ebp),%esi
- DB 243,15,16,52,176 ; movss (%eax,%esi,4),%xmm6
- DB 15,20,242 ; unpcklps %xmm2,%xmm6
- DB 243,15,16,4,144 ; movss (%eax,%edx,4),%xmm0
- DB 139,85,236 ; mov -0x14(%ebp),%edx
- DB 243,15,16,20,144 ; movss (%eax,%edx,4),%xmm2
- DB 15,20,194 ; unpcklps %xmm2,%xmm0
- DB 102,15,20,198 ; unpcklpd %xmm6,%xmm0
- DB 102,15,41,133,56,255,255,255 ; movapd %xmm0,-0xc8(%ebp)
- DB 243,15,16,20,152 ; movss (%eax,%ebx,4),%xmm2
- DB 243,15,16,52,184 ; movss (%eax,%edi,4),%xmm6
- DB 15,20,242 ; unpcklps %xmm2,%xmm6
- DB 139,117,184 ; mov -0x48(%ebp),%esi
- DB 243,15,16,4,176 ; movss (%eax,%esi,4),%xmm0
- DB 243,15,16,20,136 ; movss (%eax,%ecx,4),%xmm2
- DB 15,20,194 ; unpcklps %xmm2,%xmm0
- DB 102,15,20,198 ; unpcklpd %xmm6,%xmm0
- DB 102,15,41,133,120,255,255,255 ; movapd %xmm0,-0x88(%ebp)
- DB 139,125,220 ; mov -0x24(%ebp),%edi
- DB 139,71,28 ; mov 0x1c(%edi),%eax
- DB 139,93,240 ; mov -0x10(%ebp),%ebx
- DB 243,15,16,20,152 ; movss (%eax,%ebx,4),%xmm2
- DB 139,77,168 ; mov -0x58(%ebp),%ecx
- DB 243,15,16,52,136 ; movss (%eax,%ecx,4),%xmm6
- DB 15,20,242 ; unpcklps %xmm2,%xmm6
- DB 139,77,232 ; mov -0x18(%ebp),%ecx
- DB 243,15,16,4,136 ; movss (%eax,%ecx,4),%xmm0
- DB 243,15,16,20,144 ; movss (%eax,%edx,4),%xmm2
- DB 15,20,194 ; unpcklps %xmm2,%xmm0
- DB 102,15,20,198 ; unpcklpd %xmm6,%xmm0
- DB 102,15,41,133,40,255,255,255 ; movapd %xmm0,-0xd8(%ebp)
- DB 139,77,224 ; mov -0x20(%ebp),%ecx
- DB 243,15,16,20,136 ; movss (%eax,%ecx,4),%xmm2
- DB 139,85,200 ; mov -0x38(%ebp),%edx
- DB 243,15,16,52,144 ; movss (%eax,%edx,4),%xmm6
- DB 15,20,242 ; unpcklps %xmm2,%xmm6
- DB 243,15,16,4,176 ; movss (%eax,%esi,4),%xmm0
- DB 139,117,228 ; mov -0x1c(%ebp),%esi
- DB 243,15,16,20,176 ; movss (%eax,%esi,4),%xmm2
- DB 15,20,194 ; unpcklps %xmm2,%xmm0
- DB 102,15,20,198 ; unpcklpd %xmm6,%xmm0
- DB 102,15,41,133,88,255,255,255 ; movapd %xmm0,-0xa8(%ebp)
- DB 139,71,32 ; mov 0x20(%edi),%eax
- DB 243,15,16,20,152 ; movss (%eax,%ebx,4),%xmm2
- DB 139,125,168 ; mov -0x58(%ebp),%edi
- DB 243,15,16,52,184 ; movss (%eax,%edi,4),%xmm6
- DB 15,20,242 ; unpcklps %xmm2,%xmm6
- DB 139,125,232 ; mov -0x18(%ebp),%edi
- DB 243,15,16,4,184 ; movss (%eax,%edi,4),%xmm0
- DB 139,125,236 ; mov -0x14(%ebp),%edi
- DB 243,15,16,20,184 ; movss (%eax,%edi,4),%xmm2
- DB 15,20,194 ; unpcklps %xmm2,%xmm0
- DB 102,15,20,198 ; unpcklpd %xmm6,%xmm0
- DB 102,15,41,69,168 ; movapd %xmm0,-0x58(%ebp)
- DB 243,15,16,20,136 ; movss (%eax,%ecx,4),%xmm2
- DB 243,15,16,52,144 ; movss (%eax,%edx,4),%xmm6
- DB 15,20,242 ; unpcklps %xmm2,%xmm6
- DB 139,77,184 ; mov -0x48(%ebp),%ecx
- DB 243,15,16,4,136 ; movss (%eax,%ecx,4),%xmm0
- DB 243,15,16,20,176 ; movss (%eax,%esi,4),%xmm2
- DB 15,20,194 ; unpcklps %xmm2,%xmm0
- DB 102,15,20,198 ; unpcklpd %xmm6,%xmm0
- DB 102,15,41,69,200 ; movapd %xmm0,-0x38(%ebp)
- DB 15,40,181,232,254,255,255 ; movaps -0x118(%ebp),%xmm6
- DB 15,89,230 ; mulps %xmm6,%xmm4
- DB 15,88,227 ; addps %xmm3,%xmm4
- DB 15,40,133,24,255,255,255 ; movaps -0xe8(%ebp),%xmm0
- DB 15,89,69,136 ; mulps -0x78(%ebp),%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 139,69,164 ; mov -0x5c(%ebp),%eax
- DB 15,40,152,193,15,0,0 ; movaps 0xfc1(%eax),%xmm3
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,40,168,225,14,0,0 ; movaps 0xee1(%eax),%xmm5
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,88,229 ; addps %xmm5,%xmm4
- DB 243,15,91,196 ; cvttps2dq %xmm4,%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 242,15,112,210,232 ; pshuflw $0xe8,%xmm2,%xmm2
- DB 243,15,112,210,232 ; pshufhw $0xe8,%xmm2,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,108,208 ; punpcklqdq %xmm0,%xmm2
- DB 102,15,127,85,184 ; movdqa %xmm2,-0x48(%ebp)
- DB 15,89,206 ; mulps %xmm6,%xmm1
- DB 15,40,230 ; movaps %xmm6,%xmm4
- DB 15,88,141,56,255,255,255 ; addps -0xc8(%ebp),%xmm1
- DB 15,40,85,136 ; movaps -0x78(%ebp),%xmm2
- DB 15,40,133,72,255,255,255 ; movaps -0xb8(%ebp),%xmm0
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 15,88,133,120,255,255,255 ; addps -0x88(%ebp),%xmm0
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,40,240 ; movaps %xmm0,%xmm6
- DB 15,88,205 ; addps %xmm5,%xmm1
- DB 243,15,91,193 ; cvttps2dq %xmm1,%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 243,15,91,206 ; cvttps2dq %xmm6,%xmm1
- DB 242,15,112,201,232 ; pshuflw $0xe8,%xmm1,%xmm1
- DB 243,15,112,201,232 ; pshufhw $0xe8,%xmm1,%xmm1
- DB 102,15,112,241,232 ; pshufd $0xe8,%xmm1,%xmm6
- DB 102,15,108,240 ; punpcklqdq %xmm0,%xmm6
- DB 15,89,252 ; mulps %xmm4,%xmm7
- DB 15,88,189,40,255,255,255 ; addps -0xd8(%ebp),%xmm7
- DB 15,40,133,8,255,255,255 ; movaps -0xf8(%ebp),%xmm0
- DB 15,89,194 ; mulps %xmm2,%xmm0
- DB 15,88,133,88,255,255,255 ; addps -0xa8(%ebp),%xmm0
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 15,89,195 ; mulps %xmm3,%xmm0
- DB 15,88,197 ; addps %xmm5,%xmm0
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,88,253 ; addps %xmm5,%xmm7
- DB 243,15,91,199 ; cvttps2dq %xmm7,%xmm0
- DB 242,15,112,192,232 ; pshuflw $0xe8,%xmm0,%xmm0
- DB 243,15,112,192,232 ; pshufhw $0xe8,%xmm0,%xmm0
- DB 102,15,112,192,232 ; pshufd $0xe8,%xmm0,%xmm0
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 242,15,112,201,232 ; pshuflw $0xe8,%xmm1,%xmm1
- DB 243,15,112,201,232 ; pshufhw $0xe8,%xmm1,%xmm1
- DB 102,15,112,209,232 ; pshufd $0xe8,%xmm1,%xmm2
- DB 102,15,108,208 ; punpcklqdq %xmm0,%xmm2
- DB 15,40,189,104,255,255,255 ; movaps -0x98(%ebp),%xmm7
- DB 15,89,252 ; mulps %xmm4,%xmm7
- DB 15,88,125,168 ; addps -0x58(%ebp),%xmm7
- DB 15,40,165,248,254,255,255 ; movaps -0x108(%ebp),%xmm4
- DB 15,89,101,136 ; mulps -0x78(%ebp),%xmm4
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 15,88,101,200 ; addps -0x38(%ebp),%xmm4
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 15,40,77,40 ; movaps 0x28(%ebp),%xmm1
- DB 15,88,229 ; addps %xmm5,%xmm4
- DB 15,88,253 ; addps %xmm5,%xmm7
- DB 15,40,69,56 ; movaps 0x38(%ebp),%xmm0
- DB 243,15,91,223 ; cvttps2dq %xmm7,%xmm3
- DB 242,15,112,219,232 ; pshuflw $0xe8,%xmm3,%xmm3
- DB 243,15,112,219,232 ; pshufhw $0xe8,%xmm3,%xmm3
- DB 102,15,112,251,232 ; pshufd $0xe8,%xmm3,%xmm7
- DB 243,15,91,220 ; cvttps2dq %xmm4,%xmm3
- DB 242,15,112,219,232 ; pshuflw $0xe8,%xmm3,%xmm3
- DB 243,15,112,219,232 ; pshufhw $0xe8,%xmm3,%xmm3
- DB 102,15,112,219,232 ; pshufd $0xe8,%xmm3,%xmm3
- DB 102,15,108,223 ; punpcklqdq %xmm7,%xmm3
- DB 15,40,125,72 ; movaps 0x48(%ebp),%xmm7
- DB 139,125,12 ; mov 0xc(%ebp),%edi
- DB 141,119,8 ; lea 0x8(%edi),%esi
- DB 15,41,124,36,64 ; movaps %xmm7,0x40(%esp)
- DB 15,41,68,36,48 ; movaps %xmm0,0x30(%esp)
- DB 15,41,76,36,32 ; movaps %xmm1,0x20(%esp)
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,116,36,4 ; mov %esi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 15,40,69,184 ; movaps -0x48(%ebp),%xmm0
- DB 102,15,111,206 ; movdqa %xmm6,%xmm1
- DB 255,87,4 ; call *0x4(%edi)
- DB 129,196,92,1,0,0 ; add $0x15c,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_evenly_spaced_2_stop_gradient_sse2_lowp
-_sk_evenly_spaced_2_stop_gradient_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,96 ; sub $0x60,%esp
- DB 15,40,241 ; movaps %xmm1,%xmm6
- DB 232,0,0,0,0 ; call fdbe <_sk_evenly_spaced_2_stop_gradient_sse2_lowp+0x10>
- DB 90 ; pop %edx
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,8 ; mov (%eax),%ecx
- DB 243,15,16,33 ; movss (%ecx),%xmm4
- DB 243,15,16,81,4 ; movss 0x4(%ecx),%xmm2
- DB 15,198,228,0 ; shufps $0x0,%xmm4,%xmm4
- DB 243,15,16,89,16 ; movss 0x10(%ecx),%xmm3
- DB 15,198,219,0 ; shufps $0x0,%xmm3,%xmm3
- DB 15,40,238 ; movaps %xmm6,%xmm5
- DB 15,89,236 ; mulps %xmm4,%xmm5
- DB 15,89,224 ; mulps %xmm0,%xmm4
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,88,227 ; addps %xmm3,%xmm4
- DB 15,88,235 ; addps %xmm3,%xmm5
- DB 15,40,154,130,10,0,0 ; movaps 0xa82(%edx),%xmm3
- DB 15,89,235 ; mulps %xmm3,%xmm5
- DB 15,89,227 ; mulps %xmm3,%xmm4
- DB 15,40,130,162,9,0,0 ; movaps 0x9a2(%edx),%xmm0
- DB 15,88,224 ; addps %xmm0,%xmm4
- DB 15,88,232 ; addps %xmm0,%xmm5
- DB 243,15,91,237 ; cvttps2dq %xmm5,%xmm5
- DB 242,15,112,237,232 ; pshuflw $0xe8,%xmm5,%xmm5
- DB 243,15,112,237,232 ; pshufhw $0xe8,%xmm5,%xmm5
- DB 102,15,112,237,232 ; pshufd $0xe8,%xmm5,%xmm5
- DB 243,15,91,228 ; cvttps2dq %xmm4,%xmm4
- DB 242,15,112,228,232 ; pshuflw $0xe8,%xmm4,%xmm4
- DB 243,15,112,228,232 ; pshufhw $0xe8,%xmm4,%xmm4
- DB 102,15,112,228,232 ; pshufd $0xe8,%xmm4,%xmm4
- DB 102,15,108,229 ; punpcklqdq %xmm5,%xmm4
- DB 102,15,127,101,232 ; movdqa %xmm4,-0x18(%ebp)
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,105,20 ; movss 0x14(%ecx),%xmm5
- DB 15,198,237,0 ; shufps $0x0,%xmm5,%xmm5
- DB 15,40,254 ; movaps %xmm6,%xmm7
- DB 15,89,250 ; mulps %xmm2,%xmm7
- DB 15,89,209 ; mulps %xmm1,%xmm2
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,88,213 ; addps %xmm5,%xmm2
- DB 15,88,253 ; addps %xmm5,%xmm7
- DB 15,89,251 ; mulps %xmm3,%xmm7
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 243,15,91,239 ; cvttps2dq %xmm7,%xmm5
- DB 242,15,112,237,232 ; pshuflw $0xe8,%xmm5,%xmm5
- DB 243,15,112,237,232 ; pshufhw $0xe8,%xmm5,%xmm5
- DB 102,15,112,253,232 ; pshufd $0xe8,%xmm5,%xmm7
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 242,15,112,210,232 ; pshuflw $0xe8,%xmm2,%xmm2
- DB 243,15,112,210,232 ; pshufhw $0xe8,%xmm2,%xmm2
- DB 102,15,112,234,232 ; pshufd $0xe8,%xmm2,%xmm5
- DB 102,15,108,239 ; punpcklqdq %xmm7,%xmm5
- DB 243,15,16,81,8 ; movss 0x8(%ecx),%xmm2
- DB 15,198,210,0 ; shufps $0x0,%xmm2,%xmm2
- DB 243,15,16,121,24 ; movss 0x18(%ecx),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,40,206 ; movaps %xmm6,%xmm1
- DB 15,89,202 ; mulps %xmm2,%xmm1
- DB 15,89,212 ; mulps %xmm4,%xmm2
- DB 15,88,215 ; addps %xmm7,%xmm2
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 139,125,20 ; mov 0x14(%ebp),%edi
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,89,211 ; mulps %xmm3,%xmm2
- DB 15,88,208 ; addps %xmm0,%xmm2
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 242,15,112,201,232 ; pshuflw $0xe8,%xmm1,%xmm1
- DB 243,15,112,201,232 ; pshufhw $0xe8,%xmm1,%xmm1
- DB 102,15,112,201,232 ; pshufd $0xe8,%xmm1,%xmm1
- DB 243,15,91,210 ; cvttps2dq %xmm2,%xmm2
- DB 242,15,112,210,232 ; pshuflw $0xe8,%xmm2,%xmm2
- DB 243,15,112,210,232 ; pshufhw $0xe8,%xmm2,%xmm2
- DB 102,15,112,210,232 ; pshufd $0xe8,%xmm2,%xmm2
- DB 102,15,108,209 ; punpcklqdq %xmm1,%xmm2
- DB 243,15,16,73,12 ; movss 0xc(%ecx),%xmm1
- DB 15,198,201,0 ; shufps $0x0,%xmm1,%xmm1
- DB 15,89,241 ; mulps %xmm1,%xmm6
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 243,15,16,121,28 ; movss 0x1c(%ecx),%xmm7
- DB 15,198,255,0 ; shufps $0x0,%xmm7,%xmm7
- DB 15,88,207 ; addps %xmm7,%xmm1
- DB 15,88,247 ; addps %xmm7,%xmm6
- DB 15,40,101,24 ; movaps 0x18(%ebp),%xmm4
- DB 15,89,243 ; mulps %xmm3,%xmm6
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,40,125,40 ; movaps 0x28(%ebp),%xmm7
- DB 15,88,200 ; addps %xmm0,%xmm1
- DB 15,88,240 ; addps %xmm0,%xmm6
- DB 15,40,69,56 ; movaps 0x38(%ebp),%xmm0
- DB 243,15,91,222 ; cvttps2dq %xmm6,%xmm3
- DB 242,15,112,219,232 ; pshuflw $0xe8,%xmm3,%xmm3
- DB 243,15,112,219,232 ; pshufhw $0xe8,%xmm3,%xmm3
- DB 102,15,112,243,232 ; pshufd $0xe8,%xmm3,%xmm6
- DB 243,15,91,201 ; cvttps2dq %xmm1,%xmm1
- DB 242,15,112,201,232 ; pshuflw $0xe8,%xmm1,%xmm1
- DB 243,15,112,201,232 ; pshufhw $0xe8,%xmm1,%xmm1
- DB 102,15,112,217,232 ; pshufd $0xe8,%xmm1,%xmm3
- DB 102,15,108,222 ; punpcklqdq %xmm6,%xmm3
- DB 15,40,77,72 ; movaps 0x48(%ebp),%xmm1
- DB 141,72,8 ; lea 0x8(%eax),%ecx
- DB 15,41,76,36,64 ; movaps %xmm1,0x40(%esp)
- DB 15,41,68,36,48 ; movaps %xmm0,0x30(%esp)
- DB 15,41,124,36,32 ; movaps %xmm7,0x20(%esp)
- DB 15,41,100,36,16 ; movaps %xmm4,0x10(%esp)
- DB 137,124,36,12 ; mov %edi,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,76,36,4 ; mov %ecx,0x4(%esp)
- DB 137,20,36 ; mov %edx,(%esp)
- DB 15,40,69,232 ; movaps -0x18(%ebp),%xmm0
- DB 102,15,111,205 ; movdqa %xmm5,%xmm1
- DB 255,80,4 ; call *0x4(%eax)
- DB 131,196,96 ; add $0x60,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_xy_to_unit_angle_sse2_lowp
-_sk_xy_to_unit_angle_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,160,0,0,0 ; sub $0xa0,%esp
- DB 15,41,93,168 ; movaps %xmm3,-0x58(%ebp)
- DB 15,41,85,232 ; movaps %xmm2,-0x18(%ebp)
- DB 15,41,77,184 ; movaps %xmm1,-0x48(%ebp)
- DB 15,40,208 ; movaps %xmm0,%xmm2
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 232,0,0,0,0 ; call ffa9 <_sk_xy_to_unit_angle_sse2_lowp+0x23>
- DB 88 ; pop %eax
- DB 15,40,128,7,13,0,0 ; movaps 0xd07(%eax),%xmm0
- DB 15,40,225 ; movaps %xmm1,%xmm4
- DB 15,84,224 ; andps %xmm0,%xmm4
- DB 15,40,203 ; movaps %xmm3,%xmm1
- DB 15,84,200 ; andps %xmm0,%xmm1
- DB 15,40,236 ; movaps %xmm4,%xmm5
- DB 15,194,233,1 ; cmpltps %xmm1,%xmm5
- DB 15,40,245 ; movaps %xmm5,%xmm6
- DB 15,85,241 ; andnps %xmm1,%xmm6
- DB 15,40,221 ; movaps %xmm5,%xmm3
- DB 15,85,220 ; andnps %xmm4,%xmm3
- DB 15,41,93,216 ; movaps %xmm3,-0x28(%ebp)
- DB 15,84,229 ; andps %xmm5,%xmm4
- DB 15,86,230 ; orps %xmm6,%xmm4
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,84,248 ; andps %xmm0,%xmm7
- DB 15,84,69,232 ; andps -0x18(%ebp),%xmm0
- DB 15,40,215 ; movaps %xmm7,%xmm2
- DB 15,194,208,1 ; cmpltps %xmm0,%xmm2
- DB 15,40,242 ; movaps %xmm2,%xmm6
- DB 15,85,240 ; andnps %xmm0,%xmm6
- DB 15,40,218 ; movaps %xmm2,%xmm3
- DB 15,85,223 ; andnps %xmm7,%xmm3
- DB 15,84,250 ; andps %xmm2,%xmm7
- DB 15,86,254 ; orps %xmm6,%xmm7
- DB 15,84,205 ; andps %xmm5,%xmm1
- DB 15,86,77,216 ; orps -0x28(%ebp),%xmm1
- DB 15,94,225 ; divps %xmm1,%xmm4
- DB 15,84,194 ; andps %xmm2,%xmm0
- DB 15,86,195 ; orps %xmm3,%xmm0
- DB 15,94,248 ; divps %xmm0,%xmm7
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 15,89,219 ; mulps %xmm3,%xmm3
- DB 15,40,247 ; movaps %xmm7,%xmm6
- DB 15,89,246 ; mulps %xmm6,%xmm6
- DB 15,40,136,167,13,0,0 ; movaps 0xda7(%eax),%xmm1
- DB 15,40,198 ; movaps %xmm6,%xmm0
- DB 15,89,193 ; mulps %xmm1,%xmm0
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,88,136,183,13,0,0 ; addps 0xdb7(%eax),%xmm1
- DB 15,88,128,183,13,0,0 ; addps 0xdb7(%eax),%xmm0
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,88,136,199,13,0,0 ; addps 0xdc7(%eax),%xmm1
- DB 15,88,128,199,13,0,0 ; addps 0xdc7(%eax),%xmm0
- DB 15,89,198 ; mulps %xmm6,%xmm0
- DB 15,89,203 ; mulps %xmm3,%xmm1
- DB 15,40,152,215,13,0,0 ; movaps 0xdd7(%eax),%xmm3
- DB 15,88,203 ; addps %xmm3,%xmm1
- DB 15,88,195 ; addps %xmm3,%xmm0
- DB 15,89,199 ; mulps %xmm7,%xmm0
- DB 15,89,204 ; mulps %xmm4,%xmm1
- DB 15,40,152,231,13,0,0 ; movaps 0xde7(%eax),%xmm3
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 15,92,216 ; subps %xmm0,%xmm3
- DB 15,84,218 ; andps %xmm2,%xmm3
- DB 15,85,208 ; andnps %xmm0,%xmm2
- DB 15,86,211 ; orps %xmm3,%xmm2
- DB 15,92,225 ; subps %xmm1,%xmm4
- DB 15,84,229 ; andps %xmm5,%xmm4
- DB 15,85,233 ; andnps %xmm1,%xmm5
- DB 15,86,236 ; orps %xmm4,%xmm5
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 15,40,93,200 ; movaps -0x38(%ebp),%xmm3
- DB 15,194,220,1 ; cmpltps %xmm4,%xmm3
- DB 15,40,128,183,7,0,0 ; movaps 0x7b7(%eax),%xmm0
- DB 15,40,200 ; movaps %xmm0,%xmm1
- DB 15,92,194 ; subps %xmm2,%xmm0
- DB 15,84,195 ; andps %xmm3,%xmm0
- DB 15,85,218 ; andnps %xmm2,%xmm3
- DB 139,77,8 ; mov 0x8(%ebp),%ecx
- DB 139,85,16 ; mov 0x10(%ebp),%edx
- DB 139,117,20 ; mov 0x14(%ebp),%esi
- DB 15,40,85,184 ; movaps -0x48(%ebp),%xmm2
- DB 15,194,212,1 ; cmpltps %xmm4,%xmm2
- DB 15,92,205 ; subps %xmm5,%xmm1
- DB 15,86,216 ; orps %xmm0,%xmm3
- DB 15,84,202 ; andps %xmm2,%xmm1
- DB 15,85,213 ; andnps %xmm5,%xmm2
- DB 15,86,209 ; orps %xmm1,%xmm2
- DB 15,40,242 ; movaps %xmm2,%xmm6
- DB 15,40,125,232 ; movaps -0x18(%ebp),%xmm7
- DB 15,40,199 ; movaps %xmm7,%xmm0
- DB 15,194,196,1 ; cmpltps %xmm4,%xmm0
- DB 15,40,136,199,7,0,0 ; movaps 0x7c7(%eax),%xmm1
- DB 15,40,209 ; movaps %xmm1,%xmm2
- DB 15,92,203 ; subps %xmm3,%xmm1
- DB 15,84,200 ; andps %xmm0,%xmm1
- DB 15,85,195 ; andnps %xmm3,%xmm0
- DB 15,86,193 ; orps %xmm1,%xmm0
- DB 15,40,93,168 ; movaps -0x58(%ebp),%xmm3
- DB 15,40,235 ; movaps %xmm3,%xmm5
- DB 15,194,236,1 ; cmpltps %xmm4,%xmm5
- DB 15,92,214 ; subps %xmm6,%xmm2
- DB 15,84,213 ; andps %xmm5,%xmm2
- DB 15,85,238 ; andnps %xmm6,%xmm5
- DB 15,40,117,40 ; movaps 0x28(%ebp),%xmm6
- DB 15,86,234 ; orps %xmm2,%xmm5
- DB 15,40,205 ; movaps %xmm5,%xmm1
- DB 15,194,204,7 ; cmpordps %xmm4,%xmm1
- DB 15,194,224,7 ; cmpordps %xmm0,%xmm4
- DB 15,84,224 ; andps %xmm0,%xmm4
- DB 15,40,69,56 ; movaps 0x38(%ebp),%xmm0
- DB 15,84,205 ; andps %xmm5,%xmm1
- DB 15,40,85,72 ; movaps 0x48(%ebp),%xmm2
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 141,120,4 ; lea 0x4(%eax),%edi
- DB 15,41,84,36,64 ; movaps %xmm2,0x40(%esp)
- DB 15,41,68,36,48 ; movaps %xmm0,0x30(%esp)
- DB 15,41,116,36,32 ; movaps %xmm6,0x20(%esp)
- DB 15,40,69,24 ; movaps 0x18(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 137,116,36,12 ; mov %esi,0xc(%esp)
- DB 137,84,36,8 ; mov %edx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,12,36 ; mov %ecx,(%esp)
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 15,40,215 ; movaps %xmm7,%xmm2
- DB 255,16 ; call *(%eax)
- DB 129,196,160,0,0,0 ; add $0xa0,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_xy_to_radius_sse2_lowp
-_sk_xy_to_radius_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 131,236,80 ; sub $0x50,%esp
- DB 15,40,227 ; movaps %xmm3,%xmm4
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 139,77,16 ; mov 0x10(%ebp),%ecx
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 15,40,117,56 ; movaps 0x38(%ebp),%xmm6
- DB 15,89,192 ; mulps %xmm0,%xmm0
- DB 15,89,201 ; mulps %xmm1,%xmm1
- DB 15,40,250 ; movaps %xmm2,%xmm7
- DB 15,89,255 ; mulps %xmm7,%xmm7
- DB 15,88,248 ; addps %xmm0,%xmm7
- DB 15,89,219 ; mulps %xmm3,%xmm3
- DB 15,88,217 ; addps %xmm1,%xmm3
- DB 15,40,109,72 ; movaps 0x48(%ebp),%xmm5
- DB 139,117,12 ; mov 0xc(%ebp),%esi
- DB 15,81,199 ; sqrtps %xmm7,%xmm0
- DB 15,81,203 ; sqrtps %xmm3,%xmm1
- DB 141,126,4 ; lea 0x4(%esi),%edi
- DB 15,41,108,36,64 ; movaps %xmm5,0x40(%esp)
- DB 15,41,116,36,48 ; movaps %xmm6,0x30(%esp)
- DB 15,40,93,40 ; movaps 0x28(%ebp),%xmm3
- DB 15,41,92,36,32 ; movaps %xmm3,0x20(%esp)
- DB 15,40,93,24 ; movaps 0x18(%ebp),%xmm3
- DB 15,41,92,36,16 ; movaps %xmm3,0x10(%esp)
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,76,36,8 ; mov %ecx,0x8(%esp)
- DB 137,124,36,4 ; mov %edi,0x4(%esp)
- DB 137,4,36 ; mov %eax,(%esp)
- DB 15,40,220 ; movaps %xmm4,%xmm3
- DB 255,22 ; call *(%esi)
- DB 131,196,80 ; add $0x50,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 93 ; pop %ebp
- DB 195 ; ret
-
-PUBLIC _sk_srcover_rgba_8888_sse2_lowp
-_sk_srcover_rgba_8888_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,172,0,0,0 ; sub $0xac,%esp
- DB 102,15,111,227 ; movdqa %xmm3,%xmm4
- DB 15,41,85,200 ; movaps %xmm2,-0x38(%ebp)
- DB 15,41,77,216 ; movaps %xmm1,-0x28(%ebp)
- DB 102,15,111,248 ; movdqa %xmm0,%xmm7
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,121,4 ; mov 0x4(%ecx),%edi
- DB 15,175,125,20 ; imul 0x14(%ebp),%edi
- DB 193,231,2 ; shl $0x2,%edi
- DB 3,57 ; add (%ecx),%edi
- DB 137,211 ; mov %edx,%ebx
- DB 128,227,7 ; and $0x7,%bl
- DB 254,203 ; dec %bl
- DB 128,251,6 ; cmp $0x6,%bl
- DB 232,0,0,0,0 ; call 10211 <_sk_srcover_rgba_8888_sse2_lowp+0x3f>
- DB 89 ; pop %ecx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 15,182,211 ; movzbl %bl,%edx
- DB 119,29 ; ja 10237 <_sk_srcover_rgba_8888_sse2_lowp+0x65>
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 139,132,145,75,2,0,0 ; mov 0x24b(%ecx,%edx,4),%eax
- DB 1,200 ; add %ecx,%eax
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 255,224 ; jmp *%eax
- DB 243,15,16,52,183 ; movss (%edi,%esi,4),%xmm6
- DB 15,87,219 ; xorps %xmm3,%xmm3
- DB 235,73 ; jmp 10280 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
- DB 102,15,16,52,183 ; movupd (%edi,%esi,4),%xmm6
- DB 15,16,92,183,16 ; movups 0x10(%edi,%esi,4),%xmm3
- DB 235,61 ; jmp 10280 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
- DB 102,15,110,68,183,8 ; movd 0x8(%edi,%esi,4),%xmm0
- DB 102,15,112,240,69 ; pshufd $0x45,%xmm0,%xmm6
- DB 102,15,18,52,183 ; movlpd (%edi,%esi,4),%xmm6
- DB 235,43 ; jmp 10280 <_sk_srcover_rgba_8888_sse2_lowp+0xae>
- DB 102,15,110,68,183,24 ; movd 0x18(%edi,%esi,4),%xmm0
- DB 102,15,112,216,69 ; pshufd $0x45,%xmm0,%xmm3
- DB 243,15,16,68,183,20 ; movss 0x14(%edi,%esi,4),%xmm0
- DB 15,198,195,0 ; shufps $0x0,%xmm3,%xmm0
- DB 15,198,195,226 ; shufps $0xe2,%xmm3,%xmm0
- DB 15,40,216 ; movaps %xmm0,%xmm3
- DB 243,15,16,68,183,16 ; movss 0x10(%edi,%esi,4),%xmm0
- DB 243,15,16,216 ; movss %xmm0,%xmm3
- DB 102,15,16,52,183 ; movupd (%edi,%esi,4),%xmm6
- DB 102,15,40,206 ; movapd %xmm6,%xmm1
- DB 102,15,114,241,16 ; pslld $0x10,%xmm1
- DB 102,15,114,225,16 ; psrad $0x10,%xmm1
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,107,200 ; packssdw %xmm0,%xmm1
- DB 15,40,195 ; movaps %xmm3,%xmm0
- DB 102,15,40,214 ; movapd %xmm6,%xmm2
- DB 102,15,114,214,24 ; psrld $0x18,%xmm6
- DB 102,15,114,246,16 ; pslld $0x10,%xmm6
- DB 102,15,114,230,16 ; psrad $0x10,%xmm6
- DB 102,15,114,211,24 ; psrld $0x18,%xmm3
- DB 102,15,114,243,16 ; pslld $0x10,%xmm3
- DB 102,15,114,227,16 ; psrad $0x10,%xmm3
- DB 102,15,107,243 ; packssdw %xmm3,%xmm6
- DB 102,15,111,153,95,12,0,0 ; movdqa 0xc5f(%ecx),%xmm3
- DB 102,15,114,208,16 ; psrld $0x10,%xmm0
- DB 102,15,114,210,16 ; psrld $0x10,%xmm2
- DB 102,15,114,242,16 ; pslld $0x10,%xmm2
- DB 102,15,114,226,16 ; psrad $0x10,%xmm2
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,107,208 ; packssdw %xmm0,%xmm2
- DB 102,15,111,193 ; movdqa %xmm1,%xmm0
- DB 102,15,219,195 ; pand %xmm3,%xmm0
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,249,236 ; psubw %xmm4,%xmm5
- DB 102,15,127,69,184 ; movdqa %xmm0,-0x48(%ebp)
- DB 102,15,213,197 ; pmullw %xmm5,%xmm0
- DB 102,15,253,195 ; paddw %xmm3,%xmm0
- DB 102,15,113,208,8 ; psrlw $0x8,%xmm0
- DB 102,15,253,199 ; paddw %xmm7,%xmm0
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,127,77,152 ; movdqa %xmm1,-0x68(%ebp)
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,253,203 ; paddw %xmm3,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,253,77,216 ; paddw -0x28(%ebp),%xmm1
- DB 102,15,219,211 ; pand %xmm3,%xmm2
- DB 102,15,127,85,216 ; movdqa %xmm2,-0x28(%ebp)
- DB 102,15,111,250 ; movdqa %xmm2,%xmm7
- DB 102,15,213,253 ; pmullw %xmm5,%xmm7
- DB 102,15,253,251 ; paddw %xmm3,%xmm7
- DB 102,15,113,215,8 ; psrlw $0x8,%xmm7
- DB 102,15,253,125,200 ; paddw -0x38(%ebp),%xmm7
- DB 102,15,127,117,200 ; movdqa %xmm6,-0x38(%ebp)
- DB 102,15,213,238 ; pmullw %xmm6,%xmm5
- DB 102,15,253,235 ; paddw %xmm3,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,253,236 ; paddw %xmm4,%xmm5
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,113,246,8 ; psllw $0x8,%xmm6
- DB 102,15,127,69,168 ; movdqa %xmm0,-0x58(%ebp)
- DB 102,15,235,240 ; por %xmm0,%xmm6
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,111,214 ; movdqa %xmm6,%xmm2
- DB 102,15,97,211 ; punpcklwd %xmm3,%xmm2
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,113,244,8 ; psllw $0x8,%xmm4
- DB 102,15,235,231 ; por %xmm7,%xmm4
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,97,196 ; punpcklwd %xmm4,%xmm0
- DB 102,15,235,194 ; por %xmm2,%xmm0
- DB 102,15,105,243 ; punpckhwd %xmm3,%xmm6
- DB 102,15,105,220 ; punpckhwd %xmm4,%xmm3
- DB 102,15,235,222 ; por %xmm6,%xmm3
- DB 128,251,6 ; cmp $0x6,%bl
- DB 119,16 ; ja 103c1 <_sk_srcover_rgba_8888_sse2_lowp+0x1ef>
- DB 3,140,145,103,2,0,0 ; add 0x267(%ecx,%edx,4),%ecx
- DB 255,225 ; jmp *%ecx
- DB 102,15,126,4,183 ; movd %xmm0,(%edi,%esi,4)
- DB 235,64 ; jmp 10401 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
- DB 243,15,127,4,183 ; movdqu %xmm0,(%edi,%esi,4)
- DB 243,15,127,92,183,16 ; movdqu %xmm3,0x10(%edi,%esi,4)
- DB 235,51 ; jmp 10401 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
- DB 102,15,112,208,78 ; pshufd $0x4e,%xmm0,%xmm2
- DB 102,15,126,84,183,8 ; movd %xmm2,0x8(%edi,%esi,4)
- DB 102,15,214,4,183 ; movq %xmm0,(%edi,%esi,4)
- DB 235,33 ; jmp 10401 <_sk_srcover_rgba_8888_sse2_lowp+0x22f>
- DB 102,15,112,211,78 ; pshufd $0x4e,%xmm3,%xmm2
- DB 102,15,126,84,183,24 ; movd %xmm2,0x18(%edi,%esi,4)
- DB 102,15,112,211,229 ; pshufd $0xe5,%xmm3,%xmm2
- DB 102,15,126,84,183,20 ; movd %xmm2,0x14(%edi,%esi,4)
- DB 102,15,126,92,183,16 ; movd %xmm3,0x10(%edi,%esi,4)
- DB 243,15,127,4,183 ; movdqu %xmm0,(%edi,%esi,4)
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 137,193 ; mov %eax,%ecx
- DB 141,65,8 ; lea 0x8(%ecx),%eax
- DB 15,40,69,200 ; movaps -0x38(%ebp),%xmm0
- DB 15,41,68,36,64 ; movaps %xmm0,0x40(%esp)
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,41,68,36,48 ; movaps %xmm0,0x30(%esp)
- DB 15,40,69,152 ; movaps -0x68(%ebp),%xmm0
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
- DB 15,40,69,184 ; movaps -0x48(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,68,36,4 ; mov %eax,0x4(%esp)
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 137,4,36 ; mov %eax,(%esp)
- DB 15,40,69,168 ; movaps -0x58(%ebp),%xmm0
- DB 102,15,111,215 ; movdqa %xmm7,%xmm2
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 255,81,4 ; call *0x4(%ecx)
- DB 129,196,172,0,0,0 ; add $0xac,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 28,0 ; sbb $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 61,0,0,0,50 ; cmp $0x32000000,%eax
- DB 0,0 ; add %al,(%eax)
- DB 0,106,0 ; add %ch,0x0(%edx)
- DB 0,0 ; add %al,(%eax)
- DB 96 ; pusha
- DB 0,0 ; add %al,(%eax)
- DB 0,79,0 ; add %cl,0x0(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 68 ; inc %esp
- DB 0,0 ; add %al,(%eax)
- DB 0,169,1,0,0,200 ; add %ch,-0x37ffffff(%ecx)
- DB 1,0 ; add %eax,(%eax)
- DB 0,189,1,0,0,235 ; add %bh,-0x14ffffff(%ebp)
- DB 1,0 ; add %eax,(%eax)
- DB 0,229 ; add %ah,%ch
- DB 1,0 ; add %eax,(%eax)
- DB 0,218 ; add %bl,%dl
- DB 1,0 ; add %eax,(%eax)
- DB 0,207 ; add %cl,%bh
- DB 1,0 ; add %eax,(%eax)
- DB 0 ; .byte 0x0
-
-PUBLIC _sk_srcover_bgra_8888_sse2_lowp
-_sk_srcover_bgra_8888_sse2_lowp LABEL PROC
- DB 85 ; push %ebp
- DB 137,229 ; mov %esp,%ebp
- DB 83 ; push %ebx
- DB 87 ; push %edi
- DB 86 ; push %esi
- DB 129,236,188,0,0,0 ; sub $0xbc,%esp
- DB 102,15,111,251 ; movdqa %xmm3,%xmm7
- DB 15,41,85,184 ; movaps %xmm2,-0x48(%ebp)
- DB 15,41,77,200 ; movaps %xmm1,-0x38(%ebp)
- DB 102,15,127,69,216 ; movdqa %xmm0,-0x28(%ebp)
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 139,85,8 ; mov 0x8(%ebp),%edx
- DB 139,8 ; mov (%eax),%ecx
- DB 139,121,4 ; mov 0x4(%ecx),%edi
- DB 15,175,125,20 ; imul 0x14(%ebp),%edi
- DB 193,231,2 ; shl $0x2,%edi
- DB 3,57 ; add (%ecx),%edi
- DB 137,211 ; mov %edx,%ebx
- DB 128,227,7 ; and $0x7,%bl
- DB 254,203 ; dec %bl
- DB 128,251,6 ; cmp $0x6,%bl
- DB 232,0,0,0,0 ; call 104d4 <_sk_srcover_bgra_8888_sse2_lowp+0x40>
- DB 89 ; pop %ecx
- DB 139,117,16 ; mov 0x10(%ebp),%esi
- DB 15,182,211 ; movzbl %bl,%edx
- DB 119,29 ; ja 104fa <_sk_srcover_bgra_8888_sse2_lowp+0x66>
- DB 102,15,239,228 ; pxor %xmm4,%xmm4
- DB 139,132,145,80,2,0,0 ; mov 0x250(%ecx,%edx,4),%eax
- DB 1,200 ; add %ecx,%eax
- DB 102,15,239,246 ; pxor %xmm6,%xmm6
- DB 255,224 ; jmp *%eax
- DB 243,15,16,52,183 ; movss (%edi,%esi,4),%xmm6
- DB 15,87,228 ; xorps %xmm4,%xmm4
- DB 235,73 ; jmp 10543 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
- DB 102,15,16,52,183 ; movupd (%edi,%esi,4),%xmm6
- DB 15,16,100,183,16 ; movups 0x10(%edi,%esi,4),%xmm4
- DB 235,61 ; jmp 10543 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
- DB 102,15,110,68,183,8 ; movd 0x8(%edi,%esi,4),%xmm0
- DB 102,15,112,240,69 ; pshufd $0x45,%xmm0,%xmm6
- DB 102,15,18,52,183 ; movlpd (%edi,%esi,4),%xmm6
- DB 235,43 ; jmp 10543 <_sk_srcover_bgra_8888_sse2_lowp+0xaf>
- DB 102,15,110,68,183,24 ; movd 0x18(%edi,%esi,4),%xmm0
- DB 102,15,112,224,69 ; pshufd $0x45,%xmm0,%xmm4
- DB 243,15,16,68,183,20 ; movss 0x14(%edi,%esi,4),%xmm0
- DB 15,198,196,0 ; shufps $0x0,%xmm4,%xmm0
- DB 15,198,196,226 ; shufps $0xe2,%xmm4,%xmm0
- DB 15,40,224 ; movaps %xmm0,%xmm4
- DB 243,15,16,68,183,16 ; movss 0x10(%edi,%esi,4),%xmm0
- DB 243,15,16,224 ; movss %xmm0,%xmm4
- DB 102,15,16,52,183 ; movupd (%edi,%esi,4),%xmm6
- DB 102,15,40,206 ; movapd %xmm6,%xmm1
- DB 102,15,114,241,16 ; pslld $0x10,%xmm1
- DB 102,15,114,225,16 ; psrad $0x10,%xmm1
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,107,200 ; packssdw %xmm0,%xmm1
- DB 15,40,196 ; movaps %xmm4,%xmm0
- DB 102,15,40,214 ; movapd %xmm6,%xmm2
- DB 102,15,114,214,24 ; psrld $0x18,%xmm6
- DB 102,15,114,246,16 ; pslld $0x10,%xmm6
- DB 102,15,114,230,16 ; psrad $0x10,%xmm6
- DB 102,15,114,212,24 ; psrld $0x18,%xmm4
- DB 102,15,114,244,16 ; pslld $0x10,%xmm4
- DB 102,15,114,228,16 ; psrad $0x10,%xmm4
- DB 102,15,107,244 ; packssdw %xmm4,%xmm6
- DB 102,15,111,153,156,9,0,0 ; movdqa 0x99c(%ecx),%xmm3
- DB 102,15,114,208,16 ; psrld $0x10,%xmm0
- DB 102,15,114,210,16 ; psrld $0x10,%xmm2
- DB 102,15,114,242,16 ; pslld $0x10,%xmm2
- DB 102,15,114,226,16 ; psrad $0x10,%xmm2
- DB 102,15,114,240,16 ; pslld $0x10,%xmm0
- DB 102,15,114,224,16 ; psrad $0x10,%xmm0
- DB 102,15,107,208 ; packssdw %xmm0,%xmm2
- DB 102,15,219,211 ; pand %xmm3,%xmm2
- DB 102,15,111,235 ; movdqa %xmm3,%xmm5
- DB 102,15,249,239 ; psubw %xmm7,%xmm5
- DB 102,15,127,85,136 ; movdqa %xmm2,-0x78(%ebp)
- DB 102,15,213,213 ; pmullw %xmm5,%xmm2
- DB 102,15,253,211 ; paddw %xmm3,%xmm2
- DB 102,15,113,210,8 ; psrlw $0x8,%xmm2
- DB 102,15,253,85,216 ; paddw -0x28(%ebp),%xmm2
- DB 102,15,111,225 ; movdqa %xmm1,%xmm4
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,127,77,216 ; movdqa %xmm1,-0x28(%ebp)
- DB 102,15,213,205 ; pmullw %xmm5,%xmm1
- DB 102,15,253,203 ; paddw %xmm3,%xmm1
- DB 102,15,113,209,8 ; psrlw $0x8,%xmm1
- DB 102,15,253,77,200 ; paddw -0x38(%ebp),%xmm1
- DB 102,15,219,227 ; pand %xmm3,%xmm4
- DB 102,15,127,101,168 ; movdqa %xmm4,-0x58(%ebp)
- DB 102,15,213,229 ; pmullw %xmm5,%xmm4
- DB 102,15,253,227 ; paddw %xmm3,%xmm4
- DB 102,15,113,212,8 ; psrlw $0x8,%xmm4
- DB 102,15,253,101,184 ; paddw -0x48(%ebp),%xmm4
- DB 102,15,127,117,184 ; movdqa %xmm6,-0x48(%ebp)
- DB 102,15,213,238 ; pmullw %xmm6,%xmm5
- DB 102,15,253,235 ; paddw %xmm3,%xmm5
- DB 102,15,113,213,8 ; psrlw $0x8,%xmm5
- DB 102,15,253,239 ; paddw %xmm7,%xmm5
- DB 102,15,111,241 ; movdqa %xmm1,%xmm6
- DB 102,15,113,246,8 ; psllw $0x8,%xmm6
- DB 102,15,127,101,152 ; movdqa %xmm4,-0x68(%ebp)
- DB 102,15,235,244 ; por %xmm4,%xmm6
- DB 102,15,239,219 ; pxor %xmm3,%xmm3
- DB 102,15,111,254 ; movdqa %xmm6,%xmm7
- DB 102,15,97,251 ; punpcklwd %xmm3,%xmm7
- DB 102,15,111,229 ; movdqa %xmm5,%xmm4
- DB 102,15,113,244,8 ; psllw $0x8,%xmm4
- DB 102,15,127,85,200 ; movdqa %xmm2,-0x38(%ebp)
- DB 102,15,235,226 ; por %xmm2,%xmm4
- DB 102,15,239,192 ; pxor %xmm0,%xmm0
- DB 102,15,97,196 ; punpcklwd %xmm4,%xmm0
- DB 102,15,235,199 ; por %xmm7,%xmm0
- DB 102,15,105,243 ; punpckhwd %xmm3,%xmm6
- DB 102,15,105,220 ; punpckhwd %xmm4,%xmm3
- DB 102,15,235,222 ; por %xmm6,%xmm3
- DB 128,251,6 ; cmp $0x6,%bl
- DB 119,16 ; ja 10686 <_sk_srcover_bgra_8888_sse2_lowp+0x1f2>
- DB 3,140,145,108,2,0,0 ; add 0x26c(%ecx,%edx,4),%ecx
- DB 255,225 ; jmp *%ecx
- DB 102,15,126,4,183 ; movd %xmm0,(%edi,%esi,4)
- DB 235,64 ; jmp 106c6 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
- DB 243,15,127,4,183 ; movdqu %xmm0,(%edi,%esi,4)
- DB 243,15,127,92,183,16 ; movdqu %xmm3,0x10(%edi,%esi,4)
- DB 235,51 ; jmp 106c6 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
- DB 102,15,112,208,78 ; pshufd $0x4e,%xmm0,%xmm2
- DB 102,15,126,84,183,8 ; movd %xmm2,0x8(%edi,%esi,4)
- DB 102,15,214,4,183 ; movq %xmm0,(%edi,%esi,4)
- DB 235,33 ; jmp 106c6 <_sk_srcover_bgra_8888_sse2_lowp+0x232>
- DB 102,15,112,211,78 ; pshufd $0x4e,%xmm3,%xmm2
- DB 102,15,126,84,183,24 ; movd %xmm2,0x18(%edi,%esi,4)
- DB 102,15,112,211,229 ; pshufd $0xe5,%xmm3,%xmm2
- DB 102,15,126,84,183,20 ; movd %xmm2,0x14(%edi,%esi,4)
- DB 102,15,126,92,183,16 ; movd %xmm3,0x10(%edi,%esi,4)
- DB 243,15,127,4,183 ; movdqu %xmm0,(%edi,%esi,4)
- DB 139,69,12 ; mov 0xc(%ebp),%eax
- DB 137,193 ; mov %eax,%ecx
- DB 141,65,8 ; lea 0x8(%ecx),%eax
- DB 15,40,69,184 ; movaps -0x48(%ebp),%xmm0
- DB 15,41,68,36,64 ; movaps %xmm0,0x40(%esp)
- DB 15,40,69,168 ; movaps -0x58(%ebp),%xmm0
- DB 15,41,68,36,48 ; movaps %xmm0,0x30(%esp)
- DB 15,40,69,216 ; movaps -0x28(%ebp),%xmm0
- DB 15,41,68,36,32 ; movaps %xmm0,0x20(%esp)
- DB 15,40,69,136 ; movaps -0x78(%ebp),%xmm0
- DB 15,41,68,36,16 ; movaps %xmm0,0x10(%esp)
- DB 139,85,20 ; mov 0x14(%ebp),%edx
- DB 137,84,36,12 ; mov %edx,0xc(%esp)
- DB 137,116,36,8 ; mov %esi,0x8(%esp)
- DB 137,68,36,4 ; mov %eax,0x4(%esp)
- DB 139,69,8 ; mov 0x8(%ebp),%eax
- DB 137,4,36 ; mov %eax,(%esp)
- DB 15,40,69,200 ; movaps -0x38(%ebp),%xmm0
- DB 15,40,85,152 ; movaps -0x68(%ebp),%xmm2
- DB 102,15,111,221 ; movdqa %xmm5,%xmm3
- DB 255,81,4 ; call *0x4(%ecx)
- DB 129,196,188,0,0,0 ; add $0xbc,%esp
- DB 94 ; pop %esi
- DB 95 ; pop %edi
- DB 91 ; pop %ebx
- DB 93 ; pop %ebp
- DB 195 ; ret
- DB 15,31,0 ; nopl (%eax)
- DB 28,0 ; sbb $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 61,0,0,0,50 ; cmp $0x32000000,%eax
- DB 0,0 ; add %al,(%eax)
- DB 0,106,0 ; add %ch,0x0(%edx)
- DB 0,0 ; add %al,(%eax)
- DB 96 ; pusha
- DB 0,0 ; add %al,(%eax)
- DB 0,79,0 ; add %cl,0x0(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 68 ; inc %esp
- DB 0,0 ; add %al,(%eax)
- DB 0,171,1,0,0,202 ; add %ch,-0x35ffffff(%ebx)
- DB 1,0 ; add %eax,(%eax)
- DB 0,191,1,0,0,237 ; add %bh,-0x12ffffff(%edi)
- DB 1,0 ; add %eax,(%eax)
- DB 0,231 ; add %ah,%bh
- DB 1,0 ; add %eax,(%eax)
- DB 0,220 ; add %bl,%ah
- DB 1,0 ; add %eax,(%eax)
- DB 0,209 ; add %dl,%cl
- DB 1,0 ; add %eax,(%eax)
- DB 0 ; .byte 0x0
-
-ALIGN 16
- DB 0,0 ; add %al,(%eax)
- DB 0,63 ; add %bh,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,63 ; add %bh,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,63 ; add %bh,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,63 ; add %bh,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 128,63,0 ; cmpb $0x0,(%edi)
- DB 0,128,63,0,0,128 ; add %al,-0x7fffffc1(%eax)
- DB 63 ; aas
- DB 0,0 ; add %al,(%eax)
- DB 128,63,0 ; cmpb $0x0,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,1 ; add %al,(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 0,2 ; add %al,(%edx)
- DB 0,0 ; add %al,(%eax)
- DB 0,3 ; add %al,(%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 0,1 ; add %al,(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 0,1 ; add %al,(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 0,1 ; add %al,(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 0,1 ; add %al,(%ecx)
- DB 0,0 ; add %al,(%eax)
- DB 0,4,0 ; add %al,(%eax,%eax,1)
- DB 0,0 ; add %al,(%eax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 2,0 ; add (%eax),%al
- DB 0,0 ; add %al,(%eax)
- DB 2,0 ; add (%eax),%al
- DB 0,0 ; add %al,(%eax)
- DB 2,0 ; add (%eax),%al
- DB 0,0 ; add %al,(%eax)
- DB 2,0 ; add (%eax),%al
- DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 128,60,0,0 ; cmpb $0x0,(%eax,%eax,1)
- DB 128,60,0,0 ; cmpb $0x0,(%eax,%eax,1)
- DB 128,60,0,0 ; cmpb $0x0,(%eax,%eax,1)
- DB 128,60,0,0 ; cmpb $0x0,(%eax,%eax,1)
- DB 252 ; cld
- DB 190,0,0,252,190 ; mov $0xbefc0000,%esi
- DB 0,0 ; add %al,(%eax)
- DB 252 ; cld
- DB 190,0,0,252,190 ; mov $0xbefc0000,%esi
- DB 0,0 ; add %al,(%eax)
- DB 128,191,0,0,128,191,0 ; cmpb $0x0,-0x40800000(%edi)
- DB 0,128,191,0,0,128 ; add %al,-0x7fffff41(%eax)
- DB 191,0,0,224,64 ; mov $0x40e00000,%edi
- DB 0,0 ; add %al,(%eax)
- DB 224,64 ; loopne 10838 <.literal16+0xd8>
- DB 0,0 ; add %al,(%eax)
- DB 224,64 ; loopne 1083c <.literal16+0xdc>
- DB 0,0 ; add %al,(%eax)
- DB 224,64 ; loopne 10840 <.literal16+0xe0>
- DB 154,153,153,62,154,153,153 ; lcall $0x9999,$0x9a3e9999
- DB 62,154,153,153,62,154,153,153 ; ds lcall $0x9999,$0x9a3e9999
- DB 62,61,10,23,63,61 ; ds cmp $0x3d3f170a,%eax
- DB 10,23 ; or (%edi),%dl
- DB 63 ; aas
- DB 61,10,23,63,61 ; cmp $0x3d3f170a,%eax
- DB 10,23 ; or (%edi),%dl
- DB 63 ; aas
- DB 174 ; scas %es:(%edi),%al
- DB 71 ; inc %edi
- DB 225,61 ; loope 10861 <.literal16+0x101>
- DB 174 ; scas %es:(%edi),%al
- DB 71 ; inc %edi
- DB 225,61 ; loope 10865 <.literal16+0x105>
- DB 174 ; scas %es:(%edi),%al
- DB 71 ; inc %edi
- DB 225,61 ; loope 10869 <.literal16+0x109>
- DB 174 ; scas %es:(%edi),%al
- DB 71 ; inc %edi
- DB 225,61 ; loope 1086d <.literal16+0x10d>
- DB 255,0 ; incl (%eax)
- DB 0,0 ; add %al,(%eax)
- DB 255,0 ; incl (%eax)
- DB 0,0 ; add %al,(%eax)
- DB 255,0 ; incl (%eax)
- DB 0,0 ; add %al,(%eax)
- DB 255,0 ; incl (%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 127,67 ; jg 10887 <.literal16+0x127>
- DB 0,0 ; add %al,(%eax)
- DB 127,67 ; jg 1088b <.literal16+0x12b>
- DB 0,0 ; add %al,(%eax)
- DB 127,67 ; jg 1088f <.literal16+0x12f>
- DB 0,0 ; add %al,(%eax)
- DB 127,67 ; jg 10893 <.literal16+0x133>
- DB 0,0 ; add %al,(%eax)
- DB 128,127,0,0 ; cmpb $0x0,0x0(%edi)
- DB 128,127,0,0 ; cmpb $0x0,0x0(%edi)
- DB 128,127,0,0 ; cmpb $0x0,0x0(%edi)
- DB 128,127,145,131 ; cmpb $0x83,-0x6f(%edi)
- DB 158 ; sahf
- DB 61,145,131,158,61 ; cmp $0x3d9e8391,%eax
- DB 145 ; xchg %eax,%ecx
- DB 131,158,61,145,131,158,61 ; sbbl $0x3d,-0x617c6ec3(%esi)
- DB 92 ; pop %esp
- DB 143 ; (bad)
- DB 50,63 ; xor (%edi),%bh
- DB 92 ; pop %esp
- DB 143 ; (bad)
- DB 50,63 ; xor (%edi),%bh
- DB 92 ; pop %esp
- DB 143 ; (bad)
- DB 50,63 ; xor (%edi),%bh
- DB 92 ; pop %esp
- DB 143 ; (bad)
- DB 50,63 ; xor (%edi),%bh
- DB 10,215 ; or %bh,%dl
- DB 35,59 ; and (%ebx),%edi
- DB 10,215 ; or %bh,%dl
- DB 35,59 ; and (%ebx),%edi
- DB 10,215 ; or %bh,%dl
- DB 35,59 ; and (%ebx),%edi
- DB 10,215 ; or %bh,%dl
- DB 35,59 ; and (%ebx),%edi
- DB 174 ; scas %es:(%edi),%al
- DB 71 ; inc %edi
- DB 97 ; popa
- DB 61,174,71,97,61 ; cmp $0x3d6147ae,%eax
- DB 174 ; scas %es:(%edi),%al
- DB 71 ; inc %edi
- DB 97 ; popa
- DB 61,174,71,97,61 ; cmp $0x3d6147ae,%eax
- DB 82 ; push %edx
- DB 184,78,65,82,184 ; mov $0xb852414e,%eax
- DB 78 ; dec %esi
- DB 65 ; inc %ecx
- DB 82 ; push %edx
- DB 184,78,65,82,184 ; mov $0xb852414e,%eax
- DB 78 ; dec %esi
- DB 65 ; inc %ecx
- DB 57,215 ; cmp %edx,%edi
- DB 32,187,57,215,32,187 ; and %bh,-0x44df28c7(%ebx)
- DB 57,215 ; cmp %edx,%edi
- DB 32,187,57,215,32,187 ; and %bh,-0x44df28c7(%ebx)
- DB 186,159,98,60,186 ; mov $0xba3c629f,%edx
- DB 159 ; lahf
- DB 98,60,186 ; bound %edi,(%edx,%edi,4)
- DB 159 ; lahf
- DB 98,60,186 ; bound %edi,(%edx,%edi,4)
- DB 159 ; lahf
- DB 98,60,109,165,144,63,109 ; bound %edi,0x6d3f90a5(,%ebp,2)
- DB 165 ; movsl %ds:(%esi),%es:(%edi)
- DB 144 ; nop
- DB 63 ; aas
- DB 109 ; insl (%dx),%es:(%edi)
- DB 165 ; movsl %ds:(%esi),%es:(%edi)
- DB 144 ; nop
- DB 63 ; aas
- DB 109 ; insl (%dx),%es:(%edi)
- DB 165 ; movsl %ds:(%esi),%es:(%edi)
- DB 144 ; nop
- DB 63 ; aas
- DB 252 ; cld
- DB 191,16,62,252,191 ; mov $0xbffc3e10,%edi
- DB 16,62 ; adc %bh,(%esi)
- DB 252 ; cld
- DB 191,16,62,252,191 ; mov $0xbffc3e10,%edi
- DB 16,62 ; adc %bh,(%esi)
- DB 168,177 ; test $0xb1,%al
- DB 152 ; cwtl
- DB 59,168,177,152,59,168 ; cmp -0x57c4674f(%eax),%ebp
- DB 177,152 ; mov $0x98,%cl
- DB 59,168,177,152,59,0 ; cmp 0x3b98b1(%eax),%ebp
- DB 0,192 ; add %al,%al
- DB 64 ; inc %eax
- DB 0,0 ; add %al,(%eax)
- DB 192,64,0,0 ; rolb $0x0,0x0(%eax)
- DB 192,64,0,0 ; rolb $0x0,0x0(%eax)
- DB 192,64,0,0 ; rolb $0x0,0x0(%eax)
- DB 0,64,0 ; add %al,0x0(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 64 ; inc %eax
- DB 0,0 ; add %al,(%eax)
- DB 0,64,0 ; add %al,0x0(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 64 ; inc %eax
- DB 0,0 ; add %al,(%eax)
- DB 128,64,0,0 ; addb $0x0,0x0(%eax)
- DB 128,64,0,0 ; addb $0x0,0x0(%eax)
- DB 128,64,0,0 ; addb $0x0,0x0(%eax)
- DB 128,64,171,170 ; addb $0xaa,-0x55(%eax)
- DB 42,62 ; sub (%esi),%bh
- DB 171 ; stos %eax,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 42,62 ; sub (%esi),%bh
- DB 171 ; stos %eax,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 42,62 ; sub (%esi),%bh
- DB 171 ; stos %eax,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 42,62 ; sub (%esi),%bh
- DB 171 ; stos %eax,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 62,171 ; ds stos %eax,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 62,171 ; ds stos %eax,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 62,171 ; ds stos %eax,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 62,171 ; ds stos %eax,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 42,63 ; sub (%edi),%bh
- DB 171 ; stos %eax,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 42,63 ; sub (%edi),%bh
- DB 171 ; stos %eax,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 42,63 ; sub (%edi),%bh
- DB 171 ; stos %eax,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 42,63 ; sub (%edi),%bh
- DB 171 ; stos %eax,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 190,171,170,170,190 ; mov $0xbeaaaaab,%esi
- DB 171 ; stos %eax,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 170 ; stos %al,%es:(%edi)
- DB 190,171,170,170,190 ; mov $0xbeaaaaab,%esi
- DB 129,128,128,59,129,128,128,59,129,128; addl $0x80813b80,-0x7f7ec480(%eax)
- DB 128,59,129 ; cmpb $0x81,(%ebx)
- DB 128,128,59,0,248,0,0 ; addb $0x0,0xf8003b(%eax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,248 ; add %bh,%al
- DB 0,0 ; add %al,(%eax)
- DB 8,33 ; or %ah,(%ecx)
- DB 132,55 ; test %dh,(%edi)
- DB 8,33 ; or %ah,(%ecx)
- DB 132,55 ; test %dh,(%edi)
- DB 8,33 ; or %ah,(%ecx)
- DB 132,55 ; test %dh,(%edi)
- DB 8,33 ; or %ah,(%ecx)
- DB 132,55 ; test %dh,(%edi)
- DB 224,7 ; loopne 109a9 <.literal16+0x249>
- DB 0,0 ; add %al,(%eax)
- DB 224,7 ; loopne 109ad <.literal16+0x24d>
- DB 0,0 ; add %al,(%eax)
- DB 224,7 ; loopne 109b1 <.literal16+0x251>
- DB 0,0 ; add %al,(%eax)
- DB 224,7 ; loopne 109b5 <.literal16+0x255>
- DB 0,0 ; add %al,(%eax)
- DB 33,8 ; and %ecx,(%eax)
- DB 2,58 ; add (%edx),%bh
- DB 33,8 ; and %ecx,(%eax)
- DB 2,58 ; add (%edx),%bh
- DB 33,8 ; and %ecx,(%eax)
- DB 2,58 ; add (%edx),%bh
- DB 33,8 ; and %ecx,(%eax)
- DB 2,58 ; add (%edx),%bh
- DB 31 ; pop %ds
- DB 0,0 ; add %al,(%eax)
- DB 0,31 ; add %bl,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,31 ; add %bl,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,31 ; add %bl,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,8 ; add %cl,(%eax)
- DB 33,4,61,8,33,4,61 ; and %eax,0x3d042108(,%edi,1)
- DB 8,33 ; or %ah,(%ecx)
- DB 4,61 ; add $0x3d,%al
- DB 8,33 ; or %ah,(%ecx)
- DB 4,61 ; add $0x3d,%al
- DB 255,0 ; incl (%eax)
- DB 255,0 ; incl (%eax)
- DB 255,0 ; incl (%eax)
- DB 255,0 ; incl (%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 128,0,128 ; addb $0x80,(%eax)
- DB 55 ; aaa
- DB 128,0,128 ; addb $0x80,(%eax)
- DB 55 ; aaa
- DB 128,0,128 ; addb $0x80,(%eax)
- DB 55 ; aaa
- DB 128,0,128 ; addb $0x80,(%eax)
- DB 55 ; aaa
- DB 0,0 ; add %al,(%eax)
- DB 0,52,0 ; add %dh,(%eax,%eax,1)
- DB 0,0 ; add %al,(%eax)
- DB 52,0 ; xor $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 52,0 ; xor $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 52,255 ; xor $0xff,%al
- DB 255 ; (bad)
- DB 127,0 ; jg 10a14 <.literal16+0x2b4>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,0 ; jg 10a18 <.literal16+0x2b8>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,0 ; jg 10a1c <.literal16+0x2bc>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,0 ; jg 10a20 <.literal16+0x2c0>
- DB 119,115 ; ja 10a95 <.literal16+0x335>
- DB 248 ; clc
- DB 194,119,115 ; ret $0x7377
- DB 248 ; clc
- DB 194,119,115 ; ret $0x7377
- DB 248 ; clc
- DB 194,119,115 ; ret $0x7377
- DB 248 ; clc
- DB 194,117,191 ; ret $0xbf75
- DB 191,63,117,191,191 ; mov $0xbfbf753f,%edi
- DB 63 ; aas
- DB 117,191 ; jne 109f9 <.literal16+0x299>
- DB 191,63,117,191,191 ; mov $0xbfbf753f,%edi
- DB 63 ; aas
- DB 249 ; stc
- DB 68 ; inc %esp
- DB 180,62 ; mov $0x3e,%ah
- DB 249 ; stc
- DB 68 ; inc %esp
- DB 180,62 ; mov $0x3e,%ah
- DB 249 ; stc
- DB 68 ; inc %esp
- DB 180,62 ; mov $0x3e,%ah
- DB 249 ; stc
- DB 68 ; inc %esp
- DB 180,62 ; mov $0x3e,%ah
- DB 163,233,220,63,163 ; mov %eax,0xa33fdce9
- DB 233,220,63,163,233 ; jmp e9a44a36 <_sk_srcover_bgra_8888_sse2_lowp+0xe9a345a2>
- DB 220,63 ; fdivrl (%edi)
- DB 163,233,220,63,81 ; mov %eax,0x513fdce9
- DB 140,242 ; mov %?,%edx
- DB 66 ; inc %edx
- DB 81 ; push %ecx
- DB 140,242 ; mov %?,%edx
- DB 66 ; inc %edx
- DB 81 ; push %ecx
- DB 140,242 ; mov %?,%edx
- DB 66 ; inc %edx
- DB 81 ; push %ecx
- DB 140,242 ; mov %?,%edx
- DB 66 ; inc %edx
- DB 141,188,190,63,141,188,190 ; lea -0x414372c1(%esi,%edi,4),%edi
- DB 63 ; aas
- DB 141,188,190,63,141,188,190 ; lea -0x414372c1(%esi,%edi,4),%edi
- DB 63 ; aas
- DB 248 ; clc
- DB 245 ; cmc
- DB 154,64,248,245,154,64,248 ; lcall $0xf840,$0x9af5f840
- DB 245 ; cmc
- DB 154,64,248,245,154,64,254 ; lcall $0xfe40,$0x9af5f840
- DB 210,221 ; rcr %cl,%ch
- DB 65 ; inc %ecx
- DB 254 ; (bad)
- DB 210,221 ; rcr %cl,%ch
- DB 65 ; inc %ecx
- DB 254 ; (bad)
- DB 210,221 ; rcr %cl,%ch
- DB 65 ; inc %ecx
- DB 254 ; (bad)
- DB 210,221 ; rcr %cl,%ch
- DB 65 ; inc %ecx
- DB 0,0 ; add %al,(%eax)
- DB 0,75,0 ; add %cl,0x0(%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 75 ; dec %ebx
- DB 0,0 ; add %al,(%eax)
- DB 0,75,0 ; add %cl,0x0(%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 75 ; dec %ebx
- DB 0,0 ; add %al,(%eax)
- DB 200,66,0,0 ; enter $0x42,$0x0
- DB 200,66,0,0 ; enter $0x42,$0x0
- DB 200,66,0,0 ; enter $0x42,$0x0
- DB 200,66,0,0 ; enter $0x42,$0x0
- DB 0,195 ; add %al,%bl
- DB 0,0 ; add %al,(%eax)
- DB 0,195 ; add %al,%bl
- DB 0,0 ; add %al,(%eax)
- DB 0,195 ; add %al,%bl
- DB 0,0 ; add %al,(%eax)
- DB 0,195 ; add %al,%bl
- DB 0,0 ; add %al,(%eax)
- DB 128,65,0,0 ; addb $0x0,0x0(%ecx)
- DB 128,65,0,0 ; addb $0x0,0x0(%ecx)
- DB 128,65,0,0 ; addb $0x0,0x0(%ecx)
- DB 128,65,203,61 ; addb $0x3d,-0x35(%ecx)
- DB 13,60,203,61,13 ; or $0xd3dcb3c,%eax
- DB 60,203 ; cmp $0xcb,%al
- DB 61,13,60,203,61 ; cmp $0x3dcb3c0d,%eax
- DB 13,60,111,18,3 ; or $0x3126f3c,%eax
- DB 59,111,18 ; cmp 0x12(%edi),%ebp
- DB 3,59 ; add (%ebx),%edi
- DB 111 ; outsl %ds:(%esi),(%dx)
- DB 18,3 ; adc (%ebx),%al
- DB 59,111,18 ; cmp 0x12(%edi),%ebp
- DB 3,59 ; add (%ebx),%edi
- DB 10,215 ; or %bh,%dl
- DB 163,59,10,215,163 ; mov %eax,0xa3d70a3b
- DB 59,10 ; cmp (%edx),%ecx
- DB 215 ; xlat %ds:(%ebx)
- DB 163,59,10,215,163 ; mov %eax,0xa3d70a3b
- DB 59,194 ; cmp %edx,%eax
- DB 24,17 ; sbb %dl,(%ecx)
- DB 60,194 ; cmp $0xc2,%al
- DB 24,17 ; sbb %dl,(%ecx)
- DB 60,194 ; cmp $0xc2,%al
- DB 24,17 ; sbb %dl,(%ecx)
- DB 60,194 ; cmp $0xc2,%al
- DB 24,17 ; sbb %dl,(%ecx)
- DB 60,203 ; cmp $0xcb,%al
- DB 61,13,190,203,61 ; cmp $0x3dcbbe0d,%eax
- DB 13,190,203,61,13 ; or $0xd3dcbbe,%eax
- DB 190,203,61,13,190 ; mov $0xbe0d3dcb,%esi
- DB 80 ; push %eax
- DB 128,3,62 ; addb $0x3e,(%ebx)
- DB 80 ; push %eax
- DB 128,3,62 ; addb $0x3e,(%ebx)
- DB 80 ; push %eax
- DB 128,3,62 ; addb $0x3e,(%ebx)
- DB 80 ; push %eax
- DB 128,3,62 ; addb $0x3e,(%ebx)
- DB 31 ; pop %ds
- DB 215 ; xlat %ds:(%ebx)
- DB 118,63 ; jbe 10b83 <.literal16+0x423>
- DB 31 ; pop %ds
- DB 215 ; xlat %ds:(%ebx)
- DB 118,63 ; jbe 10b87 <.literal16+0x427>
- DB 31 ; pop %ds
- DB 215 ; xlat %ds:(%ebx)
- DB 118,63 ; jbe 10b8b <.literal16+0x42b>
- DB 31 ; pop %ds
- DB 215 ; xlat %ds:(%ebx)
- DB 118,63 ; jbe 10b8f <.literal16+0x42f>
- DB 246,64,83,63 ; testb $0x3f,0x53(%eax)
- DB 246,64,83,63 ; testb $0x3f,0x53(%eax)
- DB 246,64,83,63 ; testb $0x3f,0x53(%eax)
- DB 246,64,83,63 ; testb $0x3f,0x53(%eax)
- DB 255,0 ; incl (%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 255,0 ; incl (%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 248 ; clc
- DB 65 ; inc %ecx
- DB 0,0 ; add %al,(%eax)
- DB 248 ; clc
- DB 65 ; inc %ecx
- DB 0,0 ; add %al,(%eax)
- DB 248 ; clc
- DB 65 ; inc %ecx
- DB 0,0 ; add %al,(%eax)
- DB 248 ; clc
- DB 65 ; inc %ecx
- DB 0,0 ; add %al,(%eax)
- DB 124,66 ; jl 10bc6 <.literal16+0x466>
- DB 0,0 ; add %al,(%eax)
- DB 124,66 ; jl 10bca <.literal16+0x46a>
- DB 0,0 ; add %al,(%eax)
- DB 124,66 ; jl 10bce <.literal16+0x46e>
- DB 0,0 ; add %al,(%eax)
- DB 124,66 ; jl 10bd2 <.literal16+0x472>
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%eax)
- DB 137,136,136,55,137,136 ; mov %ecx,-0x7776c878(%eax)
- DB 136,55 ; mov %dh,(%edi)
- DB 137,136,136,55,137,136 ; mov %ecx,-0x7776c878(%eax)
- DB 136,55 ; mov %dh,(%edi)
- DB 0,15 ; add %cl,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,15 ; add %cl,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,15 ; add %cl,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,15 ; add %cl,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 137,136,136,57,137,136 ; mov %ecx,-0x7776c678(%eax)
- DB 136,57 ; mov %bh,(%ecx)
- DB 137,136,136,57,137,136 ; mov %ecx,-0x7776c678(%eax)
- DB 136,57 ; mov %bh,(%ecx)
- DB 240,0,0 ; lock add %al,(%eax)
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,240 ; add %dh,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,137,136,136,59,137 ; add %cl,-0x76c47778(%ecx)
- DB 136,136,59,137,136,136 ; mov %cl,-0x777776c5(%eax)
- DB 59,137,136,136,59,15 ; cmp 0xf3b8888(%ecx),%ecx
- DB 0,0 ; add %al,(%eax)
- DB 0,15 ; add %cl,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,15 ; add %cl,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,15 ; add %cl,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,137,136,136,61,137 ; add %cl,-0x76c27778(%ecx)
- DB 136,136,61,137,136,136 ; mov %cl,-0x777776c3(%eax)
- DB 61,137,136,136,61 ; cmp $0x3d888889,%eax
- DB 0,0 ; add %al,(%eax)
- DB 112,65 ; jo 10c55 <.literal16+0x4f5>
- DB 0,0 ; add %al,(%eax)
- DB 112,65 ; jo 10c59 <.literal16+0x4f9>
- DB 0,0 ; add %al,(%eax)
- DB 112,65 ; jo 10c5d <.literal16+0x4fd>
- DB 0,0 ; add %al,(%eax)
- DB 112,65 ; jo 10c61 <.literal16+0x501>
- DB 255,3 ; incl (%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 255,3 ; incl (%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 255,3 ; incl (%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 255,3 ; incl (%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 8,32 ; or %ah,(%eax)
- DB 128,58,8 ; cmpb $0x8,(%edx)
- DB 32,128,58,8,32,128 ; and %al,-0x7fdff7c6(%eax)
- DB 58,8 ; cmp (%eax),%cl
- DB 32,128,58,0,192,127 ; and %al,0x7fc0003a(%eax)
- DB 68 ; inc %esp
- DB 0,192 ; add %al,%al
- DB 127,68 ; jg 10c8c <.literal16+0x52c>
- DB 0,192 ; add %al,%al
- DB 127,68 ; jg 10c90 <.literal16+0x530>
- DB 0,192 ; add %al,%al
- DB 127,68 ; jg 10c94 <.literal16+0x534>
- DB 0,0 ; add %al,(%eax)
- DB 64 ; inc %eax
- DB 64 ; inc %eax
- DB 0,0 ; add %al,(%eax)
- DB 64 ; inc %eax
- DB 64 ; inc %eax
- DB 0,0 ; add %al,(%eax)
- DB 64 ; inc %eax
- DB 64 ; inc %eax
- DB 0,0 ; add %al,(%eax)
- DB 64 ; inc %eax
- DB 64 ; inc %eax
- DB 0,128,0,0,0,128 ; add %al,-0x80000000(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0,128,0,0,0,128 ; add %al,-0x80000000(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 255 ; (bad)
- DB 127,0 ; jg 10c73 <.literal16+0x513>
- DB 0,255 ; add %bh,%bh
- DB 127,0 ; jg 10c77 <.literal16+0x517>
- DB 0,255 ; add %bh,%bh
- DB 127,0 ; jg 10c7b <.literal16+0x51b>
- DB 0,255 ; add %bh,%bh
- DB 127,0 ; jg 10c7f <.literal16+0x51f>
- DB 0,0 ; add %al,(%eax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 4,0 ; add $0x0,%al
- DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 56,0 ; cmp %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 56,0 ; cmp %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 56,0 ; cmp %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 56,0 ; cmp %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 128,0,0 ; addb $0x0,(%eax)
- DB 0,128,0,0,0,128 ; add %al,-0x80000000(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0,128,255,255,255,127 ; add %al,0x7fffffff(%eax)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,255 ; jg 10cb8 <.literal16+0x558>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,255 ; jg 10cbc <.literal16+0x55c>
- DB 255 ; (bad)
- DB 255 ; (bad)
- DB 127,0 ; jg 10cc1 <.literal16+0x561>
- DB 0,128,56,0,0,128 ; add %al,-0x7fffffc8(%eax)
- DB 56,0 ; cmp %al,(%eax)
- DB 0,128,56,0,0,128 ; add %al,-0x7fffffc8(%eax)
- DB 56,0 ; cmp %al,(%eax)
- DB 0,255 ; add %bh,%bh
- DB 255,0 ; incl (%eax)
- DB 0,255 ; add %bh,%bh
- DB 255,0 ; incl (%eax)
- DB 0,255 ; add %bh,%bh
- DB 255,0 ; incl (%eax)
- DB 0,255 ; add %bh,%bh
- DB 255,0 ; incl (%eax)
- DB 255 ; (bad)
- DB 127,71 ; jg 10d2b <.literal16+0x5cb>
- DB 0,255 ; add %bh,%bh
- DB 127,71 ; jg 10d2f <.literal16+0x5cf>
- DB 0,255 ; add %bh,%bh
- DB 127,71 ; jg 10d33 <.literal16+0x5d3>
- DB 0,255 ; add %bh,%bh
- DB 127,71 ; jg 10d37 <.literal16+0x5d7>
- DB 208 ; (bad)
- DB 179,89 ; mov $0x59,%bl
- DB 62,208 ; ds (bad)
- DB 179,89 ; mov $0x59,%bl
- DB 62,208 ; ds (bad)
- DB 179,89 ; mov $0x59,%bl
- DB 62,208 ; ds (bad)
- DB 179,89 ; mov $0x59,%bl
- DB 62,89 ; ds pop %ecx
- DB 23 ; pop %ss
- DB 55 ; aaa
- DB 63 ; aas
- DB 89 ; pop %ecx
- DB 23 ; pop %ss
- DB 55 ; aaa
- DB 63 ; aas
- DB 89 ; pop %ecx
- DB 23 ; pop %ss
- DB 55 ; aaa
- DB 63 ; aas
- DB 89 ; pop %ecx
- DB 23 ; pop %ss
- DB 55 ; aaa
- DB 63 ; aas
- DB 152 ; cwtl
- DB 221,147,61,152,221,147 ; fstl -0x6c2267c3(%ebx)
- DB 61,152,221,147,61 ; cmp $0x3d93dd98,%eax
- DB 152 ; cwtl
- DB 221,147,61,255,255,0 ; fstl 0xffff3d(%ebx)
- DB 0,255 ; add %bh,%bh
- DB 255,0 ; incl (%eax)
- DB 0,255 ; add %bh,%bh
- DB 255,0 ; incl (%eax)
- DB 0,255 ; add %bh,%bh
- DB 255,0 ; incl (%eax)
- DB 0,0 ; add %al,(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 83 ; push %ebx
- DB 0,0 ; add %al,(%eax)
- DB 0,83,0 ; add %dl,0x0(%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 83 ; push %ebx
- DB 0,0 ; add %al,(%eax)
- DB 0,83,128 ; add %dl,-0x80(%ebx)
- DB 0,0 ; add %al,(%eax)
- DB 211,128,0,0,211,128 ; roll %cl,-0x7f2d0000(%eax)
- DB 0,0 ; add %al,(%eax)
- DB 211,128,0,0,211,111 ; roll %cl,0x6fd30000(%eax)
- DB 43,231 ; sub %edi,%esp
- DB 187,111,43,231,187 ; mov $0xbbe72b6f,%ebx
- DB 111 ; outsl %ds:(%esi),(%dx)
- DB 43,231 ; sub %edi,%esp
- DB 187,111,43,231,187 ; mov $0xbbe72b6f,%ebx
- DB 159 ; lahf
- DB 215 ; xlat %ds:(%ebx)
- DB 202,60,159 ; lret $0x9f3c
- DB 215 ; xlat %ds:(%ebx)
- DB 202,60,159 ; lret $0x9f3c
- DB 215 ; xlat %ds:(%ebx)
- DB 202,60,159 ; lret $0x9f3c
- DB 215 ; xlat %ds:(%ebx)
- DB 202,60,212 ; lret $0xd43c
- DB 100,84 ; fs push %esp
- DB 189,212,100,84,189 ; mov $0xbd5464d4,%ebp
- DB 212,100 ; aam $0x64
- DB 84 ; push %esp
- DB 189,212,100,84,189 ; mov $0xbd5464d4,%ebp
- DB 169,240,34,62,169 ; test $0xa93e22f0,%eax
- DB 240,34,62 ; lock and (%esi),%bh
- DB 169,240,34,62,169 ; test $0xa93e22f0,%eax
- DB 240,34,62 ; lock and (%esi),%bh
- DB 0,0 ; add %al,(%eax)
- DB 128,62,0 ; cmpb $0x0,(%esi)
- DB 0,128,62,0,0,128 ; add %al,-0x7fffffc2(%eax)
- DB 62,0,0 ; add %al,%ds:(%eax)
- DB 128,62,0 ; cmpb $0x0,(%esi)
- DB 0,0 ; add %al,(%eax)
- DB 191,0,0,0,191 ; mov $0xbf000000,%edi
- DB 0,0 ; add %al,(%eax)
- DB 0,191,0,0,0,191 ; add %bh,-0x41000000(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 192,191,0,0,192,191,0 ; sarb $0x0,-0x40400000(%edi)
- DB 0,192 ; add %al,%al
- DB 191,0,0,192,191 ; mov $0xbfc00000,%edi
- DB 114,28 ; jb 10dde <.literal16+0x67e>
- DB 199 ; (bad)
- DB 62,114,28 ; jb,pt 10de2 <.literal16+0x682>
- DB 199 ; (bad)
- DB 62,114,28 ; jb,pt 10de6 <.literal16+0x686>
- DB 199 ; (bad)
- DB 62,114,28 ; jb,pt 10dea <.literal16+0x68a>
- DB 199 ; (bad)
- DB 62,85 ; ds push %ebp
- DB 85 ; push %ebp
- DB 149 ; xchg %eax,%ebp
- DB 191,85,85,149,191 ; mov $0xbf955555,%edi
- DB 85 ; push %ebp
- DB 85 ; push %ebp
- DB 149 ; xchg %eax,%ebp
- DB 191,85,85,149,191 ; mov $0xbf955555,%edi
- DB 0,0 ; add %al,(%eax)
- DB 192,63,0 ; sarb $0x0,(%edi)
- DB 0,192 ; add %al,%al
- DB 63 ; aas
- DB 0,0 ; add %al,(%eax)
- DB 192,63,0 ; sarb $0x0,(%edi)
- DB 0,192 ; add %al,%al
- DB 63 ; aas
- DB 57,142,99,61,57,142 ; cmp %ecx,-0x71c6c29d(%esi)
- DB 99,61,57,142,99,61 ; arpl %di,0x3d638e39
- DB 57,142,99,61,114,249 ; cmp %ecx,-0x68dc29d(%esi)
- DB 127,63 ; jg 10e43 <.literal16+0x6e3>
- DB 114,249 ; jb 10dff <.literal16+0x69f>
- DB 127,63 ; jg 10e47 <.literal16+0x6e7>
- DB 114,249 ; jb 10e03 <.literal16+0x6a3>
- DB 127,63 ; jg 10e4b <.literal16+0x6eb>
- DB 114,249 ; jb 10e07 <.literal16+0x6a7>
- DB 127,63 ; jg 10e4f <.literal16+0x6ef>
- DB 3,0 ; add (%eax),%eax
- DB 0,0 ; add %al,(%eax)
- DB 3,0 ; add (%eax),%eax
- DB 0,0 ; add %al,(%eax)
- DB 3,0 ; add (%eax),%eax
- DB 0,0 ; add %al,(%eax)
- DB 3,0 ; add (%eax),%eax
- DB 0,0 ; add %al,(%eax)
- DB 45,16,17,192,45 ; sub $0x2dc01110,%eax
- DB 16,17 ; adc %dl,(%ecx)
- DB 192,45,16,17,192,45,16 ; shrb $0x10,0x2dc01110
- DB 17,192 ; adc %eax,%eax
- DB 18,120,57 ; adc 0x39(%eax),%bh
- DB 64 ; inc %eax
- DB 18,120,57 ; adc 0x39(%eax),%bh
- DB 64 ; inc %eax
- DB 18,120,57 ; adc 0x39(%eax),%bh
- DB 64 ; inc %eax
- DB 18,120,57 ; adc 0x39(%eax),%bh
- DB 64 ; inc %eax
- DB 32,148,90,62,32,148,90 ; and %dl,0x5a94203e(%edx,%ebx,2)
- DB 62,32,148,90,62,32,148,90 ; and %dl,%ds:0x5a94203e(%edx,%ebx,2)
- DB 62,4,157 ; ds add $0x9d,%al
- DB 30 ; push %ds
- DB 62,4,157 ; ds add $0x9d,%al
- DB 30 ; push %ds
- DB 62,4,157 ; ds add $0x9d,%al
- DB 30 ; push %ds
- DB 62,4,157 ; ds add $0x9d,%al
- DB 30 ; push %ds
- DB 62,0,24 ; add %bl,%ds:(%eax)
- DB 161,57,0,24,161 ; mov 0xa1180039,%eax
- DB 57,0 ; cmp %eax,(%eax)
- DB 24,161,57,0,24,161 ; sbb %ah,-0x5ee7ffc7(%ecx)
- DB 57,255 ; cmp %edi,%edi
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,0 ; add %al,(%eax)
- DB 128,0,128 ; addb $0x80,(%eax)
- DB 0,128,0,128,0,128 ; add %al,-0x7fff8000(%eax)
- DB 0,128,0,128,0,128 ; add %al,-0x7fff8000(%eax)
- DB 254,0 ; incb (%eax)
- DB 254,0 ; incb (%eax)
- DB 254,0 ; incb (%eax)
- DB 254,0 ; incb (%eax)
- DB 254,0 ; incb (%eax)
- DB 254,0 ; incb (%eax)
- DB 254,0 ; incb (%eax)
- DB 254,0 ; incb (%eax)
- DB 254,1 ; incb (%ecx)
- DB 254,1 ; incb (%ecx)
- DB 254,1 ; incb (%ecx)
- DB 254,1 ; incb (%ecx)
- DB 254,1 ; incb (%ecx)
- DB 254,1 ; incb (%ecx)
- DB 254,1 ; incb (%ecx)
- DB 254,1 ; incb (%ecx)
- DB 248 ; clc
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,63 ; add %bh,(%edi)
- DB 0,63 ; add %bh,(%edi)
- DB 0,63 ; add %bh,(%edi)
- DB 0,63 ; add %bh,(%edi)
- DB 0,63 ; add %bh,(%edi)
- DB 0,63 ; add %bh,(%edi)
- DB 0,63 ; add %bh,(%edi)
- DB 0,63 ; add %bh,(%edi)
- DB 0,31 ; add %bl,(%edi)
- DB 0,31 ; add %bl,(%edi)
- DB 0,31 ; add %bl,(%edi)
- DB 0,31 ; add %bl,(%edi)
- DB 0,31 ; add %bl,(%edi)
- DB 0,31 ; add %bl,(%edi)
- DB 0,31 ; add %bl,(%edi)
- DB 0,31 ; add %bl,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 248 ; clc
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 0,248 ; add %bh,%al
- DB 224,255 ; loopne 10ef1 <.literal16+0x791>
- DB 224,255 ; loopne 10ef3 <.literal16+0x793>
- DB 224,255 ; loopne 10ef5 <.literal16+0x795>
- DB 224,255 ; loopne 10ef7 <.literal16+0x797>
- DB 224,255 ; loopne 10ef9 <.literal16+0x799>
- DB 224,255 ; loopne 10efb <.literal16+0x79b>
- DB 224,255 ; loopne 10efd <.literal16+0x79d>
- DB 224,255 ; loopne 10eff <.literal16+0x79f>
- DB 15,0,15 ; str (%edi)
- DB 0,15 ; add %cl,(%edi)
- DB 0,15 ; add %cl,(%edi)
- DB 0,15 ; add %cl,(%edi)
- DB 0,15 ; add %cl,(%edi)
- DB 0,15 ; add %cl,(%edi)
- DB 0,15 ; add %cl,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 240,0,240 ; lock add %dh,%al
- DB 0,240 ; add %dh,%al
- DB 0,240 ; add %dh,%al
- DB 0,240 ; add %dh,%al
- DB 0,240 ; add %dh,%al
- DB 0,240 ; add %dh,%al
- DB 0,240 ; add %dh,%al
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 0,255 ; add %bh,%bh
- DB 240,255,240 ; lock push %eax
- DB 255,240 ; push %eax
- DB 255,240 ; push %eax
- DB 255,240 ; push %eax
- DB 255,240 ; push %eax
- DB 255,240 ; push %eax
- DB 255,240 ; push %eax
- DB 255,54 ; pushl (%esi)
- DB 0,54 ; add %dh,(%esi)
- DB 0,54 ; add %dh,(%esi)
- DB 0,54 ; add %dh,(%esi)
- DB 0,54 ; add %dh,(%esi)
- DB 0,54 ; add %dh,(%esi)
- DB 0,54 ; add %dh,(%esi)
- DB 0,54 ; add %dh,(%esi)
- DB 0,183,0,183,0,183 ; add %dh,-0x48ff4900(%edi)
- DB 0,183,0,183,0,183 ; add %dh,-0x48ff4900(%edi)
- DB 0,183,0,183,0,19 ; add %dh,0x1300b700(%edi)
- DB 0,19 ; add %dl,(%ebx)
- DB 0,19 ; add %dl,(%ebx)
- DB 0,19 ; add %dl,(%ebx)
- DB 0,19 ; add %dl,(%ebx)
- DB 0,19 ; add %dl,(%ebx)
- DB 0,19 ; add %dl,(%ebx)
- DB 0,19 ; add %dl,(%ebx)
- DB 0 ; .byte 0x0
-
-ALIGN 4
- DB 0,0 ; add %al,(%eax)
- DB 0,63 ; add %bh,(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 0,191,0,0,128,63 ; add %bh,0x3f800000(%edi)
- DB 0,0 ; add %al,(%eax)
- DB 127,67 ; jg 10fc3 <_sk_srcover_bgra_8888_sse2_lowp+0xb2f>
-ENDIF
-END
diff --git a/src/jumper/SkJumper_stages.cpp b/src/jumper/SkJumper_stages.cpp
deleted file mode 100644
index 5dd6690c11..0000000000
--- a/src/jumper/SkJumper_stages.cpp
+++ /dev/null
@@ -1,2293 +0,0 @@
-/*
- * Copyright 2017 Google Inc.
- *
- * Use of this source code is governed by a BSD-style license that can be
- * found in the LICENSE file.
- */
-
-#include "SkJumper.h"
-#include "SkJumper_misc.h"
-
-// A little wrapper macro to name Stages differently depending on the instruction set.
-// That lets us link together several options.
-#if !defined(JUMPER_IS_OFFLINE)
- #define WRAP(name) sk_##name
-#elif defined(__AVX512F__)
- #define WRAP(name) sk_##name##_skx
-#elif defined(__AVX2__)
- #define WRAP(name) sk_##name##_hsw
-#elif defined(__AVX__)
- #define WRAP(name) sk_##name##_avx
-#elif defined(__SSE4_1__)
- #define WRAP(name) sk_##name##_sse41
-#elif defined(__SSE2__)
- #define WRAP(name) sk_##name##_sse2
-#endif
-
-// Every function in this file should be marked static and inline using SI (see SkJumper_misc.h).
-
-#if !defined(__clang__)
- #define JUMPER_IS_SCALAR
-#elif defined(__ARM_NEON)
- #define JUMPER_IS_NEON
-#elif defined(__AVX512F__)
- #define JUMPER_IS_AVX512
-#elif defined(__AVX2__) && defined(__F16C__) && defined(__FMA__)
- #define JUMPER_IS_HSW
-#elif defined(__AVX__)
- #define JUMPER_IS_AVX
-#elif defined(__SSE4_1__)
- #define JUMPER_IS_SSE41
-#elif defined(__SSE2__)
- #define JUMPER_IS_SSE2
-#else
- #define JUMPER_IS_SCALAR
-#endif
-
-// Older Clangs seem to crash when generating non-optimized NEON code for ARMv7.
-#if defined(__clang__) && !defined(__OPTIMIZE__) && defined(__arm__)
- // Apple Clang 9 and vanilla Clang 5 are fine, and may even be conservative.
- #if defined(__apple_build_version__) && __clang_major__ < 9
- #define JUMPER_IS_SCALAR
- #elif __clang_major__ < 5
- #define JUMPER_IS_SCALAR
- #endif
-#endif
-
-#if defined(JUMPER_IS_SCALAR)
- // This path should lead to portable scalar code.
- #include <math.h>
-
- using F = float ;
- using I32 = int32_t;
- using U64 = uint64_t;
- using U32 = uint32_t;
- using U16 = uint16_t;
- using U8 = uint8_t ;
-
- SI F mad(F f, F m, F a) { return f*m+a; }
- SI F min(F a, F b) { return fminf(a,b); }
- SI F max(F a, F b) { return fmaxf(a,b); }
- SI F abs_ (F v) { return fabsf(v); }
- SI F floor_(F v) { return floorf(v); }
- SI F rcp (F v) { return 1.0f / v; }
- SI F rsqrt (F v) { return 1.0f / sqrtf(v); }
- SI F sqrt_(F v) { return sqrtf(v); }
- SI U32 round (F v, F scale) { return (uint32_t)(v*scale + 0.5f); }
- SI U16 pack(U32 v) { return (U16)v; }
- SI U8 pack(U16 v) { return (U8)v; }
-
- SI F if_then_else(I32 c, F t, F e) { return c ? t : e; }
-
- template <typename T>
- SI T gather(const T* p, U32 ix) { return p[ix]; }
-
- SI void load3(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) {
- *r = ptr[0];
- *g = ptr[1];
- *b = ptr[2];
- }
- SI void load4(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b, U16* a) {
- *r = ptr[0];
- *g = ptr[1];
- *b = ptr[2];
- *a = ptr[3];
- }
- SI void store4(uint16_t* ptr, size_t tail, U16 r, U16 g, U16 b, U16 a) {
- ptr[0] = r;
- ptr[1] = g;
- ptr[2] = b;
- ptr[3] = a;
- }
-
- SI void load4(const float* ptr, size_t tail, F* r, F* g, F* b, F* a) {
- *r = ptr[0];
- *g = ptr[1];
- *b = ptr[2];
- *a = ptr[3];
- }
- SI void store4(float* ptr, size_t tail, F r, F g, F b, F a) {
- ptr[0] = r;
- ptr[1] = g;
- ptr[2] = b;
- ptr[3] = a;
- }
-
-#elif defined(JUMPER_IS_NEON)
- #include <arm_neon.h>
-
- // Since we know we're using Clang, we can use its vector extensions.
- template <typename T> using V = T __attribute__((ext_vector_type(4)));
- using F = V<float >;
- using I32 = V< int32_t>;
- using U64 = V<uint64_t>;
- using U32 = V<uint32_t>;
- using U16 = V<uint16_t>;
- using U8 = V<uint8_t >;
-
- // We polyfill a few routines that Clang doesn't build into ext_vector_types.
- SI F min(F a, F b) { return vminq_f32(a,b); }
- SI F max(F a, F b) { return vmaxq_f32(a,b); }
- SI F abs_ (F v) { return vabsq_f32(v); }
- SI F rcp (F v) { auto e = vrecpeq_f32 (v); return vrecpsq_f32 (v,e ) * e; }
- SI F rsqrt (F v) { auto e = vrsqrteq_f32(v); return vrsqrtsq_f32(v,e*e) * e; }
- SI U16 pack(U32 v) { return __builtin_convertvector(v, U16); }
- SI U8 pack(U16 v) { return __builtin_convertvector(v, U8); }
-
- SI F if_then_else(I32 c, F t, F e) { return vbslq_f32((U32)c,t,e); }
-
- #if defined(__aarch64__)
- SI F mad(F f, F m, F a) { return vfmaq_f32(a,f,m); }
- SI F floor_(F v) { return vrndmq_f32(v); }
- SI F sqrt_(F v) { return vsqrtq_f32(v); }
- SI U32 round(F v, F scale) { return vcvtnq_u32_f32(v*scale); }
- #else
- SI F mad(F f, F m, F a) { return vmlaq_f32(a,f,m); }
- SI F floor_(F v) {
- F roundtrip = vcvtq_f32_s32(vcvtq_s32_f32(v));
- return roundtrip - if_then_else(roundtrip > v, 1, 0);
- }
-
- SI F sqrt_(F v) {
- auto e = vrsqrteq_f32(v); // Estimate and two refinement steps for e = rsqrt(v).
- e *= vrsqrtsq_f32(v,e*e);
- e *= vrsqrtsq_f32(v,e*e);
- return v*e; // sqrt(v) == v*rsqrt(v).
- }
-
- SI U32 round(F v, F scale) {
- return vcvtq_u32_f32(mad(v,scale,0.5f));
- }
- #endif
-
-
- template <typename T>
- SI V<T> gather(const T* p, U32 ix) {
- return {p[ix[0]], p[ix[1]], p[ix[2]], p[ix[3]]};
- }
-
- SI void load3(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) {
- uint16x4x3_t rgb;
- if (__builtin_expect(tail,0)) {
- if ( true ) { rgb = vld3_lane_u16(ptr + 0, rgb, 0); }
- if (tail > 1) { rgb = vld3_lane_u16(ptr + 3, rgb, 1); }
- if (tail > 2) { rgb = vld3_lane_u16(ptr + 6, rgb, 2); }
- } else {
- rgb = vld3_u16(ptr);
- }
- *r = rgb.val[0];
- *g = rgb.val[1];
- *b = rgb.val[2];
- }
- SI void load4(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b, U16* a) {
- uint16x4x4_t rgba;
- if (__builtin_expect(tail,0)) {
- if ( true ) { rgba = vld4_lane_u16(ptr + 0, rgba, 0); }
- if (tail > 1) { rgba = vld4_lane_u16(ptr + 4, rgba, 1); }
- if (tail > 2) { rgba = vld4_lane_u16(ptr + 8, rgba, 2); }
- } else {
- rgba = vld4_u16(ptr);
- }
- *r = rgba.val[0];
- *g = rgba.val[1];
- *b = rgba.val[2];
- *a = rgba.val[3];
- }
- SI void store4(uint16_t* ptr, size_t tail, U16 r, U16 g, U16 b, U16 a) {
- if (__builtin_expect(tail,0)) {
- if ( true ) { vst4_lane_u16(ptr + 0, (uint16x4x4_t{{r,g,b,a}}), 0); }
- if (tail > 1) { vst4_lane_u16(ptr + 4, (uint16x4x4_t{{r,g,b,a}}), 1); }
- if (tail > 2) { vst4_lane_u16(ptr + 8, (uint16x4x4_t{{r,g,b,a}}), 2); }
- } else {
- vst4_u16(ptr, (uint16x4x4_t{{r,g,b,a}}));
- }
- }
- SI void load4(const float* ptr, size_t tail, F* r, F* g, F* b, F* a) {
- float32x4x4_t rgba;
- if (__builtin_expect(tail,0)) {
- if ( true ) { rgba = vld4q_lane_f32(ptr + 0, rgba, 0); }
- if (tail > 1) { rgba = vld4q_lane_f32(ptr + 4, rgba, 1); }
- if (tail > 2) { rgba = vld4q_lane_f32(ptr + 8, rgba, 2); }
- } else {
- rgba = vld4q_f32(ptr);
- }
- *r = rgba.val[0];
- *g = rgba.val[1];
- *b = rgba.val[2];
- *a = rgba.val[3];
- }
- SI void store4(float* ptr, size_t tail, F r, F g, F b, F a) {
- if (__builtin_expect(tail,0)) {
- if ( true ) { vst4q_lane_f32(ptr + 0, (float32x4x4_t{{r,g,b,a}}), 0); }
- if (tail > 1) { vst4q_lane_f32(ptr + 4, (float32x4x4_t{{r,g,b,a}}), 1); }
- if (tail > 2) { vst4q_lane_f32(ptr + 8, (float32x4x4_t{{r,g,b,a}}), 2); }
- } else {
- vst4q_f32(ptr, (float32x4x4_t{{r,g,b,a}}));
- }
- }
-
-#elif defined(JUMPER_IS_AVX) || defined(JUMPER_IS_HSW) || defined(JUMPER_IS_AVX512)
- #include <immintrin.h>
-
- // These are __m256 and __m256i, but friendlier and strongly-typed.
- template <typename T> using V = T __attribute__((ext_vector_type(8)));
- using F = V<float >;
- using I32 = V< int32_t>;
- using U64 = V<uint64_t>;
- using U32 = V<uint32_t>;
- using U16 = V<uint16_t>;
- using U8 = V<uint8_t >;
-
- SI F mad(F f, F m, F a) {
- #if defined(JUMPER_IS_HSW) || defined(JUMPER_IS_AVX512)
- return _mm256_fmadd_ps(f,m,a);
- #else
- return f*m+a;
- #endif
- }
-
- SI F min(F a, F b) { return _mm256_min_ps(a,b); }
- SI F max(F a, F b) { return _mm256_max_ps(a,b); }
- SI F abs_ (F v) { return _mm256_and_ps(v, 0-v); }
- SI F floor_(F v) { return _mm256_floor_ps(v); }
- SI F rcp (F v) { return _mm256_rcp_ps (v); }
- SI F rsqrt (F v) { return _mm256_rsqrt_ps(v); }
- SI F sqrt_(F v) { return _mm256_sqrt_ps (v); }
- SI U32 round (F v, F scale) { return _mm256_cvtps_epi32(v*scale); }
-
- SI U16 pack(U32 v) {
- return _mm_packus_epi32(_mm256_extractf128_si256(v, 0),
- _mm256_extractf128_si256(v, 1));
- }
- SI U8 pack(U16 v) {
- auto r = _mm_packus_epi16(v,v);
- return unaligned_load<U8>(&r);
- }
-
- SI F if_then_else(I32 c, F t, F e) { return _mm256_blendv_ps(e,t,c); }
-
- template <typename T>
- SI V<T> gather(const T* p, U32 ix) {
- return { p[ix[0]], p[ix[1]], p[ix[2]], p[ix[3]],
- p[ix[4]], p[ix[5]], p[ix[6]], p[ix[7]], };
- }
- #if defined(JUMPER_IS_HSW) || defined(JUMPER_IS_AVX512)
- SI F gather(const float* p, U32 ix) { return _mm256_i32gather_ps (p, ix, 4); }
- SI U32 gather(const uint32_t* p, U32 ix) { return _mm256_i32gather_epi32(p, ix, 4); }
- SI U64 gather(const uint64_t* p, U32 ix) {
- __m256i parts[] = {
- _mm256_i32gather_epi64(p, _mm256_extracti128_si256(ix,0), 8),
- _mm256_i32gather_epi64(p, _mm256_extracti128_si256(ix,1), 8),
- };
- return bit_cast<U64>(parts);
- }
- #endif
-
- SI void load3(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) {
- __m128i _0,_1,_2,_3,_4,_5,_6,_7;
- if (__builtin_expect(tail,0)) {
- auto load_rgb = [](const uint16_t* src) {
- auto v = _mm_cvtsi32_si128(*(const uint32_t*)src);
- return _mm_insert_epi16(v, src[2], 2);
- };
- _1 = _2 = _3 = _4 = _5 = _6 = _7 = _mm_setzero_si128();
- if ( true ) { _0 = load_rgb(ptr + 0); }
- if (tail > 1) { _1 = load_rgb(ptr + 3); }
- if (tail > 2) { _2 = load_rgb(ptr + 6); }
- if (tail > 3) { _3 = load_rgb(ptr + 9); }
- if (tail > 4) { _4 = load_rgb(ptr + 12); }
- if (tail > 5) { _5 = load_rgb(ptr + 15); }
- if (tail > 6) { _6 = load_rgb(ptr + 18); }
- } else {
- // Load 0+1, 2+3, 4+5 normally, and 6+7 backed up 4 bytes so we don't run over.
- auto _01 = _mm_loadu_si128((const __m128i*)(ptr + 0)) ;
- auto _23 = _mm_loadu_si128((const __m128i*)(ptr + 6)) ;
- auto _45 = _mm_loadu_si128((const __m128i*)(ptr + 12)) ;
- auto _67 = _mm_srli_si128(_mm_loadu_si128((const __m128i*)(ptr + 16)), 4);
- _0 = _01; _1 = _mm_srli_si128(_01, 6);
- _2 = _23; _3 = _mm_srli_si128(_23, 6);
- _4 = _45; _5 = _mm_srli_si128(_45, 6);
- _6 = _67; _7 = _mm_srli_si128(_67, 6);
- }
-
- auto _02 = _mm_unpacklo_epi16(_0, _2), // r0 r2 g0 g2 b0 b2 xx xx
- _13 = _mm_unpacklo_epi16(_1, _3),
- _46 = _mm_unpacklo_epi16(_4, _6),
- _57 = _mm_unpacklo_epi16(_5, _7);
-
- auto rg0123 = _mm_unpacklo_epi16(_02, _13), // r0 r1 r2 r3 g0 g1 g2 g3
- bx0123 = _mm_unpackhi_epi16(_02, _13), // b0 b1 b2 b3 xx xx xx xx
- rg4567 = _mm_unpacklo_epi16(_46, _57),
- bx4567 = _mm_unpackhi_epi16(_46, _57);
-
- *r = _mm_unpacklo_epi64(rg0123, rg4567);
- *g = _mm_unpackhi_epi64(rg0123, rg4567);
- *b = _mm_unpacklo_epi64(bx0123, bx4567);
- }
- SI void load4(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b, U16* a) {
- __m128i _01, _23, _45, _67;
- if (__builtin_expect(tail,0)) {
- auto src = (const double*)ptr;
- _01 = _23 = _45 = _67 = _mm_setzero_si128();
- if (tail > 0) { _01 = _mm_loadl_pd(_01, src+0); }
- if (tail > 1) { _01 = _mm_loadh_pd(_01, src+1); }
- if (tail > 2) { _23 = _mm_loadl_pd(_23, src+2); }
- if (tail > 3) { _23 = _mm_loadh_pd(_23, src+3); }
- if (tail > 4) { _45 = _mm_loadl_pd(_45, src+4); }
- if (tail > 5) { _45 = _mm_loadh_pd(_45, src+5); }
- if (tail > 6) { _67 = _mm_loadl_pd(_67, src+6); }
- } else {
- _01 = _mm_loadu_si128(((__m128i*)ptr) + 0);
- _23 = _mm_loadu_si128(((__m128i*)ptr) + 1);
- _45 = _mm_loadu_si128(((__m128i*)ptr) + 2);
- _67 = _mm_loadu_si128(((__m128i*)ptr) + 3);
- }
-
- auto _02 = _mm_unpacklo_epi16(_01, _23), // r0 r2 g0 g2 b0 b2 a0 a2
- _13 = _mm_unpackhi_epi16(_01, _23), // r1 r3 g1 g3 b1 b3 a1 a3
- _46 = _mm_unpacklo_epi16(_45, _67),
- _57 = _mm_unpackhi_epi16(_45, _67);
-
- auto rg0123 = _mm_unpacklo_epi16(_02, _13), // r0 r1 r2 r3 g0 g1 g2 g3
- ba0123 = _mm_unpackhi_epi16(_02, _13), // b0 b1 b2 b3 a0 a1 a2 a3
- rg4567 = _mm_unpacklo_epi16(_46, _57),
- ba4567 = _mm_unpackhi_epi16(_46, _57);
-
- *r = _mm_unpacklo_epi64(rg0123, rg4567);
- *g = _mm_unpackhi_epi64(rg0123, rg4567);
- *b = _mm_unpacklo_epi64(ba0123, ba4567);
- *a = _mm_unpackhi_epi64(ba0123, ba4567);
- }
- SI void store4(uint16_t* ptr, size_t tail, U16 r, U16 g, U16 b, U16 a) {
- auto rg0123 = _mm_unpacklo_epi16(r, g), // r0 g0 r1 g1 r2 g2 r3 g3
- rg4567 = _mm_unpackhi_epi16(r, g), // r4 g4 r5 g5 r6 g6 r7 g7
- ba0123 = _mm_unpacklo_epi16(b, a),
- ba4567 = _mm_unpackhi_epi16(b, a);
-
- auto _01 = _mm_unpacklo_epi32(rg0123, ba0123),
- _23 = _mm_unpackhi_epi32(rg0123, ba0123),
- _45 = _mm_unpacklo_epi32(rg4567, ba4567),
- _67 = _mm_unpackhi_epi32(rg4567, ba4567);
-
- if (__builtin_expect(tail,0)) {
- auto dst = (double*)ptr;
- if (tail > 0) { _mm_storel_pd(dst+0, _01); }
- if (tail > 1) { _mm_storeh_pd(dst+1, _01); }
- if (tail > 2) { _mm_storel_pd(dst+2, _23); }
- if (tail > 3) { _mm_storeh_pd(dst+3, _23); }
- if (tail > 4) { _mm_storel_pd(dst+4, _45); }
- if (tail > 5) { _mm_storeh_pd(dst+5, _45); }
- if (tail > 6) { _mm_storel_pd(dst+6, _67); }
- } else {
- _mm_storeu_si128((__m128i*)ptr + 0, _01);
- _mm_storeu_si128((__m128i*)ptr + 1, _23);
- _mm_storeu_si128((__m128i*)ptr + 2, _45);
- _mm_storeu_si128((__m128i*)ptr + 3, _67);
- }
- }
-
- SI void load4(const float* ptr, size_t tail, F* r, F* g, F* b, F* a) {
- F _04, _15, _26, _37;
- _04 = _15 = _26 = _37 = 0;
- switch (tail) {
- case 0: _37 = _mm256_insertf128_ps(_37, _mm_loadu_ps(ptr+28), 1);
- case 7: _26 = _mm256_insertf128_ps(_26, _mm_loadu_ps(ptr+24), 1);
- case 6: _15 = _mm256_insertf128_ps(_15, _mm_loadu_ps(ptr+20), 1);
- case 5: _04 = _mm256_insertf128_ps(_04, _mm_loadu_ps(ptr+16), 1);
- case 4: _37 = _mm256_insertf128_ps(_37, _mm_loadu_ps(ptr+12), 0);
- case 3: _26 = _mm256_insertf128_ps(_26, _mm_loadu_ps(ptr+ 8), 0);
- case 2: _15 = _mm256_insertf128_ps(_15, _mm_loadu_ps(ptr+ 4), 0);
- case 1: _04 = _mm256_insertf128_ps(_04, _mm_loadu_ps(ptr+ 0), 0);
- }
-
- F rg0145 = _mm256_unpacklo_ps(_04,_15), // r0 r1 g0 g1 | r4 r5 g4 g5
- ba0145 = _mm256_unpackhi_ps(_04,_15),
- rg2367 = _mm256_unpacklo_ps(_26,_37),
- ba2367 = _mm256_unpackhi_ps(_26,_37);
-
- *r = _mm256_unpacklo_pd(rg0145, rg2367);
- *g = _mm256_unpackhi_pd(rg0145, rg2367);
- *b = _mm256_unpacklo_pd(ba0145, ba2367);
- *a = _mm256_unpackhi_pd(ba0145, ba2367);
- }
- SI void store4(float* ptr, size_t tail, F r, F g, F b, F a) {
- F rg0145 = _mm256_unpacklo_ps(r, g), // r0 g0 r1 g1 | r4 g4 r5 g5
- rg2367 = _mm256_unpackhi_ps(r, g), // r2 ... | r6 ...
- ba0145 = _mm256_unpacklo_ps(b, a), // b0 a0 b1 a1 | b4 a4 b5 a5
- ba2367 = _mm256_unpackhi_ps(b, a); // b2 ... | b6 ...
-
- F _04 = _mm256_unpacklo_pd(rg0145, ba0145), // r0 g0 b0 a0 | r4 g4 b4 a4
- _15 = _mm256_unpackhi_pd(rg0145, ba0145), // r1 ... | r5 ...
- _26 = _mm256_unpacklo_pd(rg2367, ba2367), // r2 ... | r6 ...
- _37 = _mm256_unpackhi_pd(rg2367, ba2367); // r3 ... | r7 ...
-
- if (__builtin_expect(tail, 0)) {
- if (tail > 0) { _mm_storeu_ps(ptr+ 0, _mm256_extractf128_ps(_04, 0)); }
- if (tail > 1) { _mm_storeu_ps(ptr+ 4, _mm256_extractf128_ps(_15, 0)); }
- if (tail > 2) { _mm_storeu_ps(ptr+ 8, _mm256_extractf128_ps(_26, 0)); }
- if (tail > 3) { _mm_storeu_ps(ptr+12, _mm256_extractf128_ps(_37, 0)); }
- if (tail > 4) { _mm_storeu_ps(ptr+16, _mm256_extractf128_ps(_04, 1)); }
- if (tail > 5) { _mm_storeu_ps(ptr+20, _mm256_extractf128_ps(_15, 1)); }
- if (tail > 6) { _mm_storeu_ps(ptr+24, _mm256_extractf128_ps(_26, 1)); }
- } else {
- F _01 = _mm256_permute2f128_ps(_04, _15, 32), // 32 == 0010 0000 == lo, lo
- _23 = _mm256_permute2f128_ps(_26, _37, 32),
- _45 = _mm256_permute2f128_ps(_04, _15, 49), // 49 == 0011 0001 == hi, hi
- _67 = _mm256_permute2f128_ps(_26, _37, 49);
- _mm256_storeu_ps(ptr+ 0, _01);
- _mm256_storeu_ps(ptr+ 8, _23);
- _mm256_storeu_ps(ptr+16, _45);
- _mm256_storeu_ps(ptr+24, _67);
- }
- }
-
-#elif defined(JUMPER_IS_SSE2) || defined(JUMPER_IS_SSE41)
- #include <immintrin.h>
-
- template <typename T> using V = T __attribute__((ext_vector_type(4)));
- using F = V<float >;
- using I32 = V< int32_t>;
- using U64 = V<uint64_t>;
- using U32 = V<uint32_t>;
- using U16 = V<uint16_t>;
- using U8 = V<uint8_t >;
-
- SI F mad(F f, F m, F a) { return f*m+a; }
- SI F min(F a, F b) { return _mm_min_ps(a,b); }
- SI F max(F a, F b) { return _mm_max_ps(a,b); }
- SI F abs_(F v) { return _mm_and_ps(v, 0-v); }
- SI F rcp (F v) { return _mm_rcp_ps (v); }
- SI F rsqrt (F v) { return _mm_rsqrt_ps(v); }
- SI F sqrt_(F v) { return _mm_sqrt_ps (v); }
- SI U32 round(F v, F scale) { return _mm_cvtps_epi32(v*scale); }
-
- SI U16 pack(U32 v) {
- #if defined(JUMPER_IS_SSE41)
- auto p = _mm_packus_epi32(v,v);
- #else
- // Sign extend so that _mm_packs_epi32() does the pack we want.
- auto p = _mm_srai_epi32(_mm_slli_epi32(v, 16), 16);
- p = _mm_packs_epi32(p,p);
- #endif
- return unaligned_load<U16>(&p); // We have two copies. Return (the lower) one.
- }
- SI U8 pack(U16 v) {
- auto r = widen_cast<__m128i>(v);
- r = _mm_packus_epi16(r,r);
- return unaligned_load<U8>(&r);
- }
-
- SI F if_then_else(I32 c, F t, F e) {
- return _mm_or_ps(_mm_and_ps(c, t), _mm_andnot_ps(c, e));
- }
-
- SI F floor_(F v) {
- #if defined(JUMPER_IS_SSE41)
- return _mm_floor_ps(v);
- #else
- F roundtrip = _mm_cvtepi32_ps(_mm_cvttps_epi32(v));
- return roundtrip - if_then_else(roundtrip > v, 1, 0);
- #endif
- }
-
- template <typename T>
- SI V<T> gather(const T* p, U32 ix) {
- return {p[ix[0]], p[ix[1]], p[ix[2]], p[ix[3]]};
- }
-
- SI void load3(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) {
- __m128i _0, _1, _2, _3;
- if (__builtin_expect(tail,0)) {
- _1 = _2 = _3 = _mm_setzero_si128();
- auto load_rgb = [](const uint16_t* src) {
- auto v = _mm_cvtsi32_si128(*(const uint32_t*)src);
- return _mm_insert_epi16(v, src[2], 2);
- };
- if ( true ) { _0 = load_rgb(ptr + 0); }
- if (tail > 1) { _1 = load_rgb(ptr + 3); }
- if (tail > 2) { _2 = load_rgb(ptr + 6); }
- } else {
- // Load slightly weirdly to make sure we don't load past the end of 4x48 bits.
- auto _01 = _mm_loadu_si128((const __m128i*)(ptr + 0)) ,
- _23 = _mm_srli_si128(_mm_loadu_si128((const __m128i*)(ptr + 4)), 4);
-
- // Each _N holds R,G,B for pixel N in its lower 3 lanes (upper 5 are ignored).
- _0 = _01;
- _1 = _mm_srli_si128(_01, 6);
- _2 = _23;
- _3 = _mm_srli_si128(_23, 6);
- }
-
- // De-interlace to R,G,B.
- auto _02 = _mm_unpacklo_epi16(_0, _2), // r0 r2 g0 g2 b0 b2 xx xx
- _13 = _mm_unpacklo_epi16(_1, _3); // r1 r3 g1 g3 b1 b3 xx xx
-
- auto R = _mm_unpacklo_epi16(_02, _13), // r0 r1 r2 r3 g0 g1 g2 g3
- G = _mm_srli_si128(R, 8),
- B = _mm_unpackhi_epi16(_02, _13); // b0 b1 b2 b3 xx xx xx xx
-
- *r = unaligned_load<U16>(&R);
- *g = unaligned_load<U16>(&G);
- *b = unaligned_load<U16>(&B);
- }
-
- SI void load4(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b, U16* a) {
- __m128i _01, _23;
- if (__builtin_expect(tail,0)) {
- _01 = _23 = _mm_setzero_si128();
- auto src = (const double*)ptr;
- if ( true ) { _01 = _mm_loadl_pd(_01, src + 0); } // r0 g0 b0 a0 00 00 00 00
- if (tail > 1) { _01 = _mm_loadh_pd(_01, src + 1); } // r0 g0 b0 a0 r1 g1 b1 a1
- if (tail > 2) { _23 = _mm_loadl_pd(_23, src + 2); } // r2 g2 b2 a2 00 00 00 00
- } else {
- _01 = _mm_loadu_si128(((__m128i*)ptr) + 0); // r0 g0 b0 a0 r1 g1 b1 a1
- _23 = _mm_loadu_si128(((__m128i*)ptr) + 1); // r2 g2 b2 a2 r3 g3 b3 a3
- }
-
- auto _02 = _mm_unpacklo_epi16(_01, _23), // r0 r2 g0 g2 b0 b2 a0 a2
- _13 = _mm_unpackhi_epi16(_01, _23); // r1 r3 g1 g3 b1 b3 a1 a3
-
- auto rg = _mm_unpacklo_epi16(_02, _13), // r0 r1 r2 r3 g0 g1 g2 g3
- ba = _mm_unpackhi_epi16(_02, _13); // b0 b1 b2 b3 a0 a1 a2 a3
-
- *r = unaligned_load<U16>((uint16_t*)&rg + 0);
- *g = unaligned_load<U16>((uint16_t*)&rg + 4);
- *b = unaligned_load<U16>((uint16_t*)&ba + 0);
- *a = unaligned_load<U16>((uint16_t*)&ba + 4);
- }
-
- SI void store4(uint16_t* ptr, size_t tail, U16 r, U16 g, U16 b, U16 a) {
- auto rg = _mm_unpacklo_epi16(widen_cast<__m128i>(r), widen_cast<__m128i>(g)),
- ba = _mm_unpacklo_epi16(widen_cast<__m128i>(b), widen_cast<__m128i>(a));
-
- if (__builtin_expect(tail, 0)) {
- auto dst = (double*)ptr;
- if ( true ) { _mm_storel_pd(dst + 0, _mm_unpacklo_epi32(rg, ba)); }
- if (tail > 1) { _mm_storeh_pd(dst + 1, _mm_unpacklo_epi32(rg, ba)); }
- if (tail > 2) { _mm_storel_pd(dst + 2, _mm_unpackhi_epi32(rg, ba)); }
- } else {
- _mm_storeu_si128((__m128i*)ptr + 0, _mm_unpacklo_epi32(rg, ba));
- _mm_storeu_si128((__m128i*)ptr + 1, _mm_unpackhi_epi32(rg, ba));
- }
- }
-
- SI void load4(const float* ptr, size_t tail, F* r, F* g, F* b, F* a) {
- F _0, _1, _2, _3;
- if (__builtin_expect(tail, 0)) {
- _1 = _2 = _3 = _mm_setzero_si128();
- if ( true ) { _0 = _mm_loadu_ps(ptr + 0); }
- if (tail > 1) { _1 = _mm_loadu_ps(ptr + 4); }
- if (tail > 2) { _2 = _mm_loadu_ps(ptr + 8); }
- } else {
- _0 = _mm_loadu_ps(ptr + 0);
- _1 = _mm_loadu_ps(ptr + 4);
- _2 = _mm_loadu_ps(ptr + 8);
- _3 = _mm_loadu_ps(ptr +12);
- }
- _MM_TRANSPOSE4_PS(_0,_1,_2,_3);
- *r = _0;
- *g = _1;
- *b = _2;
- *a = _3;
- }
-
- SI void store4(float* ptr, size_t tail, F r, F g, F b, F a) {
- _MM_TRANSPOSE4_PS(r,g,b,a);
- if (__builtin_expect(tail, 0)) {
- if ( true ) { _mm_storeu_ps(ptr + 0, r); }
- if (tail > 1) { _mm_storeu_ps(ptr + 4, g); }
- if (tail > 2) { _mm_storeu_ps(ptr + 8, b); }
- } else {
- _mm_storeu_ps(ptr + 0, r);
- _mm_storeu_ps(ptr + 4, g);
- _mm_storeu_ps(ptr + 8, b);
- _mm_storeu_ps(ptr +12, a);
- }
- }
-#endif
-
-// We need to be a careful with casts.
-// (F)x means cast x to float in the portable path, but bit_cast x to float in the others.
-// These named casts and bit_cast() are always what they seem to be.
-#if defined(JUMPER_IS_SCALAR)
- SI F cast (U32 v) { return (F)v; }
- SI U32 trunc_(F v) { return (U32)v; }
- SI U32 expand(U16 v) { return (U32)v; }
- SI U32 expand(U8 v) { return (U32)v; }
-#else
- SI F cast (U32 v) { return __builtin_convertvector((I32)v, F); }
- SI U32 trunc_(F v) { return (U32)__builtin_convertvector( v, I32); }
- SI U32 expand(U16 v) { return __builtin_convertvector( v, U32); }
- SI U32 expand(U8 v) { return __builtin_convertvector( v, U32); }
-#endif
-
-template <typename V>
-SI V if_then_else(I32 c, V t, V e) {
- return bit_cast<V>(if_then_else(c, bit_cast<F>(t), bit_cast<F>(e)));
-}
-
-SI U16 bswap(U16 x) {
-#if defined(JUMPER_IS_SSE2) || defined(JUMPER_IS_SSE41)
- // Somewhat inexplicably Clang decides to do (x<<8) | (x>>8) in 32-bit lanes
- // when generating code for SSE2 and SSE4.1. We'll do it manually...
- auto v = widen_cast<__m128i>(x);
- v = _mm_slli_epi16(v,8) | _mm_srli_epi16(v,8);
- return unaligned_load<U16>(&v);
-#else
- return (x<<8) | (x>>8);
-#endif
-}
-
-SI F fract(F v) { return v - floor_(v); }
-
-// See http://www.machinedlearnings.com/2011/06/fast-approximate-logarithm-exponential.html.
-SI F approx_log2(F x) {
- // e - 127 is a fair approximation of log2(x) in its own right...
- F e = cast(bit_cast<U32>(x)) * (1.0f / (1<<23));
-
- // ... but using the mantissa to refine its error is _much_ better.
- F m = bit_cast<F>((bit_cast<U32>(x) & 0x007fffff) | 0x3f000000);
- return e
- - 124.225514990f
- - 1.498030302f * m
- - 1.725879990f / (0.3520887068f + m);
-}
-SI F approx_pow2(F x) {
- F f = fract(x);
- return bit_cast<F>(round(1.0f * (1<<23),
- x + 121.274057500f
- - 1.490129070f * f
- + 27.728023300f / (4.84252568f - f)));
-}
-
-SI F approx_powf(F x, F y) {
- return if_then_else(x == 0, 0
- , approx_pow2(approx_log2(x) * y));
-}
-
-SI F from_half(U16 h) {
-#if defined(__aarch64__) && !defined(SK_BUILD_FOR_GOOGLE3) // Temporary workaround for some Google3 builds.
- return vcvt_f32_f16(h);
-
-#elif defined(JUMPER_IS_HSW) || defined(JUMPER_IS_AVX512)
- return _mm256_cvtph_ps(h);
-
-#else
- // Remember, a half is 1-5-10 (sign-exponent-mantissa) with 15 exponent bias.
- U32 sem = expand(h),
- s = sem & 0x8000,
- em = sem ^ s;
-
- // Convert to 1-8-23 float with 127 bias, flushing denorm halfs (including zero) to zero.
- auto denorm = (I32)em < 0x0400; // I32 comparison is often quicker, and always safe here.
- return if_then_else(denorm, F(0)
- , bit_cast<F>( (s<<16) + (em<<13) + ((127-15)<<23) ));
-#endif
-}
-
-SI U16 to_half(F f) {
-#if defined(__aarch64__) && !defined(SK_BUILD_FOR_GOOGLE3) // Temporary workaround for some Google3 builds.
- return vcvt_f16_f32(f);
-
-#elif defined(JUMPER_IS_HSW) || defined(JUMPER_IS_AVX512)
- return _mm256_cvtps_ph(f, _MM_FROUND_CUR_DIRECTION);
-
-#else
- // Remember, a float is 1-8-23 (sign-exponent-mantissa) with 127 exponent bias.
- U32 sem = bit_cast<U32>(f),
- s = sem & 0x80000000,
- em = sem ^ s;
-
- // Convert to 1-5-10 half with 15 bias, flushing denorm halfs (including zero) to zero.
- auto denorm = (I32)em < 0x38800000; // I32 comparison is often quicker, and always safe here.
- return pack(if_then_else(denorm, U32(0)
- , (s>>16) + (em>>13) - ((127-15)<<10)));
-#endif
-}
-
-// Our fundamental vector depth is our pixel stride.
-static const size_t N = sizeof(F) / sizeof(float);
-
-// We're finally going to get to what a Stage function looks like!
-// tail == 0 ~~> work on a full N pixels
-// tail != 0 ~~> work on only the first tail pixels
-// tail is always < N.
-
-#if defined(__i386__) || defined(_M_IX86) || defined(__arm__)
- // On 32-bit x86 we've only got 8 xmm registers, so we keep the 4 hottest (r,g,b,a)
- // in registers and the d-registers on the stack (giving us 4 temporary registers).
- // General-purpose registers are also tight, so we put most of those on the stack too.
- // On ARMv7, we do the same so that we can make the r,g,b,a vectors wider.
- struct Params {
- size_t dx, dy, tail;
- F dr,dg,db,da;
- };
- using Stage = void(ABI*)(Params*, void** program, F r, F g, F b, F a);
-
-#else
- // We keep program the second argument, so that it's passed in rsi for load_and_inc().
- using Stage = void(ABI*)(size_t tail, void** program, size_t dx, size_t dy, F,F,F,F, F,F,F,F);
-#endif
-
-
-extern "C" MAYBE_MSABI void WRAP(start_pipeline)(size_t dx, size_t dy, size_t xlimit, size_t ylimit,
- void** program) {
- auto start = (Stage)load_and_inc(program);
- const size_t x0 = dx;
- for (; dy < ylimit; dy++) {
- #if defined(__i386__) || defined(_M_IX86) || defined(__arm__)
- Params params = { x0,dy,0, 0,0,0,0 };
- while (params.dx + N <= xlimit) {
- start(&params,program, 0,0,0,0);
- params.dx += N;
- }
- if (size_t tail = xlimit - params.dx) {
- params.tail = tail;
- start(&params,program, 0,0,0,0);
- }
- #else
- dx = x0;
- while (dx + N <= xlimit) {
- start(0,program,dx,dy, 0,0,0,0, 0,0,0,0);
- dx += N;
- }
- if (size_t tail = xlimit - dx) {
- start(tail,program,dx,dy, 0,0,0,0, 0,0,0,0);
- }
- #endif
- }
-}
-
-#if defined(__i386__) || defined(_M_IX86) || defined(__arm__)
- #define STAGE(name, ...) \
- SI void name##_k(__VA_ARGS__, size_t dx, size_t dy, size_t tail, \
- F& r, F& g, F& b, F& a, F& dr, F& dg, F& db, F& da); \
- extern "C" ABI void WRAP(name)(Params* params, void** program, \
- F r, F g, F b, F a) { \
- name##_k(Ctx{program},params->dx,params->dy,params->tail, r,g,b,a, \
- params->dr, params->dg, params->db, params->da); \
- auto next = (Stage)load_and_inc(program); \
- next(params,program, r,g,b,a); \
- } \
- SI void name##_k(__VA_ARGS__, size_t dx, size_t dy, size_t tail, \
- F& r, F& g, F& b, F& a, F& dr, F& dg, F& db, F& da)
-#else
- #define STAGE(name, ...) \
- SI void name##_k(__VA_ARGS__, size_t dx, size_t dy, size_t tail, \
- F& r, F& g, F& b, F& a, F& dr, F& dg, F& db, F& da); \
- extern "C" ABI void WRAP(name)(size_t tail, void** program, size_t dx, size_t dy, \
- F r, F g, F b, F a, F dr, F dg, F db, F da) { \
- name##_k(Ctx{program},dx,dy,tail, r,g,b,a, dr,dg,db,da); \
- auto next = (Stage)load_and_inc(program); \
- next(tail,program,dx,dy, r,g,b,a, dr,dg,db,da); \
- } \
- SI void name##_k(__VA_ARGS__, size_t dx, size_t dy, size_t tail, \
- F& r, F& g, F& b, F& a, F& dr, F& dg, F& db, F& da)
-#endif
-
-
-// just_return() is a simple no-op stage that only exists to end the chain,
-// returning back up to start_pipeline(), and from there to the caller.
-#if defined(__i386__) || defined(_M_IX86) || defined(__arm__)
- extern "C" ABI void WRAP(just_return)(Params*, void**, F,F,F,F) {}
-#else
- extern "C" ABI void WRAP(just_return)(size_t, void**, size_t,size_t, F,F,F,F, F,F,F,F) {}
-#endif
-
-
-// We could start defining normal Stages now. But first, some helper functions.
-
-// These load() and store() methods are tail-aware,
-// but focus mainly on keeping the at-stride tail==0 case fast.
-
-template <typename V, typename T>
-SI V load(const T* src, size_t tail) {
-#if !defined(JUMPER_IS_SCALAR)
- __builtin_assume(tail < N);
- if (__builtin_expect(tail, 0)) {
- V v{}; // Any inactive lanes are zeroed.
- switch (tail) {
- case 7: v[6] = src[6];
- case 6: v[5] = src[5];
- case 5: v[4] = src[4];
- case 4: memcpy(&v, src, 4*sizeof(T)); break;
- case 3: v[2] = src[2];
- case 2: memcpy(&v, src, 2*sizeof(T)); break;
- case 1: memcpy(&v, src, 1*sizeof(T)); break;
- }
- return v;
- }
-#endif
- return unaligned_load<V>(src);
-}
-
-template <typename V, typename T>
-SI void store(T* dst, V v, size_t tail) {
-#if !defined(JUMPER_IS_SCALAR)
- __builtin_assume(tail < N);
- if (__builtin_expect(tail, 0)) {
- switch (tail) {
- case 7: dst[6] = v[6];
- case 6: dst[5] = v[5];
- case 5: dst[4] = v[4];
- case 4: memcpy(dst, &v, 4*sizeof(T)); break;
- case 3: dst[2] = v[2];
- case 2: memcpy(dst, &v, 2*sizeof(T)); break;
- case 1: memcpy(dst, &v, 1*sizeof(T)); break;
- }
- return;
- }
-#endif
- unaligned_store(dst, v);
-}
-
-SI F from_byte(U8 b) {
- return cast(expand(b)) * (1/255.0f);
-}
-SI void from_565(U16 _565, F* r, F* g, F* b) {
- U32 wide = expand(_565);
- *r = cast(wide & (31<<11)) * (1.0f / (31<<11));
- *g = cast(wide & (63<< 5)) * (1.0f / (63<< 5));
- *b = cast(wide & (31<< 0)) * (1.0f / (31<< 0));
-}
-SI void from_4444(U16 _4444, F* r, F* g, F* b, F* a) {
- U32 wide = expand(_4444);
- *r = cast(wide & (15<<12)) * (1.0f / (15<<12));
- *g = cast(wide & (15<< 8)) * (1.0f / (15<< 8));
- *b = cast(wide & (15<< 4)) * (1.0f / (15<< 4));
- *a = cast(wide & (15<< 0)) * (1.0f / (15<< 0));
-}
-SI void from_8888(U32 _8888, F* r, F* g, F* b, F* a) {
- *r = cast((_8888 ) & 0xff) * (1/255.0f);
- *g = cast((_8888 >> 8) & 0xff) * (1/255.0f);
- *b = cast((_8888 >> 16) & 0xff) * (1/255.0f);
- *a = cast((_8888 >> 24) ) * (1/255.0f);
-}
-SI void from_1010102(U32 rgba, F* r, F* g, F* b, F* a) {
- *r = cast((rgba ) & 0x3ff) * (1/1023.0f);
- *g = cast((rgba >> 10) & 0x3ff) * (1/1023.0f);
- *b = cast((rgba >> 20) & 0x3ff) * (1/1023.0f);
- *a = cast((rgba >> 30) ) * (1/ 3.0f);
-}
-
-// Used by load_ and store_ stages to get to the right (dx,dy) starting point of contiguous memory.
-template <typename T>
-SI T* ptr_at_xy(const SkJumper_MemoryCtx* ctx, size_t dx, size_t dy) {
- return (T*)ctx->pixels + dy*ctx->stride + dx;
-}
-
-// clamp v to [0,limit).
-SI F clamp(F v, F limit) {
- F inclusive = bit_cast<F>( bit_cast<U32>(limit) - 1 ); // Exclusive -> inclusive.
- return min(max(0, v), inclusive);
-}
-
-// Used by gather_ stages to calculate the base pointer and a vector of indices to load.
-template <typename T>
-SI U32 ix_and_ptr(T** ptr, const SkJumper_GatherCtx* ctx, F x, F y) {
- x = clamp(x, ctx->width);
- y = clamp(y, ctx->height);
-
- *ptr = (const T*)ctx->pixels;
- return trunc_(y)*ctx->stride + trunc_(x);
-}
-
-// We often have a nominally [0,1] float value we need to scale and convert to an integer,
-// whether for a table lookup or to pack back down into bytes for storage.
-//
-// In practice, especially when dealing with interesting color spaces, that notionally
-// [0,1] float may be out of [0,1] range. Unorms cannot represent that, so we must clamp.
-//
-// You can adjust the expected input to [0,bias] by tweaking that parameter.
-SI U32 to_unorm(F v, F scale, F bias = 1.0f) {
- // TODO: platform-specific implementations to to_unorm(), removing round() entirely?
- // Any time we use round() we probably want to use to_unorm().
- return round(min(max(0, v), bias), scale);
-}
-
-SI I32 cond_to_mask(I32 cond) { return if_then_else(cond, I32(~0), I32(0)); }
-
-// Now finally, normal Stages!
-
-STAGE(seed_shader, const float* iota) {
- // It's important for speed to explicitly cast(dx) and cast(dy),
- // which has the effect of splatting them to vectors before converting to floats.
- // On Intel this breaks a data dependency on previous loop iterations' registers.
- r = cast(dx) + unaligned_load<F>(iota);
- g = cast(dy) + 0.5f;
- b = 1.0f;
- a = 0;
- dr = dg = db = da = 0;
-}
-
-STAGE(dither, const float* rate) {
- // Get [(dx,dy), (dx+1,dy), (dx+2,dy), ...] loaded up in integer vectors.
- uint32_t iota[] = {0,1,2,3,4,5,6,7};
- U32 X = dx + unaligned_load<U32>(iota),
- Y = dy;
-
- // We're doing 8x8 ordered dithering, see https://en.wikipedia.org/wiki/Ordered_dithering.
- // In this case n=8 and we're using the matrix that looks like 1/64 x [ 0 48 12 60 ... ].
-
- // We only need X and X^Y from here on, so it's easier to just think of that as "Y".
- Y ^= X;
-
- // We'll mix the bottom 3 bits of each of X and Y to make 6 bits,
- // for 2^6 == 64 == 8x8 matrix values. If X=abc and Y=def, we make fcebda.
- U32 M = (Y & 1) << 5 | (X & 1) << 4
- | (Y & 2) << 2 | (X & 2) << 1
- | (Y & 4) >> 1 | (X & 4) >> 2;
-
- // Scale that dither to [0,1), then (-0.5,+0.5), here using 63/128 = 0.4921875 as 0.5-epsilon.
- // We want to make sure our dither is less than 0.5 in either direction to keep exact values
- // like 0 and 1 unchanged after rounding.
- F dither = cast(M) * (2/128.0f) - (63/128.0f);
-
- r += *rate*dither;
- g += *rate*dither;
- b += *rate*dither;
-
- r = max(0, min(r, a));
- g = max(0, min(g, a));
- b = max(0, min(b, a));
-}
-
-// load 4 floats from memory, and splat them into r,g,b,a
-STAGE(uniform_color, const SkJumper_UniformColorCtx* c) {
- r = c->r;
- g = c->g;
- b = c->b;
- a = c->a;
-}
-
-// splats opaque-black into r,g,b,a
-STAGE(black_color, Ctx::None) {
- r = g = b = 0.0f;
- a = 1.0f;
-}
-
-STAGE(white_color, Ctx::None) {
- r = g = b = a = 1.0f;
-}
-
-// load registers r,g,b,a from context (mirrors store_rgba)
-STAGE(load_rgba, const float* ptr) {
- r = unaligned_load<F>(ptr + 0*N);
- g = unaligned_load<F>(ptr + 1*N);
- b = unaligned_load<F>(ptr + 2*N);
- a = unaligned_load<F>(ptr + 3*N);
-}
-
-// store registers r,g,b,a into context (mirrors load_rgba)
-STAGE(store_rgba, float* ptr) {
- unaligned_store(ptr + 0*N, r);
- unaligned_store(ptr + 1*N, g);
- unaligned_store(ptr + 2*N, b);
- unaligned_store(ptr + 3*N, a);
-}
-
-// Most blend modes apply the same logic to each channel.
-#define BLEND_MODE(name) \
- SI F name##_channel(F s, F d, F sa, F da); \
- STAGE(name, Ctx::None) { \
- r = name##_channel(r,dr,a,da); \
- g = name##_channel(g,dg,a,da); \
- b = name##_channel(b,db,a,da); \
- a = name##_channel(a,da,a,da); \
- } \
- SI F name##_channel(F s, F d, F sa, F da)
-
-SI F inv(F x) { return 1.0f - x; }
-SI F two(F x) { return x + x; }
-
-
-BLEND_MODE(clear) { return 0; }
-BLEND_MODE(srcatop) { return s*da + d*inv(sa); }
-BLEND_MODE(dstatop) { return d*sa + s*inv(da); }
-BLEND_MODE(srcin) { return s * da; }
-BLEND_MODE(dstin) { return d * sa; }
-BLEND_MODE(srcout) { return s * inv(da); }
-BLEND_MODE(dstout) { return d * inv(sa); }
-BLEND_MODE(srcover) { return mad(d, inv(sa), s); }
-BLEND_MODE(dstover) { return mad(s, inv(da), d); }
-
-BLEND_MODE(modulate) { return s*d; }
-BLEND_MODE(multiply) { return s*inv(da) + d*inv(sa) + s*d; }
-BLEND_MODE(plus_) { return min(s + d, 1.0f); } // We can clamp to either 1 or sa.
-BLEND_MODE(screen) { return s + d - s*d; }
-BLEND_MODE(xor_) { return s*inv(da) + d*inv(sa); }
-#undef BLEND_MODE
-
-// Most other blend modes apply the same logic to colors, and srcover to alpha.
-#define BLEND_MODE(name) \
- SI F name##_channel(F s, F d, F sa, F da); \
- STAGE(name, Ctx::None) { \
- r = name##_channel(r,dr,a,da); \
- g = name##_channel(g,dg,a,da); \
- b = name##_channel(b,db,a,da); \
- a = mad(da, inv(a), a); \
- } \
- SI F name##_channel(F s, F d, F sa, F da)
-
-BLEND_MODE(darken) { return s + d - max(s*da, d*sa) ; }
-BLEND_MODE(lighten) { return s + d - min(s*da, d*sa) ; }
-BLEND_MODE(difference) { return s + d - two(min(s*da, d*sa)); }
-BLEND_MODE(exclusion) { return s + d - two(s*d); }
-
-BLEND_MODE(colorburn) {
- return if_then_else(d == da, d + s*inv(da),
- if_then_else(s == 0, /* s + */ d*inv(sa),
- sa*(da - min(da, (da-d)*sa*rcp(s))) + s*inv(da) + d*inv(sa)));
-}
-BLEND_MODE(colordodge) {
- return if_then_else(d == 0, /* d + */ s*inv(da),
- if_then_else(s == sa, s + d*inv(sa),
- sa*min(da, (d*sa)*rcp(sa - s)) + s*inv(da) + d*inv(sa)));
-}
-BLEND_MODE(hardlight) {
- return s*inv(da) + d*inv(sa)
- + if_then_else(two(s) <= sa, two(s*d), sa*da - two((da-d)*(sa-s)));
-}
-BLEND_MODE(overlay) {
- return s*inv(da) + d*inv(sa)
- + if_then_else(two(d) <= da, two(s*d), sa*da - two((da-d)*(sa-s)));
-}
-
-BLEND_MODE(softlight) {
- F m = if_then_else(da > 0, d / da, 0),
- s2 = two(s),
- m4 = two(two(m));
-
- // The logic forks three ways:
- // 1. dark src?
- // 2. light src, dark dst?
- // 3. light src, light dst?
- F darkSrc = d*(sa + (s2 - sa)*(1.0f - m)), // Used in case 1.
- darkDst = (m4*m4 + m4)*(m - 1.0f) + 7.0f*m, // Used in case 2.
- liteDst = rcp(rsqrt(m)) - m, // Used in case 3.
- liteSrc = d*sa + da*(s2 - sa) * if_then_else(two(two(d)) <= da, darkDst, liteDst); // 2 or 3?
- return s*inv(da) + d*inv(sa) + if_then_else(s2 <= sa, darkSrc, liteSrc); // 1 or (2 or 3)?
-}
-#undef BLEND_MODE
-
-// We're basing our implemenation of non-separable blend modes on
-// https://www.w3.org/TR/compositing-1/#blendingnonseparable.
-// and
-// https://www.khronos.org/registry/OpenGL/specs/es/3.2/es_spec_3.2.pdf
-// They're equivalent, but ES' math has been better simplified.
-//
-// Anything extra we add beyond that is to make the math work with premul inputs.
-
-SI F max(F r, F g, F b) { return max(r, max(g, b)); }
-SI F min(F r, F g, F b) { return min(r, min(g, b)); }
-
-SI F sat(F r, F g, F b) { return max(r,g,b) - min(r,g,b); }
-SI F lum(F r, F g, F b) { return r*0.30f + g*0.59f + b*0.11f; }
-
-SI void set_sat(F* r, F* g, F* b, F s) {
- F mn = min(*r,*g,*b),
- mx = max(*r,*g,*b),
- sat = mx - mn;
-
- // Map min channel to 0, max channel to s, and scale the middle proportionally.
- auto scale = [=](F c) {
- return if_then_else(sat == 0, 0, (c - mn) * s / sat);
- };
- *r = scale(*r);
- *g = scale(*g);
- *b = scale(*b);
-}
-SI void set_lum(F* r, F* g, F* b, F l) {
- F diff = l - lum(*r, *g, *b);
- *r += diff;
- *g += diff;
- *b += diff;
-}
-SI void clip_color(F* r, F* g, F* b, F a) {
- F mn = min(*r, *g, *b),
- mx = max(*r, *g, *b),
- l = lum(*r, *g, *b);
-
- auto clip = [=](F c) {
- c = if_then_else(mn >= 0, c, l + (c - l) * ( l) / (l - mn) );
- c = if_then_else(mx > a, l + (c - l) * (a - l) / (mx - l), c);
- c = max(c, 0); // Sometimes without this we may dip just a little negative.
- return c;
- };
- *r = clip(*r);
- *g = clip(*g);
- *b = clip(*b);
-}
-
-STAGE(hue, Ctx::None) {
- F R = r*a,
- G = g*a,
- B = b*a;
-
- set_sat(&R, &G, &B, sat(dr,dg,db)*a);
- set_lum(&R, &G, &B, lum(dr,dg,db)*a);
- clip_color(&R,&G,&B, a*da);
-
- r = r*inv(da) + dr*inv(a) + R;
- g = g*inv(da) + dg*inv(a) + G;
- b = b*inv(da) + db*inv(a) + B;
- a = a + da - a*da;
-}
-STAGE(saturation, Ctx::None) {
- F R = dr*a,
- G = dg*a,
- B = db*a;
-
- set_sat(&R, &G, &B, sat( r, g, b)*da);
- set_lum(&R, &G, &B, lum(dr,dg,db)* a); // (This is not redundant.)
- clip_color(&R,&G,&B, a*da);
-
- r = r*inv(da) + dr*inv(a) + R;
- g = g*inv(da) + dg*inv(a) + G;
- b = b*inv(da) + db*inv(a) + B;
- a = a + da - a*da;
-}
-STAGE(color, Ctx::None) {
- F R = r*da,
- G = g*da,
- B = b*da;
-
- set_lum(&R, &G, &B, lum(dr,dg,db)*a);
- clip_color(&R,&G,&B, a*da);
-
- r = r*inv(da) + dr*inv(a) + R;
- g = g*inv(da) + dg*inv(a) + G;
- b = b*inv(da) + db*inv(a) + B;
- a = a + da - a*da;
-}
-STAGE(luminosity, Ctx::None) {
- F R = dr*a,
- G = dg*a,
- B = db*a;
-
- set_lum(&R, &G, &B, lum(r,g,b)*da);
- clip_color(&R,&G,&B, a*da);
-
- r = r*inv(da) + dr*inv(a) + R;
- g = g*inv(da) + dg*inv(a) + G;
- b = b*inv(da) + db*inv(a) + B;
- a = a + da - a*da;
-}
-
-STAGE(srcover_rgba_8888, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<uint32_t>(ctx, dx,dy);
-
- U32 dst = load<U32>(ptr, tail);
- dr = cast((dst ) & 0xff);
- dg = cast((dst >> 8) & 0xff);
- db = cast((dst >> 16) & 0xff);
- da = cast((dst >> 24) );
- // {dr,dg,db,da} are in [0,255]
- // { r, g, b, a} are in [0, 1] (but may be out of gamut)
-
- r = mad(dr, inv(a), r*255.0f);
- g = mad(dg, inv(a), g*255.0f);
- b = mad(db, inv(a), b*255.0f);
- a = mad(da, inv(a), a*255.0f);
- // { r, g, b, a} are now in [0,255] (but may be out of gamut)
-
- // to_unorm() clamps back to gamut. Scaling by 1 since we're already 255-biased.
- dst = to_unorm(r, 1, 255)
- | to_unorm(g, 1, 255) << 8
- | to_unorm(b, 1, 255) << 16
- | to_unorm(a, 1, 255) << 24;
- store(ptr, dst, tail);
-}
-
-STAGE(srcover_bgra_8888, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<uint32_t>(ctx, dx,dy);
-
- U32 dst = load<U32>(ptr, tail);
- db = cast((dst ) & 0xff);
- dg = cast((dst >> 8) & 0xff);
- dr = cast((dst >> 16) & 0xff);
- da = cast((dst >> 24) );
- // {dr,dg,db,da} are in [0,255]
- // { r, g, b, a} are in [0, 1] (but may be out of gamut)
-
- r = mad(dr, inv(a), r*255.0f);
- g = mad(dg, inv(a), g*255.0f);
- b = mad(db, inv(a), b*255.0f);
- a = mad(da, inv(a), a*255.0f);
- // { r, g, b, a} are now in [0,255] (but may be out of gamut)
-
- // to_unorm() clamps back to gamut. Scaling by 1 since we're already 255-biased.
- dst = to_unorm(b, 1, 255)
- | to_unorm(g, 1, 255) << 8
- | to_unorm(r, 1, 255) << 16
- | to_unorm(a, 1, 255) << 24;
- store(ptr, dst, tail);
-}
-
-STAGE(clamp_0, Ctx::None) {
- r = max(r, 0);
- g = max(g, 0);
- b = max(b, 0);
- a = max(a, 0);
-}
-
-STAGE(clamp_1, Ctx::None) {
- r = min(r, 1.0f);
- g = min(g, 1.0f);
- b = min(b, 1.0f);
- a = min(a, 1.0f);
-}
-
-STAGE(clamp_a, Ctx::None) {
- a = min(a, 1.0f);
- r = min(r, a);
- g = min(g, a);
- b = min(b, a);
-}
-
-STAGE(clamp_a_dst, Ctx::None) {
- da = min(da, 1.0f);
- dr = min(dr, da);
- dg = min(dg, da);
- db = min(db, da);
-}
-
-STAGE(set_rgb, const float* rgb) {
- r = rgb[0];
- g = rgb[1];
- b = rgb[2];
-}
-STAGE(swap_rb, Ctx::None) {
- auto tmp = r;
- r = b;
- b = tmp;
-}
-STAGE(invert, Ctx::None) {
- r = inv(r);
- g = inv(g);
- b = inv(b);
- a = inv(a);
-}
-
-STAGE(move_src_dst, Ctx::None) {
- dr = r;
- dg = g;
- db = b;
- da = a;
-}
-STAGE(move_dst_src, Ctx::None) {
- r = dr;
- g = dg;
- b = db;
- a = da;
-}
-
-STAGE(premul, Ctx::None) {
- r = r * a;
- g = g * a;
- b = b * a;
-}
-STAGE(premul_dst, Ctx::None) {
- dr = dr * da;
- dg = dg * da;
- db = db * da;
-}
-STAGE(unpremul, Ctx::None) {
- float inf = bit_cast<float>(0x7f800000);
- auto scale = if_then_else(1.0f/a < inf, 1.0f/a, 0);
- r *= scale;
- g *= scale;
- b *= scale;
-}
-
-STAGE(force_opaque , Ctx::None) { a = 1; }
-STAGE(force_opaque_dst, Ctx::None) { da = 1; }
-
-SI F from_srgb(F s) {
- auto lo = s * (1/12.92f);
- auto hi = mad(s*s, mad(s, 0.3000f, 0.6975f), 0.0025f);
- return if_then_else(s < 0.055f, lo, hi);
-}
-
-STAGE(from_srgb, Ctx::None) {
- r = from_srgb(r);
- g = from_srgb(g);
- b = from_srgb(b);
-}
-STAGE(from_srgb_dst, Ctx::None) {
- dr = from_srgb(dr);
- dg = from_srgb(dg);
- db = from_srgb(db);
-}
-STAGE(to_srgb, Ctx::None) {
- auto fn = [&](F l) {
- // We tweak c and d for each instruction set to make sure fn(1) is exactly 1.
- #if defined(JUMPER_IS_AVX512)
- const float c = 1.130026340485f,
- d = 0.141387879848f;
- #elif defined(JUMPER_IS_SSE2) || defined(JUMPER_IS_SSE41) || \
- defined(JUMPER_IS_AVX ) || defined(JUMPER_IS_HSW )
- const float c = 1.130048394203f,
- d = 0.141357362270f;
- #elif defined(JUMPER_IS_NEON)
- const float c = 1.129999995232f,
- d = 0.141381442547f;
- #else
- const float c = 1.129999995232f,
- d = 0.141377761960f;
- #endif
- F t = rsqrt(l);
- auto lo = l * 12.92f;
- auto hi = mad(t, mad(t, -0.0024542345f, 0.013832027f), c)
- * rcp(d + t);
- return if_then_else(l < 0.00465985f, lo, hi);
- };
- r = fn(r);
- g = fn(g);
- b = fn(b);
-}
-
-STAGE(rgb_to_hsl, Ctx::None) {
- F mx = max(r,g,b),
- mn = min(r,g,b),
- d = mx - mn,
- d_rcp = 1.0f / d;
-
- F h = (1/6.0f) *
- if_then_else(mx == mn, 0,
- if_then_else(mx == r, (g-b)*d_rcp + if_then_else(g < b, 6.0f, 0),
- if_then_else(mx == g, (b-r)*d_rcp + 2.0f,
- (r-g)*d_rcp + 4.0f)));
-
- F l = (mx + mn) * 0.5f;
- F s = if_then_else(mx == mn, 0,
- d / if_then_else(l > 0.5f, 2.0f-mx-mn, mx+mn));
-
- r = h;
- g = s;
- b = l;
-}
-STAGE(hsl_to_rgb, Ctx::None) {
- F h = r,
- s = g,
- l = b;
-
- F q = l + if_then_else(l >= 0.5f, s - l*s, l*s),
- p = 2.0f*l - q;
-
- auto hue_to_rgb = [&](F t) {
- t = fract(t);
-
- F r = p;
- r = if_then_else(t >= 4/6.0f, r, p + (q-p)*(4.0f - 6.0f*t));
- r = if_then_else(t >= 3/6.0f, r, q);
- r = if_then_else(t >= 1/6.0f, r, p + (q-p)*( 6.0f*t));
- return r;
- };
-
- r = if_then_else(s == 0, l, hue_to_rgb(h + (1/3.0f)));
- g = if_then_else(s == 0, l, hue_to_rgb(h ));
- b = if_then_else(s == 0, l, hue_to_rgb(h - (1/3.0f)));
-}
-
-// Derive alpha's coverage from rgb coverage and the values of src and dst alpha.
-SI F alpha_coverage_from_rgb_coverage(F a, F da, F cr, F cg, F cb) {
- return if_then_else(a < da, min(cr,cg,cb)
- , max(cr,cg,cb));
-}
-
-STAGE(scale_1_float, const float* c) {
- r = r * *c;
- g = g * *c;
- b = b * *c;
- a = a * *c;
-}
-STAGE(scale_u8, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint8_t>(ctx, dx,dy);
-
- auto scales = load<U8>(ptr, tail);
- auto c = from_byte(scales);
-
- r = r * c;
- g = g * c;
- b = b * c;
- a = a * c;
-}
-STAGE(scale_565, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint16_t>(ctx, dx,dy);
-
- F cr,cg,cb;
- from_565(load<U16>(ptr, tail), &cr, &cg, &cb);
-
- F ca = alpha_coverage_from_rgb_coverage(a,da, cr,cg,cb);
-
- r = r * cr;
- g = g * cg;
- b = b * cb;
- a = a * ca;
-}
-
-SI F lerp(F from, F to, F t) {
- return mad(to-from, t, from);
-}
-
-STAGE(lerp_1_float, const float* c) {
- r = lerp(dr, r, *c);
- g = lerp(dg, g, *c);
- b = lerp(db, b, *c);
- a = lerp(da, a, *c);
-}
-STAGE(lerp_u8, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint8_t>(ctx, dx,dy);
-
- auto scales = load<U8>(ptr, tail);
- auto c = from_byte(scales);
-
- r = lerp(dr, r, c);
- g = lerp(dg, g, c);
- b = lerp(db, b, c);
- a = lerp(da, a, c);
-}
-STAGE(lerp_565, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint16_t>(ctx, dx,dy);
-
- F cr,cg,cb;
- from_565(load<U16>(ptr, tail), &cr, &cg, &cb);
-
- F ca = alpha_coverage_from_rgb_coverage(a,da, cr,cg,cb);
-
- r = lerp(dr, r, cr);
- g = lerp(dg, g, cg);
- b = lerp(db, b, cb);
- a = lerp(da, a, ca);
-}
-
-STAGE(load_tables, const SkJumper_LoadTablesCtx* c) {
- auto px = load<U32>((const uint32_t*)c->src + dx, tail);
- r = gather(c->r, (px ) & 0xff);
- g = gather(c->g, (px >> 8) & 0xff);
- b = gather(c->b, (px >> 16) & 0xff);
- a = cast( (px >> 24)) * (1/255.0f);
-}
-STAGE(load_tables_u16_be, const SkJumper_LoadTablesCtx* c) {
- auto ptr = (const uint16_t*)c->src + 4*dx;
-
- U16 R,G,B,A;
- load4(ptr, tail, &R,&G,&B,&A);
-
- // c->src is big-endian, so & 0xff grabs the 8 most signficant bits.
- r = gather(c->r, expand(R) & 0xff);
- g = gather(c->g, expand(G) & 0xff);
- b = gather(c->b, expand(B) & 0xff);
- a = (1/65535.0f) * cast(expand(bswap(A)));
-}
-STAGE(load_tables_rgb_u16_be, const SkJumper_LoadTablesCtx* c) {
- auto ptr = (const uint16_t*)c->src + 3*dx;
-
- U16 R,G,B;
- load3(ptr, tail, &R,&G,&B);
-
- // c->src is big-endian, so & 0xff grabs the 8 most signficant bits.
- r = gather(c->r, expand(R) & 0xff);
- g = gather(c->g, expand(G) & 0xff);
- b = gather(c->b, expand(B) & 0xff);
- a = 1.0f;
-}
-
-STAGE(byte_tables, const void* ctx) { // TODO: rename Tables SkJumper_ByteTablesCtx
- struct Tables { const uint8_t *r, *g, *b, *a; };
- auto tables = (const Tables*)ctx;
-
- r = from_byte(gather(tables->r, to_unorm(r, 255)));
- g = from_byte(gather(tables->g, to_unorm(g, 255)));
- b = from_byte(gather(tables->b, to_unorm(b, 255)));
- a = from_byte(gather(tables->a, to_unorm(a, 255)));
-}
-
-STAGE(byte_tables_rgb, const SkJumper_ByteTablesRGBCtx* ctx) {
- int scale = ctx->n - 1;
- r = from_byte(gather(ctx->r, to_unorm(r, scale)));
- g = from_byte(gather(ctx->g, to_unorm(g, scale)));
- b = from_byte(gather(ctx->b, to_unorm(b, scale)));
-}
-
-SI F table(F v, const SkJumper_TableCtx* ctx) {
- return gather(ctx->table, to_unorm(v, ctx->size - 1));
-}
-STAGE(table_r, const SkJumper_TableCtx* ctx) { r = table(r, ctx); }
-STAGE(table_g, const SkJumper_TableCtx* ctx) { g = table(g, ctx); }
-STAGE(table_b, const SkJumper_TableCtx* ctx) { b = table(b, ctx); }
-STAGE(table_a, const SkJumper_TableCtx* ctx) { a = table(a, ctx); }
-
-SI F parametric(F v, const SkJumper_ParametricTransferFunction* ctx) {
- F r = if_then_else(v <= ctx->D, mad(ctx->C, v, ctx->F)
- , approx_powf(mad(ctx->A, v, ctx->B), ctx->G) + ctx->E);
- return min(max(r, 0), 1.0f); // Clamp to [0,1], with argument order mattering to handle NaN.
-}
-STAGE(parametric_r, const SkJumper_ParametricTransferFunction* ctx) { r = parametric(r, ctx); }
-STAGE(parametric_g, const SkJumper_ParametricTransferFunction* ctx) { g = parametric(g, ctx); }
-STAGE(parametric_b, const SkJumper_ParametricTransferFunction* ctx) { b = parametric(b, ctx); }
-STAGE(parametric_a, const SkJumper_ParametricTransferFunction* ctx) { a = parametric(a, ctx); }
-
-STAGE(gamma, const float* G) {
- r = approx_powf(r, *G);
- g = approx_powf(g, *G);
- b = approx_powf(b, *G);
-}
-STAGE(gamma_dst, const float* G) {
- dr = approx_powf(dr, *G);
- dg = approx_powf(dg, *G);
- db = approx_powf(db, *G);
-}
-
-STAGE(lab_to_xyz, Ctx::None) {
- F L = r * 100.0f,
- A = g * 255.0f - 128.0f,
- B = b * 255.0f - 128.0f;
-
- F Y = (L + 16.0f) * (1/116.0f),
- X = Y + A*(1/500.0f),
- Z = Y - B*(1/200.0f);
-
- X = if_then_else(X*X*X > 0.008856f, X*X*X, (X - (16/116.0f)) * (1/7.787f));
- Y = if_then_else(Y*Y*Y > 0.008856f, Y*Y*Y, (Y - (16/116.0f)) * (1/7.787f));
- Z = if_then_else(Z*Z*Z > 0.008856f, Z*Z*Z, (Z - (16/116.0f)) * (1/7.787f));
-
- // Adjust to D50 illuminant.
- r = X * 0.96422f;
- g = Y ;
- b = Z * 0.82521f;
-}
-
-STAGE(load_a8, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint8_t>(ctx, dx,dy);
-
- r = g = b = 0.0f;
- a = from_byte(load<U8>(ptr, tail));
-}
-STAGE(load_a8_dst, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint8_t>(ctx, dx,dy);
-
- dr = dg = db = 0.0f;
- da = from_byte(load<U8>(ptr, tail));
-}
-STAGE(gather_a8, const SkJumper_GatherCtx* ctx) {
- const uint8_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, r,g);
- r = g = b = 0.0f;
- a = from_byte(gather(ptr, ix));
-}
-STAGE(store_a8, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<uint8_t>(ctx, dx,dy);
-
- U8 packed = pack(pack(to_unorm(a, 255)));
- store(ptr, packed, tail);
-}
-
-STAGE(load_g8, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint8_t>(ctx, dx,dy);
-
- r = g = b = from_byte(load<U8>(ptr, tail));
- a = 1.0f;
-}
-STAGE(load_g8_dst, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint8_t>(ctx, dx,dy);
-
- dr = dg = db = from_byte(load<U8>(ptr, tail));
- da = 1.0f;
-}
-STAGE(gather_g8, const SkJumper_GatherCtx* ctx) {
- const uint8_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, r,g);
- r = g = b = from_byte(gather(ptr, ix));
- a = 1.0f;
-}
-
-STAGE(load_565, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint16_t>(ctx, dx,dy);
-
- from_565(load<U16>(ptr, tail), &r,&g,&b);
- a = 1.0f;
-}
-STAGE(load_565_dst, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint16_t>(ctx, dx,dy);
-
- from_565(load<U16>(ptr, tail), &dr,&dg,&db);
- da = 1.0f;
-}
-STAGE(gather_565, const SkJumper_GatherCtx* ctx) {
- const uint16_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, r,g);
- from_565(gather(ptr, ix), &r,&g,&b);
- a = 1.0f;
-}
-STAGE(store_565, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<uint16_t>(ctx, dx,dy);
-
- U16 px = pack( to_unorm(r, 31) << 11
- | to_unorm(g, 63) << 5
- | to_unorm(b, 31) );
- store(ptr, px, tail);
-}
-
-STAGE(load_4444, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint16_t>(ctx, dx,dy);
- from_4444(load<U16>(ptr, tail), &r,&g,&b,&a);
-}
-STAGE(load_4444_dst, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint16_t>(ctx, dx,dy);
- from_4444(load<U16>(ptr, tail), &dr,&dg,&db,&da);
-}
-STAGE(gather_4444, const SkJumper_GatherCtx* ctx) {
- const uint16_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, r,g);
- from_4444(gather(ptr, ix), &r,&g,&b,&a);
-}
-STAGE(store_4444, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<uint16_t>(ctx, dx,dy);
- U16 px = pack( to_unorm(r, 15) << 12
- | to_unorm(g, 15) << 8
- | to_unorm(b, 15) << 4
- | to_unorm(a, 15) );
- store(ptr, px, tail);
-}
-
-STAGE(load_8888, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint32_t>(ctx, dx,dy);
- from_8888(load<U32>(ptr, tail), &r,&g,&b,&a);
-}
-STAGE(load_8888_dst, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint32_t>(ctx, dx,dy);
- from_8888(load<U32>(ptr, tail), &dr,&dg,&db,&da);
-}
-STAGE(gather_8888, const SkJumper_GatherCtx* ctx) {
- const uint32_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, r,g);
- from_8888(gather(ptr, ix), &r,&g,&b,&a);
-}
-STAGE(store_8888, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<uint32_t>(ctx, dx,dy);
-
- U32 px = to_unorm(r, 255)
- | to_unorm(g, 255) << 8
- | to_unorm(b, 255) << 16
- | to_unorm(a, 255) << 24;
- store(ptr, px, tail);
-}
-
-STAGE(load_bgra, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint32_t>(ctx, dx,dy);
- from_8888(load<U32>(ptr, tail), &b,&g,&r,&a);
-}
-STAGE(load_bgra_dst, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint32_t>(ctx, dx,dy);
- from_8888(load<U32>(ptr, tail), &db,&dg,&dr,&da);
-}
-STAGE(gather_bgra, const SkJumper_GatherCtx* ctx) {
- const uint32_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, r,g);
- from_8888(gather(ptr, ix), &b,&g,&r,&a);
-}
-STAGE(store_bgra, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<uint32_t>(ctx, dx,dy);
-
- U32 px = to_unorm(b, 255)
- | to_unorm(g, 255) << 8
- | to_unorm(r, 255) << 16
- | to_unorm(a, 255) << 24;
- store(ptr, px, tail);
-}
-
-STAGE(load_1010102, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint32_t>(ctx, dx,dy);
- from_1010102(load<U32>(ptr, tail), &r,&g,&b,&a);
-}
-STAGE(load_1010102_dst, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint32_t>(ctx, dx,dy);
- from_1010102(load<U32>(ptr, tail), &dr,&dg,&db,&da);
-}
-STAGE(gather_1010102, const SkJumper_GatherCtx* ctx) {
- const uint32_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, r,g);
- from_1010102(gather(ptr, ix), &r,&g,&b,&a);
-}
-STAGE(store_1010102, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<uint32_t>(ctx, dx,dy);
-
- U32 px = to_unorm(r, 1023)
- | to_unorm(g, 1023) << 10
- | to_unorm(b, 1023) << 20
- | to_unorm(a, 3) << 30;
- store(ptr, px, tail);
-}
-
-STAGE(load_f16, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint64_t>(ctx, dx,dy);
-
- U16 R,G,B,A;
- load4((const uint16_t*)ptr,tail, &R,&G,&B,&A);
- r = from_half(R);
- g = from_half(G);
- b = from_half(B);
- a = from_half(A);
-}
-STAGE(load_f16_dst, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint64_t>(ctx, dx,dy);
-
- U16 R,G,B,A;
- load4((const uint16_t*)ptr,tail, &R,&G,&B,&A);
- dr = from_half(R);
- dg = from_half(G);
- db = from_half(B);
- da = from_half(A);
-}
-STAGE(gather_f16, const SkJumper_GatherCtx* ctx) {
- const uint64_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, r,g);
- auto px = gather(ptr, ix);
-
- U16 R,G,B,A;
- load4((const uint16_t*)&px,0, &R,&G,&B,&A);
- r = from_half(R);
- g = from_half(G);
- b = from_half(B);
- a = from_half(A);
-}
-STAGE(store_f16, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<uint64_t>(ctx, dx,dy);
- store4((uint16_t*)ptr,tail, to_half(r)
- , to_half(g)
- , to_half(b)
- , to_half(a));
-}
-
-STAGE(load_u16_be, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint16_t>(ctx, 4*dx,dy);
-
- U16 R,G,B,A;
- load4(ptr,tail, &R,&G,&B,&A);
-
- r = (1/65535.0f) * cast(expand(bswap(R)));
- g = (1/65535.0f) * cast(expand(bswap(G)));
- b = (1/65535.0f) * cast(expand(bswap(B)));
- a = (1/65535.0f) * cast(expand(bswap(A)));
-}
-STAGE(load_rgb_u16_be, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const uint16_t>(ctx, 3*dx,dy);
-
- U16 R,G,B;
- load3(ptr,tail, &R,&G,&B);
-
- r = (1/65535.0f) * cast(expand(bswap(R)));
- g = (1/65535.0f) * cast(expand(bswap(G)));
- b = (1/65535.0f) * cast(expand(bswap(B)));
- a = 1.0f;
-}
-STAGE(store_u16_be, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<uint16_t>(ctx, 4*dx,dy);
-
- U16 R = bswap(pack(to_unorm(r, 65535))),
- G = bswap(pack(to_unorm(g, 65535))),
- B = bswap(pack(to_unorm(b, 65535))),
- A = bswap(pack(to_unorm(a, 65535)));
-
- store4(ptr,tail, R,G,B,A);
-}
-
-STAGE(load_f32, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const float>(ctx, 4*dx,dy);
- load4(ptr,tail, &r,&g,&b,&a);
-}
-STAGE(load_f32_dst, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<const float>(ctx, 4*dx,dy);
- load4(ptr,tail, &dr,&dg,&db,&da);
-}
-STAGE(store_f32, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<float>(ctx, 4*dx,dy);
- store4(ptr,tail, r,g,b,a);
-}
-
-SI F exclusive_repeat(F v, const SkJumper_TileCtx* ctx) {
- return v - floor_(v*ctx->invScale)*ctx->scale;
-}
-SI F exclusive_mirror(F v, const SkJumper_TileCtx* ctx) {
- auto limit = ctx->scale;
- auto invLimit = ctx->invScale;
- return abs_( (v-limit) - (limit+limit)*floor_((v-limit)*(invLimit*0.5f)) - limit );
-}
-// Tile x or y to [0,limit) == [0,limit - 1 ulp] (think, sampling from images).
-// The gather stages will hard clamp the output of these stages to [0,limit)...
-// we just need to do the basic repeat or mirroring.
-STAGE(repeat_x, const SkJumper_TileCtx* ctx) { r = exclusive_repeat(r, ctx); }
-STAGE(repeat_y, const SkJumper_TileCtx* ctx) { g = exclusive_repeat(g, ctx); }
-STAGE(mirror_x, const SkJumper_TileCtx* ctx) { r = exclusive_mirror(r, ctx); }
-STAGE(mirror_y, const SkJumper_TileCtx* ctx) { g = exclusive_mirror(g, ctx); }
-
-// Clamp x to [0,1], both sides inclusive (think, gradients).
-// Even repeat and mirror funnel through a clamp to handle bad inputs like +Inf, NaN.
-SI F clamp_01(F v) { return min(max(0, v), 1); }
-
-STAGE( clamp_x_1, Ctx::None) { r = clamp_01(r); }
-STAGE(repeat_x_1, Ctx::None) { r = clamp_01(r - floor_(r)); }
-STAGE(mirror_x_1, Ctx::None) { r = clamp_01(abs_( (r-1.0f) - two(floor_((r-1.0f)*0.5f)) - 1.0f )); }
-
-// Decal stores a 32bit mask after checking the coordinate (x and/or y) against its domain:
-// mask == 0x00000000 if the coordinate(s) are out of bounds
-// mask == 0xFFFFFFFF if the coordinate(s) are in bounds
-// After the gather stage, the r,g,b,a values are AND'd with this mask, setting them to 0
-// if either of the coordinates were out of bounds.
-
-STAGE(decal_x, SkJumper_DecalTileCtx* ctx) {
- auto w = ctx->limit_x;
- unaligned_store(ctx->mask, cond_to_mask((0 <= r) & (r < w)));
-}
-STAGE(decal_y, SkJumper_DecalTileCtx* ctx) {
- auto h = ctx->limit_y;
- unaligned_store(ctx->mask, cond_to_mask((0 <= g) & (g < h)));
-}
-STAGE(decal_x_and_y, SkJumper_DecalTileCtx* ctx) {
- auto w = ctx->limit_x;
- auto h = ctx->limit_y;
- unaligned_store(ctx->mask,
- cond_to_mask((0 <= r) & (r < w) & (0 <= g) & (g < h)));
-}
-STAGE(check_decal_mask, SkJumper_DecalTileCtx* ctx) {
- auto mask = unaligned_load<U32>(ctx->mask);
- r = bit_cast<F>( bit_cast<U32>(r) & mask );
- g = bit_cast<F>( bit_cast<U32>(g) & mask );
- b = bit_cast<F>( bit_cast<U32>(b) & mask );
- a = bit_cast<F>( bit_cast<U32>(a) & mask );
-}
-
-STAGE(luminance_to_alpha, Ctx::None) {
- a = r*0.2126f + g*0.7152f + b*0.0722f;
- r = g = b = 0;
-}
-
-STAGE(matrix_translate, const float* m) {
- r += m[0];
- g += m[1];
-}
-STAGE(matrix_scale_translate, const float* m) {
- r = mad(r,m[0], m[2]);
- g = mad(g,m[1], m[3]);
-}
-STAGE(matrix_2x3, const float* m) {
- auto R = mad(r,m[0], mad(g,m[2], m[4])),
- G = mad(r,m[1], mad(g,m[3], m[5]));
- r = R;
- g = G;
-}
-STAGE(matrix_3x4, const float* m) {
- auto R = mad(r,m[0], mad(g,m[3], mad(b,m[6], m[ 9]))),
- G = mad(r,m[1], mad(g,m[4], mad(b,m[7], m[10]))),
- B = mad(r,m[2], mad(g,m[5], mad(b,m[8], m[11])));
- r = R;
- g = G;
- b = B;
-}
-STAGE(matrix_4x5, const float* m) {
- auto R = mad(r,m[0], mad(g,m[4], mad(b,m[ 8], mad(a,m[12], m[16])))),
- G = mad(r,m[1], mad(g,m[5], mad(b,m[ 9], mad(a,m[13], m[17])))),
- B = mad(r,m[2], mad(g,m[6], mad(b,m[10], mad(a,m[14], m[18])))),
- A = mad(r,m[3], mad(g,m[7], mad(b,m[11], mad(a,m[15], m[19]))));
- r = R;
- g = G;
- b = B;
- a = A;
-}
-STAGE(matrix_4x3, const float* m) {
- auto X = r,
- Y = g;
-
- r = mad(X, m[0], mad(Y, m[4], m[ 8]));
- g = mad(X, m[1], mad(Y, m[5], m[ 9]));
- b = mad(X, m[2], mad(Y, m[6], m[10]));
- a = mad(X, m[3], mad(Y, m[7], m[11]));
-}
-STAGE(matrix_perspective, const float* m) {
- // N.B. Unlike the other matrix_ stages, this matrix is row-major.
- auto R = mad(r,m[0], mad(g,m[1], m[2])),
- G = mad(r,m[3], mad(g,m[4], m[5])),
- Z = mad(r,m[6], mad(g,m[7], m[8]));
- r = R * rcp(Z);
- g = G * rcp(Z);
-}
-
-SI void gradient_lookup(const SkJumper_GradientCtx* c, U32 idx, F t,
- F* r, F* g, F* b, F* a) {
- F fr, br, fg, bg, fb, bb, fa, ba;
-#if defined(JUMPER_IS_HSW) || defined(JUMPER_IS_AVX512)
- if (c->stopCount <=8) {
- fr = _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->fs[0]), idx);
- br = _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->bs[0]), idx);
- fg = _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->fs[1]), idx);
- bg = _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->bs[1]), idx);
- fb = _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->fs[2]), idx);
- bb = _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->bs[2]), idx);
- fa = _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->fs[3]), idx);
- ba = _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->bs[3]), idx);
- } else
-#endif
- {
- fr = gather(c->fs[0], idx);
- br = gather(c->bs[0], idx);
- fg = gather(c->fs[1], idx);
- bg = gather(c->bs[1], idx);
- fb = gather(c->fs[2], idx);
- bb = gather(c->bs[2], idx);
- fa = gather(c->fs[3], idx);
- ba = gather(c->bs[3], idx);
- }
-
- *r = mad(t, fr, br);
- *g = mad(t, fg, bg);
- *b = mad(t, fb, bb);
- *a = mad(t, fa, ba);
-}
-
-STAGE(evenly_spaced_gradient, const SkJumper_GradientCtx* c) {
- auto t = r;
- auto idx = trunc_(t * (c->stopCount-1));
- gradient_lookup(c, idx, t, &r, &g, &b, &a);
-}
-
-STAGE(gradient, const SkJumper_GradientCtx* c) {
- auto t = r;
- U32 idx = 0;
-
- // N.B. The loop starts at 1 because idx 0 is the color to use before the first stop.
- for (size_t i = 1; i < c->stopCount; i++) {
- idx += if_then_else(t >= c->ts[i], U32(1), U32(0));
- }
-
- gradient_lookup(c, idx, t, &r, &g, &b, &a);
-}
-
-STAGE(evenly_spaced_2_stop_gradient, const void* ctx) {
- // TODO: Rename Ctx SkJumper_EvenlySpaced2StopGradientCtx.
- struct Ctx { float f[4], b[4]; };
- auto c = (const Ctx*)ctx;
-
- auto t = r;
- r = mad(t, c->f[0], c->b[0]);
- g = mad(t, c->f[1], c->b[1]);
- b = mad(t, c->f[2], c->b[2]);
- a = mad(t, c->f[3], c->b[3]);
-}
-
-STAGE(xy_to_unit_angle, Ctx::None) {
- F X = r,
- Y = g;
- F xabs = abs_(X),
- yabs = abs_(Y);
-
- F slope = min(xabs, yabs)/max(xabs, yabs);
- F s = slope * slope;
-
- // Use a 7th degree polynomial to approximate atan.
- // This was generated using sollya.gforge.inria.fr.
- // A float optimized polynomial was generated using the following command.
- // P1 = fpminimax((1/(2*Pi))*atan(x),[|1,3,5,7|],[|24...|],[2^(-40),1],relative);
- F phi = slope
- * (0.15912117063999176025390625f + s
- * (-5.185396969318389892578125e-2f + s
- * (2.476101927459239959716796875e-2f + s
- * (-7.0547382347285747528076171875e-3f))));
-
- phi = if_then_else(xabs < yabs, 1.0f/4.0f - phi, phi);
- phi = if_then_else(X < 0.0f , 1.0f/2.0f - phi, phi);
- phi = if_then_else(Y < 0.0f , 1.0f - phi , phi);
- phi = if_then_else(phi != phi , 0 , phi); // Check for NaN.
- r = phi;
-}
-
-STAGE(xy_to_radius, Ctx::None) {
- F X2 = r * r,
- Y2 = g * g;
- r = sqrt_(X2 + Y2);
-}
-
-// Please see https://skia.org/dev/design/conical for how our 2pt conical shader works.
-
-STAGE(negate_x, Ctx::None) { r = -r; }
-
-STAGE(xy_to_2pt_conical_strip, const SkJumper_2PtConicalCtx* ctx) {
- F x = r, y = g, &t = r;
- t = x + sqrt_(ctx->fP0 - y*y); // ctx->fP0 = r0 * r0
-}
-
-STAGE(xy_to_2pt_conical_focal_on_circle, Ctx::None) {
- F x = r, y = g, &t = r;
- t = x + y*y / x; // (x^2 + y^2) / x
-}
-
-STAGE(xy_to_2pt_conical_well_behaved, const SkJumper_2PtConicalCtx* ctx) {
- F x = r, y = g, &t = r;
- t = sqrt_(x*x + y*y) - x * ctx->fP0; // ctx->fP0 = 1/r1
-}
-
-STAGE(xy_to_2pt_conical_greater, const SkJumper_2PtConicalCtx* ctx) {
- F x = r, y = g, &t = r;
- t = sqrt_(x*x - y*y) - x * ctx->fP0; // ctx->fP0 = 1/r1
-}
-
-STAGE(xy_to_2pt_conical_smaller, const SkJumper_2PtConicalCtx* ctx) {
- F x = r, y = g, &t = r;
- t = -sqrt_(x*x - y*y) - x * ctx->fP0; // ctx->fP0 = 1/r1
-}
-
-STAGE(alter_2pt_conical_compensate_focal, const SkJumper_2PtConicalCtx* ctx) {
- F& t = r;
- t = t + ctx->fP1; // ctx->fP1 = f
-}
-
-STAGE(alter_2pt_conical_unswap, Ctx::None) {
- F& t = r;
- t = 1 - t;
-}
-
-STAGE(mask_2pt_conical_nan, SkJumper_2PtConicalCtx* c) {
- F& t = r;
- auto is_degenerate = (t != t); // NaN
- t = if_then_else(is_degenerate, F(0), t);
- unaligned_store(&c->fMask, cond_to_mask(!is_degenerate));
-}
-
-STAGE(mask_2pt_conical_degenerates, SkJumper_2PtConicalCtx* c) {
- F& t = r;
- auto is_degenerate = (t <= 0) | (t != t);
- t = if_then_else(is_degenerate, F(0), t);
- unaligned_store(&c->fMask, cond_to_mask(!is_degenerate));
-}
-
-STAGE(apply_vector_mask, const uint32_t* ctx) {
- const U32 mask = unaligned_load<U32>(ctx);
- r = bit_cast<F>(bit_cast<U32>(r) & mask);
- g = bit_cast<F>(bit_cast<U32>(g) & mask);
- b = bit_cast<F>(bit_cast<U32>(b) & mask);
- a = bit_cast<F>(bit_cast<U32>(a) & mask);
-}
-
-STAGE(save_xy, SkJumper_SamplerCtx* c) {
- // Whether bilinear or bicubic, all sample points are at the same fractional offset (fx,fy).
- // They're either the 4 corners of a logical 1x1 pixel or the 16 corners of a 3x3 grid
- // surrounding (x,y) at (0.5,0.5) off-center.
- F fx = fract(r + 0.5f),
- fy = fract(g + 0.5f);
-
- // Samplers will need to load x and fx, or y and fy.
- unaligned_store(c->x, r);
- unaligned_store(c->y, g);
- unaligned_store(c->fx, fx);
- unaligned_store(c->fy, fy);
-}
-
-STAGE(accumulate, const SkJumper_SamplerCtx* c) {
- // Bilinear and bicubic filters are both separable, so we produce independent contributions
- // from x and y, multiplying them together here to get each pixel's total scale factor.
- auto scale = unaligned_load<F>(c->scalex)
- * unaligned_load<F>(c->scaley);
- dr = mad(scale, r, dr);
- dg = mad(scale, g, dg);
- db = mad(scale, b, db);
- da = mad(scale, a, da);
-}
-
-// In bilinear interpolation, the 4 pixels at +/- 0.5 offsets from the sample pixel center
-// are combined in direct proportion to their area overlapping that logical query pixel.
-// At positive offsets, the x-axis contribution to that rectangle is fx, or (1-fx) at negative x.
-// The y-axis is symmetric.
-
-template <int kScale>
-SI void bilinear_x(SkJumper_SamplerCtx* ctx, F* x) {
- *x = unaligned_load<F>(ctx->x) + (kScale * 0.5f);
- F fx = unaligned_load<F>(ctx->fx);
-
- F scalex;
- if (kScale == -1) { scalex = 1.0f - fx; }
- if (kScale == +1) { scalex = fx; }
- unaligned_store(ctx->scalex, scalex);
-}
-template <int kScale>
-SI void bilinear_y(SkJumper_SamplerCtx* ctx, F* y) {
- *y = unaligned_load<F>(ctx->y) + (kScale * 0.5f);
- F fy = unaligned_load<F>(ctx->fy);
-
- F scaley;
- if (kScale == -1) { scaley = 1.0f - fy; }
- if (kScale == +1) { scaley = fy; }
- unaligned_store(ctx->scaley, scaley);
-}
-
-STAGE(bilinear_nx, SkJumper_SamplerCtx* ctx) { bilinear_x<-1>(ctx, &r); }
-STAGE(bilinear_px, SkJumper_SamplerCtx* ctx) { bilinear_x<+1>(ctx, &r); }
-STAGE(bilinear_ny, SkJumper_SamplerCtx* ctx) { bilinear_y<-1>(ctx, &g); }
-STAGE(bilinear_py, SkJumper_SamplerCtx* ctx) { bilinear_y<+1>(ctx, &g); }
-
-
-// In bicubic interpolation, the 16 pixels and +/- 0.5 and +/- 1.5 offsets from the sample
-// pixel center are combined with a non-uniform cubic filter, with higher values near the center.
-//
-// We break this function into two parts, one for near 0.5 offsets and one for far 1.5 offsets.
-// See GrCubicEffect for details of this particular filter.
-
-SI F bicubic_near(F t) {
- // 1/18 + 9/18t + 27/18t^2 - 21/18t^3 == t ( t ( -21/18t + 27/18) + 9/18) + 1/18
- return mad(t, mad(t, mad((-21/18.0f), t, (27/18.0f)), (9/18.0f)), (1/18.0f));
-}
-SI F bicubic_far(F t) {
- // 0/18 + 0/18*t - 6/18t^2 + 7/18t^3 == t^2 (7/18t - 6/18)
- return (t*t)*mad((7/18.0f), t, (-6/18.0f));
-}
-
-template <int kScale>
-SI void bicubic_x(SkJumper_SamplerCtx* ctx, F* x) {
- *x = unaligned_load<F>(ctx->x) + (kScale * 0.5f);
- F fx = unaligned_load<F>(ctx->fx);
-
- F scalex;
- if (kScale == -3) { scalex = bicubic_far (1.0f - fx); }
- if (kScale == -1) { scalex = bicubic_near(1.0f - fx); }
- if (kScale == +1) { scalex = bicubic_near( fx); }
- if (kScale == +3) { scalex = bicubic_far ( fx); }
- unaligned_store(ctx->scalex, scalex);
-}
-template <int kScale>
-SI void bicubic_y(SkJumper_SamplerCtx* ctx, F* y) {
- *y = unaligned_load<F>(ctx->y) + (kScale * 0.5f);
- F fy = unaligned_load<F>(ctx->fy);
-
- F scaley;
- if (kScale == -3) { scaley = bicubic_far (1.0f - fy); }
- if (kScale == -1) { scaley = bicubic_near(1.0f - fy); }
- if (kScale == +1) { scaley = bicubic_near( fy); }
- if (kScale == +3) { scaley = bicubic_far ( fy); }
- unaligned_store(ctx->scaley, scaley);
-}
-
-STAGE(bicubic_n3x, SkJumper_SamplerCtx* ctx) { bicubic_x<-3>(ctx, &r); }
-STAGE(bicubic_n1x, SkJumper_SamplerCtx* ctx) { bicubic_x<-1>(ctx, &r); }
-STAGE(bicubic_p1x, SkJumper_SamplerCtx* ctx) { bicubic_x<+1>(ctx, &r); }
-STAGE(bicubic_p3x, SkJumper_SamplerCtx* ctx) { bicubic_x<+3>(ctx, &r); }
-
-STAGE(bicubic_n3y, SkJumper_SamplerCtx* ctx) { bicubic_y<-3>(ctx, &g); }
-STAGE(bicubic_n1y, SkJumper_SamplerCtx* ctx) { bicubic_y<-1>(ctx, &g); }
-STAGE(bicubic_p1y, SkJumper_SamplerCtx* ctx) { bicubic_y<+1>(ctx, &g); }
-STAGE(bicubic_p3y, SkJumper_SamplerCtx* ctx) { bicubic_y<+3>(ctx, &g); }
-
-STAGE(callback, SkJumper_CallbackCtx* c) {
- store4(c->rgba,0, r,g,b,a);
- c->fn(c, tail ? tail : N);
- load4(c->read_from,0, &r,&g,&b,&a);
-}
-
-// Our general strategy is to recursively interpolate each dimension,
-// accumulating the index to sample at, and our current pixel stride to help accumulate the index.
-template <int dim>
-SI void color_lookup_table(const SkJumper_ColorLookupTableCtx* ctx,
- F& r, F& g, F& b, F a, U32 index, U32 stride) {
- // We'd logically like to sample this dimension at x.
- int limit = ctx->limits[dim-1];
- F src;
- switch(dim) {
- case 1: src = r; break;
- case 2: src = g; break;
- case 3: src = b; break;
- case 4: src = a; break;
- }
- F x = src * (limit - 1);
-
- // We can't index an array by a float (darn) so we have to snap to nearby integers lo and hi.
- U32 lo = trunc_(x ),
- hi = trunc_(x + 0.9999f);
-
- // Recursively sample at lo and hi.
- F lr = r, lg = g, lb = b,
- hr = r, hg = g, hb = b;
- color_lookup_table<dim-1>(ctx, lr,lg,lb,a, stride*lo + index, stride*limit);
- color_lookup_table<dim-1>(ctx, hr,hg,hb,a, stride*hi + index, stride*limit);
-
- // Linearly interpolate those colors based on their distance to x.
- F t = x - cast(lo);
- r = lerp(lr, hr, t);
- g = lerp(lg, hg, t);
- b = lerp(lb, hb, t);
-}
-
-// Bottom out our recursion at 0 dimensions, i.e. just return the colors at index.
-template<>
-inline void color_lookup_table<0>(const SkJumper_ColorLookupTableCtx* ctx,
- F& r, F& g, F& b, F a, U32 index, U32 stride) {
- r = gather(ctx->table, 3*index+0);
- g = gather(ctx->table, 3*index+1);
- b = gather(ctx->table, 3*index+2);
-}
-
-STAGE(clut_3D, const SkJumper_ColorLookupTableCtx* ctx) {
- color_lookup_table<3>(ctx, r,g,b,a, 0,1);
- // This 3D color lookup table leaves alpha alone.
-}
-STAGE(clut_4D, const SkJumper_ColorLookupTableCtx* ctx) {
- color_lookup_table<4>(ctx, r,g,b,a, 0,1);
- // "a" was really CMYK's K, so we just set alpha opaque.
- a = 1.0f;
-}
-
-STAGE(gauss_a_to_rgba, Ctx::None) {
- // x = 1 - x;
- // exp(-x * x * 4) - 0.018f;
- // ... now approximate with quartic
- //
- const float c4 = -2.26661229133605957031f;
- const float c3 = 2.89795351028442382812f;
- const float c2 = 0.21345567703247070312f;
- const float c1 = 0.15489584207534790039f;
- const float c0 = 0.00030726194381713867f;
- a = mad(a, mad(a, mad(a, mad(a, c4, c3), c2), c1), c0);
- r = a;
- g = a;
- b = a;
-}
-
-// A specialized fused image shader for clamp-x, clamp-y, non-sRGB sampling.
-STAGE(bilerp_clamp_8888, SkJumper_GatherCtx* ctx) {
- // (cx,cy) are the center of our sample.
- F cx = r,
- cy = g;
-
- // All sample points are at the same fractional offset (fx,fy).
- // They're the 4 corners of a logical 1x1 pixel surrounding (x,y) at (0.5,0.5) offsets.
- F fx = fract(cx + 0.5f),
- fy = fract(cy + 0.5f);
-
- // We'll accumulate the color of all four samples into {r,g,b,a} directly.
- r = g = b = a = 0;
-
- for (float dy = -0.5f; dy <= +0.5f; dy += 1.0f)
- for (float dx = -0.5f; dx <= +0.5f; dx += 1.0f) {
- // (x,y) are the coordinates of this sample point.
- F x = cx + dx,
- y = cy + dy;
-
- // ix_and_ptr() will clamp to the image's bounds for us.
- const uint32_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, x,y);
-
- F sr,sg,sb,sa;
- from_8888(gather(ptr, ix), &sr,&sg,&sb,&sa);
-
- // In bilinear interpolation, the 4 pixels at +/- 0.5 offsets from the sample pixel center
- // are combined in direct proportion to their area overlapping that logical query pixel.
- // At positive offsets, the x-axis contribution to that rectangle is fx,
- // or (1-fx) at negative x. Same deal for y.
- F sx = (dx > 0) ? fx : 1.0f - fx,
- sy = (dy > 0) ? fy : 1.0f - fy,
- area = sx * sy;
-
- r += sr * area;
- g += sg * area;
- b += sb * area;
- a += sa * area;
- }
-}
diff --git a/src/jumper/SkJumper_stages_lowp.cpp b/src/jumper/SkJumper_stages_lowp.cpp
deleted file mode 100644
index 0fbf0faba6..0000000000
--- a/src/jumper/SkJumper_stages_lowp.cpp
+++ /dev/null
@@ -1,961 +0,0 @@
-/*
- * Copyright 2017 Google Inc.
- *
- * Use of this source code is governed by a BSD-style license that can be
- * found in the LICENSE file.
- */
-
-// This restricted SkJumper backend works on 8-bit per channel pixels stored in
-// 16-bit channels. This is a last attempt to write a performant low-precision
-// backend with stage definitions that can be shared by x86 and ARM.
-
-#include "SkJumper.h"
-#include "SkJumper_misc.h"
-
-#if defined(__clang__) // This file is empty when not compiled by Clang.
-
-#if defined(__ARM_NEON)
- #include <arm_neon.h>
-#elif defined(__SSE2__)
- #include <immintrin.h>
-#else
- #include <math.h>
-#endif
-
-#if !defined(JUMPER_IS_OFFLINE)
- #define WRAP(name) sk_##name##_lowp
-#elif defined(__AVX2__)
- #define WRAP(name) sk_##name##_hsw_lowp
-#elif defined(__SSE4_1__)
- #define WRAP(name) sk_##name##_sse41_lowp
-#elif defined(__SSE2__)
- #define WRAP(name) sk_##name##_sse2_lowp
-#endif
-
-#if defined(__AVX2__)
- using U8 = uint8_t __attribute__((ext_vector_type(16)));
- using U16 = uint16_t __attribute__((ext_vector_type(16)));
- using I16 = int16_t __attribute__((ext_vector_type(16)));
- using I32 = int32_t __attribute__((ext_vector_type(16)));
- using U32 = uint32_t __attribute__((ext_vector_type(16)));
- using F = float __attribute__((ext_vector_type(16)));
-#else
- using U8 = uint8_t __attribute__((ext_vector_type(8)));
- using U16 = uint16_t __attribute__((ext_vector_type(8)));
- using I16 = int16_t __attribute__((ext_vector_type(8)));
- using I32 = int32_t __attribute__((ext_vector_type(8)));
- using U32 = uint32_t __attribute__((ext_vector_type(8)));
- using F = float __attribute__((ext_vector_type(8)));
-#endif
-
-static const size_t N = sizeof(U16) / sizeof(uint16_t);
-
-// We pass program as the second argument so that load_and_inc() will find it in %rsi on x86-64.
-using Stage = void (ABI*)(size_t tail, void** program, size_t dx, size_t dy,
- U16 r, U16 g, U16 b, U16 a,
- U16 dr, U16 dg, U16 db, U16 da);
-
-extern "C" MAYBE_MSABI void WRAP(start_pipeline)(const size_t x0,
- const size_t y0,
- const size_t xlimit,
- const size_t ylimit,
- void** program) {
- auto start = (Stage)load_and_inc(program);
- for (size_t dy = y0; dy < ylimit; dy++) {
- size_t dx = x0;
- for (; dx + N <= xlimit; dx += N) {
- start( 0,program,dx,dy, 0,0,0,0, 0,0,0,0);
- }
- if (size_t tail = xlimit - dx) {
- start(tail,program,dx,dy, 0,0,0,0, 0,0,0,0);
- }
- }
-}
-
-extern "C" ABI void WRAP(just_return)(size_t,void**,size_t,size_t,
- U16,U16,U16,U16, U16,U16,U16,U16) {}
-
-// All stages use the same function call ABI to chain into each other, but there are three types:
-// GG: geometry in, geometry out -- think, a matrix
-// GP: geometry in, pixels out. -- think, a memory gather
-// PP: pixels in, pixels out. -- think, a blend mode
-//
-// (Some stages ignore their inputs or produce no logical output. That's perfectly fine.)
-//
-// These three STAGE_ macros let you define each type of stage,
-// and will have (x,y) geometry and/or (r,g,b,a, dr,dg,db,da) pixel arguments as appropriate.
-
-#define STAGE_GG(name, ...) \
- SI void name##_k(__VA_ARGS__, size_t dx, size_t dy, size_t tail, F& x, F& y); \
- extern "C" ABI void WRAP(name)(size_t tail, void** program, size_t dx, size_t dy, \
- U16 r, U16 g, U16 b, U16 a, \
- U16 dr, U16 dg, U16 db, U16 da) { \
- auto x = join<F>(r,g), \
- y = join<F>(b,a); \
- name##_k(Ctx{program}, dx,dy,tail, x,y); \
- split(x, &r,&g); \
- split(y, &b,&a); \
- auto next = (Stage)load_and_inc(program); \
- next(tail,program,dx,dy, r,g,b,a, dr,dg,db,da); \
- } \
- SI void name##_k(__VA_ARGS__, size_t dx, size_t dy, size_t tail, F& x, F& y)
-
-#define STAGE_GP(name, ...) \
- SI void name##_k(__VA_ARGS__, size_t dx, size_t dy, size_t tail, F x, F y, \
- U16& r, U16& g, U16& b, U16& a, \
- U16& dr, U16& dg, U16& db, U16& da); \
- extern "C" ABI void WRAP(name)(size_t tail, void** program, size_t dx, size_t dy, \
- U16 r, U16 g, U16 b, U16 a, \
- U16 dr, U16 dg, U16 db, U16 da) { \
- auto x = join<F>(r,g), \
- y = join<F>(b,a); \
- name##_k(Ctx{program}, dx,dy,tail, x,y, r,g,b,a, dr,dg,db,da); \
- auto next = (Stage)load_and_inc(program); \
- next(tail,program,dx,dy, r,g,b,a, dr,dg,db,da); \
- } \
- SI void name##_k(__VA_ARGS__, size_t dx, size_t dy, size_t tail, F x, F y, \
- U16& r, U16& g, U16& b, U16& a, \
- U16& dr, U16& dg, U16& db, U16& da)
-
-#define STAGE_PP(name, ...) \
- SI void name##_k(__VA_ARGS__, size_t dx, size_t dy, size_t tail, \
- U16& r, U16& g, U16& b, U16& a, \
- U16& dr, U16& dg, U16& db, U16& da); \
- extern "C" ABI void WRAP(name)(size_t tail, void** program, size_t dx, size_t dy, \
- U16 r, U16 g, U16 b, U16 a, \
- U16 dr, U16 dg, U16 db, U16 da) { \
- name##_k(Ctx{program}, dx,dy,tail, r,g,b,a, dr,dg,db,da); \
- auto next = (Stage)load_and_inc(program); \
- next(tail,program,dx,dy, r,g,b,a, dr,dg,db,da); \
- } \
- SI void name##_k(__VA_ARGS__, size_t dx, size_t dy, size_t tail, \
- U16& r, U16& g, U16& b, U16& a, \
- U16& dr, U16& dg, U16& db, U16& da)
-
-// ~~~~~~ Commonly used helper functions ~~~~~~ //
-
-SI U16 div255(U16 v) {
-#if 0
- return (v+127)/255; // The ideal rounding divide by 255.
-#else
- return (v+255)/256; // A good approximation of (v+127)/255.
-#endif
-}
-
-SI U16 inv(U16 v) { return 255-v; }
-
-SI U16 if_then_else(I16 c, U16 t, U16 e) { return (t & c) | (e & ~c); }
-SI U32 if_then_else(I32 c, U32 t, U32 e) { return (t & c) | (e & ~c); }
-
-SI U16 max(U16 x, U16 y) { return if_then_else(x < y, y, x); }
-SI U16 min(U16 x, U16 y) { return if_then_else(x < y, x, y); }
-SI U16 max(U16 x, U16 y, U16 z) { return max(x, max(y, z)); }
-SI U16 min(U16 x, U16 y, U16 z) { return min(x, min(y, z)); }
-
-SI U16 from_float(float f) { return f * 255.0f + 0.5f; }
-
-SI U16 lerp(U16 from, U16 to, U16 t) { return div255( from*inv(t) + to*t ); }
-
-template <typename D, typename S>
-SI D cast(S src) {
- return __builtin_convertvector(src, D);
-}
-
-template <typename D, typename S>
-SI void split(S v, D* lo, D* hi) {
- static_assert(2*sizeof(D) == sizeof(S), "");
- memcpy(lo, (const char*)&v + 0*sizeof(D), sizeof(D));
- memcpy(hi, (const char*)&v + 1*sizeof(D), sizeof(D));
-}
-template <typename D, typename S>
-SI D join(S lo, S hi) {
- static_assert(sizeof(D) == 2*sizeof(S), "");
- D v;
- memcpy((char*)&v + 0*sizeof(S), &lo, sizeof(S));
- memcpy((char*)&v + 1*sizeof(S), &hi, sizeof(S));
- return v;
-}
-template <typename V, typename H>
-SI V map(V v, H (*fn)(H)) {
- H lo,hi;
- split(v, &lo,&hi);
- lo = fn(lo);
- hi = fn(hi);
- return join<V>(lo,hi);
-}
-
-// TODO: do we need platform-specific intrinsics for any of these?
-SI F if_then_else(I32 c, F t, F e) {
- return bit_cast<F>( (bit_cast<I32>(t) & c) | (bit_cast<I32>(e) & ~c) );
-}
-SI F max(F x, F y) { return if_then_else(x < y, y, x); }
-SI F min(F x, F y) { return if_then_else(x < y, x, y); }
-
-SI F mad(F f, F m, F a) { return f*m+a; }
-SI U32 trunc_(F x) { return (U32)cast<I32>(x); }
-
-SI F rcp(F x) {
-#if defined(__AVX2__)
- return map(x, _mm256_rcp_ps);
-#elif defined(__SSE__)
- return map(x, _mm_rcp_ps);
-#elif defined(__ARM_NEON)
- return map(x, +[](float32x4_t v) {
- auto est = vrecpeq_f32(v);
- return vrecpsq_f32(v,est)*est;
- });
-#else
- return 1.0f / x;
-#endif
-}
-SI F sqrt_(F x) {
-#if defined(__AVX2__)
- return map(x, _mm256_sqrt_ps);
-#elif defined(__SSE__)
- return map(x, _mm_sqrt_ps);
-#elif defined(__aarch64__)
- return map(x, vsqrtq_f32);
-#elif defined(__ARM_NEON)
- return map(x, +[](float32x4_t v) {
- auto est = vrsqrteq_f32(v); // Estimate and two refinement steps for est = rsqrt(v).
- est *= vrsqrtsq_f32(v,est*est);
- est *= vrsqrtsq_f32(v,est*est);
- return v*est; // sqrt(v) == v*rsqrt(v).
- });
-#else
- return F{
- sqrtf(x[0]), sqrtf(x[1]), sqrtf(x[2]), sqrtf(x[3]),
- sqrtf(x[4]), sqrtf(x[5]), sqrtf(x[6]), sqrtf(x[7]),
- };
-#endif
-}
-
-SI F floor_(F x) {
-#if defined(__aarch64__)
- return map(x, vrndmq_f32);
-#elif defined(__AVX2__)
- return map(x, +[](__m256 v){ return _mm256_floor_ps(v); }); // _mm256_floor_ps is a macro...
-#elif defined(__SSE4_1__)
- return map(x, +[](__m128 v){ return _mm_floor_ps(v); }); // _mm_floor_ps() is a macro too.
-#else
- F roundtrip = cast<F>(cast<I32>(x));
- return roundtrip - if_then_else(roundtrip > x, F(1), F(0));
-#endif
-}
-SI F abs_(F x) { return bit_cast<F>( bit_cast<I32>(x) & 0x7fffffff ); }
-
-// ~~~~~~ Basic / misc. stages ~~~~~~ //
-
-STAGE_GG(seed_shader, const float* iota) {
- x = cast<F>(I32(dx)) + unaligned_load<F>(iota);
- y = cast<F>(I32(dy)) + 0.5f;
-}
-
-STAGE_GG(matrix_translate, const float* m) {
- x += m[0];
- y += m[1];
-}
-STAGE_GG(matrix_scale_translate, const float* m) {
- x = mad(x,m[0], m[2]);
- y = mad(y,m[1], m[3]);
-}
-STAGE_GG(matrix_2x3, const float* m) {
- auto X = mad(x,m[0], mad(y,m[2], m[4])),
- Y = mad(x,m[1], mad(y,m[3], m[5]));
- x = X;
- y = Y;
-}
-STAGE_GG(matrix_perspective, const float* m) {
- // N.B. Unlike the other matrix_ stages, this matrix is row-major.
- auto X = mad(x,m[0], mad(y,m[1], m[2])),
- Y = mad(x,m[3], mad(y,m[4], m[5])),
- Z = mad(x,m[6], mad(y,m[7], m[8]));
- x = X * rcp(Z);
- y = Y * rcp(Z);
-}
-
-STAGE_PP(uniform_color, const SkJumper_UniformColorCtx* c) {
- r = c->rgba[0];
- g = c->rgba[1];
- b = c->rgba[2];
- a = c->rgba[3];
-}
-STAGE_PP(black_color, Ctx::None) { r = g = b = 0; a = 255; }
-STAGE_PP(white_color, Ctx::None) { r = g = b = 255; a = 255; }
-
-STAGE_PP(set_rgb, const float rgb[3]) {
- r = from_float(rgb[0]);
- g = from_float(rgb[1]);
- b = from_float(rgb[2]);
-}
-
-STAGE_PP(clamp_a, Ctx::None) {
- r = min(r, a);
- g = min(g, a);
- b = min(b, a);
-}
-STAGE_PP(clamp_a_dst, Ctx::None) {
- dr = min(dr, da);
- dg = min(dg, da);
- db = min(db, da);
-}
-
-STAGE_PP(premul, Ctx::None) {
- r = div255(r * a);
- g = div255(g * a);
- b = div255(b * a);
-}
-STAGE_PP(premul_dst, Ctx::None) {
- dr = div255(dr * da);
- dg = div255(dg * da);
- db = div255(db * da);
-}
-
-STAGE_PP(force_opaque , Ctx::None) { a = 255; }
-STAGE_PP(force_opaque_dst, Ctx::None) { da = 255; }
-
-STAGE_PP(swap_rb, Ctx::None) {
- auto tmp = r;
- r = b;
- b = tmp;
-}
-
-STAGE_PP(move_src_dst, Ctx::None) {
- dr = r;
- dg = g;
- db = b;
- da = a;
-}
-
-STAGE_PP(move_dst_src, Ctx::None) {
- r = dr;
- g = dg;
- b = db;
- a = da;
-}
-
-STAGE_PP(invert, Ctx::None) {
- r = inv(r);
- g = inv(g);
- b = inv(b);
- a = inv(a);
-}
-
-// ~~~~~~ Blend modes ~~~~~~ //
-
-// The same logic applied to all 4 channels.
-#define BLEND_MODE(name) \
- SI U16 name##_channel(U16 s, U16 d, U16 sa, U16 da); \
- STAGE_PP(name, Ctx::None) { \
- r = name##_channel(r,dr,a,da); \
- g = name##_channel(g,dg,a,da); \
- b = name##_channel(b,db,a,da); \
- a = name##_channel(a,da,a,da); \
- } \
- SI U16 name##_channel(U16 s, U16 d, U16 sa, U16 da)
-
- BLEND_MODE(clear) { return 0; }
- BLEND_MODE(srcatop) { return div255( s*da + d*inv(sa) ); }
- BLEND_MODE(dstatop) { return div255( d*sa + s*inv(da) ); }
- BLEND_MODE(srcin) { return div255( s*da ); }
- BLEND_MODE(dstin) { return div255( d*sa ); }
- BLEND_MODE(srcout) { return div255( s*inv(da) ); }
- BLEND_MODE(dstout) { return div255( d*inv(sa) ); }
- BLEND_MODE(srcover) { return s + div255( d*inv(sa) ); }
- BLEND_MODE(dstover) { return d + div255( s*inv(da) ); }
- BLEND_MODE(modulate) { return div255( s*d ); }
- BLEND_MODE(multiply) { return div255( s*inv(da) + d*inv(sa) + s*d ); }
- BLEND_MODE(plus_) { return min(s+d, 255); }
- BLEND_MODE(screen) { return s + d - div255( s*d ); }
- BLEND_MODE(xor_) { return div255( s*inv(da) + d*inv(sa) ); }
-#undef BLEND_MODE
-
-// The same logic applied to color, and srcover for alpha.
-#define BLEND_MODE(name) \
- SI U16 name##_channel(U16 s, U16 d, U16 sa, U16 da); \
- STAGE_PP(name, Ctx::None) { \
- r = name##_channel(r,dr,a,da); \
- g = name##_channel(g,dg,a,da); \
- b = name##_channel(b,db,a,da); \
- a = a + div255( da*inv(a) ); \
- } \
- SI U16 name##_channel(U16 s, U16 d, U16 sa, U16 da)
-
- BLEND_MODE(darken) { return s + d - div255( max(s*da, d*sa) ); }
- BLEND_MODE(lighten) { return s + d - div255( min(s*da, d*sa) ); }
- BLEND_MODE(difference) { return s + d - 2*div255( min(s*da, d*sa) ); }
- BLEND_MODE(exclusion) { return s + d - 2*div255( s*d ); }
-
- BLEND_MODE(hardlight) {
- return div255( s*inv(da) + d*inv(sa) +
- if_then_else(2*s <= sa, 2*s*d, sa*da - 2*(sa-s)*(da-d)) );
- }
- BLEND_MODE(overlay) {
- return div255( s*inv(da) + d*inv(sa) +
- if_then_else(2*d <= da, 2*s*d, sa*da - 2*(sa-s)*(da-d)) );
- }
-#undef BLEND_MODE
-
-// ~~~~~~ Helpers for interacting with memory ~~~~~~ //
-
-template <typename T>
-SI T* ptr_at_xy(const SkJumper_MemoryCtx* ctx, size_t dx, size_t dy) {
- return (T*)ctx->pixels + dy*ctx->stride + dx;
-}
-
-template <typename T>
-SI U32 ix_and_ptr(T** ptr, const SkJumper_GatherCtx* ctx, F x, F y) {
- auto clamp = [](F v, F limit) {
- limit = bit_cast<F>( bit_cast<U32>(limit) - 1 ); // Exclusive -> inclusive.
- return min(max(0, v), limit);
- };
- x = clamp(x, ctx->width);
- y = clamp(y, ctx->height);
-
- *ptr = (const T*)ctx->pixels;
- return trunc_(y)*ctx->stride + trunc_(x);
-}
-
-template <typename V, typename T>
-SI V load(const T* ptr, size_t tail) {
- V v = 0;
- switch (tail & (N-1)) {
- case 0: memcpy(&v, ptr, sizeof(v)); break;
- #if defined(__AVX2__)
- case 15: v[14] = ptr[14];
- case 14: v[13] = ptr[13];
- case 13: v[12] = ptr[12];
- case 12: memcpy(&v, ptr, 12*sizeof(T)); break;
- case 11: v[10] = ptr[10];
- case 10: v[ 9] = ptr[ 9];
- case 9: v[ 8] = ptr[ 8];
- case 8: memcpy(&v, ptr, 8*sizeof(T)); break;
- #endif
- case 7: v[ 6] = ptr[ 6];
- case 6: v[ 5] = ptr[ 5];
- case 5: v[ 4] = ptr[ 4];
- case 4: memcpy(&v, ptr, 4*sizeof(T)); break;
- case 3: v[ 2] = ptr[ 2];
- case 2: memcpy(&v, ptr, 2*sizeof(T)); break;
- case 1: v[ 0] = ptr[ 0];
- }
- return v;
-}
-template <typename V, typename T>
-SI void store(T* ptr, size_t tail, V v) {
- switch (tail & (N-1)) {
- case 0: memcpy(ptr, &v, sizeof(v)); break;
- #if defined(__AVX2__)
- case 15: ptr[14] = v[14];
- case 14: ptr[13] = v[13];
- case 13: ptr[12] = v[12];
- case 12: memcpy(ptr, &v, 12*sizeof(T)); break;
- case 11: ptr[10] = v[10];
- case 10: ptr[ 9] = v[ 9];
- case 9: ptr[ 8] = v[ 8];
- case 8: memcpy(ptr, &v, 8*sizeof(T)); break;
- #endif
- case 7: ptr[ 6] = v[ 6];
- case 6: ptr[ 5] = v[ 5];
- case 5: ptr[ 4] = v[ 4];
- case 4: memcpy(ptr, &v, 4*sizeof(T)); break;
- case 3: ptr[ 2] = v[ 2];
- case 2: memcpy(ptr, &v, 2*sizeof(T)); break;
- case 1: ptr[ 0] = v[ 0];
- }
-}
-
-#if defined(__AVX2__)
- template <typename V, typename T>
- SI V gather(const T* ptr, U32 ix) {
- return V{ ptr[ix[ 0]], ptr[ix[ 1]], ptr[ix[ 2]], ptr[ix[ 3]],
- ptr[ix[ 4]], ptr[ix[ 5]], ptr[ix[ 6]], ptr[ix[ 7]],
- ptr[ix[ 8]], ptr[ix[ 9]], ptr[ix[10]], ptr[ix[11]],
- ptr[ix[12]], ptr[ix[13]], ptr[ix[14]], ptr[ix[15]], };
- }
-
- template<>
- F gather(const float* p, U32 ix) {
- __m256i lo, hi;
- split(ix, &lo, &hi);
-
- return join<F>(_mm256_i32gather_ps(p, lo, 4),
- _mm256_i32gather_ps(p, hi, 4));
- }
-
- template<>
- U32 gather(const uint32_t* p, U32 ix) {
- __m256i lo, hi;
- split(ix, &lo, &hi);
-
- return join<U32>(_mm256_i32gather_epi32(p, lo, 4),
- _mm256_i32gather_epi32(p, hi, 4));
- }
-#else
- template <typename V, typename T>
- SI V gather(const T* ptr, U32 ix) {
- return V{ ptr[ix[ 0]], ptr[ix[ 1]], ptr[ix[ 2]], ptr[ix[ 3]],
- ptr[ix[ 4]], ptr[ix[ 5]], ptr[ix[ 6]], ptr[ix[ 7]], };
- }
-#endif
-
-
-// ~~~~~~ 32-bit memory loads and stores ~~~~~~ //
-
-SI void from_8888(U32 rgba, U16* r, U16* g, U16* b, U16* a) {
-#if 1 && defined(__AVX2__)
- // Swap the middle 128-bit lanes to make _mm256_packus_epi32() in cast_U16() work out nicely.
- __m256i _01,_23;
- split(rgba, &_01, &_23);
- __m256i _02 = _mm256_permute2x128_si256(_01,_23, 0x20),
- _13 = _mm256_permute2x128_si256(_01,_23, 0x31);
- rgba = join<U32>(_02, _13);
-
- auto cast_U16 = [](U32 v) -> U16 {
- __m256i _02,_13;
- split(v, &_02,&_13);
- return _mm256_packus_epi32(_02,_13);
- };
-#else
- auto cast_U16 = [](U32 v) -> U16 {
- return cast<U16>(v);
- };
-#endif
- *r = cast_U16(rgba & 65535) & 255;
- *g = cast_U16(rgba & 65535) >> 8;
- *b = cast_U16(rgba >> 16) & 255;
- *a = cast_U16(rgba >> 16) >> 8;
-}
-
-SI void load_8888(const uint32_t* ptr, size_t tail, U16* r, U16* g, U16* b, U16* a) {
-#if 1 && defined(__ARM_NEON)
- uint8x8x4_t rgba;
- switch (tail & (N-1)) {
- case 0: rgba = vld4_u8 ((const uint8_t*)(ptr+0) ); break;
- case 7: rgba = vld4_lane_u8((const uint8_t*)(ptr+6), rgba, 6);
- case 6: rgba = vld4_lane_u8((const uint8_t*)(ptr+5), rgba, 5);
- case 5: rgba = vld4_lane_u8((const uint8_t*)(ptr+4), rgba, 4);
- case 4: rgba = vld4_lane_u8((const uint8_t*)(ptr+3), rgba, 3);
- case 3: rgba = vld4_lane_u8((const uint8_t*)(ptr+2), rgba, 2);
- case 2: rgba = vld4_lane_u8((const uint8_t*)(ptr+1), rgba, 1);
- case 1: rgba = vld4_lane_u8((const uint8_t*)(ptr+0), rgba, 0);
- }
- *r = cast<U16>(rgba.val[0]);
- *g = cast<U16>(rgba.val[1]);
- *b = cast<U16>(rgba.val[2]);
- *a = cast<U16>(rgba.val[3]);
-#else
- from_8888(load<U32>(ptr, tail), r,g,b,a);
-#endif
-}
-SI void store_8888(uint32_t* ptr, size_t tail, U16 r, U16 g, U16 b, U16 a) {
-#if 1 && defined(__ARM_NEON)
- uint8x8x4_t rgba = {{
- cast<U8>(r),
- cast<U8>(g),
- cast<U8>(b),
- cast<U8>(a),
- }};
- switch (tail & (N-1)) {
- case 0: vst4_u8 ((uint8_t*)(ptr+0), rgba ); break;
- case 7: vst4_lane_u8((uint8_t*)(ptr+6), rgba, 6);
- case 6: vst4_lane_u8((uint8_t*)(ptr+5), rgba, 5);
- case 5: vst4_lane_u8((uint8_t*)(ptr+4), rgba, 4);
- case 4: vst4_lane_u8((uint8_t*)(ptr+3), rgba, 3);
- case 3: vst4_lane_u8((uint8_t*)(ptr+2), rgba, 2);
- case 2: vst4_lane_u8((uint8_t*)(ptr+1), rgba, 1);
- case 1: vst4_lane_u8((uint8_t*)(ptr+0), rgba, 0);
- }
-#else
- store(ptr, tail, cast<U32>(r | (g<<8)) << 0
- | cast<U32>(b | (a<<8)) << 16);
-#endif
-}
-
-STAGE_PP(load_8888, const SkJumper_MemoryCtx* ctx) {
- load_8888(ptr_at_xy<const uint32_t>(ctx, dx,dy), tail, &r,&g,&b,&a);
-}
-STAGE_PP(load_8888_dst, const SkJumper_MemoryCtx* ctx) {
- load_8888(ptr_at_xy<const uint32_t>(ctx, dx,dy), tail, &dr,&dg,&db,&da);
-}
-STAGE_PP(store_8888, const SkJumper_MemoryCtx* ctx) {
- store_8888(ptr_at_xy<uint32_t>(ctx, dx,dy), tail, r,g,b,a);
-}
-
-STAGE_PP(load_bgra, const SkJumper_MemoryCtx* ctx) {
- load_8888(ptr_at_xy<const uint32_t>(ctx, dx,dy), tail, &b,&g,&r,&a);
-}
-STAGE_PP(load_bgra_dst, const SkJumper_MemoryCtx* ctx) {
- load_8888(ptr_at_xy<const uint32_t>(ctx, dx,dy), tail, &db,&dg,&dr,&da);
-}
-STAGE_PP(store_bgra, const SkJumper_MemoryCtx* ctx) {
- store_8888(ptr_at_xy<uint32_t>(ctx, dx,dy), tail, b,g,r,a);
-}
-
-STAGE_GP(gather_8888, const SkJumper_GatherCtx* ctx) {
- const uint32_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, x,y);
- from_8888(gather<U32>(ptr, ix), &r, &g, &b, &a);
-}
-STAGE_GP(gather_bgra, const SkJumper_GatherCtx* ctx) {
- const uint32_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, x,y);
- from_8888(gather<U32>(ptr, ix), &b, &g, &r, &a);
-}
-
-// ~~~~~~ 16-bit memory loads and stores ~~~~~~ //
-
-SI void from_565(U16 rgb, U16* r, U16* g, U16* b) {
- // Format for 565 buffers: 15|rrrrr gggggg bbbbb|0
- U16 R = (rgb >> 11) & 31,
- G = (rgb >> 5) & 63,
- B = (rgb >> 0) & 31;
-
- // These bit replications are the same as multiplying by 255/31 or 255/63 to scale to 8-bit.
- *r = (R << 3) | (R >> 2);
- *g = (G << 2) | (G >> 4);
- *b = (B << 3) | (B >> 2);
-}
-SI void load_565(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b) {
- from_565(load<U16>(ptr, tail), r,g,b);
-}
-SI void store_565(uint16_t* ptr, size_t tail, U16 r, U16 g, U16 b) {
- // Select the top 5,6,5 bits.
- U16 R = r >> 3,
- G = g >> 2,
- B = b >> 3;
- // Pack them back into 15|rrrrr gggggg bbbbb|0.
- store(ptr, tail, R << 11
- | G << 5
- | B << 0);
-}
-
-STAGE_PP(load_565, const SkJumper_MemoryCtx* ctx) {
- load_565(ptr_at_xy<const uint16_t>(ctx, dx,dy), tail, &r,&g,&b);
- a = 255;
-}
-STAGE_PP(load_565_dst, const SkJumper_MemoryCtx* ctx) {
- load_565(ptr_at_xy<const uint16_t>(ctx, dx,dy), tail, &dr,&dg,&db);
- da = 255;
-}
-STAGE_PP(store_565, const SkJumper_MemoryCtx* ctx) {
- store_565(ptr_at_xy<uint16_t>(ctx, dx,dy), tail, r,g,b);
-}
-STAGE_GP(gather_565, const SkJumper_GatherCtx* ctx) {
- const uint16_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, x,y);
- from_565(gather<U16>(ptr, ix), &r, &g, &b);
- a = 255;
-}
-
-SI void from_4444(U16 rgba, U16* r, U16* g, U16* b, U16* a) {
- // Format for 4444 buffers: 15|rrrr gggg bbbb aaaa|0.
- U16 R = (rgba >> 12) & 15,
- G = (rgba >> 8) & 15,
- B = (rgba >> 4) & 15,
- A = (rgba >> 0) & 15;
-
- // Scale [0,15] to [0,255].
- *r = (R << 4) | R;
- *g = (G << 4) | G;
- *b = (B << 4) | B;
- *a = (A << 4) | A;
-}
-SI void load_4444(const uint16_t* ptr, size_t tail, U16* r, U16* g, U16* b, U16* a) {
- from_4444(load<U16>(ptr, tail), r,g,b,a);
-}
-SI void store_4444(uint16_t* ptr, size_t tail, U16 r, U16 g, U16 b, U16 a) {
- // Select the top 4 bits of each.
- U16 R = r >> 4,
- G = g >> 4,
- B = b >> 4,
- A = a >> 4;
- // Pack them back into 15|rrrr gggg bbbb aaaa|0.
- store(ptr, tail, R << 12
- | G << 8
- | B << 4
- | A << 0);
-}
-
-STAGE_PP(load_4444, const SkJumper_MemoryCtx* ctx) {
- load_4444(ptr_at_xy<const uint16_t>(ctx, dx,dy), tail, &r,&g,&b,&a);
-}
-STAGE_PP(load_4444_dst, const SkJumper_MemoryCtx* ctx) {
- load_4444(ptr_at_xy<const uint16_t>(ctx, dx,dy), tail, &dr,&dg,&db,&da);
-}
-STAGE_PP(store_4444, const SkJumper_MemoryCtx* ctx) {
- store_4444(ptr_at_xy<uint16_t>(ctx, dx,dy), tail, r,g,b,a);
-}
-STAGE_GP(gather_4444, const SkJumper_GatherCtx* ctx) {
- const uint16_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, x,y);
- from_4444(gather<U16>(ptr, ix), &r,&g,&b,&a);
-}
-
-// ~~~~~~ 8-bit memory loads and stores ~~~~~~ //
-
-SI U16 load_8(const uint8_t* ptr, size_t tail) {
- return cast<U16>(load<U8>(ptr, tail));
-}
-SI void store_8(uint8_t* ptr, size_t tail, U16 v) {
- store(ptr, tail, cast<U8>(v));
-}
-
-STAGE_PP(load_a8, const SkJumper_MemoryCtx* ctx) {
- r = g = b = 0;
- a = load_8(ptr_at_xy<const uint8_t>(ctx, dx,dy), tail);
-}
-STAGE_PP(load_a8_dst, const SkJumper_MemoryCtx* ctx) {
- dr = dg = db = 0;
- da = load_8(ptr_at_xy<const uint8_t>(ctx, dx,dy), tail);
-}
-STAGE_PP(store_a8, const SkJumper_MemoryCtx* ctx) {
- store_8(ptr_at_xy<uint8_t>(ctx, dx,dy), tail, a);
-}
-STAGE_GP(gather_a8, const SkJumper_GatherCtx* ctx) {
- const uint8_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, x,y);
- r = g = b = 0;
- a = cast<U16>(gather<U8>(ptr, ix));
-}
-
-STAGE_PP(load_g8, const SkJumper_MemoryCtx* ctx) {
- r = g = b = load_8(ptr_at_xy<const uint8_t>(ctx, dx,dy), tail);
- a = 255;
-}
-STAGE_PP(load_g8_dst, const SkJumper_MemoryCtx* ctx) {
- dr = dg = db = load_8(ptr_at_xy<const uint8_t>(ctx, dx,dy), tail);
- da = 255;
-}
-STAGE_PP(luminance_to_alpha, Ctx::None) {
- a = (r*54 + g*183 + b*19)/256; // 0.2126, 0.7152, 0.0722 with 256 denominator.
- r = g = b = 0;
-}
-STAGE_GP(gather_g8, const SkJumper_GatherCtx* ctx) {
- const uint8_t* ptr;
- U32 ix = ix_and_ptr(&ptr, ctx, x,y);
- r = g = b = cast<U16>(gather<U8>(ptr, ix));
- a = 255;
-}
-
-// ~~~~~~ Coverage scales / lerps ~~~~~~ //
-
-STAGE_PP(scale_1_float, const float* f) {
- U16 c = from_float(*f);
- r = div255( r * c );
- g = div255( g * c );
- b = div255( b * c );
- a = div255( a * c );
-}
-STAGE_PP(lerp_1_float, const float* f) {
- U16 c = from_float(*f);
- r = lerp(dr, r, c);
- g = lerp(dg, g, c);
- b = lerp(db, b, c);
- a = lerp(da, a, c);
-}
-
-STAGE_PP(scale_u8, const SkJumper_MemoryCtx* ctx) {
- U16 c = load_8(ptr_at_xy<const uint8_t>(ctx, dx,dy), tail);
- r = div255( r * c );
- g = div255( g * c );
- b = div255( b * c );
- a = div255( a * c );
-}
-STAGE_PP(lerp_u8, const SkJumper_MemoryCtx* ctx) {
- U16 c = load_8(ptr_at_xy<const uint8_t>(ctx, dx,dy), tail);
- r = lerp(dr, r, c);
- g = lerp(dg, g, c);
- b = lerp(db, b, c);
- a = lerp(da, a, c);
-}
-
-// Derive alpha's coverage from rgb coverage and the values of src and dst alpha.
-SI U16 alpha_coverage_from_rgb_coverage(U16 a, U16 da, U16 cr, U16 cg, U16 cb) {
- return if_then_else(a < da, min(cr,cg,cb)
- , max(cr,cg,cb));
-}
-STAGE_PP(scale_565, const SkJumper_MemoryCtx* ctx) {
- U16 cr,cg,cb;
- load_565(ptr_at_xy<const uint16_t>(ctx, dx,dy), tail, &cr,&cg,&cb);
- U16 ca = alpha_coverage_from_rgb_coverage(a,da, cr,cg,cb);
-
- r = div255( r * cr );
- g = div255( g * cg );
- b = div255( b * cb );
- a = div255( a * ca );
-}
-STAGE_PP(lerp_565, const SkJumper_MemoryCtx* ctx) {
- U16 cr,cg,cb;
- load_565(ptr_at_xy<const uint16_t>(ctx, dx,dy), tail, &cr,&cg,&cb);
- U16 ca = alpha_coverage_from_rgb_coverage(a,da, cr,cg,cb);
-
- r = lerp(dr, r, cr);
- g = lerp(dg, g, cg);
- b = lerp(db, b, cb);
- a = lerp(da, a, ca);
-}
-
-// ~~~~~~ Gradient stages ~~~~~~ //
-
-// Clamp x to [0,1], both sides inclusive (think, gradients).
-// Even repeat and mirror funnel through a clamp to handle bad inputs like +Inf, NaN.
-SI F clamp_01(F v) { return min(max(0, v), 1); }
-
-STAGE_GG(clamp_x_1 , Ctx::None) { x = clamp_01(x); }
-STAGE_GG(repeat_x_1, Ctx::None) { x = clamp_01(x - floor_(x)); }
-STAGE_GG(mirror_x_1, Ctx::None) {
- auto two = [](F x){ return x+x; };
- x = clamp_01(abs_( (x-1.0f) - two(floor_((x-1.0f)*0.5f)) - 1.0f ));
-}
-
-SI I16 cond_to_mask_16(I32 cond) { return cast<I16>(cond); }
-
-STAGE_GG(decal_x, SkJumper_DecalTileCtx* ctx) {
- auto w = ctx->limit_x;
- unaligned_store(ctx->mask, cond_to_mask_16((0 <= x) & (x < w)));
-}
-STAGE_GG(decal_y, SkJumper_DecalTileCtx* ctx) {
- auto h = ctx->limit_y;
- unaligned_store(ctx->mask, cond_to_mask_16((0 <= y) & (y < h)));
-}
-STAGE_GG(decal_x_and_y, SkJumper_DecalTileCtx* ctx) {
- auto w = ctx->limit_x;
- auto h = ctx->limit_y;
- unaligned_store(ctx->mask, cond_to_mask_16((0 <= x) & (x < w) & (0 <= y) & (y < h)));
-}
-STAGE_PP(check_decal_mask, SkJumper_DecalTileCtx* ctx) {
- auto mask = unaligned_load<U16>(ctx->mask);
- r = r & mask;
- g = g & mask;
- b = b & mask;
- a = a & mask;
-}
-
-
-SI U16 round_F_to_U16(F x) { return cast<U16>(x * 255.0f + 0.5f); }
-
-SI void gradient_lookup(const SkJumper_GradientCtx* c, U32 idx, F t,
- U16* r, U16* g, U16* b, U16* a) {
-
- F fr, fg, fb, fa, br, bg, bb, ba;
-#if defined(__AVX2__)
- if (c->stopCount <=8) {
- __m256i lo, hi;
- split(idx, &lo, &hi);
-
- fr = join<F>(_mm256_permutevar8x32_ps(_mm256_loadu_ps(c->fs[0]), lo),
- _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->fs[0]), hi));
- br = join<F>(_mm256_permutevar8x32_ps(_mm256_loadu_ps(c->bs[0]), lo),
- _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->bs[0]), hi));
- fg = join<F>(_mm256_permutevar8x32_ps(_mm256_loadu_ps(c->fs[1]), lo),
- _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->fs[1]), hi));
- bg = join<F>(_mm256_permutevar8x32_ps(_mm256_loadu_ps(c->bs[1]), lo),
- _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->bs[1]), hi));
- fb = join<F>(_mm256_permutevar8x32_ps(_mm256_loadu_ps(c->fs[2]), lo),
- _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->fs[2]), hi));
- bb = join<F>(_mm256_permutevar8x32_ps(_mm256_loadu_ps(c->bs[2]), lo),
- _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->bs[2]), hi));
- fa = join<F>(_mm256_permutevar8x32_ps(_mm256_loadu_ps(c->fs[3]), lo),
- _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->fs[3]), hi));
- ba = join<F>(_mm256_permutevar8x32_ps(_mm256_loadu_ps(c->bs[3]), lo),
- _mm256_permutevar8x32_ps(_mm256_loadu_ps(c->bs[3]), hi));
- } else
-#endif
- {
- fr = gather<F>(c->fs[0], idx);
- fg = gather<F>(c->fs[1], idx);
- fb = gather<F>(c->fs[2], idx);
- fa = gather<F>(c->fs[3], idx);
- br = gather<F>(c->bs[0], idx);
- bg = gather<F>(c->bs[1], idx);
- bb = gather<F>(c->bs[2], idx);
- ba = gather<F>(c->bs[3], idx);
- }
- *r = round_F_to_U16(mad(t, fr, br));
- *g = round_F_to_U16(mad(t, fg, bg));
- *b = round_F_to_U16(mad(t, fb, bb));
- *a = round_F_to_U16(mad(t, fa, ba));
-}
-
-STAGE_GP(gradient, const SkJumper_GradientCtx* c) {
- auto t = x;
- U32 idx = 0;
-
- // N.B. The loop starts at 1 because idx 0 is the color to use before the first stop.
- for (size_t i = 1; i < c->stopCount; i++) {
- idx += if_then_else(t >= c->ts[i], U32(1), U32(0));
- }
-
- gradient_lookup(c, idx, t, &r, &g, &b, &a);
-}
-
-STAGE_GP(evenly_spaced_gradient, const SkJumper_GradientCtx* c) {
- auto t = x;
- auto idx = trunc_(t * (c->stopCount-1));
- gradient_lookup(c, idx, t, &r, &g, &b, &a);
-}
-
-STAGE_GP(evenly_spaced_2_stop_gradient, const void* ctx) {
- // TODO: Rename Ctx SkJumper_EvenlySpaced2StopGradientCtx.
- struct Ctx { float f[4], b[4]; };
- auto c = (const Ctx*)ctx;
-
- auto t = x;
- r = round_F_to_U16(mad(t, c->f[0], c->b[0]));
- g = round_F_to_U16(mad(t, c->f[1], c->b[1]));
- b = round_F_to_U16(mad(t, c->f[2], c->b[2]));
- a = round_F_to_U16(mad(t, c->f[3], c->b[3]));
-}
-
-STAGE_GG(xy_to_unit_angle, Ctx::None) {
- F xabs = abs_(x),
- yabs = abs_(y);
-
- F slope = min(xabs, yabs)/max(xabs, yabs);
- F s = slope * slope;
-
- // Use a 7th degree polynomial to approximate atan.
- // This was generated using sollya.gforge.inria.fr.
- // A float optimized polynomial was generated using the following command.
- // P1 = fpminimax((1/(2*Pi))*atan(x),[|1,3,5,7|],[|24...|],[2^(-40),1],relative);
- F phi = slope
- * (0.15912117063999176025390625f + s
- * (-5.185396969318389892578125e-2f + s
- * (2.476101927459239959716796875e-2f + s
- * (-7.0547382347285747528076171875e-3f))));
-
- phi = if_then_else(xabs < yabs, 1.0f/4.0f - phi, phi);
- phi = if_then_else(x < 0.0f , 1.0f/2.0f - phi, phi);
- phi = if_then_else(y < 0.0f , 1.0f - phi , phi);
- phi = if_then_else(phi != phi , 0 , phi); // Check for NaN.
- x = phi;
-}
-STAGE_GG(xy_to_radius, Ctx::None) {
- x = sqrt_(x*x + y*y);
-}
-
-// ~~~~~~ Compound stages ~~~~~~ //
-
-STAGE_PP(srcover_rgba_8888, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<uint32_t>(ctx, dx,dy);
-
- load_8888(ptr, tail, &dr,&dg,&db,&da);
- r = r + div255( dr*inv(a) );
- g = g + div255( dg*inv(a) );
- b = b + div255( db*inv(a) );
- a = a + div255( da*inv(a) );
- store_8888(ptr, tail, r,g,b,a);
-}
-STAGE_PP(srcover_bgra_8888, const SkJumper_MemoryCtx* ctx) {
- auto ptr = ptr_at_xy<uint32_t>(ctx, dx,dy);
-
- load_8888(ptr, tail, &db,&dg,&dr,&da);
- r = r + div255( dr*inv(a) );
- g = g + div255( dg*inv(a) );
- b = b + div255( db*inv(a) );
- a = a + div255( da*inv(a) );
- store_8888(ptr, tail, b,g,r,a);
-}
-
-#endif//defined(__clang__)
diff --git a/src/jumper/build_stages.py b/src/jumper/build_stages.py
deleted file mode 100755
index d4d598264a..0000000000
--- a/src/jumper/build_stages.py
+++ /dev/null
@@ -1,261 +0,0 @@
-#!/usr/bin/env python2.7
-#
-# Copyright 2017 Google Inc.
-#
-# Use of this source code is governed by a BSD-style license that can be
-# found in the LICENSE file.
-
-import re
-import subprocess
-import sys
-
-clang = 'clang-5.0'
-objdump = 'gobjdump'
-ccache = 'ccache'
-stages = 'src/jumper/SkJumper_stages.cpp'
-stages_lowp = 'src/jumper/SkJumper_stages_lowp.cpp'
-generated = 'src/jumper/SkJumper_generated.S'
-generated_win = 'src/jumper/SkJumper_generated_win.S'
-
-clang = sys.argv[1] if len(sys.argv) > 1 else clang
-objdump = sys.argv[2] if len(sys.argv) > 2 else objdump
-ccache = sys.argv[3] if len(sys.argv) > 3 else ccache
-stages = sys.argv[4] if len(sys.argv) > 4 else stages
-stages_lowp = sys.argv[5] if len(sys.argv) > 5 else stages_lowp
-generated = sys.argv[6] if len(sys.argv) > 6 else generated
-generated_win = sys.argv[7] if len(sys.argv) > 7 else generated_win
-
-clang = [ccache, clang, '-x', 'c++']
-
-
-cflags = ['-std=c++11', '-Os', '-DJUMPER_IS_OFFLINE',
- '-momit-leaf-frame-pointer', '-ffp-contract=fast',
- '-fno-exceptions', '-fno-rtti', '-fno-unwind-tables']
-
-x86 = [ '-m32' ]
-win = ['-DWIN', '-mno-red-zone']
-sse2 = ['-msse2', '-mno-sse3', '-mno-ssse3', '-mno-sse4.1']
-subprocess.check_call(clang + cflags + sse2 +
- ['-c', stages] +
- ['-o', 'sse2.o'])
-subprocess.check_call(clang + cflags + sse2 + win +
- ['-c', stages] +
- ['-o', 'win_sse2.o'])
-subprocess.check_call(clang + cflags + sse2 + x86 +
- ['-c', stages] +
- ['-o', 'x86_sse2.o'])
-subprocess.check_call(clang + cflags + sse2 + win + x86 +
- ['-c', stages] +
- ['-o', 'win_x86_sse2.o'])
-
-subprocess.check_call(clang + cflags + sse2 +
- ['-c', stages_lowp] +
- ['-o', 'lowp_sse2.o'])
-subprocess.check_call(clang + cflags + sse2 + win +
- ['-c', stages_lowp] +
- ['-o', 'win_lowp_sse2.o'])
-subprocess.check_call(clang + cflags + sse2 + x86 +
- ['-c', stages_lowp] +
- ['-o', 'x86_lowp_sse2.o'])
-subprocess.check_call(clang + cflags + sse2 + win + x86 +
- ['-c', stages_lowp] +
- ['-o', 'win_x86_lowp_sse2.o'])
-
-sse41 = ['-msse4.1']
-subprocess.check_call(clang + cflags + sse41 +
- ['-c', stages] +
- ['-o', 'sse41.o'])
-subprocess.check_call(clang + cflags + sse41 + win +
- ['-c', stages] +
- ['-o', 'win_sse41.o'])
-
-subprocess.check_call(clang + cflags + sse41 +
- ['-c', stages_lowp] +
- ['-o', 'lowp_sse41.o'])
-subprocess.check_call(clang + cflags + sse41 + win +
- ['-c', stages_lowp] +
- ['-o', 'win_lowp_sse41.o'])
-
-avx = ['-mavx']
-subprocess.check_call(clang + cflags + avx +
- ['-c', stages] +
- ['-o', 'avx.o'])
-subprocess.check_call(clang + cflags + avx + win +
- ['-c', stages] +
- ['-o', 'win_avx.o'])
-
-hsw = ['-mavx2', '-mfma', '-mf16c']
-subprocess.check_call(clang + cflags + hsw +
- ['-c', stages] +
- ['-o', 'hsw.o'])
-subprocess.check_call(clang + cflags + hsw + win +
- ['-c', stages] +
- ['-o', 'win_hsw.o'])
-
-subprocess.check_call(clang + cflags + hsw +
- ['-c', stages_lowp] +
- ['-o', 'lowp_hsw.o'])
-subprocess.check_call(clang + cflags + hsw + win +
- ['-c', stages_lowp] +
- ['-o', 'win_lowp_hsw.o'])
-
-skx = ['-march=skylake-avx512']
-subprocess.check_call(clang + cflags + skx +
- ['-c', stages] +
- ['-o', 'skx.o'])
-
-# Merge x86-64 object files to deduplicate constants.
-# (No other platform has more than one specialization.)
-subprocess.check_call(['ld', '-r', '-o', 'merged.o',
- 'skx.o', 'hsw.o', 'avx.o', 'sse41.o', 'sse2.o',
- 'lowp_hsw.o', 'lowp_sse41.o', 'lowp_sse2.o'])
-subprocess.check_call(['ld', '-r', '-o', 'win_merged.o',
- 'win_hsw.o', 'win_avx.o', 'win_sse41.o', 'win_sse2.o',
- 'win_lowp_hsw.o', 'win_lowp_sse41.o', 'win_lowp_sse2.o'])
-
-subprocess.check_call(['ld', '-r', '-o', 'x86_merged.o',
- 'x86_sse2.o',
- 'x86_lowp_sse2.o'])
-subprocess.check_call(['ld', '-r', '-o', 'win_x86_merged.o',
- 'win_x86_sse2.o',
- 'win_x86_lowp_sse2.o'])
-
-def parse_object_file(dot_o, directive, target=None):
- globl, hidden, label, comment, align = \
- '.globl', 'HIDDEN', ':', '// ', 'BALIGN'
- if 'win' in dot_o:
- globl, hidden, label, comment, align = \
- 'PUBLIC', '', ' LABEL PROC', '; ', 'ALIGN '
-
- cmd = [objdump]
- if target:
- cmd += ['--target', target]
-
- # Look for sections we know we can't handle.
- section_headers = subprocess.check_output(cmd + ['-h', dot_o])
- for snippet in ['.rodata']:
- if snippet in section_headers:
- print >>sys.stderr, 'Found %s in section.' % snippet
- assert snippet not in section_headers
-
- if directive == '.long':
- disassemble = ['-d', dot_o]
- dehex = lambda h: '0x'+h
- else:
- # x86-64... as long as we're using %rip-relative addressing,
- # literal sections should be fine to just dump in with .text.
- disassemble = ['-d', # DO NOT USE -D.
- '-z', # Print zero bytes instead of ...
- '--insn-width=11',
- '-j', '.text',
- '-j', '.literal4',
- '-j', '.literal8',
- '-j', '.literal16',
- '-j', '.const',
- dot_o]
- dehex = lambda h: str(int(h,16))
-
- # Ok. Let's disassemble.
- for line in subprocess.check_output(cmd + disassemble).split('\n'):
- line = line.strip()
-
- if not line or line.startswith(dot_o) or line.startswith('Disassembly'):
- continue
-
- # E.g. 00000000000003a4 <_load_f16>:
- m = re.match('''[0-9a-f]+ <_?(.*)>:''', line)
- if m:
- print
- sym = m.group(1)
- if sym.startswith('.literal'): # .literal4, .literal16, etc
- print sym.replace('.literal', align)
- elif sym.startswith('.const'): # 32-byte constants
- print align + '32'
- elif not sym.startswith('sk_'):
- print >>sys.stderr, "build_stages.py can't handle '%s' (yet?)." % sym
- assert sym.startswith('sk_')
- else: # a stage function
- if hidden:
- print hidden + ' _' + sym
- print globl + ' _' + sym
- if 'win' not in dot_o:
- print 'FUNCTION(_' + sym + ')'
- print '_' + sym + label
- continue
-
- columns = line.split('\t')
- #print >>sys.stderr, columns
- code = columns[1]
- if len(columns) >= 4:
- inst = columns[2]
- args = columns[3]
- else:
- inst, args = columns[2], ''
- if ' ' in columns[2]:
- inst, args = columns[2].split(' ', 1)
- code, inst, args = code.strip(), inst.strip(), args.strip()
-
- hexed = ','.join(dehex(x) for x in code.split(' '))
- print ' ' + directive + ' ' + hexed + ' '*(36-len(hexed)) + \
- comment + inst + (' '*(14-len(inst)) + args if args else '')
-
-sys.stdout = open(generated, 'w')
-
-print '''# Copyright 2017 Google Inc.
-#
-# Use of this source code is governed by a BSD-style license that can be
-# found in the LICENSE file.
-
-# This file is generated semi-automatically with this command:
-# $ src/jumper/build_stages.py
-'''
-print '#if defined(__MACH__)'
-print ' #define HIDDEN .private_extern'
-print ' #define FUNCTION(name)'
-print ' #define BALIGN4 .align 2'
-print ' #define BALIGN8 .align 3'
-print ' #define BALIGN16 .align 4'
-print ' #define BALIGN32 .align 5'
-print '#else'
-print ' .section .note.GNU-stack,"",%progbits'
-print ' #define HIDDEN .hidden'
-print ' #define FUNCTION(name) .type name,%function'
-print ' #define BALIGN4 .balign 4'
-print ' #define BALIGN8 .balign 8'
-print ' #define BALIGN16 .balign 16'
-print ' #define BALIGN32 .balign 32'
-print '#endif'
-
-print '.text'
-print '#if defined(__x86_64__)'
-print 'BALIGN32'
-parse_object_file('merged.o', '.byte')
-
-print '#elif defined(__i386__)'
-print 'BALIGN32'
-parse_object_file('x86_merged.o', '.byte')
-
-print '#endif'
-
-sys.stdout = open(generated_win, 'w')
-print '''; Copyright 2017 Google Inc.
-;
-; Use of this source code is governed by a BSD-style license that can be
-; found in the LICENSE file.
-
-; This file is generated semi-automatically with this command:
-; $ src/jumper/build_stages.py
-'''
-print 'IFDEF RAX'
-print "_text32 SEGMENT ALIGN(32) 'CODE'"
-print 'ALIGN 32'
-parse_object_file('win_merged.o', 'DB')
-
-print 'ELSE'
-print '.MODEL FLAT,C'
-print "_text32 SEGMENT ALIGN(32) 'CODE'"
-print 'ALIGN 32'
-parse_object_file('win_x86_merged.o', 'DB')
-
-print 'ENDIF'
-print 'END'